Ce document décrit comment Auto-RP fonctionne sur Cisco Nexus 9000 avec NX-OS et comment valider et dépanner le fonctionnement de la multidiffusion.
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. Si votre réseau est en ligne, assurez-vous de bien comprendre l’incidence possible des commandes.
La multidiffusion est un modèle de communication un-à-plusieurs dans lequel une source envoie un flux de trafic unique à plusieurs récepteurs intéressés. Au lieu de créer une copie distincte pour chaque destination, le réseau réplique le trafic uniquement là où le chemin de transfert bifurque. Cela rend la multidiffusion plus efficace que les transmissions de diffusion ou de monodiffusion répétée. Dans IPv4, le trafic de multidiffusion utilise des adresses de destination de la plage 224.0.0.0/4.
PIM Sparse Mode est le modèle de routage multicast pris en charge sur les commutateurs Cisco Nexus exécutant NX-OS. Il transfère le trafic uniquement lorsque l'intérêt du récepteur a été explicitement appris. Dans une conception de multidiffusion Any-Source, les récepteurs rejoignent initialement une arborescence partagée vers le point de rendez-vous, et les sources s'enregistrent auprès de ce RP. Une fois que le trafic commence à circuler, le routeur du dernier saut peut passer de l’arborescence partagée à l’arborescence du plus court chemin vers la source.
Il est important de définir la terminologie utilisée dans la multidiffusion, car un dépannage précis dépend de la compréhension de la manière dont les événements du plan de contrôle, les entrées de routage et les décisions de transfert sont représentés. Une terminologie claire permet d'interpréter correctement les résultats des commandes, de distinguer le comportement de l'arborescence partagée du comportement de l'arborescence source et d'identifier le rôle de chaque composant de multidiffusion dans le processus de transfert de bout en bout.
| Terme | Définition |
|---|---|
| Adresse du groupe multidiffusion | Adresse de destination IPv4 dans la plage 224.0.0.0/4 utilisée pour identifier un groupe de multidiffusion. |
| Adresse source | Adresse IP de monodiffusion de l'expéditeur transmettant le trafic à un groupe de multidiffusion. |
| mroute | Entrée de routage de multidiffusion qui définit la manière dont le trafic de multidiffusion pour un groupe ou une combinaison de groupe source est géré. |
| IIF | Interface entrante. Interface sur laquelle le trafic de multidiffusion est attendu. |
| OIF | Interface de sortie. Interface utilisée pour transférer le trafic de multidiffusion vers des récepteurs ou des voisins en aval. |
| HUILE | Liste des interfaces sortantes. Ensemble d'interfaces sortantes associées à une entrée de routage de multidiffusion. |
| RPF | Transfert de chemin inverse. Contrôle qui vérifie si le trafic de multidiffusion est arrivé sur la bonne interface en fonction de la route de monodiffusion vers la source ou le RP. |
| HAR | Arborescence de distribution multidiffusion. Arborescence logique qui transporte le trafic de multidiffusion de la source vers tous les récepteurs. |
| RPT | Arbre RP, également appelé arbre partagé. Il connecte les récepteurs au RP et est représenté par (*, G). |
| SPT | L'arborescence du plus court chemin, également appelée arborescence source. Il connecte les récepteurs directement à la source et est représenté par (S, G). |
| FHR | Routeur de premier saut. Le routeur de multidiffusion directement connecté à la source et responsable de l'enregistrement de la source auprès du RP. |
| LHR | Routeur de dernier saut. Le routeur multicast connecté directement aux récepteurs et responsable de la création de l'état multicast après avoir appris l'intérêt du récepteur via IGMP. |
| RP | Point de rendez-vous. Point de réunion logique utilisé en mode intermédiaire ASM et PIM pour connecter initialement des sources et des récepteurs. |
| ASM | Multidiffusion À Toutes Les Sources. Modèle de multidiffusion dans lequel les récepteurs rejoignent un groupe sans spécifier la source à l'avance. |
Il est important de comprendre les adresses de multidiffusion réservées connues, car le dépannage de la multidiffusion dépend de l’identification rapide du protocole de contrôle qui utilise un groupe de destinations donné et de la fonction que le trafic remplit sur le réseau. Ces adresses permettent de distinguer un fonctionnement normal du protocole d'un comportement anormal et facilitent la validation des échanges IGMP, PIM et Auto-RP. Pour l'Auto-RP en particulier, les groupes les plus importants à reconnaître sont 224.0.1.39 pour RP-Announce et 224.0.1.40 pour RP-Discovery, car ils transportent les informations qui permettent aux routeurs d'apprendre les mappages dynamiques RP.
| Adresse de multidiffusion | Objectif |
|---|---|
| 224.0.0.1 | Tous les hôtes du sous-réseau local |
| 224.0.0.2 | Tous les routeurs du sous-réseau local |
| 224.0.0.13 | Tous les routeurs PIM |
| 224.0.0.22 | Messages IGMPv3 |
| 224.0.1.39 | Messages d'annonce RP Cisco utilisés par Auto-RP |
| 224.0.1.40 | Messages Cisco RP-Discovery utilisés par Auto-RP |
Auto-RP est un mécanisme Cisco utilisé en mode intermédiaire de multidiffusion indépendante du protocole pour détecter et distribuer dynamiquement les informations de point de rendez-vous (RP) dans le domaine de multidiffusion. Il élimine le besoin de configuration RP statique en utilisant des messages de plan de contrôle basés sur la multidiffusion pour annoncer, sélectionner et apprendre les mappages RP-à-groupe. Ses principaux composants sont les RP candidats, qui offrent des services RP pour des plages de groupes spécifiques, et les agents de mappage, qui collectent les candidats et décident du RP actif par groupe.
Le processus commence lorsque chaque RP candidat envoie périodiquement des messages RP-Announce à 224.0.1.39, y compris son adresse IP, sa priorité et les plages de groupes de multidiffusion prises en charge. Ces messages sont diffusés sur tout le réseau à l'aide de l'écouteur Auto-RP dans NX-OS, ce qui garantit que tous les agents de mappage les reçoivent avant même que le réseau fonctionne entièrement en mode intermédiaire.
Les agents de mappage écoutent ces annonces, créent une base de données RP candidate et effectuent un processus de sélection déterministe par groupe (généralement la priorité la plus élevée, puis l'adresse IP la plus élevée). Une fois que le meilleur RP est choisi, l'agent de mappage génère des messages RP-Discovery et les envoie à 224.0.1.40, annonçant les mappages RP-to-group finaux à tous les routeurs du domaine.
Tous les routeurs PIM reçoivent les messages RP-Discovery et installent les mappages dans leurs tables RP locales. Avec ces informations, les routeurs de dernier saut (connectés aux récepteurs) envoient des messages PIM Join vers le RP sélectionné pour construire l'arborescence partagée (RPT), tandis que les routeurs de premier saut (connectés aux sources) encapsulent le trafic de multidiffusion dans les messages PIM Register pour informer le RP des sources actives.
À mesure que le trafic circule dans le RP, les routeurs peuvent en option passer de l'arborescence partagée (RPT) à une arborescence du plus court chemin (SPT) en utilisant la signalisation PIM Join/Prune supplémentaire directement vers la source. Tout au long de ce processus, Auto-RP actualise continuellement les mappages via des messages de contrôle périodiques, garantissant la résilience et l'adaptation automatique à la topologie ou aux modifications RP.
Fonctionnement d'Auto-RP en mode intermédiaire PIM (workflow du plan de contrôle)
Le transfert multichemin basé sur ECMP est activé par défaut, ce qui permet au trafic multidiffusion d'utiliser des chemins à coût égal pour l'équilibrage de charge.
L'authentification de voisin PIM utilisant IPsec AH-MD5 est prise en charge.
La surveillance PIM n'est pas disponible.
L'Auto-RP fournit une découverte dynamique RP et une distribution de mappage RP centralisée pour les environnements de multidiffusion PIM Sparse Mode. Il élimine le besoin de configuration RP statique sur chaque routeur multidiffusion, réduit la complexité opérationnelle et améliore l'évolutivité multidiffusion. Auto-RP prend également en charge plusieurs RP-Candidates, ce qui permet le basculement et la redondance automatiques du RP. Ce mécanisme permet de maintenir un comportement de transfert multidiffusion cohérent, simplifie l'extension du réseau et permet aux routeurs multidiffusion d'apprendre automatiquement les informations RP sur l'ensemble du domaine.
Le processus de sélection dans Auto-RP est déterministe et principalement basé sur les adresses IP. Contrairement à d'autres protocoles (tels que PIMv2 BSR), Auto-RP n'utilise pas de valeur de « priorité » configurable ; au lieu de cela, il s'appuie sur la hiérarchie des adresses IP pour résoudre les conflits.
Dans Auto-RP, plusieurs agents de mappage peuvent coexister dans le même réseau pour la redondance. Il n'y a pas de processus électoral formel où l'un s'éteint et l'autre s'allume ; tous sont techniquement actifs. Cependant, les commutateurs du réseau doivent décider des informations auxquelles ils doivent faire confiance.
Ce processus est effectué par l'agent de mappage après avoir écouté tous les messages RP-Announce (envoyés au groupe 224.0.1.39) des candidats.
Lorsque l'agent de mappage reçoit plusieurs candidats pour le même groupe de multidiffusion, il applique ces règles dans l'ordre suivant :
Règle A : Correspondance de préfixe la plus longue (masque le plus spécifique)
Si les candidats annoncent des plages qui se chevauchent, l’EM attribue le groupe au RP qui a annoncé la plage la plus petite (le masque de sous-réseau le plus long).
Règle B : Adresse IP la plus élevée (Interrupteur de connexion)
Si deux candidats ou plus annoncent exactement la même plage de groupes, l'agent de mappage ne doit en choisir qu'un seul.
Bien que cet article se concentre sur la multidiffusion de couche 3 utilisant le protocole PIM, le comportement de couche 2 joue un rôle essentiel dans le dépannage et la conception globale. Au niveau de la couche 2, les périphériques communiquent à l'aide d'adresses MAC, qui sont des identificateurs 48 bits attribués aux interfaces réseau. Le trafic multidiffusion nécessite un schéma d'adressage MAC spécifique pour le différencier du trafic de monodiffusion et de diffusion.
Les adresses MAC de multidiffusion IPv4 sont dérivées des adresses de groupe de multidiffusion de couche 3 à l'aide du préfixe réservé `01:00:5E`. Cependant, seuls 23 bits de l'adresse de multidiffusion IP sont mappés dans l'adresse MAC, ce qui crée un chevauchement 32:1, ce qui signifie que jusqu'à 32 groupes IP de multidiffusion différents peuvent être mappés à la même adresse MAC. Par conséquent, les hôtes qui écoutent une adresse MAC de multidiffusion donnée peuvent recevoir du trafic pour plusieurs groupes de multidiffusion, même s'ils ne sont intéressés que par un seul. Par exemple, 224.1.1.1, 225.1.1.1, 226.1.1.1, 227.1.1.1, 228.1.1.1, etc.
Ce chevauchement a des conséquences directes sur l'efficacité et le dépannage du réseau. Étant donné que les décisions de transfert de couche 2 basées uniquement sur les adresses MAC ne peuvent pas distinguer les groupes de multidiffusion qui se chevauchent, les commutateurs peuvent fournir un trafic inutile aux hôtes. Ces hôtes doivent ensuite s'appuyer sur le filtrage de couche supérieure (IP/IGMP) pour éliminer les paquets indésirables, ce qui consomme les ressources du processeur et de la mémoire tampon.
Dans Cisco Nexus NX-OS, cette limitation est atténuée par le comportement de la surveillance IGMP. Par défaut, la surveillance IGMP effectue des recherches basées sur IP plutôt qu'un transfert uniquement MAC, ce qui permet aux commutateurs de prendre des décisions de transfert plus précises même lorsque plusieurs groupes de multidiffusion partagent la même adresse MAC. Cela améliore considérablement l'efficacité de la couche 2 et réduit la livraison de trafic inutile.
Cette section fournit une explication détaillée de la configuration Auto-RP, en utilisant une implémentation simple comme référence. Dans cette configuration, une source de multidiffusion est connectée à deux commutateurs Nexus via vPC pour acheminer le trafic vers un récepteur. Dans cette conception, N9K-1 et N9K-2 fonctionnent simultanément en tant que candidats RP et agents de mappage.
Mise en garde : Les voisins PIM ne sont pas pris en charge sur un port-channel vPC.
Flux de trafic multidiffusion
La même configuration dispose de FHR-2.
FHR-1# show running-config pim feature pim ip pim auto-rp forward listen interface Vlan1 ip pim sparse-mode interface Ethernet1/1 ip pim sparse-mode interface Ethernet1/3 ip pim sparse-mode
| Commande | Objectif / Description |
|---|---|
| feature pim | Active le processus PIM (Protocol Independent Multicast) sur le commutateur. |
| ip pim auto-rp forward listen | Active l'écouteur Auto-RP. Cela permet au commutateur de recevoir et de transférer des messages de contrôle Auto-RP (224.0.1.39 et 224.0.1.40) même s'il ne connaît pas encore l'identité du RP. |
| ip pim sparse-mode | Active le mode intermédiaire PIM sur une interface spécifique. Dans ce mode, le trafic de multidiffusion est uniquement transféré aux segments qui l'ont explicitement demandé via des messages de jointure PIM. |
N9K-1# show running-config pim feature pim ip pim auto-rp rp-candidate loopback0 group-list 224.10.20.0/24 interval 15 ip pim auto-rp mapping-agent loopback1 interface loopback0 ip pim sparse-mode interface loopback1 ip pim sparse-mode interface Ethernet1/3 ip pim sparse-mode interface Ethernet1/4 ip pim sparse-mode interface Ethernet1/49 ip pim sparse-mode
Ce tableau fournit une répartition technique détaillée de la configuration PIM pour N9K-1. Cette configuration est répliquée sur N9K-2. Les deux commutateurs sont configurés avec un double rôle, agissant à la fois comme candidat RP et comme agent de mappage pour le domaine de multidiffusion.
| Commande | Explication technique détaillée |
|---|---|
| feature pim | Activation des fonctionnalités : Active globalement le moteur PIM (Protocol Independent Multicast) sur le commutateur Nexus. |
| ip pim auto-rp rp-candidate loopback0 group-list 224.10.20.0/24 interval 15 | Rôle du candidat RP : Configure ce commutateur en tant que point de rendez-vous (RP) « volontaire ». Source : Utilise l’adresse IP de loopback0 Portée : Il permet de gérer la plage de groupes de multidiffusion 224.10.20.0/24. Intervalle : Envoie des messages « Annonce » à l'agent de mappage toutes les 15 secondes. Le minuteur d'attente est trois fois cette valeur. |
| ip pim auto-rp mapping-agent loopback1 | Rôle d'agent de mappage : Configure le commutateur comme « administrateur » du processus Auto-RP. Fonction: Il écoute tous les candidats RP, résout les conflits (en utilisant l'adresse IP la plus élevée comme point de rupture) et diffuse les messages de « détection » au reste du réseau pour les informer de qui est le RP actif. |
| interface loopback0 / loopback1 | Interfaces logiques : PIM est activé sur ces interfaces parce qu'elles servent d'IP source pour les rôles de candidat RP et d'agent de mappage. Ils doivent être accessibles via la table de routage de monodiffusion de tous les routeurs PIM. |
| interface Ethernet1/3, 1/4, 1/49 | Transfert physique : Active le mode intermédiaire PIM sur les ports physiques. Cela permet au commutateur de former des contiguïtés de voisinage PIM avec d'autres routeurs et de transférer le trafic de multidiffusion sur ces liaisons spécifiques. |
| ip pim sparse-mode | Mode de fonctionnement : Appliqué à toutes les interfaces ci-dessus. Il garantit que le trafic de multidiffusion est uniquement envoyé aux destinataires qui l'ont explicitement demandé via des messages PIM Join, ce qui évite une inondation inutile du réseau. |
Voisins PIM et zone OSPF 0
N9K-1 — Configuration OSPF
N9K-1(config)# show running-config ospf feature ospf router ospf UNDERLAY router-id 10.2.0.1 interface loopback0 ip router ospf UNDERLAY area 0.0.0.0 interface loopback1 ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/3 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/4 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/49 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0
FHR-1 — Configuration OSPF
FHR-1(config)# show running-config ospf feature ospf router ospf UNDERLAY interface Vlan1 ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/1 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/3 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0
LHR — Configuration OSPF
LHR(config)# show running-config ospf feature ospf router ospf UNDERLAY interface Vlan2 ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/49 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/50 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0
Avant d'analyser le comportement de multidiffusion, il est essentiel de vérifier que le sous-réseau de monodiffusion (zone 0 OSPF) est pleinement opérationnel. Les protocoles de plan de contrôle de multidiffusion tels que PIM et Auto-RP dépendent de l'accessibilité de monodiffusion pour fonctionner correctement.
La première étape de validation consiste à confirmer que la source et le récepteur (ou leurs passerelles de couche 3 les plus proches : FHR et LHR) sont accessibles.
À partir de la topologie :
FHR-1 / FHR-2 → La plus proche de la source de multidiffusion (10.150.1.37 - VLAN 1)
LHR → Récepteur de multidiffusion le plus proche (192.168.2.37 - VLAN 2)
1. Effectuez des tests d’accessibilité ICMP entre :
FHR ↔ LHR
FHR ↔ Sous-réseau du récepteur (passerelle VLAN 2)
LHR ↔ Sous-réseau source (passerelle VLAN 1)
2. Validez l’accessibilité de la source et du récepteur dans la table de routage. Pour les déploiements vPC, assurez la cohérence entre les deux homologues Nexus. Notez que le récepteur possède un chemin ECMP, tandis que la source est accessible via la couche 2.
FHR-1 — Route vers la source
FHR-1# show ip route 10.150.1.37
10.150.1.37/32, ubest/mbest: 1/0, attached
*via 10.150.1.37, Vlan1, [250/0], 06:57:19, am
FHR-1 — Route vers le récepteur
FHR-1# show ip route 192.168.2.37
192.168.2.0/24, ubest/mbest: 2/0
*via 10.4.0.6, Eth1/3, [110/45], 04:11:08, ospf-UNDERLAY, intra
*via 10.4.0.10, Eth1/1, [110/45], 04:11:08, ospf-UNDERLAY, intra
FHR-2 — Route vers la source
FHR-2# show ip route 10.150.1.37
10.150.1.37/32, ubest/mbest: 1/0, attached
*via 10.150.1.37, Vlan1, [250/0], 07:03:45, am
FHR-2 — Route vers le récepteur
FHR-2# show ip route 192.168.2.37
192.168.2.0/24, ubest/mbest: 2/0
*via 10.4.0.13, Eth1/3, [110/45], 04:16:16, ospf-UNDERLAY, intra
*via 10.4.0.18, Eth1/4, [110/45], 04:16:16, ospf-UNDERLAY, intra
LHR — Route vers la source
LHR(config)# show ip route 10.150.1.37
10.150.1.0/24, ubest/mbest: 2/0
*via 10.4.0.22, Eth1/49, [110/45], 04:14:52, ospf-UNDERLAY, intra
*via 10.4.0.26, Eth1/50, [110/45], 04:14:52, ospf-UNDERLAY, intra
LHR — Route vers le récepteur
LHR(config)# show ip route 192.168.2.37
192.168.2.37/32, ubest/mbest: 1/0, attached
*via 192.168.2.37, Vlan2, [250/0], 06:47:21, am
L'échec de ce test indique clairement un problème sous-jacent.
La multidiffusion ne peut pas fonctionner correctement sans accessibilité de monodiffusion, car :
Les voisins PIM reposent sur le routage monodiffusion
Les adresses RP (bouclage) doivent être accessibles
Les vérifications RPF (Reverse Path Forwarding) dépendent de la table de routage
Une requête ping réussie ne garantit pas que la multidiffusion peut fonctionner, car :
ICMP peut être autorisé lorsque la multidiffusion est bloquée
PIM ou Auto-RP peuvent toujours être mal configurés
Conseil : Avant d'analyser les contiguïtés Auto-RP, PIM ou la sélection RP, assurez-vous toujours que le domaine de routage sous-jacent est stable, cohérent et entièrement accessible de bout en bout.
L'étape suivante consiste à identifier clairement le rôle de chaque périphérique impliqué dans le transfert du trafic de multidiffusion. Cette étape est obligatoire, car le dépannage de la multidiffusion dépend entièrement de la compréhension du flux de trafic et du comportement attendu dans la topologie.
Au minimum, ces éléments doivent être identifiés :
Source De Multidiffusion (S) : 10.150.1.37 (VLAN 1)
Groupe de multidiffusion (G) : 224.10.20.10
Récepteur : 192.168.2.37 (VLAN 2)
Routeur de premier saut (FHR) : FHR-1 / FHR-2 (le plus proche de la source)
Routeur de dernier saut (LHR) : LHR (le plus proche du récepteur)
En outre, il est nécessaire d'identifier les rôles du plan de contrôle :
Candidats RP : N9K-1 et N9K-2 (Loopback0)
Agents de mappage : N9K-1 et N9K-2 (bouclage1)
Une topologie de réseau détaillée est obligatoire pour poursuivre le dépannage de la multidiffusion. Cela inclut :
Connectivité physique (interfaces utilisées entre les périphériques)
Topologie logique (VLAN, liaisons routées, relations vPC)
Protocole de routage utilisé (zone OSPF 0 dans cette conception)
Limites de domaine de routage (IGP unique ou protocoles mixtes tels qu'OSPF, EIGRP ou BGP)
Interfaces de bouclage utilisées pour les rôles RP et Mapping Agent
Interfaces compatibles PIM et relations de voisinage
Le chemin exact depuis la source → FHR → RP → LHR → Récepteur
Quels périphériques sont responsables de :
Envoi du registre PIM (FHR)
Arbres du bâtiment (*, G) ou (S, G) (LHR)
Annonce des informations RP (Mapping Agent)
Comment le routage (OSPF) garantit l'accessibilité pour :
Sous-réseau source
Sous-réseau du récepteur
Adresses de bouclage RP
Mise en garde : Le dépannage de la multidiffusion sans topologie claire équivaut à un débogage sans visibilité : il entraîne des hypothèses incorrectes et des erreurs de diagnostic.
L'étape suivante consiste à vérifier que le protocole Auto-RP est correctement configuré sur chaque périphérique en fonction de son rôle dans la topologie de multidiffusion. Cela inclut la confirmation que :
Les candidats RP (N9K-1 / N9K-2) sont correctement configurés pour annoncer leur Loopback0 comme RP pour la plage de groupes de multidiffusion.
Les agents de mappage (N9K-1 / N9K-2) sont configurés pour collecter les messages RP-Announce et générer des messages RP-Discovery à l'aide de Loopback1.
FHR et LHR ont le mode intermédiaire PIM activé sur toutes les interfaces pertinentes pour participer à l'Auto-RP et recevoir les mappages RP.
Il est essentiel de s'assurer que toutes les interfaces requises (y compris les boucles et les liaisons routées) sont activées pour le mode intermédiaire PIM, et qu'il n'y a aucune configuration manquante qui empêcherait l'échange de messages RP-Announce (224.0.1.39) et RP-Discovery (224.0.1.40).
Remarque : N9K-1 et N9K-2 sont configurés en tant que candidats RP et agents de mappage au sein du domaine de multidiffusion.
Mise en garde : Toute configuration Auto-RP manquante ou incohérente peut empêcher les routeurs d'apprendre le RP, ce qui entraîne un transfert incorrect du trafic de multidiffusion.
La première étape de validation consiste à confirmer que tous les voisins PIM attendus sont correctement établis dans la topologie de multidiffusion.
N9K-1 : vérification des voisins PIM
N9K-1# show ip pim neighbor
PIM Neighbor Status for VRF "default"
Neighbor Interface Uptime Expires DR Bidir- BFD ECMP Redirect
Priority Capable State Capable
10.4.0.5 Ethernet1/3 23:19:45 00:01:20 1 yes n/a no
10.4.0.14 Ethernet1/4 23:19:45 00:01:38 1 yes n/a no
10.4.0.21 Ethernet1/49 23:19:45 00:01:38 1 yes n/a no
N9K-2 : vérification des voisins PIM
N9K-2# show ip pim neighbor
PIM Neighbor Status for VRF "default"
Neighbor Interface Uptime Expires DR Bidir- BFD ECMP Redirect
Priority Capable State Capable
10.4.0.9 Ethernet1/3 23:21:18 00:01:29 1 yes n/a no
10.4.0.17 Ethernet1/4 23:21:18 00:01:23 1 yes n/a no
10.4.0.25 Ethernet1/49 23:21:18 00:01:44 1 yes n/a no
Points de validation
Dans cette topologie :
L'étape suivante consiste à confirmer que toutes les interfaces participant à Auto-RP sont activées pour PIM.
Cette validation est particulièrement importante pour :
N9K-1 : vérification des interfaces PIM
N9K-1# show ip pim interface brief
PIM Interface Status for VRF "default"
Interface IP Address PIM DR Address Neighbor Border
Count Interface
Ethernet1/3 10.4.0.6 10.4.0.6 1 no
Ethernet1/4 10.4.0.13 10.4.0.14 1 no
Ethernet1/49 10.4.0.22 10.4.0.22 1 no
loopback0 10.2.0.1 10.2.0.1 0 no
loopback1 10.2.1.5 10.2.1.5 0 no
N9K-2 : vérification des interfaces PIM
N9K-2# show ip pim interface brief
PIM Interface Status for VRF "default"
Interface IP Address PIM DR Address Neighbor Border
Count Interface
Ethernet1/3 10.4.0.10 10.4.0.10 1 no
Ethernet1/4 10.4.0.18 10.4.0.18 1 no
Ethernet1/49 10.4.0.26 10.4.0.26 1 no
loopback0 10.2.0.4 10.2.0.4 0 no
loopback1 10.2.1.4 10.2.1.4 0 no
Points de validation :
Attribution du rôle de bouclage :
| Périphérique | Fonction | Bouclage |
|---|---|---|
| N9K-1 | RP-candidat | 10.2.0.1 |
| N9K-1 | Agent de mappage | 10.2.1.5 |
| N9K-2 | RP-candidat | 10.2.0.4 |
| N9K-2 | Agent de mappage | 10.2.1.4 |
Les boucles apparaissent correctement en tant qu'interfaces PIM actives même si elles ne forment pas de voisins PIM. Ce comportement est attendu car les interfaces de bouclage n'établissent pas directement de contiguïtés de multidiffusion.
La présence de ces boucles confirme que :
Cette commande valide :
N9K-1 — Informations RP
N9K-1# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5*, next Discovery message in: 00:00:39 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.1*, (0), uptime: 22:18:44 priority: 255, RP-source: 10.2.0.1 (A), group ranges: 224.10.20.0/24 , expires: 00:00:37 (A) RP: 10.2.0.4, (0), uptime: 23:00:32 priority: 255, RP-source: 10.2.0.4 (A), group ranges: 224.10.20.0/24 , expires: 00:00:44 (A)
Explication ligne par ligne
BSR désactivé
BSR disabled
Cela confirme que :
Ce comportement est attendu dans cette topologie.
RPA Auto-RP : 10.2.1.5*
Auto-RP RPA: 10.2.1.5*
Cela signifie :
Message de détection suivant dans
next Discovery message in: 00:00:39
Si ce minuteur se fige ou expire de manière inattendue, les annonces Auto-RP ne peuvent pas se propager correctement.
Champs de stratégie
BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None
Première entrée RP
RP: 10.2.0.1*, (0),
Cela confirme que N9K-1 est configuré en tant que RP-Candidate.
Disponibilité et priorité
uptime: 22:18:44 priority: 255,
Source RP
RP-source: 10.2.0.1 (A),
Plage du groupe
224.10.20.0/24
Deuxième entrée RP
RP: 10.2.0.4, (0),
N9K-2 — Informations RP
N9K-2# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 22:19:10, expires: 00:02:28 RP: 10.2.0.4*, (0), uptime: 23:14:14 priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:28 (A)
Principales différences sur N9K-2
Auto-RP RPA: 10.2.1.5
Différence importante de RP
RP-source: 10.2.1.5 (A),
Cela confirme que :
L'Auto-RP utilise deux fonctions de plan de contrôle de multidiffusion différentes :
Il est essentiel de comprendre comment ces fonctions interagissent lors de la validation d'une opération de multidiffusion dans un environnement PIM Sparse Mode.
Dans cette topologie :
Opération RP candidate
Un RP-Candidat s'annonce comme un point de rendez-vous valide pour une ou plusieurs plages de groupes de multidiffusion.
Chaque RP-Candidate envoie périodiquement des messages d'annonce Auto-RP à :
Ces annonces contiennent :
Dans cette topologie :
N9K-1 — Informations sur les candidats RP
N9K-1# show ip pim rp <snip>
RP: 10.2.0.1*, (0),
uptime: 23:11:22 priority: 255,
RP-source: 10.2.0.1 (A),
group ranges:
224.10.20.0/24 , expires: 00:00:38 (A)
RP: 10.2.0.4, (0),
uptime: 23:53:09 priority: 255,
RP-source: 10.2.0.4 (A),
group ranges:
224.10.20.0/24 , expires: 00:00:43 (A)
N9K-2 — Informations sur les candidats RP
N9K-2# show ip pim rp <snip>
RP: 10.2.0.4*, (0),
uptime: 1d00h priority: 255,
RP-source: 10.2.1.5 (A),
group ranges:
224.10.20.0/24 , expires: 00:02:52 (A)
Les deux périphériques annoncent la même plage de groupes de multidiffusion :
Les deux RP-Candidats utilisent également :
C'est important parce qu'Auto-RP utilise la priorité et l'adresse RP lors de la sélection RP.
Identification de l'agent de mappage actif
L'agent de mappage sélectionne le RP actif pour un groupe de multidiffusion en commençant par cette logique :
Dans cette topologie :
Parce que les deux RP-Candidats ont la même priorité :
Par conséquent :
Validation RP sélectionnée
N9K-2 — RP sélectionné
N9K-2# show ip pim rp <snip> RP: 10.2.0.4*, (0), uptime: 23:14:14 priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24
Pourquoi N9K-1 affiche toujours les deux entrées RP
Sur N9K-1 :
N9K-1# show ip pim rp <snip> RP: 10.2.0.1*, (0), RP: 10.2.0.4, (0),
Ce comportement est attendu pour les raisons suivantes :
Mise en garde : Sur l'agent de mappage, tous les candidats RP du même domaine de multidiffusion doivent apparaître. Si un RP-Candidate est manquant, vérifiez l'accessibilité en envoyant une requête ping à l'adresse IP RP-Candidate provenant de l'adresse IP de l'agent de mappage, généralement une interface de bouclage.
Tous les routeurs de multidiffusion participant au domaine PIM en mode dispersé doivent maintenir une accessibilité IP stable pour :
Cette validation est essentielle car le mode intermédiaire PIM repose sur le routage monodiffusion pour :
Si l'accessibilité vers le RP ou l'agent de mappage échoue :
La table de routage doit contenir des routes unicast stables vers :
Les routes doivent rester installées en permanence sans battement de route ni événements de reconvergence excessifs.
Vérifier :
FHR-1 — Route vers RP-Candidate 10.2.0.1
FHR-1# show ip route 10.2.0.1
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.1/32, ubest/mbest: 1/0
*via 10.4.0.6, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-1 — Route vers RP-Candidate 10.2.0.4
FHR-1# show ip route 10.2.0.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.4/32, ubest/mbest: 1/0
*via 10.4.0.10, Eth1/1, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-1 — Route vers l'agent de mappage 10.2.1.5
FHR-1# show ip route 10.2.1.5
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.5/32, ubest/mbest: 1/0
*via 10.4.0.6, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-1 — Route vers l'agent de mappage 10.2.1.4
FHR-1# show ip route 10.2.1.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.4/32, ubest/mbest: 1/0
*via 10.4.0.10, Eth1/1, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route vers RP-Candidate 10.2.0.1
FHR-2# show ip route 10.2.0.1
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.1/32, ubest/mbest: 1/0
*via 10.4.0.13, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route vers RP-Candidate 10.2.0.4
FHR-2# show ip route 10.2.0.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.4/32, ubest/mbest: 1/0
*via 10.4.0.18, Eth1/4, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route vers l'agent de mappage 10.2.1.5
FHR-2# show ip route 10.2.1.5
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.5/32, ubest/mbest: 1/0
*via 10.4.0.13, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route vers l'agent de mappage 10.2.1.4
FHR-2# show ip route 10.2.1.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.4/32, ubest/mbest: 1/0
*via 10.4.0.18, Eth1/4, [110/5], 1d02h, ospf-UNDERLAY, intra
LHR — Route vers RP-Candidate 10.2.0.1
LHR# show ip route 10.2.0.1
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.1/32, ubest/mbest: 1/0
*via 10.4.0.22, Eth1/49, [110/2], 1d02h, ospf-UNDERLAY, intra
LHR — Route vers RP-Candidate 10.2.0.4
LHR# show ip route 10.2.0.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.4/32, ubest/mbest: 1/0
*via 10.4.0.26, Eth1/50, [110/2], 1d02h, ospf-UNDERLAY, intra
LHR — Route vers l'agent de mappage 10.2.1.5
LHR# show ip route 10.2.1.5
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.5/32, ubest/mbest: 1/0
*via 10.4.0.22, Eth1/49, [110/2], 1d02h, ospf-UNDERLAY, intra
LHR — Route vers l'agent de mappage 10.2.1.4
LHR# show ip route 10.2.1.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.4/32, ubest/mbest: 1/0
*via 10.4.0.26, Eth1/50, [110/2], 1d02h, ospf-UNDERLAY, intra
Après avoir validé la table de routage, vérifiez l’accessibilité IP de bout en bout vers :
La requête ping doit provenir de :
Cette validation est importante, car les routeurs de multidiffusion utilisent ces adresses source pendant :
Conseil : Si des interfaces non numérotées sont utilisées, où plusieurs interfaces de couche 3 partagent la même adresse IP à partir d'une interface de bouclage, la vérification de l'accessibilité devient plus simple car une adresse IP source unique peut être utilisée de manière cohérente.
| Périphérique | Adresse IP source | Destination | Fonction | Résultat |
|---|---|---|---|---|
| FRH-1 | 10.4.0.5 | 10.2.0.1 | RP-candidat | Réussi |
| FRH-1 | 10.4.0.5 | 10.2.0.4 | RP-candidat | Réussi |
| FRH-1 | 10.4.0.5 | 10.2.1.5 | Agent de mappage | Réussi |
| FRH-1 | 10.4.0.5 | 10.2.1.4 | Agent de mappage | Réussi |
| FRH-2 | 10.4.0.9 | 10.2.0.1 | RP-candidat | Réussi |
| FRH-2 | 10.4.0.9 | 10.2.0.4 | RP-candidat | Réussi |
| FRH-2 | 10.4.0.9 | 10.2.1.5 | Agent de mappage | Réussi |
| FRH-2 | 10.4.0.9 | 10.2.1.4 | Agent de mappage | Réussi |
| LHR | 10.4.0.5 | 10.2.0.1 | RP-candidat | Réussi |
| LHR | 10.4.0.5 | 10.2.0.4 | RP-candidat | Réussi |
| LHR | 10.4.0.5 | 10.2.1.5 | Agent de mappage | Réussi |
| LHR | 10.4.0.5 | 10.2.1.4 | Agent de mappage | Réussi |
La prochaine étape de validation consiste à vérifier que :
Avant de valider l'état de transfert multidiffusion, vérifiez que tous les routeurs multidiffusion ont appris le RP attendu pour le groupe multidiffusion en cours de validation.
Cette étape est essentielle car :
Dans cette topologie :
FHR-1 — Vérifier le RP appris
FHR-1# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 1d02h, expires: 00:02:30 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.4, (0), uptime: 1d03h priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:30 (A)
FHR-2 — Vérifier le RP appris
FHR-2# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 1d02h, expires: 00:02:15 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.4, (0), uptime: 1d03h priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:15 (A)
LHR — Vérifier le RP appris
LHR# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 1d02h, expires: 00:02:07 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.4, (0), uptime: 1d03h priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:07 (A)
Analyse d'apprentissage RP
Les résultats confirment que :
Ce comportement est attendu pour les raisons suivantes :
À ce stade, le plan de contrôle de multidiffusion fonctionne correctement et tous les routeurs ont un mappage RP cohérent pour 224.10.20.0/24
L’étape suivante consiste à valider la table de routage multidiffusion avant le début de la transmission du trafic multidiffusion.
Dans ce scénario :
Cet état est important car il valide :
FHR-1 — Table de routage multidiffusion
FHR-1# show ip mroute IP Multicast Routing Table for VRF "default" (*, 232.0.0.0/8), uptime: 23:07:34, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
FHR-2 — Table de routage multidiffusion
FHR-2# show ip mroute IP Multicast Routing Table for VRF "default" (*, 232.0.0.0/8), uptime: 23:07:37, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
Analyse d'état multidiffusion FHR
Les FHR ne contiennent pas encore :
Ce comportement est attendu pour les raisons suivantes :
La seule entrée de multidiffusion présente est :
Cela correspond à la plage SSM par défaut et est automatiquement installé par le système.
Ces valeurs sont attendues :
Cette entrée n'indique pas le transfert de multidiffusion actif.
LHR — Table de routage multidiffusion
LHR# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 23:07:39, igmp ip pim
Incoming interface: Ethernet1/50, RPF nbr: 10.4.0.26
Outgoing interface list: (count: 1)
Vlan2, uptime: 23:07:39, igmp
(*, 232.0.0.0/8), uptime: 23:07:39, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
Analyse d'état multidiffusion LHR
Contrairement aux FHR, le LHR contient une entrée active (*, G) pour :
Ce comportement est attendu pour les raisons suivantes :
La table de routage de multidiffusion confirme :
Cela indique que :
À ce stade :
N9K-1 — Table de routage de multidiffusion de l'agent de mappage
N9K-1# show ip mroute IP Multicast Routing Table for VRF "default" (*, 232.0.0.0/8), uptime: 1d03h, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
Mapping Agent Multicast State Analysis
N9K-1 fonctionne uniquement en tant qu'agent de mappage et ne participe pas au transfert multidiffusion pour 224.10.20.10
Par conséquent, l'absence d'entrées (*, G) et d'entrées (S, G) est attendue.
L'agent de mappage distribue uniquement les informations de mappage RP et ne participe pas nécessairement au transfert de données de multidiffusion à moins que le trafic de multidiffusion ne traverse directement le périphérique.
N9K-2 — Table de routage de multidiffusion RP
N9K-2# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 1d01h, pim ip
Incoming interface: loopback0, RPF nbr: 10.2.0.4
Outgoing interface list: (count: 1)
Ethernet1/49, uptime: 1d01h, pim
(*, 232.0.0.0/8), uptime: 1d03h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
Analyse d'état de multidiffusion RP
N9K-2 fonctionne comme RP actif pour :
Par conséquent, le RP contient l'état d'arborescence partagée (*, G) pour 224.10.20.10
Ces valeurs sont attendues :
Cela indique que :
À ce stade :
Une fois que la transmission du trafic multidiffusion commence, la table de routage multidiffusion passe de l'état d'arborescence partagée à l'état de transfert spécifique à la source active.
Dans ce scénario :
Considérations importantes sur la multidiffusion vPC
La source de multidiffusion se connecte via un domaine vPC formé par FHR-1 et FHR-2.
Parce que la source se connecte via un canal de port membre vPC :
Dans ce scénario spécifique :
FHR-1 — Table de routage multidiffusion
FHR-1# show ip mroute IP Multicast Routing Table for VRF "default" (10.150.1.37/32, 224.10.20.10/32), uptime: 00:03:58, ip pim Incoming interface: Vlan1, RPF nbr: 10.150.1.37 Outgoing interface list: (count: 0) (*, 232.0.0.0/8), uptime: 1d00h, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
FHR-1 — Rôle vPC
FHR-1# show vpc role vPC Role status ---------------------------------------------------- vPC role : primary <<< Dual Active Detection Status : 0 vPC system-mac : 00:23:04:ee:be:01 vPC system-priority : 32667 vPC local system-mac : 00:6b:f1:84:02:97 vPC local role-priority : 32667 vPC local config role-priority : 32667 vPC peer system-mac : 6c:b2:ae:ee:5a:97 vPC peer role-priority : 32667 vPC peer config role-priority : 32667
Analyse d'état de multidiffusion FHR-1
FHR-1 contient une entrée active (S, G) pour :
L'entrée de routage multidiffusion confirme :
Ce comportement est attendu, car le flux de multidiffusion n'a pas effectué de hachage vers FHR-1 pour le transfert sortant.
En conséquence :
FHR-2 — Table de routage multidiffusion
FHR-2# show ip mroute
IP Multicast Routing Table for VRF "default"
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:16:35, ip pim
Incoming interface: Vlan1, RPF nbr: 10.150.1.37
Outgoing interface list: (count: 1)
Ethernet1/3, uptime: 00:16:35, pim
(*, 232.0.0.0/8), uptime: 1d00h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
FHR-2 — Rôle vPC
FHR-2# show vpc role vPC Role status ---------------------------------------------------- vPC role : secondary <<< Dual Active Detection Status : 0 vPC system-mac : 00:23:04:ee:be:01 vPC system-priority : 32667 vPC local system-mac : 6c:b2:ae:ee:5a:97 vPC local role-priority : 32667 vPC local config role-priority : 32667 vPC peer system-mac : 00:6b:f1:84:02:97 vPC peer role-priority : 32667 vPC peer config role-priority : 32667
Analyse d'état de multidiffusion FHR-2
Contrairement à FHR-1, FHR-2 contient :
Cela indique que :
Comportement de transfert ECMP et multidiffusion
L’interface sortante Ethernet1/3 fait correspondre la table de routage de monodiffusion vers le récepteur 192.168.2.37
FHR-2 — Route vers le récepteur multidiffusion
FHR-2# show ip route 192.168.2.37
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
192.168.2.0/24, ubest/mbest: 2/0
*via 10.4.0.13, Eth1/3, [110/45], 1d02h, ospf-UNDERLAY, intra
*via 10.4.0.18, Eth1/4, [110/45], 1d02h, ospf-UNDERLAY, intra
FHR-2 contient deux routes à coût égal vers le sous-réseau du récepteur de multidiffusion :
Cela confirme que :
Bien qu'il existe deux routes à coût égal, le transfert multidiffusion utilise un chemin RPF unique pour chaque flux multidiffusion.
Dans cette topologie, le flux de multidiffusion utilise :
Ce comportement correspond à la table de routage de multidiffusion précédemment observée :
(10.150.1.37/32, 224.10.20.10/32)
Outgoing interface list:
Ethernet1/3
Les rôles opérationnels vPC influencent différemment le comportement de transfert multidiffusion pour :
Dans cette topologie :
Les deux commutateurs Nexus peuvent :
Cependant:
Cette distinction est importante car :
Par conséquent :
LHR — Table de routage multidiffusion
LHR# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 1d00h, igmp ip pim
Incoming interface: Ethernet1/50, RPF nbr: 10.4.0.26
Outgoing interface list: (count: 1)
Vlan2, uptime: 1d00h, igmp
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:06:31, ip mrib pim
Incoming interface: Ethernet1/49, RPF nbr: 10.4.0.22
Outgoing interface list: (count: 1)
Vlan2, uptime: 00:06:31, mrib
(*, 232.0.0.0/8), uptime: 1d00h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
Le LHR contient désormais les deux éléments suivants :
Cela confirme :
L'entrée (S, G) confirme :
Ce comportement confirme la réussite :
N9K-1 — Table de routage de multidiffusion de transit
N9K-1# show ip mroute
IP Multicast Routing Table for VRF "default"
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:06:42, pim ip
Incoming interface: Ethernet1/4, RPF nbr: 10.4.0.14
Outgoing interface list: (count: 1)
Ethernet1/49, uptime: 00:06:42, pim
(*, 232.0.0.0/8), uptime: 1d04h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
N9K-1 Analyse de l'état de transit
N9K-1 fonctionne comme un routeur de multidiffusion de transit pour le flux de multidiffusion actif.
L'entrée de routage multidiffusion confirme :
Ceci confirme la réussite :
N9K-2 — Table de routage de multidiffusion RP
N9K-2# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 1d02h, pim ip
Incoming interface: loopback0, RPF nbr: 10.2.0.4
Outgoing interface list: (count: 1)
Ethernet1/49, uptime: 1d02h, pim
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:06:50, ip pim mrib
Incoming interface: Ethernet1/4, RPF nbr: 10.4.0.17, internal
Outgoing interface list: (count: 0)
(*, 232.0.0.0/8), uptime: 1d04h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
N9K-2 fonctionne comme RP actif pour le groupe de multidiffusion.
Le RP contient les deux éléments suivants :
L'absence d'interfaces sortantes dans l'entrée (S, G) est attendue pour les raisons suivantes :
La liste des commandes fournit la collecte de données multicast minimale recommandée requise pour effectuer une analyse de la cause première (RCA) ou un diagnostic d'intégrité multicast sur les commutateurs Cisco Nexus 9000 exécutant NX-OS. Ces sorties capturent l'état du plan de contrôle de multidiffusion, la programmation MRIB, les informations de transfert, l'état opérationnel vPC et les détails de transfert matériel. Cependant, des informations supplémentaires peuvent toujours être requises selon le scénario de défaillance. Par exemple, la perte de paquets de multidiffusion, les abandons de trafic intermittents, les problèmes de réplication de paquets, les incohérences de transfert matériel ou le transfert de multidiffusion désordonné nécessitent souvent des captures directes de paquets sur le commutateur Nexus à l'aide d'Ethanalyzer, de la fonctionnalité SPAN ou de captures au niveau matériel. De même, des incohérences RPF passagères, des modifications de transfert ECMP, des échecs de programmation ASIC ou des événements de suppression IGMP peuvent se produire sans génération de journal persistante.
Par conséquent, la combinaison des résultats de la commande show tech avec les captures de paquets et la validation du transfert améliore considérablement la précision du diagnostic et la qualité RCA. Bien que ces informations fournissent une base opérationnelle solide pour le dépannage de la multidiffusion, elles ne garantissent pas qu'une RCA puisse toujours être identifiée exclusivement à partir de ces sorties. Certaines pannes de multidiffusion nécessitent un dépannage supplémentaire, une analyse du trafic en direct, une validation au niveau du matériel, une corrélation de topologie ou des captures de paquets étendues pour isoler la cause racine exacte.
Conseil : La collecte de ces informations pendant les périodes de travail et d'arrêt fournit un instantané clair de la manière dont le problème apparaît du point de vue de Nexus et améliore considérablement la capacité à identifier la cause première.
N9K-1# show tech-support multicast >> bootflash:$(SWITCHNAME)-sh-tech-multicast.txt
N9K-1# show tech-support details >> bootflash:$(SWITCHNAME)-sh-tech-det.txt
N9K-1# show tech-support vpc >> bootflash:$(SWITCHNAME)-sh-tech-vpc.txt
N9K-1# show tech-support forwarding multicast >> bootflash:$(SWITCHNAME)-sh-tech-fwd-multicast.txt
N9K-1# show tech-support forwarding l3 multicast detail vdc-all >> bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-multicast.txt
N9K-1# show tech-support forwarding l3 unicast detail vdc-all >> bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-unicast-det.txt
Après avoir généré les fichiers show tech, consolidez-les dans une seule archive TAR pour les exporter et les analyser. La commande est une ligne unique.
N9K-1# tar create bootflash:$(SWITCHNAME)-multicast-logs
bootflash:$(SWITCHNAME)-sh-tech-multicast.txt
bootflash:$(SWITCHNAME)-sh-tech-det.txt
bootflash:$(SWITCHNAME)-sh-tech-vpc.txt
bootflash:$(SWITCHNAME)-sh-tech-fwd-multicast.txt
bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-multicast.txt
bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-unicast-det.txt
L'exportation d'une seule archive TAR simplifie :
| Révision | Date de publication | Commentaires |
|---|---|---|
1.0 |
13-May-2026
|
Première publication |