In diesem Dokument wird die Funktionsweise von Auto-RP auf dem Cisco Nexus 9000 mit NX-OS sowie die Validierung und Fehlerbehebung für den Multicast-Betrieb beschrieben.
Die Informationen in diesem Dokument beziehen sich auf Geräte in einer speziell eingerichteten Testumgebung. Alle Geräte, die in diesem Dokument benutzt wurden, begannen mit einer gelöschten (Nichterfüllungs) Konfiguration. Wenn Ihr Netzwerk in Betrieb ist, stellen Sie sicher, dass Sie die möglichen Auswirkungen aller Befehle kennen.
Multicast ist ein One-to-Many-Kommunikationsmodell, bei dem eine Quelle einen einzelnen Datenverkehrsstrom an mehrere interessierte Empfänger sendet. Anstatt für jedes Ziel eine separate Kopie zu erstellen, repliziert das Netzwerk den Datenverkehr nur dort, wo sich der Weiterleitungspfad verzweigt. Dadurch wird Multicast effizienter als Broadcast- oder wiederholte Unicast-Übertragungen. Bei IPv4 verwendet der Multicast-Datenverkehr Zieladressen aus dem Bereich 224.0.0.0/4.
Der PIM Sparse Mode ist das Multicast-Routing-Modell, das von Cisco Nexus-Switches mit NX-OS unterstützt wird. Er leitet Datenverkehr nur weiter, wenn die Interessen des Empfängers explizit ermittelt wurden. Bei einem Any-Source-Multicast-Design werden Empfänger zunächst in einen Shared Tree zum Rendezvous Point hinzugefügt, und die Quellen werden bei diesem RP registriert. Wenn der Datenverkehr zu fließen beginnt, kann der Last-Hop-Router vom Shared Tree zum kürzesten Pfad zur Quelle wechseln.
Die bei Multicast verwendete Terminologie muss definiert werden, da eine präzise Fehlerbehebung davon abhängt, wie Ereignisse auf Kontrollebene, Routing-Einträge und Weiterleitungsentscheidungen dargestellt werden. Eine klare Terminologie hilft, die Befehlsausgabe korrekt zu interpretieren, zwischen Shared-Tree- und Source-Tree-Verhalten zu unterscheiden und die Rolle jeder Multicast-Komponente im End-to-End-Weiterleitungsprozess zu identifizieren.
| Begriff | Definition |
|---|---|
| Multicast-Gruppenadresse | Eine IPv4-Zieladresse im Bereich 224.0.0.0/4 zur Identifizierung einer Multicast-Gruppe. |
| Quelladresse | Die Unicast-IP-Adresse des Senders, der Datenverkehr an eine Multicast-Gruppe überträgt. |
| mroute | Der Multicast-Routing-Eintrag, der definiert, wie Multicast-Datenverkehr für eine Gruppe oder eine Quellgruppen-Kombination behandelt wird. |
| IIF | Eingehende Schnittstelle. Die Schnittstelle, an der der Multicast-Datenverkehr erwartet wird. |
| OIF | Ausgangsschnittstelle. Eine Schnittstelle für die Weiterleitung von Multicast-Datenverkehr an Empfänger oder Downstream-Nachbarn. |
| ÖL | Liste der ausgehenden Schnittstellen Der Satz ausgehender Schnittstellen, die einem Multicast-Routing-Eintrag zugeordnet sind. |
| RP | Umgekehrte Pfadweiterleitung. Mit dieser Prüfung wird auf Basis der Unicast-Route zur Quelle oder zum RP überprüft, ob Multicast-Datenverkehr an der richtigen Schnittstelle eingegangen ist. |
| MDT | Multicast Distribution Tree Der logische Tree, der Multicast-Datenverkehr von der Quelle an alle Empfänger überträgt. |
| RPT | RP Tree, auch Shared Tree genannt. Er verbindet die Empfänger mit dem RP und wird durch (*,G) dargestellt. |
| SPT | Shortest Path Tree, auch Source Tree genannt. Es verbindet Empfänger direkt mit der Quelle und wird durch (S,G) dargestellt. |
| FHR | First-Hop-Router Der Multicast-Router ist direkt mit der Quelle verbunden und für die Quellregistrierung beim RP verantwortlich. |
| LHR | Last-Hop-Router Der Multicast-Router wurde direkt mit den Empfängern verbunden und ist für die Erstellung des Multicast-Zustands zuständig, nachdem er über IGMP die Relevanz für den Empfänger ermittelt hat. |
| RP | Rendezvous Point Der logische Meeting Point, der im ASM- und PIM Sparse Mode zum Verbinden von Quellen und Empfängern verwendet wird. |
| ASM | Any-Source-Multicast. Ein Multicast-Modell, bei dem Empfänger einer Gruppe beitreten, ohne zuvor die Quelle anzugeben. |
Es ist wichtig, die bekannten reservierten Multicast-Adressen zu kennen, da die Fehlerbehebung bei Multicast davon abhängt, dass schnell ermittelt wird, welches Steuerungsprotokoll eine bestimmte Zielgruppe verwendet und welche Funktion dieser Datenverkehr im Netzwerk hat. Diese Adressen erleichtern die Unterscheidung zwischen normalem Protokollbetrieb und ungewöhnlichem Verhalten und erleichtern die Validierung von IGMP-, PIM- und Auto-RP-Austauschvorgängen. Insbesondere für Auto-RP sind die wichtigsten zu erkennenden Gruppen 224.0.1.39 für RP-Announce und 224.0.1.40 für RP-Discovery, da sie die Informationen enthalten, die es Routern ermöglichen, die dynamischen RP-Zuordnungen zu erlernen.
| Multicast-Adresse | Zweck |
|---|---|
| 224.0.0.1 | Alle Hosts im lokalen Subnetz |
| 224.0.0.2 | Alle Router im lokalen Subnetz |
| 224.0.0.13 | Alle PIM-Router |
| 224.0.0.22 | IGMPv3-Nachrichten |
| 224.0.1.39 | Von Auto-RP verwendete Cisco RP-Announce-Nachrichten |
| 224.0.1.40 | Von Auto-RP verwendete Cisco RP-Discovery-Nachrichten |
Auto-RP ist ein Mechanismus von Cisco, der im Protocol Independent Multicast Sparse Mode verwendet wird, um Rendezvous Point (RP)-Informationen dynamisch zu ermitteln und über die Multicast-Domäne zu verteilen. Durch die Verwendung von Multicast-basierten Kontrollebenenmeldungen zum Anzeigen, Auswählen und Lernen von Zuordnungen zwischen RP und Gruppen ist eine statische RP-Konfiguration nicht mehr erforderlich. Seine Hauptkomponenten sind Kandidaten-RPs, die RP-Services für bestimmte Gruppenbereiche anbieten, und Mapping Agents, die Kandidaten sammeln und den aktiven RP pro Gruppe bestimmen.
Der Prozess beginnt, wenn jeder RP-Kandidat regelmäßig RP-Announce-Nachrichten an 224.0.1.39 sendet, einschließlich der zugehörigen IP-Adresse, Priorität und unterstützten Multicast-Gruppenbereiche. Diese Meldungen werden mithilfe des Auto-RP-Listeners in NX-OS über das Netzwerk geflutet, um sicherzustellen, dass alle Zuordnungsagenten sie erhalten, noch bevor das Netzwerk im Sparse-Mode voll betriebsbereit ist.
Zuordnungs-Agenten überwachen diese Ankündigungen, erstellen eine RP-Datenbank für Kandidaten und führen einen deterministischen Auswahlprozess pro Gruppe durch (normalerweise höchste Priorität, dann höchste IP-Adresse). Sobald der beste RP ausgewählt wurde, generiert der Zuordnungs-Agent RP-Discovery-Nachrichten und sendet sie an 224.0.1.40, um die endgültigen Zuordnungen von RP zu Gruppen an alle Router in der Domäne anzugeben.
Alle PIM-Router erhalten die RP-Discovery-Nachrichten und installieren die Zuordnungen in ihren lokalen RP-Tabellen. Anhand dieser Informationen senden Last-Hop-Router (die mit Empfängern verbunden sind) PIM Join-Nachrichten an den ausgewählten RP, um den Shared Tree (RPT) zu erstellen, während First-Hop-Router (die mit Quellen verbunden sind) Multicast-Verkehr in PIM-Registrierungsnachrichten kapseln, um den RP über aktive Quellen zu informieren.
Wenn der Datenverkehr durch den RP fließt, können Router optional vom Shared Tree (RPT) zu einem Shortest Path Tree (SPT) wechseln. Hierzu wird eine zusätzliche PIM Join/Prune-Signalisierung direkt zur Quelle verwendet. Während dieses Prozesses aktualisiert Auto-RP Zuordnungen kontinuierlich über regelmäßige Kontrollnachrichten. Dadurch wird die Ausfallsicherheit gewährleistet und eine automatische Anpassung an Topologie- oder RP-Änderungen gewährleistet.
Automatischer RP-Betrieb im PIM Sparse Mode (Workflow auf Steuerungsebene)
ECMP-basierte Multipath-Weiterleitung ist standardmäßig aktiviert, sodass für Multicast-Datenverkehr Pfade mit gleichen Kosten für den Lastenausgleich verwendet werden können.
Die PIM-Nachbarauthentifizierung mit IPsec AH-MD5 wird unterstützt.
PIM-Snooping ist nicht verfügbar.
Auto-RP ermöglicht eine dynamische RP-Erkennung und eine zentralisierte RP-Mapping-Verteilung für PIM Sparse Mode-Multicast-Umgebungen. Dadurch ist keine statische RP-Konfiguration auf jedem Multicast-Router erforderlich, der Betrieb wird vereinfacht, und die Multicast-Skalierbarkeit wird verbessert. Auto-RP unterstützt auch mehrere RP-Kandidaten und ermöglicht so automatische RP-Ausfallsicherung und Redundanz. Dieser Mechanismus trägt dazu bei, ein konsistentes Multicast-Weiterleitungsverhalten zu gewährleisten, vereinfacht die Netzwerkerweiterung und ermöglicht es Multicast-Routern, RP-Informationen automatisch in der gesamten Domäne abzurufen.
Der Auswahlprozess in Auto-RP ist deterministisch und basiert hauptsächlich auf IP-Adressen. Im Gegensatz zu anderen Protokollen (z. B. PIMv2 BSR) verwendet Auto-RP keinen konfigurierbaren Wert für die "Priorität". Stattdessen setzt sie bei der Konfliktlösung auf die IP-Adresshierarchie.
In Auto-RP können aus Redundanzgründen mehrere Zuordnungs-Agents im gleichen Netzwerk gleichzeitig vorhanden sein. Es gibt keinen formellen Wahlprozess, bei dem sich der eine abschaltet und der andere; alle sind technisch aktiv. Die Switches im Netzwerk müssen jedoch entscheiden, welchen Informationen sie vertrauen.
Dieser Prozess wird vom Zuordnungs-Agent nach dem Abhören aller RP-Announce-Nachrichten (gesendet an Gruppe 224.0.1.39) der Kandidaten durchgeführt.
Wenn der Zuordnungs-Agent mehrere Kandidaten für dieselbe Multicast-Gruppe empfängt, wendet er diese Regeln in der folgenden Reihenfolge an:
Regel A: Längste Präfixübereinstimmung (spezifischste Maske)
Wenn Kandidaten überlappende Bereiche bekannt geben, weist der MA die Gruppe dem RP zu, der den kleinsten Bereich (die längste Subnetzmaske) angekündigt hat.
Regel B: Höchste IP-Adresse (Tie-Breaker)
Wenn zwei oder mehr Kandidaten genau denselben Gruppenbereich ankündigen, muss der Zuordnungs-Agent nur einen auswählen.
Obwohl der Schwerpunkt dieses Artikels auf Layer-3-Multicast mit PIM liegt, spielt das Layer-2-Verhalten eine entscheidende Rolle bei der Fehlerbehebung und dem allgemeinen Design. Auf Layer 2 kommunizieren Geräte mithilfe von MAC-Adressen, d. h. 48-Bit-IDs, die Netzwerkschnittstellen zugewiesen sind. Multicast-Datenverkehr erfordert ein bestimmtes MAC-Adressierungsschema, um ihn vom Unicast- und Broadcast-Datenverkehr zu unterscheiden.
IPv4-Multicast-MAC-Adressen werden von Layer-3-Multicast-Gruppenadressen abgeleitet, wobei das reservierte Präfix "01:00:5E" verwendet wird. Allerdings werden nur 23 Bit der IP-Multicast-Adresse der MAC-Adresse zugeordnet, wodurch eine Überlappung von 32:1 entsteht. Das bedeutet, dass bis zu 32 verschiedene Multicast-IP-Gruppen derselben MAC-Adresse zugeordnet werden können. So können Hosts, die eine bestimmte Multicast-MAC-Adresse überwachen, Datenverkehr für mehrere Multicast-Gruppen empfangen, selbst wenn diese nur an einer Multicast-Adresse interessiert sind. Beispiel: 224.1.1.1, 225.1.1.1, 226.1.1.1, 227.1.1.1, 228.1.1.1 und mehr.
Diese Überschneidung hat direkte Auswirkungen auf die Netzwerkeffizienz und die Fehlerbehebung. Da Entscheidungen zur Layer-2-Weiterleitung, die ausschließlich auf MAC-Adressen basieren, nicht zwischen überlappenden Multicast-Gruppen unterscheiden können, können Switches unnötigen Datenverkehr an Hosts weiterleiten. Diese Hosts müssen dann durch eine Filterung auf höherer Ebene (IP/IGMP) unerwünschte Pakete verwerfen, was CPU- und Pufferressourcen beansprucht.
In Cisco Nexus NX-OS wird diese Einschränkung durch das IGMP-Snooping abgeschwächt. IGMP-Snooping führt standardmäßig IP-basierte Suchvorgänge statt einer reinen MAC-Weiterleitung durch, sodass die Switches präzisere Weiterleitungsentscheidungen treffen können, selbst wenn mehrere Multicast-Gruppen dieselbe MAC-Adresse verwenden. Dadurch wird die Layer-2-Effizienz deutlich verbessert, und es wird weniger unnötiger Datenverkehr übertragen.
Dieser Abschnitt enthält eine detaillierte Erläuterung der Auto-RP-Konfiguration unter Verwendung einer einfachen Implementierung als Referenz. In dieser Konfiguration wird eine Multicast-Quelle über vPC mit zwei Nexus-Switches verbunden, um Datenverkehr an einen Empfänger zu übertragen. Bei diesem Design fungieren N9K-1 und N9K-2 gleichzeitig als RP-Kandidaten und Zuordnungsagenten.
Vorsicht: PIM-Nachbarn werden auf einem vPC-Port-Channel nicht unterstützt.
Multicast-Datenverkehrsfluss
Dieselbe Konfiguration hat FHR-2.
FHR-1# show running-config pim feature pim ip pim auto-rp forward listen interface Vlan1 ip pim sparse-mode interface Ethernet1/1 ip pim sparse-mode interface Ethernet1/3 ip pim sparse-mode
| Command | Zweck/Beschreibung |
|---|---|
| Feature-PIM | Aktiviert den PIM-Prozess (Protocol Independent Multicast) auf dem Switch. |
| ip pim auto-rp forward listen | Aktiviert den automatischen RP-Listener. Auf diese Weise kann der Switch Auto-RP-Kontrollnachrichten (224.0.1.39 und 224.0.1.40) empfangen und weiterleiten, auch wenn er die Identität des RP noch nicht kennt. |
| ip pim sparse-mode | Aktiviert den PIM Sparse Mode auf einer bestimmten Schnittstelle. In diesem Modus wird Multicast-Datenverkehr nur an Segmente weitergeleitet, die ihn explizit über PIM Join-Nachrichten angefordert haben. |
N9K-1# show running-config pim feature pim ip pim auto-rp rp-candidate loopback0 group-list 224.10.20.0/24 interval 15 ip pim auto-rp mapping-agent loopback1 interface loopback0 ip pim sparse-mode interface loopback1 ip pim sparse-mode interface Ethernet1/3 ip pim sparse-mode interface Ethernet1/4 ip pim sparse-mode interface Ethernet1/49 ip pim sparse-mode
Diese Tabelle enthält eine detaillierte technische Aufschlüsselung der PIM-Konfiguration für N9K-1. Diese Konfiguration wird auf N9K-2 repliziert. Beide Switches werden mit einer dualen Rolle konfiguriert und fungieren sowohl als RP-Kandidat als auch als Zuordnungs-Agent für die Multicast-Domäne.
| Command | Detaillierte technische Erläuterung |
|---|---|
| Feature-PIM | Feature-Aktivierung: Aktiviert global die Protocol Independent Multicast (PIM)-Engine auf dem Nexus-Switch. |
| ip pim auto-rp rp-candidate loopback0 group-list 224.10.20.0/24 interval 15 | RP-Kandidatenrolle: Konfiguriert diesen Wechsel auf "Freiwillig" als Rendezvous Point (RP). Quelle: Verwendet die IP-Adresse von loopback0 Geltungsbereich: Es bietet die Verarbeitung des Multicast-Gruppenbereichs 224.10.20.0/24. Intervall: Sendet alle 15 Sekunden "Announce"-Nachrichten an den Zuordnungs-Agent. Der Wert für die Haltezeit ist dreimal so hoch. |
| ip pim auto-rp mapping-agent loopback1 | Agent-Rolle zuordnen: Konfiguriert den Switch als "Administrator" des Auto-RP-Prozesses. Funktion: Er hört alle RP-Kandidaten ab, löst Konflikte (unter Verwendung der höchsten IP-Adresse als Verbindungsunterbrecher) und sendet die "Discovery"-Nachrichten an den Rest des Netzwerks, um ihn darüber zu informieren, wer der aktive RP ist. |
| interface loopback0 / loopback1 | Logische Schnittstellen: PIM ist auf diesen Schnittstellen aktiviert, da sie als Quell-IPs für die RP-Kandidat- und Zuordnungs-Agent-Rollen dienen. Sie müssen über die Unicast-Routing-Tabelle aller PIM-Router erreichbar sein. |
| interface Ethernet1/3, 1/4, 1/49 | Physische Weiterleitung: Aktiviert den PIM Sparse Mode auf physischen Ports. Auf diese Weise kann der Switch Nachbarumgebungen zu PIM mit anderen Routern aufbauen und Multicast-Datenverkehr über diese speziellen Verbindungen weiterleiten. |
| ip pim sparse-mode | Betriebsmodus: Wird auf alle oben genannten Schnittstellen angewendet. Dadurch wird sichergestellt, dass Multicast-Datenverkehr nur an Empfänger gesendet wird, die dies explizit über PIM Join-Nachrichten angefordert haben, wodurch unnötiges Netzwerkfluten verhindert wird. |
PIM Neighbors und OSPF Area 0
N9K-1 - OSPF-Konfiguration
N9K-1(config)# show running-config ospf feature ospf router ospf UNDERLAY router-id 10.2.0.1 interface loopback0 ip router ospf UNDERLAY area 0.0.0.0 interface loopback1 ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/3 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/4 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/49 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0
FHR-1 - OSPF-Konfiguration
FHR-1(config)# show running-config ospf feature ospf router ospf UNDERLAY interface Vlan1 ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/1 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/3 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0
LHR - OSPF-Konfiguration
LHR(config)# show running-config ospf feature ospf router ospf UNDERLAY interface Vlan2 ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/49 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0 interface Ethernet1/50 ip ospf network point-to-point ip router ospf UNDERLAY area 0.0.0.0
Vor der Analyse des Multicast-Verhaltens muss unbedingt überprüft werden, ob das Unicast-Underlay (OSPF Area 0) vollständig betriebsbereit ist. Multicast-Kontrollebenenprotokolle wie PIM und Auto-RP sind für eine korrekte Funktion von der Unicast-Verfügbarkeit abhängig.
Im ersten Validierungsschritt wird überprüft, ob die Quelle und der Empfänger (oder deren nächstgelegene Layer-3-Gateways): FHR und LHR) erreichbar sind.
Aus der Topologie:
FHR-1/FHR-2 → In der Nähe der Multicast-Quelle (10.150.1.37 - VLAN 1)
LHR → Nah am Multicast-Empfänger (192.168.2.37 - VLAN 2)
1. Führen Sie ICMP-Erreichbarkeitstests durch zwischen:
HR ↔ LHR
FHR ↔ Receiver-Subnetz (VLAN 2-Gateway)
LHR ↔ Quell-Subnetz (VLAN 1-Gateway)
2. Überprüfen Sie die Verfügbarkeit von Quelle und Empfänger in der Routing-Tabelle. Bei vPC-Bereitstellungen müssen Sie die Konsistenz für beide Nexus-Peers sicherstellen. Beachten Sie, dass der Empfänger über einen ECMP-Pfad verfügt, während die Quelle über Layer 2 erreichbar ist.
FHR-1 - Route-to-Source
FHR-1# show ip route 10.150.1.37
10.150.1.37/32, ubest/mbest: 1/0, attached
*via 10.150.1.37, Vlan1, [250/0], 06:57:19, am
FHR-1 — Route to Receiver
FHR-1# show ip route 192.168.2.37
192.168.2.0/24, ubest/mbest: 2/0
*via 10.4.0.6, Eth1/3, [110/45], 04:11:08, ospf-UNDERLAY, intra
*via 10.4.0.10, Eth1/1, [110/45], 04:11:08, ospf-UNDERLAY, intra
FHR-2 - Route-to-Source
FHR-2# show ip route 10.150.1.37
10.150.1.37/32, ubest/mbest: 1/0, attached
*via 10.150.1.37, Vlan1, [250/0], 07:03:45, am
FHR-2 — Route to Receiver
FHR-2# show ip route 192.168.2.37
192.168.2.0/24, ubest/mbest: 2/0
*via 10.4.0.13, Eth1/3, [110/45], 04:16:16, ospf-UNDERLAY, intra
*via 10.4.0.18, Eth1/4, [110/45], 04:16:16, ospf-UNDERLAY, intra
LHR - Route-to-Source
LHR(config)# show ip route 10.150.1.37
10.150.1.0/24, ubest/mbest: 2/0
*via 10.4.0.22, Eth1/49, [110/45], 04:14:52, ospf-UNDERLAY, intra
*via 10.4.0.26, Eth1/50, [110/45], 04:14:52, ospf-UNDERLAY, intra
LHR - Route to Receiver
LHR(config)# show ip route 192.168.2.37
192.168.2.37/32, ubest/mbest: 1/0, attached
*via 192.168.2.37, Vlan2, [250/0], 06:47:21, am
Der Ausfall dieses Tests deutet auf ein Underlay-Problem hin.
Multicast kann ohne Unicast-Erreichbarkeit nicht ordnungsgemäß funktionieren, da:
PIM-Nachbarn vertrauen auf Unicast-Routing
RP-Adressen (Loopback) müssen erreichbar sein
RPF-Prüfungen (Reverse Path Forwarding) hängen von der Routing-Tabelle ab.
Ein erfolgreicher Ping-Test garantiert aus folgenden Gründen nicht, dass Multicast funktionieren kann:
ICMP kann zugelassen werden, während Multicast blockiert wird.
PIM oder Auto-RP kann weiterhin falsch konfiguriert werden.
Tipp: Stellen Sie vor der Analyse von Auto-RP, PIM-Adjacencies oder RP-Auswahl sicher, dass die zugrunde liegende Routing-Domäne stabil, konsistent und durchgängig vollständig erreichbar ist.
Der nächste Schritt besteht darin, die Rolle der einzelnen Geräte, die an der Weiterleitung von Multicast-Verkehr beteiligt sind, eindeutig zu identifizieren. Dies ist ein obligatorischer Schritt, da die Multicast-Fehlerbehebung vollständig vom Verständnis des Datenverkehrsflusses und des erwarteten Verhaltens in der Topologie abhängt.
Diese Elemente müssen mindestens gekennzeichnet sein:
Multicast-Quelle (S): 10.150.1.37 (VLAN 1)
Multicast-Gruppe (G): 224.10.20.10
Empfänger: 192.168.2.37 (VLAN 2)
First Hop Router (FHR): FHR-1/FHR-2 (quellennah)
Last Hop Router (LHR): LHR (dem Empfänger am nächsten)
Darüber hinaus müssen die Rollen auf Kontrollebene identifiziert werden:
RP-Kandidaten: N9K-1 und N9K-2 (Loopback0)
Agenten zuordnen: N9K-1 und N9K-2 (Loopback1)
Zur Fehlerbehebung bei Multicast-Problemen ist eine detaillierte Netzwerktopologie erforderlich. Dazu gehören:
Physische Verbindungen (zwischen Geräten verwendete Schnittstellen)
Logische Topologie (VLANs, geroutete Verbindungen, vPC-Beziehungen)
Verwendetes Routing-Protokoll (OSPF-Bereich 0 in diesem Design)
Routing-Domänengrenzen (Einzel-IGP und gemischte Protokolle wie OSPF, EIGRP oder BGP)
Loopback-Schnittstellen für RP- und Zuordnungs-Agent-Rollen
PIM-fähige Schnittstellen und Nachbar-Beziehungen
Der genaue Pfad von Quelle → FHR → RP → LHR → Receiver
Welche Geräte sind verantwortlich für:
PIM-Register senden (FHR)
Gebäude (*,G) oder (S,G) Bäume (LHR)
Anzeigen von RP-Informationen (Zuordnungsagent)
Routing (OSPF) stellt die Erreichbarkeit folgender Elemente sicher:
Quell-Subnetz
Empfänger-Subnetz
RP-Loopback-Adressen
Vorsicht: Die Multicast-Fehlerbehebung ohne klare Topologie entspricht der Fehlerbehebung ohne Transparenz - sie führt zu falschen Annahmen und Fehldiagnosen.
Der nächste Schritt besteht darin, zu überprüfen, ob Auto-RP auf jedem Gerät entsprechend seiner Rolle in der Multicast-Topologie richtig konfiguriert ist. Dazu gehört die Bestätigung, dass:
RP-Kandidaten (N9K-1 / N9K-2) sind ordnungsgemäß konfiguriert, um ihr Loopback0 als RP für den Multicast-Gruppenbereich anzukündigen.
Zuordnungs-Agents (N9K-1/N9K-2) sind so konfiguriert, dass sie RP-Announce-Nachrichten sammeln und RP-Discovery-Nachrichten mithilfe von Loopback 1 generieren.
Bei FHR und LHR ist der PIM Sparse Mode auf allen relevanten Schnittstellen aktiviert, um an Auto-RP teilzunehmen und RP-Zuordnungen zu empfangen.
Es muss unbedingt sichergestellt werden, dass alle erforderlichen Schnittstellen (einschließlich Loopbacks und gerouteten Verbindungen) für den PIM Sparse-Mode aktiviert sind und dass keine Konfigurationen fehlen, die den Austausch von RP-Announce- (224.0.1.39) und RP-Discovery-Nachrichten (224.0.1.40) verhindern würden.
Anmerkung: N9K-1 und N9K-2 sind als RP-Kandidaten und Zuordnungsagenten in der Multicast-Domäne konfiguriert.
Vorsicht: Fehlende oder inkonsistente Auto-RP-Konfigurationen können verhindern, dass Router den RP erkennen, was dazu führt, dass Multicast-Datenverkehr nicht richtig weitergeleitet wird.
Im ersten Validierungsschritt wird überprüft, ob alle erwarteten PIM-Nachbarn in der Multicast-Topologie korrekt eingerichtet wurden.
N9K-1 - PIM-Nachbarn überprüfen
N9K-1# show ip pim neighbor
PIM Neighbor Status for VRF "default"
Neighbor Interface Uptime Expires DR Bidir- BFD ECMP Redirect
Priority Capable State Capable
10.4.0.5 Ethernet1/3 23:19:45 00:01:20 1 yes n/a no
10.4.0.14 Ethernet1/4 23:19:45 00:01:38 1 yes n/a no
10.4.0.21 Ethernet1/49 23:19:45 00:01:38 1 yes n/a no
N9K-2 - PIM-Nachbarn überprüfen
N9K-2# show ip pim neighbor
PIM Neighbor Status for VRF "default"
Neighbor Interface Uptime Expires DR Bidir- BFD ECMP Redirect
Priority Capable State Capable
10.4.0.9 Ethernet1/3 23:21:18 00:01:29 1 yes n/a no
10.4.0.17 Ethernet1/4 23:21:18 00:01:23 1 yes n/a no
10.4.0.25 Ethernet1/49 23:21:18 00:01:44 1 yes n/a no
Validierungspunkte
In dieser Topologie gilt Folgendes:
Im nächsten Schritt wird überprüft, ob alle am automatischen RP teilnehmenden Schnittstellen für PIM aktiviert sind.
Diese Validierung ist besonders wichtig für:
N9K-1 - Überprüfung der PIM-Schnittstellen
N9K-1# show ip pim interface brief
PIM Interface Status for VRF "default"
Interface IP Address PIM DR Address Neighbor Border
Count Interface
Ethernet1/3 10.4.0.6 10.4.0.6 1 no
Ethernet1/4 10.4.0.13 10.4.0.14 1 no
Ethernet1/49 10.4.0.22 10.4.0.22 1 no
loopback0 10.2.0.1 10.2.0.1 0 no
loopback1 10.2.1.5 10.2.1.5 0 no
N9K-2 - Überprüfung der PIM-Schnittstellen
N9K-2# show ip pim interface brief
PIM Interface Status for VRF "default"
Interface IP Address PIM DR Address Neighbor Border
Count Interface
Ethernet1/3 10.4.0.10 10.4.0.10 1 no
Ethernet1/4 10.4.0.18 10.4.0.18 1 no
Ethernet1/49 10.4.0.26 10.4.0.26 1 no
loopback0 10.2.0.4 10.2.0.4 0 no
loopback1 10.2.1.4 10.2.1.4 0 no
Prüfpunkte:
Loopback-Rollenzuweisung:
| "Slot0:" | Funktion | Loopback |
|---|---|---|
| N9K-1 | RP-Kandidat | 10.2.0.1 |
| N9K-1 | Zuordnungs-Agent | 10.2.1.5 |
| N9K-2 | RP-Kandidat | 10.2.0.4 |
| N9K-2 | Zuordnungs-Agent | 10.2.1.4 |
Die Loopbacks werden korrekt als aktive PIM-Schnittstellen angezeigt, obwohl sie keine PIM-Nachbarn bilden. Dieses Verhalten wird erwartet, da Loopback-Schnittstellen Multicast-Adjacencies nicht direkt erstellen.
Das Vorhandensein dieser Loopbacks bestätigt Folgendes:
Dieser Befehl validiert:
N9K-1 - RP-Informationen
N9K-1# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5*, next Discovery message in: 00:00:39 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.1*, (0), uptime: 22:18:44 priority: 255, RP-source: 10.2.0.1 (A), group ranges: 224.10.20.0/24 , expires: 00:00:37 (A) RP: 10.2.0.4, (0), uptime: 23:00:32 priority: 255, RP-source: 10.2.0.4 (A), group ranges: 224.10.20.0/24 , expires: 00:00:44 (A)
Detaillierte Erläuterung
BSR deaktiviert
BSR disabled
Dies bestätigt Folgendes:
Dieses Verhalten wird in dieser Topologie erwartet.
Auto-RP RPA: 10.2.1.5*
Auto-RP RPA: 10.2.1.5*
Das bedeutet:
Nächste Erkennungsmeldung in
next Discovery message in: 00:00:39
Wenn dieser Timer nicht mehr reagiert oder unerwartet abläuft, können Auto-RP-Meldungen nicht richtig weitergegeben werden.
Richtlinienfelder
BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None
Erster RP-Eintrag
RP: 10.2.0.1*, (0),
Dadurch wird bestätigt, dass N9K-1 als RP-Kandidat konfiguriert ist.
Verfügbarkeit und Priorität
uptime: 22:18:44 priority: 255,
RP-Quelle
RP-source: 10.2.0.1 (A),
Gruppenbereich
224.10.20.0/24
Zweiter RP-Eintrag
RP: 10.2.0.4, (0),
N9K-2 - RP-Informationen
N9K-2# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 22:19:10, expires: 00:02:28 RP: 10.2.0.4*, (0), uptime: 23:14:14 priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:28 (A)
Wichtigste Unterschiede auf N9K-2
Auto-RP RPA: 10.2.1.5
Wichtiger RP-Unterschied
RP-source: 10.2.1.5 (A),
Dies bestätigt Folgendes:
Auto-RP verwendet zwei unterschiedliche Multicast-Funktionen auf Kontrollebene:
Die Interaktion dieser Funktionen ist bei der Validierung des Multicast-Betriebs in einer PIM Sparse Mode-Umgebung von entscheidender Bedeutung.
In dieser Topologie gilt Folgendes:
RP-Kandidatenbetrieb
Ein RP-Kandidat gibt sich selbst als gültigen Rendezvous Point für einen oder mehrere Multicast-Gruppenbereiche an.
Jeder RP-Kandidat sendet regelmäßig Auto-RP Announce-Nachrichten an:
Diese Ankündigungen beinhalten:
In dieser Topologie gilt Folgendes:
N9K-1 — Informationen zu RP-Kandidaten
N9K-1# show ip pim rp <snip>
RP: 10.2.0.1*, (0),
uptime: 23:11:22 priority: 255,
RP-source: 10.2.0.1 (A),
group ranges:
224.10.20.0/24 , expires: 00:00:38 (A)
RP: 10.2.0.4, (0),
uptime: 23:53:09 priority: 255,
RP-source: 10.2.0.4 (A),
group ranges:
224.10.20.0/24 , expires: 00:00:43 (A)
N9K-2 — Informationen zu RP-Kandidaten
N9K-2# show ip pim rp <snip>
RP: 10.2.0.4*, (0),
uptime: 1d00h priority: 255,
RP-source: 10.2.1.5 (A),
group ranges:
224.10.20.0/24 , expires: 00:02:52 (A)
Beide Geräte kündigen den gleichen Multicast-Gruppenbereich an:
Beide RP-Kandidaten verwenden außerdem:
Dies ist wichtig, da der automatische RP bei der RP-Auswahl Priorität und RP-Adresse verwendet.
Aktive Zuordnungs-Agent-Identifizierung
Der Mapping-Agent wählt den aktiven RP für eine Multicast-Gruppe aus und beginnt dabei mit folgender Logik:
In dieser Topologie gilt Folgendes:
Da beide RP-Kandidaten die gleiche Priorität haben:
Daher:
Ausgewählte RP-Validierung
N9K-2 - Ausgewählter RP
N9K-2# show ip pim rp <snip> RP: 10.2.0.4*, (0), uptime: 23:14:14 priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24
Warum N9K-1 immer noch beide RP-Einträge anzeigt
Auf N9K-1:
N9K-1# show ip pim rp <snip> RP: 10.2.0.1*, (0), RP: 10.2.0.4, (0),
Dieses Verhalten wird aus folgenden Gründen erwartet:
Vorsicht: Auf dem Mapping Agent müssen alle RP-Kandidaten innerhalb derselben Multicast-Domäne angezeigt werden. Wenn ein RP-Kandidat fehlt, überprüfen Sie die Erreichbarkeit, indem Sie einen Ping an die IP-Adresse des RP-Kandidaten senden, die von der IP-Adresse des Zuordnungsagenten stammt, in der Regel eine Loopback-Schnittstelle.
Alle Multicast-Router, die zur Domäne im PIM Sparse Mode gehören, müssen eine stabile IP-Erreichbarkeit aufrecht erhalten, um:
Diese Validierung ist kritisch, da der PIM Sparse Mode auf Unicast-Routing für Folgendes beruht:
Wenn die Erreichbarkeit zum RP oder Mapping Agent fehlschlägt:
Die Routing-Tabelle muss stabile Unicast-Routen zu folgenden Punkten enthalten:
Die Routen müssen kontinuierlich installiert bleiben, ohne dass es zu Fluktuationen oder übermäßigen Rekonvergenzen kommt.
Überprüfung:
FHR-1 — Route nach RP-Candidate 10.2.0.1
FHR-1# show ip route 10.2.0.1
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.1/32, ubest/mbest: 1/0
*via 10.4.0.6, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-1 — Route nach RP-Candidate 10.2.0.4
FHR-1# show ip route 10.2.0.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.4/32, ubest/mbest: 1/0
*via 10.4.0.10, Eth1/1, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-1 — Route to Mapping Agent 10.2.1.5
FHR-1# show ip route 10.2.1.5
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.5/32, ubest/mbest: 1/0
*via 10.4.0.6, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-1 — Route to Mapping Agent 10.2.1.4
FHR-1# show ip route 10.2.1.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.4/32, ubest/mbest: 1/0
*via 10.4.0.10, Eth1/1, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route nach RP-Candidate 10.2.0.1
FHR-2# show ip route 10.2.0.1
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.1/32, ubest/mbest: 1/0
*via 10.4.0.13, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route nach RP-Candidate 10.2.0.4
FHR-2# show ip route 10.2.0.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.4/32, ubest/mbest: 1/0
*via 10.4.0.18, Eth1/4, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route to Mapping Agent 10.2.1.5
FHR-2# show ip route 10.2.1.5
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.5/32, ubest/mbest: 1/0
*via 10.4.0.13, Eth1/3, [110/5], 1d02h, ospf-UNDERLAY, intra
FHR-2 — Route to Mapping Agent 10.2.1.4
FHR-2# show ip route 10.2.1.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.4/32, ubest/mbest: 1/0
*via 10.4.0.18, Eth1/4, [110/5], 1d02h, ospf-UNDERLAY, intra
LHR — Route nach RP-Candidate 10.2.0.1
LHR# show ip route 10.2.0.1
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.1/32, ubest/mbest: 1/0
*via 10.4.0.22, Eth1/49, [110/2], 1d02h, ospf-UNDERLAY, intra
LHR — Route nach RP-Candidate 10.2.0.4
LHR# show ip route 10.2.0.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.0.4/32, ubest/mbest: 1/0
*via 10.4.0.26, Eth1/50, [110/2], 1d02h, ospf-UNDERLAY, intra
LHR - Route to Mapping Agent 10.2.1.5
LHR# show ip route 10.2.1.5
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.5/32, ubest/mbest: 1/0
*via 10.4.0.22, Eth1/49, [110/2], 1d02h, ospf-UNDERLAY, intra
LHR — Route to Mapping Agent 10.2.1.4
LHR# show ip route 10.2.1.4
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
10.2.1.4/32, ubest/mbest: 1/0
*via 10.4.0.26, Eth1/50, [110/2], 1d02h, ospf-UNDERLAY, intra
Überprüfen Sie nach der Validierung der Routing-Tabelle die End-to-End-IP-Erreichbarkeit für:
Der Ping muss von folgenden Quellen stammen:
Diese Validierung ist wichtig, da Multicast-Router die folgenden Quelladressen verwenden:
Tipp: Werden Schnittstellen ohne Nummer verwendet, bei denen mehrere Layer 3-Schnittstellen dieselbe IP-Adresse von einer Loopback-Schnittstelle nutzen, wird die Überprüfung der Erreichbarkeit einfacher, da eine einzige Quell-IP-Adresse konsistent verwendet werden kann.
| "Slot0:" | Quell-IP | Ziel | Funktion | Ergebnis |
|---|---|---|---|---|
| FHR-1 | 10.4.0.5 | 10.2.0.1 | RP-Kandidat | Erfolgreich |
| FHR-1 | 10.4.0.5 | 10.2.0.4 | RP-Kandidat | Erfolgreich |
| FHR-1 | 10.4.0.5 | 10.2.1.5 | Zuordnungs-Agent | Erfolgreich |
| FHR-1 | 10.4.0.5 | 10.2.1.4 | Zuordnungs-Agent | Erfolgreich |
| FHR-2 | 10.4.0.9 | 10.2.0.1 | RP-Kandidat | Erfolgreich |
| FHR-2 | 10.4.0.9 | 10.2.0.4 | RP-Kandidat | Erfolgreich |
| FHR-2 | 10.4.0.9 | 10.2.1.5 | Zuordnungs-Agent | Erfolgreich |
| FHR-2 | 10.4.0.9 | 10.2.1.4 | Zuordnungs-Agent | Erfolgreich |
| LHR | 10.4.0.5 | 10.2.0.1 | RP-Kandidat | Erfolgreich |
| LHR | 10.4.0.5 | 10.2.0.4 | RP-Kandidat | Erfolgreich |
| LHR | 10.4.0.5 | 10.2.1.5 | Zuordnungs-Agent | Erfolgreich |
| LHR | 10.4.0.5 | 10.2.1.4 | Zuordnungs-Agent | Erfolgreich |
Im nächsten Validierungsschritt wird geprüft, ob:
Überprüfen Sie vor der Überprüfung des Multicast-Weiterleitungsstatus, ob alle Multicast-Router den erwarteten RP für die zu validierende Multicast-Gruppe ermittelt haben.
Dieser Schritt ist aus folgenden Gründen von entscheidender Bedeutung:
In dieser Topologie gilt Folgendes:
FHR-1 — Geprüfter RP
FHR-1# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 1d02h, expires: 00:02:30 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.4, (0), uptime: 1d03h priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:30 (A)
FHR-2 — Geprüfter RP
FHR-2# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 1d02h, expires: 00:02:15 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.4, (0), uptime: 1d03h priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:15 (A)
LHR - Gelernten RP überprüfen
LHR# show ip pim rp PIM RP Status Information for VRF "default" BSR disabled Auto-RP RPA: 10.2.1.5, uptime: 1d02h, expires: 00:02:07 BSR RP Candidate policy: None BSR RP policy: None Auto-RP Announce policy: None Auto-RP Discovery policy: None RP: 10.2.0.4, (0), uptime: 1d03h priority: 255, RP-source: 10.2.1.5 (A), group ranges: 224.10.20.0/24 , expires: 00:02:07 (A)
RP-Lernanalyse
Die Ausgänge bestätigen:
Dieses Verhalten wird aus folgenden Gründen erwartet:
Zu diesem Zeitpunkt funktioniert die Multicast-Kontrollebene ordnungsgemäß, und alle Router verfügen über eine konsistente RP-Zuordnung für 224.10.20.0/24
Im nächsten Schritt wird die Multicast-Routing-Tabelle validiert, bevor die Übertragung des Multicast-Datenverkehrs beginnt.
In diesem Szenario gilt:
Dieser Status ist wichtig, da er Folgendes validiert:
FHR-1: Multicast-Routing-Tabelle
FHR-1# show ip mroute IP Multicast Routing Table for VRF "default" (*, 232.0.0.0/8), uptime: 23:07:34, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
FHR-2 - Multicast-Routing-Tabelle
FHR-2# show ip mroute IP Multicast Routing Table for VRF "default" (*, 232.0.0.0/8), uptime: 23:07:37, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
FHR-Multicast-Zustandsanalyse
Die FHR enthalten noch nicht:
Dieses Verhalten wird aus folgenden Gründen erwartet:
Es ist nur folgender Multicast-Eintrag vorhanden:
Dies entspricht dem Standard-SSM-Bereich und wird automatisch vom System installiert.
Diese Werte werden erwartet:
Dieser Eintrag zeigt keine aktive Multicast-Weiterleitung an.
LHR = Multicast Routing Table
LHR# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 23:07:39, igmp ip pim
Incoming interface: Ethernet1/50, RPF nbr: 10.4.0.26
Outgoing interface list: (count: 1)
Vlan2, uptime: 23:07:39, igmp
(*, 232.0.0.0/8), uptime: 23:07:39, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
LHR-Multicast-Zustandsanalyse
Im Gegensatz zu den FHRs enthält die LHR einen aktiven (*,G) Eintrag für:
Dieses Verhalten wird aus folgenden Gründen erwartet:
Die Multicast-Routing-Tabelle bestätigt Folgendes:
Dies deutet darauf hin, dass
Zu diesem Zeitpunkt:
N9K-1 - Zuordnung der Multicast-Routing-Tabelle des Agenten
N9K-1# show ip mroute IP Multicast Routing Table for VRF "default" (*, 232.0.0.0/8), uptime: 1d03h, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
Zustandsanalyse für den Agent-Multicast
N9K-1 agiert nur als Mapping-Agent und ist nicht an der Multicast-Weiterleitung für 24.10.20.10 beteiligt.
Es wird daher erwartet, dass keine (*,G)-Einträge und (S,G)-Einträge vorhanden sind.
Der Mapping-Agent verteilt nur RP-Zuordnungsinformationen und ist nicht notwendigerweise an der Multicast-Datenweiterleitung beteiligt, es sei denn, Multicast-Datenverkehr durchläuft das Gerät direkt.
N9K-2 - RP-Multicast-Routing-Tabelle
N9K-2# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 1d01h, pim ip
Incoming interface: loopback0, RPF nbr: 10.2.0.4
Outgoing interface list: (count: 1)
Ethernet1/49, uptime: 1d01h, pim
(*, 232.0.0.0/8), uptime: 1d03h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
RP Multicast-Zustandsanalyse
N9K-2 fungiert als aktiver RP für:
Daher enthält der RP den Shared-Tree-Status (*,G) für 224.10.20.10.
Diese Werte werden erwartet:
Dies deutet darauf hin, dass
Zu diesem Zeitpunkt:
Sobald die Übertragung des Multicast-Datenverkehrs beginnt, wechselt die Multicast-Routing-Tabelle vom Shared-Tree-Status in den quellenspezifischen Weiterleitungsstatus.
In diesem Szenario gilt:
Wichtige Überlegungen zu vPC-Multicast
Die Multicast-Quelle ist über eine vPC-Domäne verbunden, die aus FHR-1 und FHR-2 besteht.
Da die Quelle über einen vPC-Member-Port-Channel verbunden ist:
In diesem speziellen Szenario:
FHR-1: Multicast-Routing-Tabelle
FHR-1# show ip mroute IP Multicast Routing Table for VRF "default" (10.150.1.37/32, 224.10.20.10/32), uptime: 00:03:58, ip pim Incoming interface: Vlan1, RPF nbr: 10.150.1.37 Outgoing interface list: (count: 0) (*, 232.0.0.0/8), uptime: 1d00h, pim ip Incoming interface: Null, RPF nbr: 0.0.0.0 Outgoing interface list: (count: 0)
FHR-1 - vPC-Rolle
FHR-1# show vpc role vPC Role status ---------------------------------------------------- vPC role : primary <<< Dual Active Detection Status : 0 vPC system-mac : 00:23:04:ee:be:01 vPC system-priority : 32667 vPC local system-mac : 00:6b:f1:84:02:97 vPC local role-priority : 32667 vPC local config role-priority : 32667 vPC peer system-mac : 6c:b2:ae:ee:5a:97 vPC peer role-priority : 32667 vPC peer config role-priority : 32667
FHR-1 Multicast-Zustandsanalyse
FHR-1 enthält einen aktiven (S,G) Eintrag für:
Der Multicast-Routing-Eintrag bestätigt Folgendes:
Dieses Verhalten wird erwartet, da der Multicast-Fluss für die ausgehende Weiterleitung keinen Hash in Richtung FHR-1 durchgeführt hat.
Das Ergebnis:
FHR-2 - Multicast-Routing-Tabelle
FHR-2# show ip mroute
IP Multicast Routing Table for VRF "default"
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:16:35, ip pim
Incoming interface: Vlan1, RPF nbr: 10.150.1.37
Outgoing interface list: (count: 1)
Ethernet1/3, uptime: 00:16:35, pim
(*, 232.0.0.0/8), uptime: 1d00h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
FHR-2 - vPC-Rolle
FHR-2# show vpc role vPC Role status ---------------------------------------------------- vPC role : secondary <<< Dual Active Detection Status : 0 vPC system-mac : 00:23:04:ee:be:01 vPC system-priority : 32667 vPC local system-mac : 6c:b2:ae:ee:5a:97 vPC local role-priority : 32667 vPC local config role-priority : 32667 vPC peer system-mac : 00:6b:f1:84:02:97 vPC peer role-priority : 32667 vPC peer config role-priority : 32667
FHR-2 Multicast-Zustandsanalyse
Im Gegensatz zu FHR-1 enthält FHR-2:
Dies deutet darauf hin, dass
ECMP- und Multicast-Weiterleitungsverhalten
Die Ausgangsschnittstelle Ethernet1/3 stimmt mit der Unicast-Routing-Tabelle in Richtung Empfänger überein 192.168.2.37
FHR-2 - Route to Multicast Receiver
FHR-2# show ip route 192.168.2.37
IP Route Table for VRF "default"
'*' denotes best ucast next-hop
'**' denotes best mcast next-hop
'[x/y]' denotes [preference/metric]
'%<string>' in via output denotes VRF <string>
192.168.2.0/24, ubest/mbest: 2/0
*via 10.4.0.13, Eth1/3, [110/45], 1d02h, ospf-UNDERLAY, intra
*via 10.4.0.18, Eth1/4, [110/45], 1d02h, ospf-UNDERLAY, intra
FHR-2 enthält zwei Routen zu gleichen Kosten zum Multicast-Empfänger-Subnetz:
Dies bestätigt Folgendes:
Obwohl zwei Routen zu gleichen Kosten vorhanden sind, verwendet die Multicast-Weiterleitung einen einzigen RPF-Pfad für jeden Multicast-Fluss.
In dieser Topologie verwendet der Multicast-Fluss Folgendes:
Dieses Verhalten entspricht der zuvor beobachteten Multicast-Routing-Tabelle:
(10.150.1.37/32, 224.10.20.10/32)
Outgoing interface list:
Ethernet1/3
Die vPC-Betriebsrollen beeinflussen das Multicast-Weiterleitungsverhalten unterschiedlich für:
In dieser Topologie gilt Folgendes:
Beide Nexus Switches können:
Allerdings:
Diese Unterscheidung ist aus folgenden Gründen wichtig:
Daher:
LHR = Multicast Routing Table
LHR# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 1d00h, igmp ip pim
Incoming interface: Ethernet1/50, RPF nbr: 10.4.0.26
Outgoing interface list: (count: 1)
Vlan2, uptime: 1d00h, igmp
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:06:31, ip mrib pim
Incoming interface: Ethernet1/49, RPF nbr: 10.4.0.22
Outgoing interface list: (count: 1)
Vlan2, uptime: 00:06:31, mrib
(*, 232.0.0.0/8), uptime: 1d00h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
Die LHR enthält nun beide:
Dies bestätigt:
Der Eintrag (S,G) bestätigt:
Dieses Verhalten bestätigt den Erfolg:
N9K-1 - Transit-Multicast-Routing-Tabelle
N9K-1# show ip mroute
IP Multicast Routing Table for VRF "default"
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:06:42, pim ip
Incoming interface: Ethernet1/4, RPF nbr: 10.4.0.14
Outgoing interface list: (count: 1)
Ethernet1/49, uptime: 00:06:42, pim
(*, 232.0.0.0/8), uptime: 1d04h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
N9K-1 - Analyse des Transitstatus
N9K-1 fungiert als Transit-Multicast-Router für den aktiven Multicast-Fluss.
Der Multicast-Routing-Eintrag bestätigt Folgendes:
Dies bestätigt den Erfolg:
N9K-2 - RP-Multicast-Routing-Tabelle
N9K-2# show ip mroute
IP Multicast Routing Table for VRF "default"
(*, 224.10.20.10/32), uptime: 1d02h, pim ip
Incoming interface: loopback0, RPF nbr: 10.2.0.4
Outgoing interface list: (count: 1)
Ethernet1/49, uptime: 1d02h, pim
(10.150.1.37/32, 224.10.20.10/32), uptime: 00:06:50, ip pim mrib
Incoming interface: Ethernet1/4, RPF nbr: 10.4.0.17, internal
Outgoing interface list: (count: 0)
(*, 232.0.0.0/8), uptime: 1d04h, pim ip
Incoming interface: Null, RPF nbr: 0.0.0.0
Outgoing interface list: (count: 0)
N9K-2 fungiert als aktiver RP für die Multicast-Gruppe.
Der RP enthält beides:
Das Fehlen ausgehender Schnittstellen im (S,G)-Eintrag wird aus folgenden Gründen erwartet:
Die Liste der Befehle enthält die empfohlene Mindestsammlung von Multicast-Daten, die erforderlich ist, um eine ordnungsgemäße Ursachenanalyse (Root Cause Analysis, RCA) oder Multicast-Diagnose auf Cisco Nexus Switches der Serie 9000 mit NX-OS durchzuführen. Diese Ausgänge erfassen den Multicast-Steuerungsebenenstatus, MRIB-Programmierung, Weiterleitungsinformationen, den vPC-Betriebsstatus und Details zur Hardware-Weiterleitung. Abhängig vom Fehlerszenario können jedoch weitere Informationen erforderlich sein. So erfordern z. B. Multicast-Paketverluste, zeitweilige Datenverluste, Probleme mit der Paketreplikation, inkonsistente Hardwareweiterleitungen oder Multicast-Weiterleitungen außerhalb der normalen Arbeitsumgebung häufig eine direkte Paketerfassung auf dem Nexus-Switch mithilfe von EtherAnalyzer, SPAN oder hardwarebasierten Erfassungen. Ebenso können vorübergehende RPF-Inkonsistenzen, ECMP-Weiterleitungsänderungen, ASIC-Programmierungsfehler oder IGMP-Unterdrückungsereignisse ohne ständige Protokollgenerierung auftreten.
Durch die Kombination von Show-Tech-Outputs mit Paketerfassung und Weiterleitungsvalidierung werden die Diagnosegenauigkeit und die RCA-Qualität erheblich verbessert. Obwohl diese Informationen eine solide Betriebsgrundlage für die Multicast-Fehlerbehebung darstellen, können sie nicht garantieren, dass eine RCA immer ausschließlich anhand dieser Ergebnisse identifiziert werden kann. Bestimmte Multicast-Fehler erfordern zusätzliche Fehlerbehebung, Live-Datenverkehrsanalyse, Validierung auf Hardwareebene, Topologiekorrelation oder erweiterte Paketerfassung, um die genaue Ursache zu isolieren.
Tipp: Durch das Sammeln dieser Informationen während der Arbeitszeit und während der Nichtarbeitszeit erhalten Sie einen klaren Überblick darüber, wie das Problem aus Nexus-Sicht auftritt, und können die Ursache erheblich besser identifizieren.
N9K-1# show tech-support multicast >> bootflash:$(SWITCHNAME)-sh-tech-multicast.txt
N9K-1# show tech-support details >> bootflash:$(SWITCHNAME)-sh-tech-det.txt
N9K-1# show tech-support vpc >> bootflash:$(SWITCHNAME)-sh-tech-vpc.txt
N9K-1# show tech-support forwarding multicast >> bootflash:$(SWITCHNAME)-sh-tech-fwd-multicast.txt
N9K-1# show tech-support forwarding l3 multicast detail vdc-all >> bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-multicast.txt
N9K-1# show tech-support forwarding l3 unicast detail vdc-all >> bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-unicast-det.txt
Nach der Generierung der Show-Tech-Dateien, konsolidieren Sie sie in einem einzigen TAR-Archiv für Export und Analyse. Der Befehl besteht aus einer einzelnen Zeile.
N9K-1# tar create bootflash:$(SWITCHNAME)-multicast-logs
bootflash:$(SWITCHNAME)-sh-tech-multicast.txt
bootflash:$(SWITCHNAME)-sh-tech-det.txt
bootflash:$(SWITCHNAME)-sh-tech-vpc.txt
bootflash:$(SWITCHNAME)-sh-tech-fwd-multicast.txt
bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-multicast.txt
bootflash:$(SWITCHNAME)-sh-tech-fwd-l3-unicast-det.txt
Das Exportieren eines einzelnen TAR-Archivs vereinfacht Folgendes:
| Überarbeitung | Veröffentlichungsdatum | Kommentare |
|---|---|---|
1.0 |
13-May-2026
|
Erstveröffentlichung |