In diesem Dokument wird beschrieben, wie Sie eine Jumbo Maximum Transition Unit (MTU) für alle Cisco Rechenzentrumgeräte in einem Netzwerk konfigurieren, das aus einem VMware ESXi-Host besteht, der auf dem Cisco Unified Computing System (UCS), den Cisco Nexus Switches der Serie 1000V (N1kV), den Cisco Nexus Switches der Serie 500000000000000000000 installiert ist und Cisco NetApp Controller.
Cisco empfiehlt, über Kenntnisse in folgenden Bereichen zu verfügen:
Die Informationen in diesem Dokument basieren auf den folgenden Software- und Hardwareversionen:
Die Informationen in diesem Dokument wurden von den Geräten in einer bestimmten Laborumgebung erstellt. Alle in diesem Dokument verwendeten Geräte haben mit einer leeren (Standard-)Konfiguration begonnen. Wenn Ihr Netzwerk in Betrieb ist, vergewissern Sie sich, dass Sie die potenziellen Auswirkungen eines Befehls oder einer Paketerfassung kennen.
Bei einer typischen iSCSI Storage Area Network (SAN)-Bereitstellung wird das Cisco UCS mit einem Fabric Interconnect im Ethernet End Host-Modus und das Speicherziel verwendet, das über einen Upstream-Switch oder ein Switched Network verbunden ist.
Durch die Verwendung der Appliance-Ports im UCS kann der Speicher direkt mit den Fabric Interconnects verbunden werden.
Unabhängig davon, ob das Upstream-Netzwerk 1 GbE oder 10 GbE ist, wird die Leistung durch die Verwendung von Jumbo Frames (z. B. eine MTU-Größe von 9000) verbessert, da die Anzahl der einzelnen Frames verringert wird, die für eine bestimmte Datenmenge gesendet werden müssen, und die Notwendigkeit verringert wird, iSCSI-Datenblöcke in mehrere Ethernet-Frames zu trennen. Außerdem wird die CPU-Auslastung von Host und Storage verringert.
Wenn Jumbo Frames verwendet werden, müssen Sie sicherstellen, dass das UCS- und Speicherziel sowie alle dazwischen befindlichen Netzwerkgeräte kompatibel und konfiguriert sind, um die größere Frame-Größe zu unterstützen. Das bedeutet, dass die Jumbo-MTU durchgängig (Initiator zu Ziel) konfiguriert werden muss, damit sie in der gesamten Domäne wirksam ist.
Im Folgenden finden Sie eine Übersicht über das Verfahren zur vollständigen Konfiguration der Jumbo-MTU:
Die MTU wird innerhalb des UCS auf CoS-Basis (Class of Service) festgelegt. Wenn keine QoS-Richtlinie für die vNIC definiert ist, die zum vSwitch übergeht, wird der Datenverkehr zur Best-Effort-Klasse geleitet.
Gehen Sie wie folgt vor, um Jumbo Frames zu aktivieren:
Überprüfen Sie, ob die MTU für die vNIC wie oben beschrieben konfiguriert ist.
Überprüfen Sie, ob die Jumbo-MTU für die Uplink-Ports aktiviert ist.
Mit dem Nexus 5000 ist Jumbo-MTU auf Systemebene aktiviert.
Öffnen Sie eine Eingabeaufforderung, und geben Sie die folgenden Befehle ein, um das System für Jumbo-MTU zu konfigurieren:
switch(config)#policy-map type network-qos jumbo
switch(config-pmap-nq)#class type network-qos class-default
switch(config-pmap-c-nq)#mtu 9216switch(config-pmap-c-nq)#exit
switch(config-pmap-nq)#exitswitch(config)#system qos
switch(config-sys-qos)#service-policy type network-qos jumbo
Geben Sie den Befehl show queuing interface Ethernet x/y ein, um zu überprüfen, ob Jumbo-MTU aktiviert ist:
Sie können den MTU-Wert eines vSwitch so konfigurieren, dass alle Portgruppen und Ports Jumbo Frames verwenden.
Gehen Sie wie folgt vor, um Jumbo Frames auf einem Host-vSwitch zu aktivieren:
Gehen Sie wie folgt vor, um Jumbo Frames nur auf einem VMkernel-Port vom vCenter-Server zu aktivieren:
Geben Sie den Befehl vmkping -d -s 8972 <IP-Adresse der Speichereinheit> ein, um die Netzwerkverbindung zu testen und zu überprüfen, ob der VMkernel-Port einen Ping-Befehl mit Jumbo-MTU ausführen kann.
Überprüfen Sie auf der ESXi-Hostebene, ob die MTU-Einstellungen ordnungsgemäß konfiguriert sind:
Bei Cisco IOS® Switches gibt es kein globales MTU-Konzept auf Switch-Ebene. Stattdessen wird die MTU auf der Schnittstellen-/Etherchannel-Ebene konfiguriert.
Geben Sie die folgenden Befehle ein, um die Jumbo-MTU-Größe zu konfigurieren:
7609(config)#int gigabitEthernet 1/1
7609(config-if)#mtu ?
<1500-9216> MTU size in bytes
7609(config-if)#mtu 9216
Geben Sie den Befehl show interfaces gigabitEthernet 1/1 ein, um zu überprüfen, ob die Konfiguration korrekt ist:
7609#show interfaces gigabitEthernet 1/1
GigabitEthernet1/1 is up, line protocol is up (connected)
Hardware is C6k 1000Mb 802.3, address is 0007.0d0e.640a (bia 0007.0d0e.640a)
MTU 9216 bytes, BW 1000000 Kbit, DLY 10 usec,
reliability 255/255, txload 1/255, rxload 1/255
Mit N1kV kann die Jumbo-MTU nur für die Ethernet-Port-Profile für Uplink konfiguriert werden. Die MTU kann an der vEthernet-Schnittstelle nicht konfiguriert werden.
Geben Sie den Befehl show run port-profile UPLINK ein, um zu überprüfen, ob die Konfiguration korrekt ist:
Auf dem Storage-Controller müssen für die mit dem Fabric Interconnect oder dem Layer 2 (L2)-Switch verbundenen Netzwerkports Jumbo-MTU konfiguriert sein. Hier ein Beispiel für eine Konfiguration:
FAS3240-A> vlan create e1a 100
Ethernet e1a: Link being reconfigured.
vlan: e1a-100 has been created
Ethernet e1a: Link up.
FAS3240-A> vlan create e1b 100
Ethernet e1b: Link being reconfigured.
vlan: e1b-100 has been created
Ethernet e1b: Link up.
FAS3240-A> ifconfig e1a-100 192.168.101.105 netmask 255.255.255.0 mtusize 9000
partner e1a-100
FAS3240-A> ifconfig e1b-100 192.168.102.105 netmask 255.255.255.0 mtusize 9000
partner e1b-100
In diesem Abschnitt überprüfen Sie, ob die Konfiguration korrekt ist.
FAS3240-A> ifconfig -a
e1a: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
ether 00:c0:dd:11:40:2c (auto-10g_twinax-fd-up) flowcontrol full
e1b: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
ether 00:c0:dd:11:40:2e (auto-10g_twinax-fd-up) flowcontrol full
Die Prüfverfahren für die in diesem Dokument beschriebenen Konfigurationsbeispiele sind in den entsprechenden Abschnitten beschrieben.
Für diese Konfiguration sind derzeit keine spezifischen Informationen zur Fehlerbehebung verfügbar.