Ce document décrit comment configurer l'unité MTU (Maximum Transition Unit) jumbo de bout en bout sur les périphériques de data center Cisco dans un réseau constitué d'un hôte VMware ESXi installé sur Cisco Unified Computing System (UCS), les commutateurs Cisco Nexus 1000V (N1kV), les commutateurs Cisco Nexus 5000 (N5k), et Contrôleur NetApp.
Cisco vous recommande de prendre connaissance des rubriques suivantes :
Les informations contenues dans ce document sont basées sur les versions de matériel et de logiciel suivantes :
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. Si votre réseau est actif, assurez-vous de bien comprendre l'impact potentiel de toute commande ou configuration de capture de paquets.
Le déploiement classique du réseau de stockage SAN iSCSI utilise Cisco UCS avec une interconnexion de fabric en mode hôte final Ethernet et la cible de stockage connectée via un commutateur en amont ou un réseau commuté.
Grâce aux ports de l'appliance sur UCS, le stockage peut être directement connecté aux interconnexions de fabric.
Que le réseau en amont soit 1 GbE ou 10 GbE, l'utilisation de trames jumbo (une taille MTU de 9 000, par exemple) améliore les performances car elle réduit le nombre de trames individuelles qui doivent être envoyées pour une quantité donnée de données et réduit la nécessité de séparer les blocs de données iSCSI en plusieurs trames Ethernet. Ils réduisent également l'utilisation de l'unité centrale hôte et de stockage.
Si des trames jumbo sont utilisées, vous devez vous assurer que la cible UCS et de stockage, ainsi que l'ensemble de l'équipement réseau entre, sont capables et configurés afin de prendre en charge la taille de trame plus importante. Cela signifie que le MTU jumbo doit être configuré de bout en bout (initiateur à cible) pour qu'il soit efficace sur l'ensemble du domaine.
Voici une présentation de la procédure utilisée pour configurer le MTU jumbo de bout en bout :
Le MTU est défini par classe de service (CoS) dans UCS. Si aucune stratégie QoS n'est définie pour la vNIC qui se dirige vers le vSwitch, le trafic passe à la classe Best Effort.
Complétez ces étapes afin d'activer les trames jumbo :
Vérifiez que le MTU de la vNIC est configuré comme décrit précédemment.
Vérifiez que le MTU jumbo est activé sur les ports de liaison ascendante.
Avec le N5k, le MTU jumbo est activé au niveau du système.
Ouvrez une invite de commandes et entrez ces commandes afin de configurer le système pour la MTU jumbo :
switch(config)#policy-map type network-qos jumbo
switch(config-pmap-nq)#class type network-qos class-default
switch(config-pmap-c-nq)#mtu 9216switch(config-pmap-c-nq)#exit
switch(config-pmap-nq)#exitswitch(config)#system qos
switch(config-sys-qos)#service-policy type network-qos jumbo
Entrez la commande show queuing interface Ethernet x/y afin de vérifier que le MTU jumbo est activé :
Vous pouvez configurer la valeur MTU d'un vSwitch de sorte que tous les ports et groupes de ports utilisent des trames jumbo.
Complétez ces étapes afin d'activer les trames jumbo sur un vSwitch hôte :
Complétez ces étapes afin d'activer les trames jumbo uniquement sur un port VMkernel à partir du serveur vCenter :
Entrez la commande vmkping -d -s 8972 <adresse ip de l'appliance de stockage> afin de tester la connectivité réseau et de vérifier que le port VMkernel peut envoyer une requête ping avec MTU jumbo.
Au niveau de l’hôte ESXi, vérifiez que les paramètres MTU sont configurés correctement :
Avec les commutateurs Cisco IOS®, il n'existe pas de concept de MTU global au niveau du commutateur. Au lieu de cela, MTU est configuré au niveau de l'interface/de l'éther-canal.
Entrez ces commandes afin de configurer la MTU jumbo :
7609(config)#int gigabitEthernet 1/1
7609(config-if)#mtu ?
<1500-9216> MTU size in bytes
7609(config-if)#mtu 9216
Entrez la commande show interfaces gigabitEthernet 1/1 afin de vérifier que la configuration est correcte :
7609#show interfaces gigabitEthernet 1/1
GigabitEthernet1/1 is up, line protocol is up (connected)
Hardware is C6k 1000Mb 802.3, address is 0007.0d0e.640a (bia 0007.0d0e.640a)
MTU 9216 bytes, BW 1000000 Kbit, DLY 10 usec,
reliability 255/255, txload 1/255, rxload 1/255
Avec N1kV, le MTU jumbo ne peut être configuré que sur les profils de port Ethernet pour la liaison ascendante ; MTU ne peut pas être configuré sur l'interface vEthernet.
Entrez la commande show run port-profile UPLINK afin de vérifier que la configuration est correcte :
Sur le contrôleur de stockage, les ports réseau connectés à l'interconnexion de fabric ou au commutateur de couche 2 (L2) doivent avoir une MTU étendue configurée. Voici un exemple de configuration :
FAS3240-A> vlan create e1a 100
Ethernet e1a: Link being reconfigured.
vlan: e1a-100 has been created
Ethernet e1a: Link up.
FAS3240-A> vlan create e1b 100
Ethernet e1b: Link being reconfigured.
vlan: e1b-100 has been created
Ethernet e1b: Link up.
FAS3240-A> ifconfig e1a-100 192.168.101.105 netmask 255.255.255.0 mtusize 9000
partner e1a-100
FAS3240-A> ifconfig e1b-100 192.168.102.105 netmask 255.255.255.0 mtusize 9000
partner e1b-100
Utilisez cette section afin de vérifier que la configuration est correcte.
FAS3240-A> ifconfig -a
e1a: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
ether 00:c0:dd:11:40:2c (auto-10g_twinax-fd-up) flowcontrol full
e1b: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
ether 00:c0:dd:11:40:2e (auto-10g_twinax-fd-up) flowcontrol full
Les procédures de vérification des exemples de configuration décrits dans ce document sont fournies dans les sections respectives.
Il n'existe actuellement aucune information de dépannage spécifique pour cette configuration.
Révision | Date de publication | Commentaires |
---|---|---|
1.0 |
09-Apr-2014 |
Première publication |