Avez-vous un compte?
Ce document décrit comment configurer l'unité maximum enorme de transition (MTU) de bout en bout à travers des périphériques de centre de données Cisco dans un réseau qui se compose d'un serveur de VMware ESXi installé sur le Système d'informatique unifiée Cisco (UCS), les Commutateurs de la gamme Cisco Nexus 1000V (N1kV), le Commutateurs de la gamme Cisco Nexus 5000 (N5k), et le contrôleur de Cisco NetApp.
Cisco vous recommande de prendre connaissance des rubriques suivantes :
Les informations contenues dans ce document sont basées sur les versions de matériel et de logiciel suivantes :
Les informations contenues dans ce document ont été créées à partir des périphériques d'un environnement de laboratoire spécifique. Tous les périphériques utilisés dans ce document ont démarré avec une configuration effacée (par défaut). Si votre réseau est vivant, assurez-vous que vous comprenez l'impact potentiel de n'importe quelle installation de commande ou de capture de paquet.
Le déploiement typique du réseau de stockage d'iSCSI (SAN) utilise le Cisco UCS avec Fabric Interconnect en mode d'hôte d'extrémité d'Ethernets et cible de mémoire connectée par un commutateur ou un réseau commuté en amont.
Par l'utilisation des ports d'appareils sur l'UCS, la mémoire peut être directement connectée à la matrice interconnecte.
Si le réseau en amont est 1 GbE ou GbE 10, l'utilisation des Trames étendues (une taille de MTU de 9000, par exemple) améliore la représentation parce qu'elle réduit le nombre de différentes trames qui doivent être envoyées pour une quantité donnée de données et réduit la nécessité de séparer des blocs de données d'iSCSI dans des trames de plusieurs réseaux Ethernet. Ils diminuent également l'utilisation du processeur d'hôte et de mémoire.
Si des Trames étendues sont utilisées, vous devez s'assurer qu'UCS et de mémoire, aussi bien que tout les équipement réseau la cible entre, sont capable et configurée afin de prendre en charge la taille de trame plus grande. Ceci signifie que le MTU jumbo doit être de bout en bout configuré (demandeur à viser) pour qu'il soit efficace à travers le domaine.
Voici un aperçu de la procédure qui est utilisée afin de configurer le MTU jumbo de bout en bout :
Le MTU est placé sur une par-classe de base de service (cos) dans l'UCS. Si vous n'avez pas une stratégie QoS définie pour le vNIC qui se dirige vers le vSwitch, alors le trafic se déplace à la classe de meilleur effort.
Terminez-vous ces étapes afin d'activer des Trames étendues :
Vérifiez que le vNIC a le MTU configuré comme décrit précédemment.
Vérifiez que les ports uplinks ont le MTU jumbo activé.
Avec le N5k, le MTU jumbo est activé au niveau du système.
Ouvrez une invite de commande et sélectionnez ces commandes afin de configurer le système pour le MTU jumbo :
switch(config)#policy-map type network-qos jumbo
switch(config-pmap-nq)#class type network-qos class-default
switch(config-pmap-c-nq)#mtu 9216switch(config-pmap-c-nq)#exit
switch(config-pmap-nq)#exitswitch(config)#system qos
switch(config-sys-qos)#service-policy type network-qos jumbo
Sélectionnez la commande des Ethernets x/y de show queueing interface afin de vérifier que le MTU jumbo est activé :
Vous pouvez configurer la valeur de MTU d'un vSwitch de sorte que tous les port-groupes et ports utilisent des Trames étendues.
Terminez-vous ces étapes afin d'activer des Trames étendues sur un vSwitch d'hôte :
Terminez-vous ces étapes afin d'activer des Trames étendues seulement sur un port de VMkernel du serveur de vCenter :
Sélectionnez - d - l'IP address > la commande vmkping d'appareils de <storage s 8972 afin de tester la connexion réseau et la vérifier que le port de VMkernel peut cingler avec le MTU jumbo.
Au niveau d'hôte d'ESXi, vérifiez que les configurations de MTU sont configurées correctement :
Avec des Commutateurs de Cisco IOS®, il n'y a aucun concept de MTU global au niveau de commutateur. Au lieu de cela, le MTU est configuré au niveau d'interface/Ether-canal.
Sélectionnez ces commandes afin de configurer le MTU jumbo :
7609(config)#int gigabitEthernet 1/1
7609(config-if)#mtu ?
<1500-9216> MTU size in bytes
7609(config-if)#mtu 9216
Entrez dans les shows interfaces gigabitethernets 1/1 commande afin de vérifier que la configuration est correcte :
7609#show interfaces gigabitEthernet 1/1
GigabitEthernet1/1 is up, line protocol is up (connected)
Hardware is C6k 1000Mb 802.3, address is 0007.0d0e.640a (bia 0007.0d0e.640a)
MTU 9216 bytes, BW 1000000 Kbit, DLY 10 usec,
reliability 255/255, txload 1/255, rxload 1/255
Avec le N1kV, le MTU jumbo peut seulement être configuré sur les port-profils d'Ethernets pour la liaison ascendante ; Le MTU ne peut pas être configuré à l'interface de vEthernet.
Sélectionnez la commande de LIAISON ASCENDANTE de port-profil de passage d'exposition afin de vérifier que la configuration est correcte :
Sur le contrôleur de mémoire, les ports de réseau qui sont connectés à Fabric Interconnect ou à la couche 2 le commutateur (L2) doivent avoir le MTU jumbo configuré. Voici un exemple de configuration :
FAS3240-A> vlan create e1a 100
Ethernet e1a: Link being reconfigured.
vlan: e1a-100 has been created
Ethernet e1a: Link up.
FAS3240-A> vlan create e1b 100
Ethernet e1b: Link being reconfigured.
vlan: e1b-100 has been created
Ethernet e1b: Link up.
FAS3240-A> ifconfig e1a-100 192.168.101.105 netmask 255.255.255.0 mtusize 9000
partner e1a-100
FAS3240-A> ifconfig e1b-100 192.168.102.105 netmask 255.255.255.0 mtusize 9000
partner e1b-100
Employez cette section afin de vérifier que la configuration est correcte.
FAS3240-A> ifconfig -a
e1a: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
ether 00:c0:dd:11:40:2c (auto-10g_twinax-fd-up) flowcontrol full
e1b: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
ether 00:c0:dd:11:40:2e (auto-10g_twinax-fd-up) flowcontrol full
Les procédures de vérification pour les exemples de configuration décrits dans ce document sont fournies dans les sections respectives.
Il n'existe actuellement aucune information de dépannage spécifique pour cette configuration.