Informatique unifiée : Serveurs lames Cisco UCS, s�rie�B

UCS avec l'exemple enorme de bout en bout de configuration de MTU d'ESXi de VMware

18 octobre 2016 - Traduction automatique
Autres versions: PDFpdf | Anglais (22 août 2015) | Commentaires

Introduction

Ce document décrit comment configurer l'unité maximum enorme de transition (MTU) de bout en bout à travers des périphériques de centre de données Cisco dans un réseau qui se compose d'un serveur de VMware ESXi installé sur le Système d'informatique unifiée Cisco (UCS), les Commutateurs de la gamme Cisco Nexus 1000V (N1kV), le Commutateurs de la gamme Cisco Nexus 5000 (N5k), et le contrôleur de Cisco NetApp.

Contribué par Vishal Mehta, ingénieur TAC Cisco.

Conditions préalables

Conditions requises

Cisco vous recommande de prendre connaissance des rubriques suivantes :

  • VMware ESXi
  • Cisco UCS
  • Cisco N5k
  • Petite interface de systèmes informatiques de Cisco Internet (iSCSI)

Composants utilisés

Les informations contenues dans ce document sont basées sur les versions de matériel et de logiciel suivantes : 

  • Version 5.0(3)N2(2a) de Commutateurs de gamme 5020 de Cisco Nexus
  • Version 2.1(1d) de Cisco UCS
  • Serveur lame du Cisco UCS B200 M3 avec la carte d'interface virtuelle de Cisco (carte d'interface virtuelle) 1240
  • vSphere 5.0 (ESXi et vCenter)
  • Version 4.2(1)SV2(2.1a) de Cisco N1kV
  • NetApp FLB 3240

Les informations contenues dans ce document ont été créées à partir des périphériques d'un environnement de laboratoire spécifique. Tous les périphériques utilisés dans ce document ont démarré avec une configuration effacée (par défaut). Si votre réseau est vivant, assurez-vous que vous comprenez l'impact potentiel de n'importe quelle installation de commande ou de capture de paquet.

Configurez

Diagramme du réseau

Le déploiement typique du réseau de stockage d'iSCSI (SAN) utilise le Cisco UCS avec Fabric Interconnect en mode d'hôte d'extrémité d'Ethernets et cible de mémoire connectée par un commutateur ou un réseau commuté en amont.

Par l'utilisation des ports d'appareils sur l'UCS, la mémoire peut être directement connectée à la matrice interconnecte.

Si le réseau en amont est 1 GbE ou GbE 10, l'utilisation des Trames étendues (une taille de MTU de 9000, par exemple) améliore la représentation parce qu'elle réduit le nombre de différentes trames qui doivent être envoyées pour une quantité donnée de données et réduit la nécessité de séparer des blocs de données d'iSCSI dans des trames de plusieurs réseaux Ethernet. Ils diminuent également l'utilisation du processeur d'hôte et de mémoire.

Si des Trames étendues sont utilisées, vous devez s'assurer qu'UCS et de mémoire, aussi bien que tout les équipement réseau la cible entre, sont capable et configurée afin de prendre en charge la taille de trame plus grande. Ceci signifie que le MTU jumbo doit être de bout en bout configuré (demandeur à viser) pour qu'il soit efficace à travers le domaine.

Voici un aperçu de la procédure qui est utilisée afin de configurer le MTU jumbo de bout en bout :

  1. Créez une classe de système de Qualité de service (QoS) UCS avec un MTU de 9000, et puis configurez le NIC virtuel (vNIC) avec le MTU jumbo.

  2. Activez les Trames étendues (MTU 9000) sur tous les Commutateurs entre le demandeur (UCS) et la cible d'iSCSI.

  3. Activez les Trames étendues sur l'adaptateur du système d'exploitation (de SYSTÈME D'EXPLOITATION) (port de VMkernel de l'ESXi).

  4. Trames étendues d'enable sur les interfaces de NetApp.

Remarque: Mettez en référence les options et les pratiques recommandées de Connectivité de mémoire du Système d'informatique unifiée Cisco (UCS) avec l'article de Cisco de mémoire de NetApp pour information les informations complémentaires. 

Configuration de Cisco UCS

Le MTU est placé sur une par-classe de base de service (cos) dans l'UCS. Si vous n'avez pas une stratégie QoS définie pour le vNIC qui se dirige vers le vSwitch, alors le trafic se déplace à la classe de meilleur effort.

Terminez-vous ces étapes afin d'activer des Trames étendues :

  1. Du GUI UCS, cliquez sur l'onglet de RÉSEAU LOCAL.

  2. Naviguez vers le nuage de RÉSEAU LOCAL > de RÉSEAU LOCAL > la classe de système de QoS.

  3. Cliquez sur la classe de système de QoS et changez le MTU de classe du trafic (qui porte le trafic d'iSCSI) à 9216.

    Remarque: Cet exemple emploie la classe du trafic de meilleur effort afin de montrer cette mise à jour de MTU.




  4. Créez une stratégie QoS dans l'onglet de RÉSEAU LOCAL et appliquez-vous l'au vNIC qui porte le trafic de mémoire.



  5. Naviguez vers le modèle de vNIC ou le vNIC réel sous les services profiles et placez la valeur de MTU à 9000.

Vérifiez

Vérifiez que le vNIC a le MTU configuré comme décrit précédemment.

Vérifiez que les ports uplinks ont le MTU jumbo activé.

Configuration N5k

Avec le N5k, le MTU jumbo est activé au niveau du système.

Ouvrez une invite de commande et sélectionnez ces commandes afin de configurer le système pour le MTU jumbo :

switch(config)#policy-map type network-qos jumbo
switch(config-pmap-nq)#class type network-qos class-default
switch(config-pmap-c-nq)#mtu 9216switch(config-pmap-c-nq)#exit
switch(config-pmap-nq)#exitswitch(config)#system qos
switch(config-sys-qos)#service-policy type network-qos jumbo

Vérifiez

Sélectionnez la commande des Ethernets x/y de show queueing interface afin de vérifier que le MTU jumbo est activé :

Remarque: La commande des Ethernets x/y d'interface d'exposition affiche un MTU de 1500, mais c'est incorrecte.

Configuration d'ESXi de VMware

Vous pouvez configurer la valeur de MTU d'un vSwitch de sorte que tous les port-groupes et ports utilisent des Trames étendues.

Terminez-vous ces étapes afin d'activer des Trames étendues sur un vSwitch d'hôte :

  1. Naviguez pour autoguider inventaire hôtes et batteries du client de vSphere.

  2. Sélectionnez l'hôte.

  3. Cliquez sur l'onglet de configuration.

  4. Réseau choisi dans le menu de matériel.

  5. Choisissez le commutateur standard de vSphere dans le domaine de vue.

  6. Cliquez sur Properties

  7. VSwitch choisi sur l'onglet de ports de la fenêtre externe de Properties.

  8. Cliquez sur Edit.

  9. Sur l'onglet Général de la fenêtre externe, changez le MTU (sous des propriétés avancées) de la valeur par défaut (1500) à 9000. Ceci active des Trames étendues sur tous les port-groupes et ports du vSwitch.

Terminez-vous ces étapes afin d'activer des Trames étendues seulement sur un port de VMkernel du serveur de vCenter :

  1. Du client de vSphere, naviguez pour autoguider inventaire hôtes et batteries.

  2. Sélectionnez l'hôte.

  3. Cliquez sur l'onglet de configuration

  4. Réseau choisi dans le menu de matériel.

  5. Choisissez le commutateur standard de vSphere dans le domaine de vue.

  6. Cliquez sur Properties

  7. VMkernel choisi sur l'onglet de ports de la fenêtre externe de Properties.

  8. Cliquez sur Edit.

  9. Sur l'onglet Général de la fenêtre externe, changez le MTU (sous des configurations NIC) de la valeur par défaut (1500) à 9000. Ceci active des Trames étendues sur seulement un port de VMkernel du vSwitch.

Vérifiez

Sélectionnez - d - l'IP address > la commande vmkping d'appareils de <storage s 8972 afin de tester la connexion réseau et la vérifier que le port de VMkernel peut cingler avec le MTU jumbo.

Conseil : Mettez en référence la connexion réseau de test de VMkernel avec l'article vmkping de VMware de commande pour plus d'informations sur cette commande. 

Remarque: La plus grande véritable longueur de paquet est 8972, qui envoie un paquet 9000-byte quand vous ajoutez les octets d'en-tête IP et d'ICMP.

Au niveau d'hôte d'ESXi, vérifiez que les configurations de MTU sont configurées correctement :

Configuration Cisco IOS

Avec des Commutateurs de Cisco IOS®, il n'y a aucun concept de MTU global au niveau de commutateur. Au lieu de cela, le MTU est configuré au niveau d'interface/Ether-canal.

Sélectionnez ces commandes afin de configurer le MTU jumbo :

7609(config)#int gigabitEthernet 1/1
7609(config-if)#mtu ?
<1500-9216>  MTU size in bytes
7609(config-if)#mtu 9216

Vérifiez

 Entrez dans les shows interfaces gigabitethernets 1/1 commande afin de vérifier que la configuration est correcte :

7609#show interfaces gigabitEthernet 1/1

GigabitEthernet1/1 is up, line protocol is up (connected)
  Hardware is C6k 1000Mb 802.3, address is 0007.0d0e.640a (bia 0007.0d0e.640a)
  MTU 9216 bytes, BW 1000000 Kbit, DLY 10 usec,
  reliability 255/255, txload 1/255, rxload 1/255

Configuration N1kV

Avec le N1kV, le MTU jumbo peut seulement être configuré sur les port-profils d'Ethernets pour la liaison ascendante ; Le MTU ne peut pas être configuré à l'interface de vEthernet.

Vérifiez

Sélectionnez la commande de LIAISON ASCENDANTE de port-profil de passage d'exposition afin de vérifier que la configuration est correcte : 

De NetApp configuration 3240 FLB

Sur le contrôleur de mémoire, les ports de réseau qui sont connectés à Fabric Interconnect ou à la couche 2 le commutateur (L2) doivent avoir le MTU jumbo configuré. Voici un exemple de configuration :

FAS3240-A> vlan create e1a 100
Ethernet e1a: Link being reconfigured.
vlan: e1a-100 has been created
Ethernet e1a: Link up.

FAS3240-A> vlan create e1b 100
Ethernet e1b: Link being reconfigured.
vlan: e1b-100 has been created
Ethernet e1b: Link up.

FAS3240-A> ifconfig e1a-100 192.168.101.105 netmask 255.255.255.0 mtusize 9000
partner e1a-100

FAS3240-A> ifconfig e1b-100 192.168.102.105 netmask 255.255.255.0 mtusize 9000
partner e1b-100

Vérifiez

Employez cette section afin de vérifier que la configuration est correcte.

FAS3240-A> ifconfig -a
e1a: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
 ether 00:c0:dd:11:40:2c (auto-10g_twinax-fd-up) flowcontrol full
e1b: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
 ether 00:c0:dd:11:40:2e (auto-10g_twinax-fd-up) flowcontrol full

Vérifiez

Les procédures de vérification pour les exemples de configuration décrits dans ce document sont fournies dans les sections respectives.

Dépannez

Il n'existe actuellement aucune information de dépannage spécifique pour cette configuration.



Document ID: 117601