Commutateurs : Commutateurs Cisco Nexus, s�rie�5000

Exemple de configuration du Nexus 5500 VM-FEX

18 octobre 2016 - Traduction automatique
Autres versions: PDFpdf | Anglais (22 août 2015) | Commentaires

Introduction

Ce document décrit comment configurer, actionner, et dépanner la caractéristique de Fabric Extender de virtual machine (VM-FEX) sur Cisco Nexus 5500 Commutateurs.

Contribué par Charles Youssef, ingénieur TAC Cisco.

Conditions préalables

Conditions requises

Cisco recommande que vous ayez la connaissance de base de ces thèmes.

  • Port canalisé virtuel de Nexus (VPC)
  • VSphere de VMware

Composants utilisés

Les informations contenues dans ce document sont basées sur les versions de matériel et de logiciel suivantes :

  • Nexus 5548UP qui exécute la version 5.2(1)N1(4)
  • Unified Computing System (UCS) - Serveur rack du C C210 m2 avec la carte d'interface virtuelle UCS P81E qui exécute la version 1.4(2) de micrologiciels
  • version 5.0 de vSphere (ESXi et vCenter)

Les informations contenues dans ce document ont été créées à partir des périphériques d'un environnement de laboratoire spécifique. Tous les périphériques utilisés dans ce document ont démarré avec une configuration effacée (par défaut). Si votre réseau est vivant, assurez-vous que vous comprenez l'impact potentiel de n'importe quelle installation de commande ou de capture de paquet.

Aperçu VM-FEX

VM-FEX combine le réseau virtuel et physique dans une infrastructure simple. Il te permet pour provision, configurer, et gérer le trafic réseau de virtual machine et le trafic réseau nu en métal dans une infrastructure unifiée.

Le logiciel VM-FEX étend la technologie de prolongateur de matrice de Cisco au virtual machine avec ces capacités :

  • Chaque virtual machine inclut une interface dédiée sur le commutateur de parent.
  • Tout le trafic de virtual machine est envoyé directement à l'interface dédiée sur le commutateur.
  • Le vSwitch standard dans le hypervisor est éliminé.

VM-FEX est un type de commutateur virtuel distribué (DVS ou VDS). Le DVS présente une abstraction d'un commutateur simple à travers les plusieurs serveurs ESX qui font partie du même conteneur de centre d'hébergement dans le vCenter. La configuration virtuelle du contrôleur d'interface réseau du virtual machine (VM) (VNIC) est mise à jour d'un emplacement centralisé (le Nexus 5000 ou l'UCS dans VM-FEX, ce document illustre le Nexus 5000-based VM-FEX).

VM-FEX peut fonctionner en deux modes :

  • Intercommunication : C'est le mode par défaut, dans lequel le VEM est impliqué dans le chemin de données pour le trafic VM.
  • Haute performance : Le trafic VM n'est pas traité par le VEM mais est passé directement à l'adaptateur de la virtualisation du réseau E/S (NIV).

Afin d'utiliser le mode performant, il devrait être demandé par la configuration de port-profil et devrait être pris en charge par le système d'exploitation VM et par son adaptateur virtuel. Plus d'informations sur ceci sont fournies plus tard dans ce document.

Définitions

  • Module virtuel d'Ethernets (VEM). Module logiciel de Cisco qui fonctionne à l'intérieur du hypervisor ESX et fournit l'implémentation de VNLink dans un module simple

  • La virtualisation du réseau E/S (NIV) emploie VNtagging afin de déployer plusieurs liaisons réseau virtuelles (Navigation-lien) à travers le même canal physique d'Ethernets

  • Centre d'hébergement jetant un pont sur l'échange de capacité (DCBX)

  • Contrôle d'interface VNIC (carte d'interface virtuelle)

  • NIC virtuel (VNIC), qui indique un point final d'hôte. Il peut être associé avec un VIF actif ou un standby VIF

  • Port virtuel distribué (DVPort). VNIC est connecté au DVPort dans le VEM

  • Interface virtuelle NIV (VIF), qui est indiquée à un point final de réseau

  • L'interface virtuelle d'Ethernets (vEth) représente VIF sur le commutateur

  • Commutateur d'intercommunication (PTS). Module VEM installé dans le hypervisor

Remarque: Le VEM utilisé dans VM-FEX est semblable au VEM utilisé avec le Nexus 1000v. La différence est celle dans VM-FEX, le VEM fonctionne en mode d'intercommunication et n'exécute pas la commutation locale entre les VMs sur le même ESX.

Configurez

La topologie est un serveur d'UC série C avec double de carte d'interface virtuelle P81E autoguidé à deux Commutateurs de VPC du Nexus 5548.

Remarque: Utilisez l'Outil de recherche de commande (clients enregistrés seulement) pour obtenir plus d'informations sur les commandes utilisées dans cette section.

Diagramme du réseau

Ces éléments requis doivent déjà être en place :

  • Le VPC est configuré et initialisé correctement entre les deux Commutateurs de Nexus 5000.

  • Le vCenter de VMware est installé et connecté à par l'intermédiaire d'un client de vSphere.

  • ESXi est installé sur le serveur d'UC série C et ajouté au vCenter.

Des étapes de configuration sont récapitulées ici :

  1. Mode de l'enable NIV sur l'adaptateur de serveur :

    1. Connectez à l'interface de Contrôleur de gestion intégré de Cisco (CIMC) par l'intermédiaire du HTTP et de la procédure de connexion aux qualifications d'admin.

    2. Choisissez l'inventaire > les adaptateurs réseau > modifient l'adaptateur Properties.

    3. Activez le mode NIV, placez le nombre d'interfaces VM FEX, et sauvegardez les modifications.

    4. Mettez hors tension et puis mettez sous tension le serveur.




    Après que le serveur revienne en ligne, vérifiez que NIV est activé :



  2. Créez deux vEths statiques sur le serveur.

    Afin de créer deux VNICs, choisissez l'inventaire > les adaptateurs réseau > le VNICs > ajoutent.
    Ce sont les champs les plus importants à définir :

    • Port uplink de carte d'interface virtuelle à utiliser (P81E a deux ports uplinks référencés en tant que 0 et 1).

    • Numéro de canal : C'est un seul ID de canal du VNIC sur l'adaptateur. Ceci est mis en référence dans la commande de grippage sous l'interface de vEth sur le Nexus 5000. La portée du numéro de canal est limitée au lien physique de VNTag. Le canal peut être considéré comme une « liaison virtuelle » sur le lien physique entre le commutateur et l'adaptateur de serveur.

    • Port-profil : La liste de port-profils définis sur le Nexus 5000 en amont peut être sélectionnée. Une interface de vEth est automatiquement créée sur le Nexus 5000 si le Nexus 5000 est configuré avec le vEthernet automatique-créent la commande. Notez que seulement les noms de port-profil de vEthernet sont passés au serveur (la configuration de port-profil n'est pas). Ceci se produit après la Connectivité de lien de VNTag est établi et les étapes initiales de prise de contact et de négociation sont exécutées entre le commutateur et l'adaptateur de serveur.

    • Basculement de liaison ascendante d'enable : Le Basculement de VNICs à l'autre port uplink P81E si le port uplink configuré va off-line.





  3. Redémarrez le serveur.

  4. Installez le VEM sur l'hôte d'ESXi.

    Pour un exemple installez du VEM sur le serveur d'ESXi, référez-vous à installer ou à améliorer le lot de logiciels de Cisco VEM sur un ESX ou le serveur d'ESXi dans le Cisco UCS Manager VM-FEX pour le guide de configuration GUI de VMware, version 2.1.



    Remarque: Toutes les configurations de commutateur affichées ensuite devraient être configurées sur chacun des deux pairs de VPC du Nexus 5500, à moins que le commutateur virtuel de logiciel (SVS) connectent la commande et la clé d'extension XML, qui devraient être faites sur le commutateur primaire de VPC seulement.



  5. Activez l'ensemble de caractéristiques de virtualisation et les caractéristiques VM-FEX et de HTTP :

    (config)# install feature-set virtualization
    (config)# feature-set virtualization
    (config)# feature vmfex
    (config)# feature http-server

    (Optional) Allow the Nexus 5000 to auto-create its Vethernet interfaces when the
    corresponding vNICs are defined on the server:
    (config)# vethernet auto-create


  6. Enable VNTag sur des interfaces d'hôte.
    Configure the N5k interface that connects to the servers in VNTAG mode:
    (config)# interface Eth 1/1
    (config-if)# switchport mode vntag
    (config-if)# no shutdown


  7. Apportez les vEths statiques.

    Sur les deux Commutateurs du Nexus 5500, activez les interfaces virtuelles statiques de vEth qui devraient se connecter deux à la charge statique VNICs activé sur la carte d'interface virtuelle de serveur.

    Sur le Nexus 5548-A, entrez :
    interface vethernet 1 
    bind interface eth 1/1 channel 10
    no shutdown


    Sur le Nexus 5548-B, entrez :
    interface vethernet 2
    bind interface eth 1/1 channel 11
    no shutdown


    Alternativement, ces interfaces de vEth peuvent être automatiquement créées avec le vethernet automatique-créent la commande.

    Remarque: En cas de topologies qui font participer de doubles serveurs autoguidés aux modules de l'Active/Active FEX, le serveur VNICs devrait faire activer le Basculement de liaison ascendante, et les interfaces de vEthernet de commutateur ont deux commandes de bind interface (une fois par chaque port d'interface d'hôte FEX (HIF) que le serveur est connecté à). L'interface de vEthernet est en activité ou de réserve sur chaque commutateur de Nexus 5000.



    Voici un exemple.

    Sur chacun deux du Nexus 5000s, configurez :
    interface Vethernet1
      description server_uplink1
      bind interface Ethernet101/1/1 channel 11
      bind interface Ethernet102/1/1 channel 11

    interface Vethernet2
      description server_uplink2
      bind interface Ethernet101/1/1 channel 12
      bind interface Ethernet102/1/1 channel 12


  8. Configurez la connexion SVS au vCenter et connectez.

    Sur les deux Commutateurs du Nexus 5500, configurez :

    svs connection <name>
      protocol vmware-vim
      remote ip address <vCenter-IP> vrf <vrf>
      dvs-name <custom>
      vmware dvs datacenter-name <VC_DC_name>


    Sur le commutateur primaire de VPC seulement, connectez au vCenter :

    svs connection <name>
      connect

    Sample configuration on VPC primary:
    svs connection MyCon
      protocol vmware-vim
      remote ip address 10.2.8.131 port 80 vrf management
      dvs-name MyVMFEX
      vmware dvs datacenter-name MyVC
      connect


    Voici une configuration d'échantillon sur le VPC secondaire :
    svs connection MyCon
      protocol vmware-vim
      remote ip address 10.2.8.131 port 80 vrf management
      dvs-name MyVMFEX
      vmware dvs datacenter-name MyVC


  9. Créez les port-profils sur le Nexus 5000.

    Sur les deux Commutateurs du Nexus 5500, configurez les port-profils pour le VM-FEX VNICs. Ces port-profils apparaissent pendant que les port-groupes du DVS commutent dans le vCenter.

    Voici un exemple :

    vlan 10,20

    port-profile type vethernet VM1
      dvs-name all
      switchport mode access
      switchport access vlan 10
      no shutdown
      state enabled
    port-profile type vethernet VM2
      dvs-name all
      switchport mode access
      switchport access vlan 20
      no shutdown
      state enabled


    Remarque: Le dvs-nom que toute la commande définit à quel commutateur DVS dans le vCenter ce port-profil devrait être exporté en tant que port-groupe. Employez l'option toute la commande afin d'exporter le port-groupe à tous les Commutateurs DVS dans le centre d'hébergement.



    Mode de haute performance VM

    Afin d'implémenter le mode de haute-Perfomance (DirectPath E/S) et sauter le hypervisor pour le trafic VM, configurez le port-profil de vEthernet avec la commande performante d'hôte-netio. Dans le cas des topologies de VPC, le port-profil devrait être toujours édité sur les deux Commutateurs de pair de VPC. Exemple :

    port-profile type vethernet VM2
    high-performance host-netio


    Afin d'avoir le mode performant opérationnel, votre VM doit avoir ces conditions préalables supplémentaires :
    • L'adaptateur virtuel VM devrait être du type vmxnet3 (signez le vCenter : Le clic droit VM > éditent les configurations > le type d'adaptateur réseau > d'adaptateur sur le bon menu).

    • La VM doit avoir la pleine réservation de mémoire (dans le vCenter : Le clic droit VM > curseur éditent les configurations > l'onglet de ressources > de mémoire > de glissière réservation au de droite).

    • Le système d'exploitation qui fonctionne sur la VM devrait prendre en charge cette caractéristique.



    Voici comment vous vérifiez le mode performant (DirectPath E/S) quand il est utilisé.
    Sous les configurations matérielles VM, le champ E/S de DirectPath dans le bon menu affiche en tant qu'active quand le mode performant VM est en service et comme inactif quand le mode d'intercommunication VM de par défaut est en service.



  10. Enregistrez le Nexus primaire 5548 de VPC dans le vCenter :

    Remarque: Dans des topologies de VPC, le commutateur primaire de VPC pousse la paire de clés d'extension au vCenter aussi bien qu'aux port-profils. La clé d'extension est synchronisée par le pair primaire de VPC au pair secondaire de VPC. Ceci plus tard est vérifié avec le connectioncommand SVS d'exposition, qui signale la même extension-clé sur les deux pairs. Si deux le Nexus 5500 n'étaient pas des pairs de VPC, alors l'extension clée configurée serait différente pour chaque commutateur et chaque commutateur devrait établir les connexions distinctes SVS au vCenter.



    Connectez par l'intermédiaire du HTTP au Nexus primaire 5548 de VPC et téléchargez le fichier XML d'extension :



    Puis, registre ce périphérique prêt à brancher d'extension dans le vCenter : choisissez les connexions > gèrent des connexions > le clic droit > nouveau périphérique prêt à brancher.

  11. Connectez au vCenter. (Voir l'étape 8.)

  12. Vérifiez que le Nexus 5000 s'enregistre dans le vSphere comme vDS :

    Vérifiez la création d'un nouveau DVS sous le vCenter avec le nom comme défini dans le dvs-nom sous la connexion SVS sur le Nexus 5000 : choisissez à la maison > inventaire > réseau.



    Sur le commutateur primaire de VPC de Nexus 5000, vérifiez que la connexion SVS est en ligne avec cette commande :

    n5k1# show svs connections

    Local Info:
    -----------
    connection MyCon:
        ip address: 10.2.8.131
        remote port: 80
        vrf: management
        protocol: vmware-vim https
        certificate: default
        datacenter name: MyVC
        extension key: Cisco_Nexus_1000V_126705946
        dvs name: MyVMFEX
        DVS uuid: 89 dd 2c 50 b4 81 57 e4-d1 24 f5 28 df e3 d2 70
        config status: Enabled
        operational status: Connected
        sync status: in progress
        version: VMware vCenter Server 5.0.0 build-455964


    Peer Info:
    ----------
    connection MyCon:
        ip address: 10.2.8.131
        remote port: 80
        vrf: management
        protocol: vmware-vim https
        extension key: Cisco_Nexus_1000V_126705946
        certificate: default
          certificate match: TRUE
        datacenter name: MyVC
        dvs name: MyVMFEX
        DVS uuid: -
        config status: Disabled
        operational status: Disconnected
    n5k1#


  13. Assurez-vous que les port-groupes VM sont disponibles dans le vCenter.

    Les port-profils de vEthernet définis sur le Nexus 5000 devraient apparaître dans le vCenter comme des port-groupes sous le DVS dans la vue de réseau :



  14. Migrez les hôtes d'ESXi vers le DVS.

    De VSphere, choisissez à la maison > inventaire > réseau, cliquez avec le bouton droit le nom DVS, puis ajoutez l'hôte afin d'ajouter les hôtes d'ESXi au DVS.

    Les interfaces virtuelles d'adaptateur-FEX sont les liaisons ascendantes d'hôtes d'ESXi. Choisissez le port-groupe par défaut de liaison ascendante (unused_or_quarantine_uplink) pour ces ports de liaisons ascendantes.

  15. Provision la VM.

    Choisissez un port-groupe VM-FEX pour l'adaptateur réseau d'une VM (le clic droit VM > éditent les configurations > l'étiquette d'adaptateur réseau > de réseau dans le bon menu).

  16. La VM VNICs provisioned.

  17. L'adaptateur initie l'interface de carte d'interface virtuelle créent pour commuter.

    Quand un adaptateur réseau VM est tracé à un port-groupe VM-FEX, une interface de vEthernet est dynamiquement créée sur le Nexus 5000. La plage du vEth dynamiquement créé relie des débuts à 32769.

    Ces interfaces peuvent être vérifiées par l'intermédiaire de ces commandes :
    # show interface virtual status
    # show interface virtual summary

Vérifiez et dépannez

Employez cette section afin de vérifier que vos travaux de configuration correctement et pour dépanner toutes questions que vous rencontrez.

  • Afin de vérifier que deux la charge statique VNICs du serveur d'UC série C sont connectées au Navigation-lien aux interfaces fixes statiques de vEth sur le Nexus 5500, sélectionnez cette commande :

    n5k1# show system internal dcbx info interface e1/1

    Interface info for if_index: 0x1a001000(Eth1/1)
    tx_enabled: TRUE
    rx_enabled: TRUE
    dcbx_enabled: TRUE
    DCX Protocol: CEE
    DCX CEE NIV extension: enabled
    <output omitted>


  • En cas de topologies actives/de réserve à deux double FEXs autoguidé, assurez-vous que l'interface de vEth affiche en tant que l'active ou mode standby sur les deux Commutateurs de VPC de Nexus 5000.
     
     Ici les expositions de mode en tant qu'inconnu :
     
    n5k1# show int virtual status
    Interface VIF-index   Bound If      Chan  Vlan  Status     Mode     Vntag
    -------------------------------------------------------------------------
    Veth1     VIF-16      Eth101/1/1      11     1  Up         Active       2
    Veth1     None        Eth102/1/1      11     0  Init       Unknown      0
    Veth2     None        Eth101/1/1      12     0  Init       Unknown      0
    Veth2     None        Eth102/1/1      12     0  Init       Unknown      0
    Veth3     VIF-18      Eth101/1/2      11     1  Up         Active       2
    Veth3     None        Eth102/1/2      11     0  Init       Unknown      0
    Veth4     None        Eth101/1/2      12     0  Init       Unknown      0
    Veth4     VIF-19      Eth102/1/2      12     1  Up         Active       3


    Si vous rencontrez le mode inconnu, veillez à activer le mode de Basculement de liaison ascendante sur le VNIC. Assurez-vous également que le numéro de canal que vous avez spécifié dans le CIMC apparie le numéro de canal qui est spécifié dans la configuration de vEthernet.

    La sortie correcte devrait ressembler à ceci :

    n5k1# show int virtual status
    Interface VIF-index   Bound If      Chan  Vlan  Status     Mode     Vntag
    -------------------------------------------------------------------------
    Veth1     VIF-27      Eth101/1/1      11     1  Up         Active       2
    Veth1     VIF-35      Eth102/1/1      11     1  Up         Standby      2
    Veth2     VIF-36      Eth101/1/1      12     1  Up         Standby      3
    Veth2     VIF-33      Eth102/1/1      12     1  Up         Active       3
    Veth3     VIF-30      Eth101/1/2      11     1  Up         Active       2
    Veth3     VIF-21      Eth102/1/2      11     1  Up         Standby      2
    Veth4     VIF-24      Eth101/1/2      12     1  Up         Standby      3
    Veth4     VIF-31      Eth102/1/2      12     1  Up         Active       3


  • les interfaces de vEth n'apparaissent pas sur le commutateur.

    Dans le menu de HTTP du serveur CIMC d'UC série C, vérifiez cela :
    • NIV est activé sur l'adaptateur.

    • Un nombre différent de zéro d'interfaces VM-FEX est configuré sur l'adaptateur.

    • Le Basculement d'adaptateur est activé sur le VNIC.

    • Le serveur d'UC série C a été redémarré après que la configuration ci-dessus ait été faite.


  • les interfaces de vEth ne sont pas livré en ligne.

    Vérifiez si VIF_CREATE apparaît dans cette commande :

    # show system internal vim info logs interface veth 1
    03/28/2014 16:31:47.770137: RCVD VIF CREATE request on If Eth1/32  <<<<<<<
    03/28/2014 16:31:53.405004: On Eth1/32 - VIC CREATE sending rsp for msg_id 23889
    to completion code SUCCESS
    03/28/2014 16:32:35.739252: On Eth1/32 - RCVD VIF ENABLE. VIF-index 698 msg id 23953
    VIF_ID: 0, state_valid: n, active
    03/28/2014 16:32:35.802019: On Eth1/32 - VIC ENABLE sending rsp for msg_id 23953 to
    completion code SUCCESS
    03/28/2014 16:32:36.375495: On Eth1/32 - Sent VIC SET, INDEX: 698, msg_id 23051, up,
    enabled, active, cos 0VIF_ID: 50 vlan:
    1 rate 0xf4240, burst_size 0xf
    03/28/2014 16:32:36.379441: On Eth1/32 - RCVD VIC SET resp, INDEX: 698, msg_id 23051,
    up, enabled,active, cos 0, completion
    code: 100


    Si VIF_CREATE n'apparaît pas ou le commutateur ne répond pas correctement, terminez-vous ces étapes :

    • Dans le vCenter, le contrôle que le commutateur DVS a été correctement configuré avec deux liaisons ascendantes physiques pour l'hôte ESX (commutateur de clic droit DVS > gèrent des hôtes > sélectionnent les adaptateurs physiques).

    • Dans le vCenter, le contrôle que VMNIC a sélectionné l'étiquette de réseau approprié/port-profil (clic droit VM > éditent des configurations > cliquent sur en fonction l'étiquette de réseau d'adaptateur réseau > de contrôle).


  • La connexion SVS au vCenter n'est pas livré en ligne.

    Suivant les indications de l'étape 12 dans la section précédente, employez ce de processus afin de vérifier que le Nexus 5000 a été connecté au vCenter :

    • Sur le vCenter, vérifiez que le DVS apparaît sous la vue de réseau.

    • Sur le VPC de Nexus 5000 primaire, vérifiez que le SVS est connecté (utilisez la commande de connexion SVS d'exposition).



    Au cas où la connexion ne serait pas établie, vérifiez cela :

    • La configuration SVS est identique sur les deux pairs de VPC.

    • Le VPC est initialisé et les rôles sont établis correctement.

    • Le certificat primaire du commutateur XML de VPC est installé dans le vCenter.

    • Le commutateur primaire de VPC fait « se connecter » configuré sous le mode de configuration « de connexion SVS ».

    • Le nom de centre d'hébergement apparie le nom utilisé sur le vCenter.

    • Le Virtual Routing and Forwarding correct (VRF) est configuré dans la remote command SVS et que le commutateur a la connectivité IP à l'adresse IP de vCenter.


    Si toutes ces conditions sont remplies mais la connexion SVS n'est toujours pas réussie, collectez cette sortie et entrez en contact avec le centre d'assistance technique Cisco (TAC) :
    show msp port-profile vc sync-status
    show msp internal errors
    show msp internal event-history msgs
    show vms internal errors
    show vms internal event-history msgs


  • Le commutateur du Nexus 5500 n'est pas accessible par l'intermédiaire du HTTP.

    Vérifiez que la caractéristique de HTTP-serveur est activée :

    n5k1# show feature | i http
    http-server           1         disabled
    n5k1# conf t
    Enter configuration commands, one per line.  End with CNTL/Z.
    n5k1(config)# feature http-server
    n5k1(config)#


Document ID: 117690