Switches : Switches Cisco Nexus 5000 Series

Exemplo de configuração do nexo 5500 VM-FEX

19 Setembro 2015 - Tradução por Computador
Outras Versões: Versão em PDFpdf | Inglês (22 Agosto 2015) | Feedback

Introdução

Este documento descreve como configurar, operar, e pesquisar defeitos a característica do prolongamento da tela da máquina virtual (VM-FEX) em 5500 Switch do nexo de Cisco.

Contribuído por Charles Youssef, engenheiro de TAC da Cisco.

Pré-requisitos

Requisitos

Cisco recomenda que você tem o conhecimento básico destes assuntos.

  • Canal da porta virtual do nexo (VPC)
  • VSphere de VMware

Componentes Utilizados

As informações neste documento são baseadas nas seguintes versões de hardware e software:

  • Nexo 5548UP que executa a versão 5.2(1)N1(4)
  • Sistema de Unified Computing (UCS) - Server da cremalheira do C C210 M2 com o cartão de interface virtual UCS P81E que executa a versão de firmware 1.4(2)
  • versão 5.0 do vSphere (ESXi e vCenter)

As informações neste documento foram criadas a partir de dispositivos em um ambiente de laboratório específico. Todos os dispositivos utilizados neste documento foram iniciados com uma configuração (padrão) inicial. Se sua rede está viva, certifique-se de que você compreende o impacto potencial da instalação do comando any ou da captura de pacote de informação.

Vista geral VM-FEX

VM-FEX combina trabalhos em rede virtuais e físicos em uma única infraestrutura. Permite que você provision, configure, e controle o tráfego de rede da máquina virtual e o tráfego de rede desencapado do metal dentro de uma infraestrutura unificada.

O software VM-FEX estende a tecnologia do prolongamento da tela de Cisco à máquina virtual com estas capacidades:

  • Cada máquina virtual inclui uma relação dedicada no interruptor do pai.
  • Todo o tráfego da máquina virtual é enviado diretamente à relação dedicada no interruptor.
  • O vSwitch padrão no hypervisor é eliminado.

VM-FEX é um tipo de virtual switch distribuído (DV ou VD). Os DV apresentam uma abstração de um switch único através dos server múltiplos ESX que são parte do mesmo recipiente de Datacenter no vCenter. A configuração do controlador da relação de rede virtual da máquina virtual (VM) (VNIC) é mantida de uma localização centralizada (o nexo 5000 ou UCS em VM-FEX, este documento ilustra o nexo 5000-based VM-FEX).

VM-FEX pode operar-se em dois modos:

  • Passagem-através de: Este é o modo padrão, em que o VEM é envolvido no trajeto de dados para o tráfego VM.
  • De capacidade elevada: O tráfego VM não é segurado pelo VEM mas é passado diretamente ao adaptador da virtualização da rede IO (NIV).

A fim usar o modo de capacidade elevada, deve ser pedido pela configuração do porta-perfil e deve ser apoiado pelo sistema operacional VM e por seu adaptador virtual. Mais informação sobre esta é fornecida mais tarde neste documento.

Definições

  • Módulo de Ethernet virtual (VEM). Módulo de software Cisco que é executado dentro do hypervisor ESX e fornece a aplicação de VNLink em um único pacote

  • A virtualização da rede IO (NIV) usa VNtagging a fim distribuir diversos links de rede virtual (VN-link) através do mesmo canal físico dos Ethernet

  • Datacenter que constrói uma ponte sobre o intercâmbio de potencialidade (DCBX)

  • Controle de interface VNIC (VIC)

  • NIC virtual (VNIC), que indica um valor-limite do host. Pode ser associado com um VIF ativo ou um VIF à espera

  • Porta virtual distribuída (DVPort). VNIC é conectado ao DVPort no VEM

  • Interface virtual NIV (VIF), que é indicada em um valor-limite de rede

  • A relação virtual dos Ethernet (vEth) representa VIF no interruptor

  • Passagem-através do interruptor (PT). Módulo VEM instalado no hypervisor

Nota: O VEM usado em VM-FEX é similar ao VEM usado com o nexo 1000v. A diferença é aquela em VM-FEX, o VEM opera-se no modo de passagem e não se executa o switching local entre VM no mesmo ESX.

Configurar

A topologia é um server UCS-C com o duplo P81E VIC dirigido a dois nexos 5548 Switches VPC.

Nota: Use a Command Lookup Tool ( somente clientes registrados) para obter mais informações sobre os comandos usados nesta seção.

Diagrama de Rede

Estes componentes requeridos devem já ser no lugar:

  • O VPC é configurado e inicializado corretamente entre os dois 5000 Switch do nexo.

  • O vCenter de VMware é instalado e conectado através de um cliente do vSphere.

  • ESXi é instalado no server UCS-C e adicionado ao vCenter.

As etapas de configuração são resumidas aqui:

  1. Permita o modo NIV no adaptador de servidor:

    1. Conecte à relação do controlador do gerenciamento integrado de Cisco (CIMC) através do HTTP e ao início de uma sessão com as credenciais admin.

    2. Escolha o inventário > as propriedades do adaptador dos adaptadores de rede > Modify.

    3. Permita o modo NIV, ajuste o número de relações VM FEX, e salvar as mudanças.

    4. O sem energia e põe então sobre o server.




    Depois que o server volta em linha, verifique que NIV está permitido:



  2. Crie dois vEths estáticos no server.

    A fim criar dois VNICs, escolha o > Add do inventário > dos adaptadores de rede > do VNICs.
    Estes são os campos os mais importantes a ser definidos:

    • Porta de uplink VIC a ser usada (P81E tem duas portas de uplink providas como 0 e 1).

    • Número de canal: Este é um ID de canal original do VNIC no adaptador. Isto é provido no comando bind sob a relação do vEth no nexo 5000. O espaço do número de canal é limitado ao enlace físico de VNTag. O canal pode ser pensado como de um “enlace virtual” no enlace físico entre o interruptor e o adaptador de servidor.

    • Porta-perfil: A lista de porta-perfis definidos no nexo ascendente 5000 pode ser selecionada. Uma relação do vEth está criada automaticamente no nexo 5000 se o nexo 5000 é configurado com o vEthernet auto-cria o comando. Note que somente os nomes do porta-perfil do vEthernet estão passados ao server (a configuração do porta-perfil não é). Isto ocorre após a Conectividade do link de VNTag é estabelecido e as etapas iniciais do aperto de mão e da negociação são executadas entre o interruptor e o adaptador de servidor.

    • Permita o Failover do uplink: O Failover de VNICs à outra porta de uplink P81E se a porta de uplink configurada vai off line.





  3. Reinicialize o servidor.

  4. Instale o VEM no host de ESXi.

    Para um exemplo instale do VEM no host de ESXi, refira a instalação ou o melhoramento do pacote do software de Cisco VEM em um ESX ou do host de ESXi no Cisco UCS Manager VM-FEX para o guia de configuração GUI de VMware, 2.1 da liberação.



    Nota: Todas as configurações de switch mostradas em seguida devem ser configuradas em ambos o nexo 5500 pares VPC, exceto o comando connect do virtual switch do software (SV) e a chave da extensão XML, que devem ser feitos no interruptor preliminar VPC somente.



  5. Permita o conjunto de recursos da virtualização e características VM-FEX e HTTP:

    (config)# install feature-set virtualization
    (config)# feature-set virtualization
    (config)# feature vmfex
    (config)# feature http-server

    (Optional) Allow the Nexus 5000 to auto-create its Vethernet interfaces when the
    corresponding vNICs are defined on the server:
    (config)# vethernet auto-create


  6. Permita VNTag em relações do host.
    Configure the N5k interface that connects to the servers in VNTAG mode:
    (config)# interface Eth 1/1
    (config-if)# switchport mode vntag
    (config-if)# no shutdown


  7. Traga acima vEths estáticos.

    Em ambos os 5500 Switch do nexo, permita as interfaces virtuais estáticas do vEth que devem conectar dois à estática VNICs permitido no server VIC.

    No nexo 5548-A, entre:
    interface vethernet 1 
    bind interface eth 1/1 channel 10
    no shutdown


    No nexo 5548-B, entre:
    interface vethernet 2
    bind interface eth 1/1 channel 11
    no shutdown


    Alternativamente, estas relações do vEth podem automaticamente ser criadas com o vethernet auto-criam o comando.

    Nota: Em caso das topologias que envolvem server dirigidos duplos módulos ativos/ativos FEX, o server VNICs deve ter o Failover do uplink permitido, e as relações do vEthernet do interruptor têm dois comandos interface do ligamento (uma vez por cada porta da relação do host FEX (HIF) que o server está conectado a). A relação do vEthernet é ativa ou à espera em cada 5000 Switch do nexo.



    Exemplo:

    Em cada um dos dois nexos 5000s, configurar:
    interface Vethernet1
      description server_uplink1
      bind interface Ethernet101/1/1 channel 11
      bind interface Ethernet102/1/1 channel 11

    interface Vethernet2
      description server_uplink2
      bind interface Ethernet101/1/1 channel 12
      bind interface Ethernet102/1/1 channel 12


  8. Configurar a conexão SV ao vCenter e conecte-a.

    Em ambos os 5500 Switch do nexo, configurar:

    svs connection <name>
      protocol vmware-vim
      remote ip address <vCenter-IP> vrf <vrf>
      dvs-name <custom>
      vmware dvs datacenter-name <VC_DC_name>


    No interruptor preliminar VPC somente, conecte ao vCenter:

    svs connection <name>
      connect

    Sample configuration on VPC primary:
    svs connection MyCon
      protocol vmware-vim
      remote ip address 10.2.8.131 port 80 vrf management
      dvs-name MyVMFEX
      vmware dvs datacenter-name MyVC
      connect


    Está aqui uma configuração de exemplo no VPC secundário:
    svs connection MyCon
      protocol vmware-vim
      remote ip address 10.2.8.131 port 80 vrf management
      dvs-name MyVMFEX
      vmware dvs datacenter-name MyVC


  9. Crie porta-perfis no nexo 5000.

    Em ambos os 5500 Switch do nexo, configurar porta-perfis para o VM-FEX VNICs. Estes porta-perfis aparecem enquanto os grupos de porta dos DV comutam no vCenter.

    Aqui está um exemplo:

    vlan 10,20

    port-profile type vethernet VM1
      dvs-name all
      switchport mode access
      switchport access vlan 10
      no shutdown
      state enabled
    port-profile type vethernet VM2
      dvs-name all
      switchport mode access
      switchport access vlan 20
      no shutdown
      state enabled


    Nota: O comando all do DV-nome define a que DV comutam no vCenter que este porta-perfil deve ser exportado como um grupo de porta. Use o comando all da opção a fim exportar o grupo de porta para todo o Switches DV no Datacenter.



    Modo de capacidade elevada VM

    A fim executar o modo alto-Perfomance (DirectPath IO) e contornear o hypervisor para o tráfego VM, configurar o porta-perfil do vEthernet com o comando de capacidade elevada do host-netio. No caso das topologias VPC, o porta-perfil deve sempre ser editado em ambo o Switches do par VPC. Por exemplo:

    port-profile type vethernet VM2
    high-performance host-netio


    A fim ter o modo de capacidade elevada operacional, seu VM deve ter estas condições prévias adicionais:
    • O adaptador virtual VM deve ser do tipo vmxnet3 (verifique dentro o vCenter: Clicar com o botão direito VM > editam ajustes > adaptador de rede > tipo de adaptador no menu direito).

    • O VM deve ter a reserva da memória cheia (no vCenter: Clicar com o botão direito VM > editam ajustes > aba dos recursos > de reserva da memória > da corrediça slider ao rightmost).

    • O sistema operacional que é executado no VM deve apoiar esta característica.



    É aqui como você verifica o modo de capacidade elevada (DirectPath IO) quando é usado.
    Sob as configurações de hardware VM, o campo I/O de DirectPath no menu direito mostra como o active quando o modo de capacidade elevada VM está no uso e como inativo quando o modo de passagem do padrão VM está no uso.



  10. Registrar o nexo preliminar 5548 VPC no vCenter:

    Nota: Em topologias VPC, o interruptor preliminar VPC empurra o par de chaves da extensão para o vCenter assim como os porta-perfis. A chave da extensão é sincronizada pelo par preliminar VPC ao par secundário VPC. Isto é verificado mais tarde com o connectioncommand svs da mostra, que relata a mesma extensão-chave em ambos os pares. Se os dois nexos 5500 não eram pares VPC, a seguir a chave da extensão configurada seria diferente para cada interruptor e cada interruptor teria que estabelecer conexões separadas SV ao vCenter.



    Conecte através do HTTP ao nexo preliminar 5548 VPC e transfira o arquivo da extensão XML:



    Então, registro esse encaixe da extensão no vCenter: escolha encaixes > controlam encaixes > clicam com o botão direito > encaixe novo.

  11. Conecte ao vCenter. (Veja etapa 8.)

  12. Verifique que o nexo 5000 se registra no vSphere como um vDS:

    Verifique a criação do DV novos sob o vCenter com o nome como definido no DV-nome sob a conexão svs no nexo 5000: escolha em casa > inventário > trabalhos em rede.



    No interruptor preliminar do nexo 5000 VPC, verifique que a conexão SV é em linha com este comando:

    n5k1# show svs connections

    Local Info:
    -----------
    connection MyCon:
        ip address: 10.2.8.131
        remote port: 80
        vrf: management
        protocol: vmware-vim https
        certificate: default
        datacenter name: MyVC
        extension key: Cisco_Nexus_1000V_126705946
        dvs name: MyVMFEX
        DVS uuid: 89 dd 2c 50 b4 81 57 e4-d1 24 f5 28 df e3 d2 70
        config status: Enabled
        operational status: Connected
        sync status: in progress
        version: VMware vCenter Server 5.0.0 build-455964


    Peer Info:
    ----------
    connection MyCon:
        ip address: 10.2.8.131
        remote port: 80
        vrf: management
        protocol: vmware-vim https
        extension key: Cisco_Nexus_1000V_126705946
        certificate: default
          certificate match: TRUE
        datacenter name: MyVC
        dvs name: MyVMFEX
        DVS uuid: -
        config status: Disabled
        operational status: Disconnected
    n5k1#


  13. Assegure-se de que os grupos de porta VM estejam disponíveis no vCenter.

    Os porta-perfis do vEthernet definidos no nexo 5000 devem aparecer no vCenter como grupos de porta sob os DV na opinião dos trabalhos em rede:



  14. Migre anfitriões de ESXi aos DV.

    De VSphere, escolha em casa > inventário > trabalhos em rede, clicar com o botão direito o nome DV, a seguir adicionar o host a fim adicionar os anfitriões de ESXi aos DV.

    As interfaces virtuais do adaptador-FEX são os uplinks dos anfitriões de ESXi. Escolha o grupo de porta do uplink do padrão (unused_or_quarantine_uplink) para aquelas portas dos uplinks.

  15. Provision o VM.

    Escolha um grupo de porta VM-FEX para o adaptador de rede de um VM (clicar com o botão direito VM > editam ajustes > etiqueta do adaptador de rede > da rede no menu direito).

  16. VM VNICs fornecida.

  17. O adaptador inicia a relação VIC cria para comutar.

    Quando um adaptador de rede VM é traçado a um grupo de porta VM-FEX, uma relação do vEthernet está criada dinamicamente no nexo 5000. A escala de relações dinamicamente criadas do vEth começa em 32769.

    Estas relações podem ser verificadas através destes comandos:
    # show interface virtual status
    # show interface virtual summary

Verificar e solucionar problemas

Use esta seção a fim verificar que seus trabalhos da configuração corretamente e para pesquisar defeitos algumas edições que você encontrar.

  • A fim verificar que dois a estática VNICs do server UCS-C está conectada com o VN-link às relações fixas estáticas do vEth no nexo 5500, incorpore este comando:

    n5k1# show system internal dcbx info interface e1/1

    Interface info for if_index: 0x1a001000(Eth1/1)
    tx_enabled: TRUE
    rx_enabled: TRUE
    dcbx_enabled: TRUE
    DCX Protocol: CEE
    DCX CEE NIV extension: enabled
    <output omitted>


  • Em caso topologias ativas/à espera a dois FEXs dirigido duplo, certifique-se de que a relação do vEth mostra como o active ou o modo standby nos dois nexos 5000 Switches VPC.
     
     Aqui as mostras do modo como o desconhecido:
     
    n5k1# show int virtual status
    Interface VIF-index   Bound If      Chan  Vlan  Status     Mode     Vntag
    -------------------------------------------------------------------------
    Veth1     VIF-16      Eth101/1/1      11     1  Up         Active       2
    Veth1     None        Eth102/1/1      11     0  Init       Unknown      0
    Veth2     None        Eth101/1/1      12     0  Init       Unknown      0
    Veth2     None        Eth102/1/1      12     0  Init       Unknown      0
    Veth3     VIF-18      Eth101/1/2      11     1  Up         Active       2
    Veth3     None        Eth102/1/2      11     0  Init       Unknown      0
    Veth4     None        Eth101/1/2      12     0  Init       Unknown      0
    Veth4     VIF-19      Eth102/1/2      12     1  Up         Active       3


    Se você encontra modo desconhecido, certifique-se permitir o modo de failover do uplink no VNIC. Igualmente certifique-se de que o número de canal que você especificou no CIMC combina o número de canal que é especificado na configuração do vEthernet.

    A saída correta deve assemelhar-se a esta:

    n5k1# show int virtual status
    Interface VIF-index   Bound If      Chan  Vlan  Status     Mode     Vntag
    -------------------------------------------------------------------------
    Veth1     VIF-27      Eth101/1/1      11     1  Up         Active       2
    Veth1     VIF-35      Eth102/1/1      11     1  Up         Standby      2
    Veth2     VIF-36      Eth101/1/1      12     1  Up         Standby      3
    Veth2     VIF-33      Eth102/1/1      12     1  Up         Active       3
    Veth3     VIF-30      Eth101/1/2      11     1  Up         Active       2
    Veth3     VIF-21      Eth102/1/2      11     1  Up         Standby      2
    Veth4     VIF-24      Eth101/1/2      12     1  Up         Standby      3
    Veth4     VIF-31      Eth102/1/2      12     1  Up         Active       3


  • as relações do vEth não aparecem no interruptor.

    No menu do server CIMC HTTP UCS-C, verifique isso:
    • NIV é permitido no adaptador.

    • Um número diferente de zero de relações VM-FEX é configurado no adaptador.

    • O Failover do adaptador é permitido no VNIC.

    • O server UCS-C foi recarregado depois que a configuração acima foi feita.


  • as relações do vEth não vêm em linha.

    Verifique se VIF_CREATE apareça neste comando:

    # show system internal vim info logs interface veth 1
    03/28/2014 16:31:47.770137: RCVD VIF CREATE request on If Eth1/32  <<<<<<<
    03/28/2014 16:31:53.405004: On Eth1/32 - VIC CREATE sending rsp for msg_id 23889
    to completion code SUCCESS
    03/28/2014 16:32:35.739252: On Eth1/32 - RCVD VIF ENABLE. VIF-index 698 msg id 23953
    VIF_ID: 0, state_valid: n, active
    03/28/2014 16:32:35.802019: On Eth1/32 - VIC ENABLE sending rsp for msg_id 23953 to
    completion code SUCCESS
    03/28/2014 16:32:36.375495: On Eth1/32 - Sent VIC SET, INDEX: 698, msg_id 23051, up,
    enabled, active, cos 0VIF_ID: 50 vlan:
    1 rate 0xf4240, burst_size 0xf
    03/28/2014 16:32:36.379441: On Eth1/32 - RCVD VIC SET resp, INDEX: 698, msg_id 23051,
    up, enabled,active, cos 0, completion
    code: 100


    Se VIF_CREATE não aparece ou o interruptor não responde corretamente, termine estas etapas:

    • No vCenter, certifique-se do interruptor DV esteja configurado corretamente com dois uplinks físicos para o host ESX (clicar com o botão direito o switch> DV controlam anfitriões > adaptadores físicos seletos).

    • No vCenter, certifique-se de VMNIC selecione a etiqueta/perfil corretos da rede (clicar com o botão direito VM > editam ajustes > clicam sobre a etiqueta da rede do adaptador de rede > da verificação).


  • A conexão SV ao vCenter não vem em linha.

    Segundo as indicações de etapa 12 na seção anterior, use este processo a fim verificar que o nexo 5000 esteve conectado ao vCenter:

    • No vCenter, verifique que os DV aparecem sob a opinião dos trabalhos em rede.

    • No nexo 5000 VPC preliminar, verifique que os SV estão conectados (use o comando connection svs da mostra).



    Caso que a conexão não é estabelecida, verifique isso:

    • A configuração SV é idêntica em ambos os pares VPC.

    • O VPC é inicializado e os papéis são estabelecidos corretamente.

    • O certificado preliminar do interruptor XML VPC é instalado no vCenter.

    • O interruptor preliminar VPC tem o " conectar " configurado sob “o modo de configuração da conexão svs”.

    • O nome de Datacenter combina o nome usado no vCenter.

    • O roteamento virtual e a transmissão corretos (VRF) são configurados no comando remote SV e que o interruptor tem a conectividade IP ao endereço IP de Um ou Mais Servidores Cisco ICM NT do vCenter.


    Se todas estas circunstâncias são estadas conformes mas a conexão SV não é ainda bem sucedida, recolha esta saída e contacte o centro de assistência técnica da Cisco (TAC):
    show msp port-profile vc sync-status
    show msp internal errors
    show msp internal event-history msgs
    show vms internal errors
    show vms internal event-history msgs


  • O 5500 Switch do nexo não é alcançável através do HTTP.

    Verifique que a característica do HTTP-server está permitida:

    n5k1# show feature | i http
    http-server           1         disabled
    n5k1# conf t
    Enter configuration commands, one per line.  End with CNTL/Z.
    n5k1(config)# feature http-server
    n5k1(config)#

Discussões relacionadas da comunidade de suporte da Cisco

A Comunidade de Suporte da Cisco é um fórum onde você pode perguntar e responder, oferecer sugestões e colaborar com colegas.


Document ID: 117690