Коммутаторы : Коммутаторы Cisco Nexus серии 5000

Пример конфигурации Nexus 5500 VM-FEX

5 апреля 2016 - Машинный перевод
Другие версии: PDF-версия:pdf | Английский (22 августа 2015) | Отзыв

Введение

Этот документ описывает, как настроить, управлять, и устранить неполадки Модуля ввода-вывода Виртуальной машины (VM-FEX) функция на коммутаторах Cisco Nexus 5500.

Внесенный Чарльзом Юссефом, специалистом службы технической поддержки Cisco.

Предварительные условия

Требования

Cisco рекомендует иметь базовые знания об этих темах.

  • Технология Virtual PortChannel (vPC) Nexus
  • VMware vSphere

Используемые компоненты

Сведения в документе приведены на основе данных версий аппаратного и программного обеспечения:

  • Nexus 5548UP, который выполняет Версию 5.2 (1) N1 (4)
  • Сервер Стойки системы Unified Computing System (UCS)-C C210 M2 с платой виртуальных интерфейсов UCS P81E, которая выполняет Версию микропрограммы 1.4 (2)
  • Версия 5.0 vSphere (ESXi и vCenter)

Сведения, представленные в этом документе, были получены от устройств, работающих в специальной лабораторной среде. Все устройства, используемые в этом документе, были запущены с чистой конфигурацией (конфигурацией по умолчанию). Если сеть является оперативной, удостоверьтесь, что вы понимаете потенциальное воздействие любой команды или настройки захвата пакета.

Обзор VM-FEX

VM-FEX комбинирует действительные и физические сети в единую инфраструктуру. Это позволяет вам условию, настройте и управляйте сетевым трафиком виртуальной машины и сетевым трафиком чистого металла в унифицированной инфраструктуре.

Программное обеспечение VM-FEX расширяет технологию модуля ввода-вывода Cisco до виртуальной машины с этими возможностями:

  • Каждая виртуальная машина включает специализированный интерфейс на родительском коммутаторе.
  • Весь трафик виртуальной машины передается непосредственно специализированному интерфейсу на коммутаторе.
  • Стандарт vSwitch в гипервизоре устранен.

VM-FEX является одним типом Распределенного Виртуального коммутатора (DVS или VDS). DVS представляет абстракцию одного коммутатора по множественным серверам ESX, которые являются частью того же контейнера Центра обработки данных в vCenter. Конфигурация Виртуального сетевого интерфейса Controller (VNIC) Виртуальной машины (VM) поддержана от централизованного расположения (Nexus 5000 или UCS в VM-FEX, этот документ иллюстрирует VM-FEX на основе Nexus 5000).

VM-FEX может работать в двух режимах:

  • Passthrough: Это - режим по умолчанию, в котором VEM вовлечен в путь данных для трафика VM.
  • Высокоэффективный: трафик VM не обрабатывает VEM, но передают непосредственно к адаптеру Сетевой виртуализации IO (NIV).

Для использования высокоэффективного режима его должна запросить настройка профиля порта и должен поддерживаться Операционной системой VM и ее виртуальным адаптером. Дополнительные сведения об этом предоставлены позже в этом документе.

Определения

  • Действительный модуль Ethernet (VEM). Модуль Программного обеспечения Cisco, который выполняется в гипервизоре ESX и предоставляет реализацию VNLink в одиночном пакете

  • Сетевая виртуализация IO (NIV) использует VNtagging для развертывания нескольких Ссылок Виртуальной сети (Ссылка VN) по тому же физическому каналу Ethernet

  • Центр обработки данных, соединяющий Exchange возможности (DCBX)

  • Интерфейсный контроль VNIC (VIC)

  • Действительный NIC (VNIC), который указывает на оконечную точку хоста. Это может быть привязано к активному VIF или резервному VIF

  • Распределенный Виртуальный порт (DVPort). VNIC связан с DVPort в VEM

  • Виртуальный интерфейс NIV (VIF), который обозначен в сетевой оконечной точке

  • Действительная Ethernet (vEth) интерфейс представляет VIF в коммутаторе

  • Транзитный коммутатор (PTS). Модуль VEM установлен в гипервизоре

Примечание: VEM, используемый в VM-FEX, подобен VEM, используемому с Nexus 1000v. Различие - то, что в VM-FEX, VEM работает в режиме прохождения и не выполняет локальный коммутатор между VM на том же ESX.

Настройка

Топология является сервером C UCS с P81E VIC, размещенным двойным образом к двум коммутаторам Nexus 5548 VPC.

Примечание: Чтобы получить подробные сведения о командах в данном документе, используйте Средство поиска команд (только для зарегистрированных клиентов).

Схема сети

Эти требуемые компоненты должны уже существовать:

  • VPC настраивается и инициализируется должным образом между двумя коммутаторами Nexus 5000.

  • VMWare vCenter установлен и связан с через vSphere клиент.

  • ESXi установлен на сервере C UCS и добавлен к vCenter.

Действия настройки суммированы здесь:

  1. Включите режим NIV на адаптере сервера:

    1. Соединитесь с интерфейсом интегрированного контроллера управления Cisco (CIMC) через HTTP и войдите с учетными данными admin.

    2. Выберите Inventory>, Network Adapters> Modify Свойства Adapter.

    3. Включите Режим NIV, определите номер VM интерфейсы FEX и сохраните изменения.

    4. Выключите и затем включите сервер.




    После того, как сервер возвращается онлайн, проверьте, что включен NIV:



  2. Создайте два статических vEths на сервере.

    Для создания двух VNICs выберите Inventory> Network Adapters> VNICs> Add.
    Это самые важные поля, которые будут определены:

    • Порт каскадного соединения VIC, который будет использоваться (P81E имеет два порта каскадного соединения, на которые ссылаются как 0 и 1).

    • Номер канала: Это - уникальный идентификатор канала VNIC на адаптере. На это ссылаются в команде bind под интерфейсом vEth на Nexus 5000. Область номера канала ограничена физическим соединением VNTag. Канал может считаться "виртуальным соединением" на физическом соединении между коммутатором и адаптером сервера.

    • Профиль порта: список профилей порта, определенных на восходящем Nexus 5000, может быть выбран. Интерфейс vEth автоматически создан на Nexus 5000, если Nexus 5000 настроен с vEthernet, автосоздают команду. Обратите внимание на то, что только vEthernet имена профилей порта передают к серверу (настройка профиля порта не). Это происходит после того, как подключение ссылки VNTag установлено и начальное квитирование, и шаги согласования выполнены между коммутатором и адаптером сервера.

    • Включите аварийное переключение канала от абонента к оператору: аварийное переключение VNICs к другому порту каскадного соединения P81E, если настроенный порт каскадного соединения идет офлайн.





  3. Перезагрузите сервер.

  4. Установите VEM на хосте ESXi.

    Для установки в качестве примера VEM на хосте ESXi обратитесь к Установке или Обновлению Cisco Программный пакет VEM на ESX или Хосте ESXi в VM-FEX Cisco UCS Manager для Руководства Конфигурации GUI VMware, Выпуска 2.1.



    Примечание: Все конфигурации коммутатора, показанные затем, должны быть настроены на обоих из узлов Nexus 5500 VPC, кроме команды connect Виртуального коммутатора программного обеспечения (SVS) и ключа расширения XML, который должен быть сделан на VPC основной коммутатор только.



  5. Включите набор возможностей виртуализации и функции HTTP и VM-FEX:

    (config)# install feature-set virtualization
    (config)# feature-set virtualization
    (config)# feature vmfex
    (config)# feature http-server

    (Optional) Allow the Nexus 5000 to auto-create its Vethernet interfaces when the
    corresponding vNICs are defined on the server:
    (config)# vethernet auto-create


  6. Включите VNTag на интерфейсах хоста.
    Configure the N5k interface that connects to the servers in VNTAG mode:
    (config)# interface Eth 1/1
    (config-if)# switchport mode vntag
    (config-if)# no shutdown


  7. Переведите статический vEths в рабочее состояние.

    На обоих коммутаторах Nexus 5500 включите статические vEth виртуальные интерфейсы, которые должны соединиться с двумя статическими VNICs, включенными на VIC сервера.

    На 5548-A Nexus войдите:
    interface vethernet 1 
    bind interface eth 1/1 channel 10
    no shutdown


    На 5548-B Nexus войдите:
    interface vethernet 2
    bind interface eth 1/1 channel 11
    no shutdown


    Также эти интерфейсы vEth могут быть автоматически созданы с vethernet, автосоздают команду.

    Примечание: В случае топологии, которая включает размещенные двойным образом серверы к Активным/Активным модулям FEX, сервер, который VNICs нужно включить соединительное аварийное переключение и коммутатор vEthernet интерфейсы, имеют две команды интерфейса привязки (один раз для каждого Интерфейса Хоста FEX (HIF) порт, что сервер связан с). Интерфейс vEthernet является или активным или резервным на каждом коммутаторе Nexus 5000.



    Например.

    На каждом из двух 5000 Nexus настройте:
    interface Vethernet1
     description server_uplink1
     bind interface Ethernet101/1/1 channel 11
     bind interface Ethernet102/1/1 channel 11

    interface Vethernet2
     description server_uplink2
     bind interface Ethernet101/1/1 channel 12
     bind interface Ethernet102/1/1 channel 12


  8. Настройте соединение SVS с vCenter и подключением.

    На обоих коммутаторах Nexus 5500 настройте:

    svs connection <name>
     protocol vmware-vim
     remote ip address <vCenter-IP> vrf <vrf>
     dvs-name <custom>
     vmware dvs datacenter-name <VC_DC_name>


    На VPC основной коммутатор только, соединитесь с vCenter:

    svs connection <name>
     connect

    Sample configuration on VPC primary:
    svs connection MyCon
     protocol vmware-vim
     remote ip address 10.2.8.131 port 80 vrf management
     dvs-name MyVMFEX
     vmware dvs datacenter-name MyVC
     connect


    Вот пример конфигурации на вторичном VPC:
    svs connection MyCon
     protocol vmware-vim
     remote ip address 10.2.8.131 port 80 vrf management
     dvs-name MyVMFEX
     vmware dvs datacenter-name MyVC


  9. Создайте профили порта на Nexus 5000.

    На обоих коммутаторах Nexus 5500 настройте профили порта для VM-FEX VNICs. Эти профили порта появляются как группы портов коммутатора DVS в vCenter.

    Например:

    vlan 10,20

    port-profile type vethernet VM1
     dvs-name all
     switchport mode access
     switchport access vlan 10
     no shutdown
     state enabled
    port-profile type vethernet VM2
     dvs-name all
     switchport mode access
     switchport access vlan 20
     no shutdown
     state enabled


    Примечание: Dvs-название, которое определяет вся команда, к которому DVS коммутируют в vCenter этот профиль порта, должно быть экспортировано как группа портов. Используйте опцию вся команда для экспорта группы портов во все коммутаторы DVS в Центре обработки данных.



    VM высокоэффективный режим

    Чтобы внедрить Высокий-Perfomance режим (DirectPath IO) и обойти гипервизор для трафика VM, настройте vEthernet профиль порта с высокоэффективной командой host-netio. В случае топологии VPC профиль порта должен всегда редактироваться на обоих удаленных коммутаторах VPC. Например: :

    port-profile type vethernet VM2
    high-performance host-netio


    Для имения высокоэффективного режима, в рабочем состоянии, VM должен иметь эти дополнительные предварительные условия:
    • Виртуальный адаптер VM должен иметь тип vmxnet3 (регистрация vCenter: Щелкните правой кнопкой мыши VM> Редактируют параметры настройки> Адаптер сети> Тип адаптера в правильном меню).

    • VM должен иметь резервирование полной памяти (в vCenter: Щелкните правой кнопкой мыши VM> Редактируют параметры настройки> вкладка Resources> Память> ползунок резервирования Понижения к самому правому).

    • Операционная система, которая работает на VM, должна поддерживать эту функцию.



    Вот то, как вы проверяете Высокоэффективный режим (DirectPath IO), когда это используется.
    При Настройках аппаратного обеспечения VM поле DirectPath I/O в правильном меню показывает как активное, когда VM, Высокоэффективный режим используется и как неактивный, когда используется режим прохождения VM по умолчанию.



  10. Зарегистрируйте VPC основной Nexus 5548 в vCenter:

    Примечание: В топологии VPC основной коммутатор VPC выдвигает дополнительную пару ключей к vCenter, а также профилям порта. Дополнительный ключ синхронизируется основным узлом VPC со вторичным узлом VPC. Это позже проверено с показом svs connectioncommand, который сообщает о том же дополнительном ключе относительно обоих узлов. Если бы два Nexus 5500 не были узлами VPC, то дополнительный настроенный ключ был бы другим для каждого коммутатора, и каждый коммутатор должен был бы установить отдельные соединения SVS с vCenter.



    Подключение через HTTP к VPC основной Nexus 5548 и загрузки дополнительный XML-файл:



    Затем регистр, что дополнительный плагин в vCenter: выберите Plug-ins> Manage Plug-ins> Щелчок правой кнопкой> Новый Плагин.

  11. Соединитесь с vCenter. (См. Шаг 8.)

  12. Проверьте, что Nexus 5000 регистрируется в vSphere как VD:

    Проверьте создание нового DVS под vCenter с названием, как определено на dvs-название под svs соединением на Nexus 5000: выберите Home> Inventory> Networking.



    На Nexus 5000 VPC основной коммутатор проверьте, что соединение SVS является онлайновым с этой командой:

    n5k1# show svs connections

    Local Info:
    -----------
    connection MyCon:
       ip address: 10.2.8.131
       remote port: 80
       vrf: management
       protocol: vmware-vim https
       certificate: default
       datacenter name: MyVC
       extension key: Cisco_Nexus_1000V_126705946
       dvs name: MyVMFEX
       DVS uuid: 89 dd 2c 50 b4 81 57 e4-d1 24 f5 28 df e3 d2 70
       config status: Enabled
       operational status: Connected
       sync status: in progress
       version: VMware vCenter Server 5.0.0 build-455964


    Peer Info:
    ----------
    connection MyCon:
       ip address: 10.2.8.131
       remote port: 80
       vrf: management
       protocol: vmware-vim https
       extension key: Cisco_Nexus_1000V_126705946
       certificate: default
         certificate match: TRUE
       datacenter name: MyVC
       dvs name: MyVMFEX
       DVS uuid: -
       config status: Disabled
       operational status: Disconnected
    n5k1#


  13. Гарантируйте, что группы портов VM доступны в vCenter.

    vEthernet профили порта, определенные на Nexus 5000, должны появиться в vCenter как группы портов под DVS в сетевом представлении:



  14. Переместите хосты ESXi DVS.

    От VSphere выберите Home> Inventory> Networking, щелкните правой кнопкой мыши по названию DVS, затем Добавьте Хост для добавления хостов ESXi DVS.

    Виртуальные интерфейсы Адаптера-FEX являются каналами связи хостов ESXi. Выберите соединительную группу портов по умолчанию (unused_or_quarantine_uplink) для тех портов каналов связи.

  15. Обеспечьте VM.

    Выберите группу портов VM-FEX для адаптера сети VM (VM правого щелчка> Редактируют Параметры настройки> Адаптер сети> Метка сети в правильном меню).

  16. VM VNICs обеспечен.

  17. Адаптер инициирует Интерфейс VIC, создают для коммутации.

    Когда адаптер сети VM сопоставлен с группой портов VM-FEX, интерфейс vEthernet динамично создан на Nexus 5000. Диапазон динамично созданных интерфейсов vEth запускается в 32769.

    Эти интерфейсы могут быть проверены через эти команды:
    # show interface virtual status
    # show interface virtual summary

Проверка и устранение неполадок

Используйте этот раздел, чтобы проверить, что конфигурация работает должным образом и решить любые проблемы, с которыми вы встречаетесь.

  • Чтобы проверить, что два статических VNICs сервера C UCS связаны со Ссылкой VN на закрепленные интерфейсы vEth помех на Nexus 5500, введите эту команду:

    n5k1# show system internal dcbx info interface e1/1

    Interface info for if_index: 0x1a001000(Eth1/1)
    tx_enabled: TRUE
    rx_enabled: TRUE
    dcbx_enabled: TRUE
    DCX Protocol: CEE
    DCX CEE NIV extension: enabled
    <output omitted>


  • В случае активной/резервной топологии к двум размещенным двойным образом FEXs удостоверьтесь, что vEth интерфейс показывает или как активный или как режим ожидания на двух коммутаторах Nexus 5000 VPC.
     
     Здесь режим показывает как неизвестный:
     
    n5k1# show int virtual status
    Interface VIF-index  Bound If     Chan Vlan Status    Mode    Vntag
    -------------------------------------------------------------------------
    Veth1    VIF-16     Eth101/1/1     11    1 Up        Active      2
    Veth1    None       Eth102/1/1     11    0 Init      Unknown     0
    Veth2    None       Eth101/1/1     12    0 Init      Unknown     0
    Veth2    None       Eth102/1/1     12    0 Init      Unknown     0
    Veth3    VIF-18     Eth101/1/2     11    1 Up        Active      2
    Veth3    None       Eth102/1/2     11    0 Init      Unknown     0
    Veth4    None       Eth101/1/2     12    0 Init      Unknown     0
    Veth4    VIF-19     Eth102/1/2     12    1 Up        Active      3


    При обнаружении с неизвестным режимом удостоверьтесь, что включили соединительный режим аварийного переключения на VNIC. Также удостоверьтесь, что номер канала, который вы задали в CIMC, совпадает с номером канала, который задан в vEthernet конфигурации.

    Корректные выходные данные должны напомнить это:

    n5k1# show int virtual status
    Interface VIF-index  Bound If     Chan Vlan Status    Mode    Vntag
    -------------------------------------------------------------------------
    Veth1    VIF-27     Eth101/1/1     11    1 Up        Active      2
    Veth1    VIF-35     Eth102/1/1     11    1 Up        Standby     2
    Veth2    VIF-36     Eth101/1/1     12    1 Up        Standby     3
    Veth2    VIF-33     Eth102/1/1     12    1 Up        Active      3
    Veth3    VIF-30     Eth101/1/2     11    1 Up        Active      2
    Veth3    VIF-21     Eth102/1/2     11    1 Up        Standby     2
    Veth4    VIF-24     Eth101/1/2     12    1 Up        Standby     3
    Veth4    VIF-31     Eth102/1/2     12    1 Up        Active      3


  • интерфейсы vEth не появляются на коммутаторе.

    В меню CIMC HTTP сервера C UCS проверьте что:
    • NIV включен на адаптере.

    • Ненулевое количество интерфейсов VM-FEX настроено на адаптере.

    • Аварийное переключение адаптера включено на VNIC.

    • Сервер C UCS был перезагружен после того, как конфигурация выше была сделана.


  • интерфейсы vEth не прибывают онлайн.

    Проверьте, появляется ли VIF_CREATE в этой команде:

    # show system internal vim info logs interface veth 1
    03/28/2014 16:31:47.770137: RCVD VIF CREATE request on If Eth1/32 <<<<<<<
    03/28/2014 16:31:53.405004: On Eth1/32 - VIC CREATE sending rsp for msg_id 23889
    to completion code SUCCESS
    03/28/2014 16:32:35.739252: On Eth1/32 - RCVD VIF ENABLE. VIF-index 698 msg id 23953
    VIF_ID: 0, state_valid: n, active
    03/28/2014 16:32:35.802019: On Eth1/32 - VIC ENABLE sending rsp for msg_id 23953 to
    completion code SUCCESS
    03/28/2014 16:32:36.375495: On Eth1/32 - Sent VIC SET, INDEX: 698, msg_id 23051, up,
    enabled, active, cos 0VIF_ID: 50 vlan:
    1 rate 0xf4240, burst_size 0xf
    03/28/2014 16:32:36.379441: On Eth1/32 - RCVD VIC SET resp, INDEX: 698, msg_id 23051,
    up, enabled,active, cos 0, completion
    code: 100


    Если VIF_CREATE не появляется, или коммутатор должным образом не отвечает, выполняет эти шаги:

    • В vCenter проверьте, что коммутатор DVS был должным образом настроен с двумя физическими каналами связи для хоста ESX (щелкните правой кнопкой мыши, switch> DVS Управляют, Хосты> Выбирают Physical Adapters).

    • В vCenter проверьте, что VMNIC выбрал метку нужной сети / профиль порта (VM правого щелчка> Редактируют Параметры настройки>, щелкают по Адаптеру сети>, проверяют Метку сети).


  • Соединение SVS с vCenter не прибывает онлайн.

    Как показано в Шаге 12 в предыдущий раздел, используйте этот процесс, чтобы проверить, что Nexus 5000 был связан с vCenter:

    • На vCenter проверьте, что DVS появляется при сетевом представлении.

    • На основном Nexus 5000 VPC проверьте, что SVS связан (используйте показ svs команда соединения).



    В случае, если соединение не установлено, проверьте что:

    • Конфигурация SVS идентична на обоих узлах VPC.

    • VPC инициализируется, и роли установлены должным образом.

    • VPC основной сертификат XML коммутатора установлен в vCenter.

    • VPC основной коммутатор имеет "подключение", настроенное под "svs соединение" режим конфигурации.

    • Название Центра обработки данных совпадает с названием, используемым на vCenter.

    • Корректная Виртуальная маршрутизация и Передача (VRF) настроены в удаленной команде SVS и что коммутатор имеет возможность подключения с помощью IP-адреса к vCenter IP-адресу.


    Если все эти условия соблюдают, но соединение SVS все еще не успешно, соберите эти выходные данные и Центр технической поддержки Cisco контакта (TAC):
    show msp port-profile vc sync-status
    show msp internal errors
    show msp internal event-history msgs
    show vms internal errors
    show vms internal event-history msgs


  • Коммутатор Nexus 5500 не достижим через HTTP.

    Проверьте, что активирована опция http server:

    n5k1# show feature | i http
    http-server          1        disabled
    n5k1# conf t
    Enter configuration commands, one per line. End with CNTL/Z.
    n5k1(config)# feature http-server
    n5k1(config)#

Связанные обсуждения сообщества поддержки Cisco

В рамках сообщества поддержки Cisco можно задавать и отвечать на вопросы, обмениваться рекомендациями и совместно работать со своими коллегами.


Document ID: 117690