Унифицированные вычисления : Блейд-серверы Cisco UCS серии B

UCS с VMware ESXi сквозной Jumbo Пример конфигурации MTU

5 апреля 2016 - Машинный перевод
Другие версии: PDF-версия:pdf | Отзыв

Введение

Этот документ описывает, как настроить jumbo Maximum Transition Unit (MTU) от начала до конца по устройствам ЦОД Cisco в сети, которая состоит из VMware хост ESXi, установленный на системе Cisco UCS (UCS), коммутаторы Cisco Nexus 1000V (N1kV), коммутаторы Cisco Nexus серии 5000 (N5k) и Cisco контроллер NetApp.

Внесенный Вишелом Мехтой, специалистом службы технической поддержки Cisco.

Предварительные условия

Требования

Компания Cisco рекомендует предварительно ознакомиться со следующими предметами:

  • VMware ESXi
  • UCS Cisco
  • Cisco N5k
  • Интернет-интерфейс малых компьютерных систем Cisco (iSCSI)

Используемые компоненты

Сведения, содержащиеся в данном документе, касаются следующих версий программного и аппаратного обеспечения: 

  • Cisco Nexus версия 5.0 (3) N2 (2a) коммутаторов серии 5020
  • Версия 2.1 (1d) UCS Cisco
  • Блейд-сервер Cisco UCS B200 M3 с платой виртуальных интерфейсов (VIC) Cisco 1240
  • vSphere 5.0 (ESXi и vCenter)
  • Версия 4.2 (1) SV2 (2.1a) Cisco N1kV
  • NetApp FAS 3240

Сведения, представленные в этом документе, были получены от устройств, работающих в специальной лабораторной среде. Все устройства, используемые в этом документе, были запущены с чистой конфигурацией (конфигурацией по умолчанию). Если сеть является оперативной, удостоверьтесь, что вы понимаете потенциальное воздействие любой команды или настройки захвата пакета.

Настройка

Схема сети

Типичные развертывания Сети хранения данных (SAN) iSCSI используют UCS Cisco с Центральным устройством в режиме Конечного хоста Ethernet и цели хранилища, связанной через восходящий коммутатор или коммутируемую сеть.

С помощью портов Устройства на UCS Хранилище может напрямую подключиться к Центральным устройствам.

Является ли восходящая сеть 1 GbE или 10 GbE, использование кадров большого размера (максимальный размер передаваемого блока данных 9000, например) улучшает производительность, потому что это сокращает количество отдельных кадров, которые должны быть переданы для данного объема данных и уменьшают потребность разделить блоки данных iSCSI на кадры несколько Ethernet подключений. Они также понижают загрузка ЦПУ хранилища и хост.

Если кадры большого размера используются, необходимо гарантировать, что UCS и цель хранилища, а также все сетевое оборудование между, в состоянии и настроенный для поддержки большего размера фрейма. Это означает, что jumbo MTU должен быть настроен от начала до конца (инициатор для предназначения) для него, чтобы быть эффективным по домену.

Вот обзор процедуры, которая используется для настройки jumbo MTU от начала до конца:

  1. Создайте Системный Класс Качества обслуживания (QoS) UCS с MTU 9000, и затем настройте Действительный NIC (vNIC) с jumbo MTU.

  2. Включите кадры большого размера (MTU 9000) на всех коммутаторах между инициатором (UCS) и iSCSI - получателем.

  3. Включите кадры большого размера на адаптере Операционной системы (OS) (порт VMkernel ESXi).

  4. Включите кадры большого размера на интерфейсах NetApp.

Примечание: Сошлитесь на систему Cisco UCS (UCS) Параметры подключения Хранилища и Оптимальные методы со статьей Cisco системы хранения NetApp для дополнительных сведений. 

Конфигурация UCS Cisco

MTU установлен на поклассовом из Сервиса (CoS) основание в UCS. Если вам не определяли политику QoS для vNIC, который возглавляет к vSwitch, то трафик перемещается в Наилучшим образом Класс.

Выполните эти шаги для включения кадров большого размера:

  1. От GUI UCS нажмите вкладку LAN.

  2. Перейдите к LAN> Облако LAN> Системный Класс QoS.

  3. Нажмите QoS System Class и измените класс трафика (который переносит трафик iSCSI), MTU к 9216.

    Примечание: Данный пример использует класс Трафика категории Best effort для иллюстрирования этого обновления MTU.




  4. Создайте политику QoS во вкладке LAN и примените ее к vNIC, который переносит трафик СХД.



  5. Перейдите к шаблону vNIC или фактическому vNIC под Профилями сервиса и установите значение MTU в 9000.

Проверка.

Проверьте, что vNIC настроили MTU, как ранее описано.

Проверьте, что портам каскадного соединения включили jumbo MTU.

Конфигурация N5k

С N5k jumbo MTU включен в уровне системы.

Откройте командную строку и введите эти команды для настройки системы для jumbo MTU:

switch(config)#policy-map type network-qos jumbo
switch(config-pmap-nq)#class type network-qos class-default
switch(config-pmap-c-nq)#mtu 9216switch(config-pmap-c-nq)#exit
switch(config-pmap-nq)#exitswitch(config)#system qos
switch(config-sys-qos)#service-policy type network-qos jumbo

Проверка.

Введите Ethernet show queuing interface x/y команда, чтобы проверить, что включен jumbo MTU:

Примечание: Ethernet show interface x/y команда показывает MTU 1500, но который является неправильным.

VMware конфигурация ESXi

Можно настроить значение MTU vSwitch так, чтобы все группы портов и порты использовали кадры большого размера.

Выполните эти шаги для включения кадров большого размера на хосте vSwitch:

  1. Перейдите к Дом > Материально-технические ресурсы > Хосты и Кластеры от vSphere клиента.

  2. Выберите хост.

  3. Нажмите Вкладку конфигурация.

  4. Выберите Networking в меню Hardware.

  5. Выберите vSphere стандартный Коммутатор в поле View.

  6.  Нажмите Properties. 

  7. Выберите vSwitch на вкладке Ports всплывающего окна Properties.

  8. Нажмите Edit.

  9. На Вкладке Общие всплывающего окна измените MTU (под Дополнительными свойствами) от значения по умолчанию (1500) к 9000. Это включает кадры большого размера на всех группах портов и портах vSwitch.

Выполните эти шаги для включения кадров большого размера только на порту VMkernel от vCenter сервера:

  1. От vSphere клиента перейдите к Дом > Материально-технические ресурсы > Хосты и Кластеры.

  2. Выберите хост.

  3. Нажмите Вкладку конфигурация

  4. Выберите Networking в меню Hardware.

  5. Выберите vSphere стандартный Коммутатор в поле View.

  6.  Нажмите Properties. 

  7. Выберите VMkernel на вкладке Ports всплывающего окна Properties.

  8. Нажмите Edit.

  9. На Вкладке Общие всплывающего окна измените MTU (при Параметрах настройки NIC) от значения по умолчанию (1500) к 9000. Это включает кадры большого размера на только порту VMkernel vSwitch.

Проверка.

Введите команду vmkping-d-s 8972 <storage appliance ip address> , чтобы протестировать сетевое подключение и проверить, что порт VMkernel может пропинговать с jumbo MTU.

Совет: Сошлитесь на Тестирование сетевое подключение VMkernel с vmkping статьей команды VMware для получения дополнительной информации об этой команде. 

Примечание: Самый большой истинный размер пакета 8972, который передает 9000 пакетов в 1 байт, когда вы добавляете байты Заголовка ICMP и IP.

На уровне хоста ESXi проверьте, что Параметры MTU настроены должным образом:

Настройка Cisco IOS

С коммутаторами Cisco IOS® нет никакого понятия глобального MTU на уровне коммутатора. Вместо этого MTU настроен на уровне интерфейса/EtherChannel.

Введите эти команды для настройки jumbo MTU:

7609(config)#int gigabitEthernet 1/1
7609(config-if)#mtu ?
<1500-9216> MTU size in bytes
7609(config-if)#mtu 9216

Проверка.

 Введите show interfaces gigabitEthernet 1/1 команда, чтобы проверить, что конфигурация корректна:

7609#show interfaces gigabitEthernet 1/1

GigabitEthernet1/1 is up, line protocol is up (connected)
 Hardware is C6k 1000Mb 802.3, address is 0007.0d0e.640a (bia 0007.0d0e.640a)
  MTU 9216 bytes, BW 1000000 Kbit, DLY 10 usec,
 reliability 255/255, txload 1/255, rxload 1/255

Конфигурация N1kV

С N1kV jumbo MTU может только быть настроен на профилях порта Ethernet для канала связи; MTU не может быть настроен в интерфейсе vEthernet.

Проверка.

Введите показ выполненная команда UPLINK профиля порта, чтобы проверить, что конфигурация корректна: 

Конфигурация NetApp FAS 3240

На контроллере хранения сетевым портам, которые связаны с Центральным устройством или с Уровнем 2 (L2) коммутатор, нужно было настроить jumbo MTU. Вот пример конфигурации:

FAS3240-A> vlan create e1a 100
Ethernet e1a: Link being reconfigured.
vlan: e1a-100 has been created
Ethernet e1a: Link up.

FAS3240-A> vlan create e1b 100
Ethernet e1b: Link being reconfigured.
vlan: e1b-100 has been created
Ethernet e1b: Link up.

FAS3240-A> ifconfig e1a-100 192.168.101.105 netmask 255.255.255.0 mtusize 9000
partner e1a-100

FAS3240-A> ifconfig e1b-100 192.168.102.105 netmask 255.255.255.0 mtusize 9000
partner e1b-100

Проверка.

Используйте этот раздел, чтобы проверить, что конфигурация корректна.

FAS3240-A> ifconfig -a
e1a: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
 ether 00:c0:dd:11:40:2c (auto-10g_twinax-fd-up) flowcontrol full
e1b: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
 ether 00:c0:dd:11:40:2e (auto-10g_twinax-fd-up) flowcontrol full

Проверка.

Процедуры проверки для примеров конфигурации, описанных в этом документе, предоставлены в соответствующих разделах.

Устранение неполадок

Для этой конфигурации в настоящее время нет сведений об устранении проблем.


Связанные обсуждения сообщества поддержки Cisco

В рамках сообщества поддержки Cisco можно задавать и отвечать на вопросы, обмениваться рекомендациями и совместно работать со своими коллегами.