Computación unificada : Servidores Blade Cisco UCS de la serie B

UCS con el ejemplo de configuración de punta a punta del jumbo MTU de VMware ESXi

18 Octubre 2015 - Traducción Automática
Otras Versiones: PDFpdf | Inglés (22 Agosto 2015) | Comentarios

Introducción

Este documento describe cómo configurar la unidad máxima enorme de la transición (MTU) de punta a punta a través de los dispositivos del centro de datos de Cisco en una red que consista en un host de VMware ESXi instalado en el Cisco Unified Computing System (UCS), los 1000V Series Switch del nexo de Cisco (N1kV), el Switches Cisco Nexus de la serie 5000 (N5k), y el regulador de Cisco NetApp.

Contribuido por Vishal Mehta, ingeniero de Cisco TAC.

Prerrequisitos

Requisitos

Cisco recomienda que tenga conocimiento sobre estos temas:

  • VMware ESXi
  • Cisco UCS
  • Cisco N5k
  • (iSCSI) de la interfaz de sistemas informáticos de Internet de Cisco pequeño

Componentes Utilizados

La información que contiene este documento se basa en las siguientes versiones de software y hardware. 

  • Versión 5.0(3)N2(2a) de los 5020 Series Switch del nexo de Cisco
  • Versión 2.1(1d) de Cisco UCS
  • Servidor de la cuchilla de Cisco UCS B200 M3 con el indicador luminoso LED amarillo de la placa muestra gravedad menor de interfaz virtual de Cisco (VIC) 1240
  • vSphere 5.0 (ESXi y vCenter)
  • Versión 4.2(1)SV2(2.1a) de Cisco N1kV
  • FAS 3240 de NetApp

La información que contiene este documento se creó a partir de los dispositivos en un ambiente de laboratorio específico. Todos los dispositivos que se utilizan en este documento se pusieron en funcionamiento con una configuración verificada (predeterminada). Si su red está viva, aseegurese que usted entiende el impacto potencial de la configuración del comando any o de la captura de paquetes.

Configurar

Diagrama de la red

El despliegue típico de la Red de área de almacenamiento del iSCSI (SAN) utiliza Cisco UCS con una interconexión de la tela en el modo del host extremo de los Ethernetes y la blanco del almacenamiento conectada a través de un Switch o de una red de switch por aguas arriba.

Con el uso de los puertos del dispositivo en el UCS, el almacenamiento se puede conectar directamente con la tela interconecta.

Si la red ascendente es 1 GbE o 10 GbE, el uso de las Tramas gigantes (una talla del MTU de 9000, por ejemplo) mejora el funcionamiento porque reduce el número de bastidores individuales que se deban enviar para una determinada cantidad de datos y reduce la necesidad de separar los bloques de datos del iSCSI en las tramas de los Ethernetes múltiples. También bajan la utilización de la CPU del host y del almacenamiento.

Si se utilizan las Tramas gigantes, usted debe asegurarse de que UCS y del almacenamiento, así como todo el equipo de red la blanco en medio, sea capaz y configurada para soportar los tamaños de trama más grandes. Esto significa que el MTU enorme debe ser de punta a punta configurado (iniciador a apuntar) para que sea eficaz a través del dominio.

Aquí está una descripción del procedimiento que se utiliza para configurar el MTU enorme de punta a punta:

  1. Cree una clase del sistema del Calidad de Servicio (QoS) UCS con un MTU de 9000, y después configure el NIC virtual (vNIC) con el MTU enorme.

  2. Habilite las Tramas gigantes (MTU 9000) en todo el Switches entre el iniciador (UCS) y el destino iSCSI.

  3. Habilite las Tramas gigantes en el adaptador del operating system (OS) (puerto de VMkernel del ESXi).

  4. Habilite las Tramas gigantes en las interfaces de NetApp.

Nota: Refiérase a la opción de conectividad y a las mejores prácticas del almacenamiento del Cisco Unified Computing System (UCS) con el artículo de Cisco del almacenamiento de NetApp para la información adicional. 

Configuración de Cisco UCS

El MTU se fija en las por class de la base del (CoS) del servicio dentro del UCS. Si usted no tiene política de calidad de servicio (QoS) definido para el vNIC que dirige hacia el vSwitch, después el tráfico se mueve a la clase Best-Effort.

Complete estos pasos para habilitar las Tramas gigantes:

  1. Del UCS GUI, haga clic la lengueta LAN.

  2. Navegue a nube LAN > LAN > clase del sistema de QoS.

  3. Haga clic la clase del sistema de QoS y cambie la clase de tráfico (que lleva el tráfico del iSCSI) MTU a 9216.

    Nota: Este ejemplo utiliza la clase del tráfico de máximo esfuerzo para ilustrar esta actualización MTU.




  4. Cree a política de calidad de servicio (QoS) dentro de la lengueta LAN y apliqúela al vNIC que lleva el tráfico del almacenamiento.



  5. Navegue a la plantilla del vNIC o al vNIC real bajo perfiles del servicio y fije el valor MTU a 9000.

Verificación

Verifique que el vNIC tenga el MTU configurado según lo descrito previamente.

Verifique que los puertos de link ascendentes tengan MTU enorme habilitado.

Configuración N5k

Con el N5k, el MTU enorme se habilita en el nivel del sistema.

Abra un comando prompt y ingrese estos comandos para configurar el sistema para el MTU enorme:

switch(config)#policy-map type network-qos jumbo
switch(config-pmap-nq)#class type network-qos class-default
switch(config-pmap-c-nq)#mtu 9216switch(config-pmap-c-nq)#exit
switch(config-pmap-nq)#exitswitch(config)#system qos
switch(config-sys-qos)#service-policy type network-qos jumbo

Verificación

Ingrese el comando del x/y de los Ethernetes de la interfaz para colocación en cola de la demostración para verificar que el MTU enorme está habilitado:

Nota: El comando del x/y de las interfaces Ethernet de la demostración muestra un MTU de 1500, pero ése es incorrecto.

Configuración de VMware ESXi

Usted puede configurar el valor MTU de un vSwitch de modo que todos los grupos de puertos y puertos utilicen las Tramas gigantes.

Complete estos pasos para habilitar las Tramas gigantes en un vSwitch del host:

  1. Navegue para dirigirse inventario > los hosts y los clusteres del cliente del vSphere.

  2. Seleccione el host.

  3. Haga clic la ficha de configuración.

  4. Seleccione el establecimiento de una red en el menú del hardware.

  5. Elija el Switch estándar del vSphere en el campo de la visión.

  6. Haga clic en Properties (Propiedades). 

  7. Seleccione el vSwitch en la lengueta de los puertos de la ventana emergente de las propiedades.

  8. Haga clic en Editar.

  9. En la ficha general de la ventana emergente, cambie el MTU (bajo propiedades avanzadas) del valor predeterminado (1500) a 9000. Esto habilita las Tramas gigantes en todos los grupos de puertos y puertos del vSwitch.

Complete estos pasos para habilitar las Tramas gigantes solamente en un puerto de VMkernel del servidor del vCenter:

  1. Del cliente del vSphere, navegue para dirigirse inventario > los hosts y los clusteres.

  2. Seleccione el host.

  3. Haga clic la ficha de configuración

  4. Seleccione el establecimiento de una red en el menú del hardware.

  5. Elija el Switch estándar del vSphere en el campo de la visión.

  6. Haga clic en Properties (Propiedades). 

  7. Seleccione VMkernel en la lengueta de los puertos de la ventana emergente de las propiedades.

  8. Haga clic en Editar.

  9. En la ficha general de la ventana emergente, cambie el MTU (bajo configuraciones NIC) del valor predeterminado (1500) a 9000. Esto habilita las Tramas gigantes en solamente un puerto de VMkernel del vSwitch.

Verificación

Ingrese - d - el IP Address > el comando vmkping de la aplicación del <storage s 8972 para probar la conectividad de red y verificarla que el puerto de VMkernel puede hacer ping con el MTU enorme.

Consejo: Refiérase a la conectividad de red de prueba de VMkernel con el artículo vmkping de VMware del comando para más información sobre este comando. 

Nota: Los tamaños de paquetes verdaderos más grandes son 8972, que envía un paquete 9000-byte cuando usted agrega los bytes IP y del encabezado ICMP.

En el nivel del host de ESXi, verifique que las configuraciones de MTU estén configuradas correctamente:

Configuración de Cisco IOS

Con el Switches del ® del Cisco IOS, no hay concepto de MTU global en el nivel del Switch. En lugar, el MTU se configura en el nivel de la interfaz/de canal de éter.

Ingrese estos comandos para configurar el MTU enorme:

7609(config)#int gigabitEthernet 1/1
7609(config-if)#mtu ?
<1500-9216>  MTU size in bytes
7609(config-if)#mtu 9216

Verificación

 Ingrese el comando show interfaces gigabitEthernet 1/1 para verificar que la configuración está correcta:

7609#show interfaces gigabitEthernet 1/1

GigabitEthernet1/1 is up, line protocol is up (connected)
  Hardware is C6k 1000Mb 802.3, address is 0007.0d0e.640a (bia 0007.0d0e.640a)
  MTU 9216 bytes, BW 1000000 Kbit, DLY 10 usec,
  reliability 255/255, txload 1/255, rxload 1/255

Configuración N1kV

Con el N1kV, el MTU enorme se puede configurar solamente en los puerto-perfiles de los Ethernetes para el uplink; El MTU no se puede configurar en la interfaz del vEthernet.

Verificación

Ingrese el comando del UPLINK del puerto-perfil del funcionamiento de la demostración para verificar que la configuración está correcta: 

Configuración de las FAS 3240 de NetApp

En el controlador de almacenamiento, los puertos de red que están conectados con la interconexión de la tela o a la capa 2 el Switch (L2) deben tener MTU enorme configurado. Aquí está un ejemplo de configuración:

FAS3240-A> vlan create e1a 100
Ethernet e1a: Link being reconfigured.
vlan: e1a-100 has been created
Ethernet e1a: Link up.

FAS3240-A> vlan create e1b 100
Ethernet e1b: Link being reconfigured.
vlan: e1b-100 has been created
Ethernet e1b: Link up.

FAS3240-A> ifconfig e1a-100 192.168.101.105 netmask 255.255.255.0 mtusize 9000
partner e1a-100

FAS3240-A> ifconfig e1b-100 192.168.102.105 netmask 255.255.255.0 mtusize 9000
partner e1b-100

Verificación

Utilice esta sección para verificar que la configuración está correcta.

FAS3240-A> ifconfig -a
e1a: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
 ether 00:c0:dd:11:40:2c (auto-10g_twinax-fd-up) flowcontrol full
e1b: flags=0x80f0c867<BROADCAST,RUNNING,MULTICAST,TCPCKSUM,VLAN> mtu 9000
 ether 00:c0:dd:11:40:2e (auto-10g_twinax-fd-up) flowcontrol full

Verificación

Los procedimientos de verificación para los ejemplos de configuración descritos en este documento se proporcionan en las secciones correspondientes.

Troubleshooting

Actualmente, no hay información específica de troubleshooting disponible para esta configuración.


Discusiones relacionadas de la comunidad de soporte de Cisco

La Comunidad de Soporte de Cisco es un foro donde usted puede preguntar y responder, ofrecer sugerencias y colaborar con colegas.


Document ID: 117601