Switches : Switches Cisco Catalyst de la serie 6500

Programa de salida de QoS en los switches de la serie Catalyst 6500/6000 con software del sistema CatOS

18 Octubre 2015 - Traducción Automática
Otras Versiones: PDFpdf | Inglés (19 Septiembre 2015) | Comentarios


Contenido


Introducción

La programación de salida se asegura de que el tráfico importante no se interrumpa en caso de que se produzca una suscripción excesiva. Este documento explica todas las técnicas y algoritmos implicados en la programación de salida en los Cisco Catalyst 6500/6000 Series Switches que ejecutan el software del sistema Catalyst OS (CatOS). Este documento también proporciona una breve descripción de la capacidad de puesta en cola de Catalyst 6500/6000 Switches y cómo configurar los diversos parámetros de la programación de salida.

Nota: Si usted funciona con el software de Cisco IOS� en su Catalyst 6500/6000, refiera a la programación de salida de QoS en los Catalyst 6500/6000 Series Switch que funcionan con el software del sistema del Cisco IOS para más información.

prerrequisitos

Requisitos

No hay requisitos específicos para este documento.

Componentes Utilizados

Los ejemplos en este documento fueron creados de un Catalyst 6000 con un Supervisor Engine 1A y un Policy Feature Card (PFC). Pero los ejemplos son también válidos para un Supervisor Engine 2 con un PFC2 o para un Supervisor Engine 720 con un PFC3.

La información que contiene este documento se creó a partir de los dispositivos en un ambiente de laboratorio específico. Todos los dispositivos que se utilizan en este documento se pusieron en funcionamiento con una configuración verificada (predeterminada). Si la red está funcionando, asegúrese de haber comprendido el impacto que puede tener cualquier comando.

Convenciones

Consulte Convenciones de Consejos TécnicosCisco para obtener más información sobre las convenciones del documento.

Antecedentes

Perdidas de la cola de salida

Las caídas de resultados son causadas por una interfaz congestionada. Una causa común de esto pudo ser tráfico de un link de ancho de banda alto que se está conmutando a un link de ancho de banda o a un tráfico más bajo de los links entrantes múltiples que se están conmutando a un solo link saliente.

Por ejemplo, si una gran cantidad de tráfico saturado entra en una interfaz gigabit y se conmuta hacia una interfaz de 100Mbps, esto podría ocasionar que aumenten las pérdidas en la salida en la interfaz de 100Mbps. Esto ocurre porque la cola de salida en esa interfaz está saturada por el exceso de tráfico debido a la asimetría de la velocidad entre los anchos de banda entrante y saliente. Las relaciones del tráfico en la interfaz saliente no pueden validar todos los paquetes que deban ser enviados.

La mejor solución para resolver el problema es aumentar la velocidad de la línea. Sin embargo, hay maneras de prevenir, de disminuir, o de controlar las caídas de resultados cuando usted no quiere aumentar la velocidad de línea. Usted puede prevenir las caídas de resultados solamente si las caídas de resultados son una consecuencia de las ráfagas breves de los datos. Si las caídas de resultados son causadas por un flujo constante de la alta velocidad, usted no puede prevenir los descensos. Sin embargo, usted puede controlarlos.

Tipos cola que están implicados en la programación de salida en el Catalyst 6500/6000

Eliminación de cola

La eliminación de cola es un mecanismo de prevención de congestionamiento básico. La eliminación de cola trata todo el tráfico igualmente y no lo distingue entre las clases del servicio (CoSs) cuando las colas de administración del tráfico comienzan a llenar durante los períodos de congestión. Cuando la cola de salida es llena y la eliminación de cola está en efecto, se caen los paquetes hasta que se elimine la congestión y la cola es no más llena. La eliminación de cola es la mayoría del tipo básico de prevención de congestionamiento y no tiene en cuenta ningún parámetro de QoS.

El Catalyst 6000 ha implementado una versión avanzada de la prevención de congestionamiento de la eliminación de cola que cae todos los paquetes con cierto CoS cuando cierto porcentaje del espacio utilizado de memoria intermedia se alcanza. Con el descarte de cola ponderado, usted puede definir un conjunto de los umbrales y asociar CoS a cada umbral. En el ejemplo en esta sección, hay cuatro umbrales posibles. Las definiciones de cada umbral son:

  • Se alcanza el umbral 1 cuando el 50 por ciento del buffer se llena. CoS 0 y 1 se asigna a este umbral.

  • Se alcanza el umbral 2 cuando el 60 por ciento del buffer se llena. CoS 2 y 3 se asigna a este umbral.

  • Se alcanza el umbral 3 cuando el 80 por ciento del buffer se llena. CoS 4 y 5 se asigna a este umbral.

  • Se alcanza el umbral 4 cuando el 100 por ciento del buffer se llena. CoS 6 y 7 se asigna a este umbral.

En el diagrama en el cuadro 1, todos los paquetes con CoS de 0 o 1 se caen si el buffer es el 50 por ciento llenado. Todos los paquetes con CoS de 0, 1, 2, o 3 se caen si los buffers son el 60 por ciento llenado. Los paquetes con una CoS de 6 ó 7 se descartan cuando las memorias intermedias están completas.

Figura 1

/image/gif/paws/10582/60a.gif

Nota: Tan pronto como el espacio utilizado de memoria intermedia caiga debajo de cierto umbral, los paquetes con CoS asociado se caen no más.

Detección temprana aleatoria y detección temprana aleatoria ponderada

El Weighted Random Early Detection (WRED) es un mecanismo de prevención de congestionamiento que cae aleatoriamente los paquetes con cierta Prioridad IP cuando los buffers alcanzan un umbral de relleno definido. El WRED es una combinación de estas dos características:

  • Eliminación de cola

  • Detección temprana aleatoria (RED)

El ROJO no está precedencia-enterado o CoS-enterado. El ROJO utiliza uno de los únicos umbrales cuando el valor de umbral para el buffer llena. El ROJO comienza a caer aleatoriamente los paquetes (solamente no todos los paquetes, como en la eliminación de cola) hasta que se alcance el umbral (máximo) máximo. Después de que se alcance el umbral máximo, se caen todos los paquetes. La probabilidad que un paquete es aumentos caídos linear con el aumento de espacio utilizado de memoria intermedia sobre el umbral. El diagrama en el cuadro 2 muestra la probabilidad de caída de paquetes:

Cuadro 2 – Probabilidad del descarte de paquetes

60b.gif

Nota: La probabilidad de la marca en este diagrama es armoniosa en el ROJO, así que significa que la cuesta de la probabilidad de caída lineal es ajustable.

El ROJO y el WRED son mecanismos de prevención de congestionamiento muy útiles para el tráfico TCP basado. Para otros tipos de tráfico, RED no resulta muy eficiente. Esto es porque el ROJO se aprovecha del mecanismo de ventanas que el TCP utiliza para manejar la congestión. El ROJO evita la congestión típica que ocurre en un router cuando las sesiones TCP múltiples pasan a través del puerto del mismo router. El mecanismo se llama sincronización de la red global. El diagrama en el cuadro 3 muestra cómo el ROJO tiene un efecto que alisa sobre la carga:

Cuadro 3 – ROJO para la prevención de congestionamiento

60c.gif

Para más información sobre cómo el ROJO puede reducir la congestión y alisar el tráfico a través del router, refiera a cómo el router obra recíprocamente con la sección TCP de la descripción de la prevención de congestionamiento del documento.

El WRED es similar al ROJO en que ambos definen algunos umbrales y, cuando se alcanzan esos Umbrales mínimos, paquetes (mínimos) mínimos están caídos aleatoriamente. El WRED también define ciertos umbrales máximos y, cuando se alcanzan esos umbrales máximos, se caen todos los paquetes. El WRED está también CoS-enterado, así que significa que uno o más valores de CoS están agregados a cada par del Umbral mínimo/del umbral máximo. Cuando se excede el minuto threshold, los paquetes se caen aleatoriamente con CoS se asigna que. Considere este ejemplo con dos umbrales en la cola:

  • CoS 0 y 1 se asigna al Umbral mínimo 1 y al umbral máximo 1. el Umbral mínimo 1 se fija al 50 por ciento de espacio utilizado de memoria intermedia, y el umbral máximo 1 se fija al 80 por ciento.

  • CoS 2 y 3 se asigna al Umbral mínimo 2 y al umbral máximo 2. el Umbral mínimo 2 se fija al 70 por ciento de espacio utilizado de memoria intermedia, y el umbral máximo 2 se fija al 100 por ciento.

Tan pronto como el buffer exceda el Umbral mínimo 1 (el 50 por ciento), los paquetes con el comienzo de CoS 0 y 1 que se caerá aleatoriamente. Se caen más paquetes mientras que la utilización del almacén intermedio crece. Si se alcanza el Umbral mínimo 2 (el 70 por ciento), los paquetes con CoS 2 y 3 comienzan a ser caídos aleatoriamente.

Nota: En esta etapa, la probabilidad de caída para los paquetes con CoS 0 y 1 es mucho más alta que la probabilidad de caída para los paquetes con CoS 2 o CoS 3.

Siempre que se alcance el umbral máximo 2, los paquetes con CoS 0 y 1 son todos caídos, mientras que los paquetes con CoS 2 y 3 continúan siendo caídos aleatoriamente. Finalmente, cuando se alcanza el 100 por ciento (se cae el umbral máximo 2), todos los paquetes con CoS 2 y 3.

Los diagramas en el cuadro 4 y el cuadro 5 ilustran un ejemplo de estos umbrales:

Cuadro 4 – WRED con dos conjuntos de los Umbrales mínimos y de los umbrales máximos (dos servicios)

/image/gif/paws/10582/60d.gif

Cuadro 5 – WRED con dos conjuntos de servicios, pero igual 0 de ambos Umbrales mínimos

/image/gif/paws/10582/60e.gif

La implementación temprana de CatOS del WRED fijó solamente el umbral máximo, mientras que el Umbral mínimo fue cifrado difícilmente al 0 por ciento. El parte inferior del diagrama en el cuadro 5 resalta el comportamiento resultante.

Nota: La probabilidad de caída para un paquete es siempre no nula porque esta probabilidad está siempre sobre el Umbral mínimo. Este comportamiento se ha corregido en la versión de software 6.2 y posterior.

Ordenamiento cíclico equilibrado

El ordenamiento cíclico equilibrado (WRR) es otro mecanismo para la programación de salida en el Catalyst 6000. WRR funciona entre dos o más colas. Las colas de administración del tráfico para el WRR se vacian en una forma de cargas balanceadas, y usted puede configurar la ponderación para cada cola. Por abandono, los puertos tienen dos colas de administración del tráfico WRR en el Catalyst 6000. El valor por defecto es:

  • Para servir el WRR de alta prioridad haga cola el 70 por ciento de tiempo

  • Para servir el WRR de baja prioridad haga cola el 30 por ciento de tiempo

El diagrama en el cuadro 6 muestra un WRR que tenga tres colas de administración del tráfico que se sirvan en una moda WRR. La cola de alta prioridad (paquetes rojos) envía más paquetes que las dos otras colas de administración del tráfico:

Cuadro 6 – Programación de salida: WRR

60f.gif

Nota: La mayoría de los 6500 linecards implementa el WRR por el ancho de banda. Esta implementación del WRR por el ancho de banda significa que cada vez que el planificador de trabajos permite que una cola transmita los paquetes, algunos bytes están permitidos ser transmitidos. Esta cantidad de bytes puede representar más de un paquete. Por ejemplo, si usted envía 5120 bytes en una vuelta, usted puede enviar tres paquetes 1518-byte, para un total de 4554 bytes. Los bytes superiores se pierden (5120 – 4554 = 566 bytes). Por lo tanto, con una cierta ponderación extrema (como el 1 por ciento para la cola el 1 y 99 por ciento para la cola 2), la ponderación configurada exacta no puede ser alcanzado. Este error alcanzar para exigir la ponderación es a menudo la caja para paquetes más grandes.

Algún linecards de nueva generación, como el 6548-RJ-45, supera esta limitación con la implementación del ordenamiento cíclico equilibrado del déficit (DWRR). El DWRR transmite de las colas de administración del tráfico pero no muere de hambre la cola de baja prioridad. El DWRR no pierde de vista la cola de baja prioridad que está bajo transmisión y compensa en la siguiente ronda.

Cola de prioridad estricta

Vacian a otro tipo de cola en el Catalyst 6000, una cola de prioridad estricta, siempre primero. Tan pronto como haya un paquete en la cola de prioridad estricta, se envía el paquete.

Se marca El WRR o las colas WRED solamente después que se vacia la cola de prioridad estricta. Después de que cada paquete se transmita de la cola WRR o de la cola WRED, se marca y se vacia la cola de prioridad estricta, en caso necesario.

Nota: Todo el linecards con un tipo de los Datos en espera similar 1p2q1t, 1p3q8t, y 1p7q8t al uso DWRR. El otro uso WRR estándar del linecards.

Capacidad de formar colas de salida de placas de línea diferentes en el Catalyst 6000

Capacidades del comando show port

Si usted no está seguro sobre la capacidad de colocación en cola de un puerto, usted puede publicar el comando show port capabilities. Ésta es la salida del comando en un linecard WS-X6408-GBIC:

Model                  WS-X6408-GBIC
Port                   4/1
Type                   No GBIC
Speed                  1000
Duplex                 full
Trunk encap type       802.1Q,ISL
Trunk mode             on,off,desirable,auto,nonegotiate
Channe                 yes
Broadcast suppression  percentage(0-100)
Flow control           receive-(off,on,desired),send-(off,on,desired)
Security               yes
MembershIP             static,dynamic
Fast start             yes
QOS scheduling         rx-(1q4t),tx-(2q2t)
CoS rewrite            yes
ToS rewrite            DSCP
UDLD                   yes
SPAN                   source,destination
COPS port group        none

Este puerto tiene un tipo cola hecho salir que se llame 2q2t.

Entienda la capacidad de colocación en cola de un puerto

Hay varios tipos de colas de administración del tráfico que estén disponibles en el Switches del Catalyst 6500/6000. Las tablas en esta sección pueden llegar a ser incompletas mientras que se liberan las nuevas placas de línea. Las nuevas placas de línea pueden introducir las nuevas combinaciones de los Datos en espera. Para una descripción actual de todos los Datos en espera que estén disponibles para los módulos del switch del Catalyst 6500/6000, refiera a la sección de QoS que configura para su versión CatOS de la documentación sobre el software de las Catalyst 6500 Series.

Nota: El módulo communication media de Cisco (CMM) no soporta todas las características de QoS. Marque los Release Note para su versión de software específica para determinar las características se soportan que.

Esta tabla explica la notación de la arquitectura de QoS del puerto:

— —
Tx1/Rx2 ide Notación de la cola No de las colas de administración del tráfico Priority queue No de las colas de administración del tráfico WRR No. y tipo de umbral para las colas de administración del tráfico WRR
Tr 2q2t 2 2 eliminación de cola configurable 2
Tr 1p2q2t 3 1 2 2 WRED configurable
Tr 1p3q1t 4 1 3 1 WRED configurable
Tr 1p2q1t 3 1 2 1 WRED configurable
Rx 1q4t 1 1 eliminación de cola configurable 4
Rx 1p1q4t 2 1 1 eliminación de cola configurable 4
Rx 1p1q0t 2 1 1 No configurable
Rx 1p1q8t 2 1 1 8 WRED configurable

1 tx = transmite.

2 rx = reciben.

Esta tabla enumera todos los módulos y los tipos de cola en el rx y el costado TX de la interfaz o del puerto:

Módulo Colas de administración del tráfico del rx Colas de administración del tráfico del tx
WS-X6K-S2-PFC2 1p1q4t 1p2q2t
WS-X6K-SUP1A-2GE 1p1q4t 1p2q2t
WS-X6K-SUP1-2GE 1q4t 2q2t
WS-X6501-10GEX4 1p1q8t 1p2q1t
WS-X6502-10GE 1p1q8t 1p2q1t
WS-X6516-GBIC 1p1q4t 1p2q2t
WS-X6516-GE-TX 1p1q4t 1p2q2t
WS-X6416-GBIC 1p1q4t 1p2q2t
WS-X6416-GE-MT 1p1q4t 1p2q2t
WS-X6316-GE-TX 1p1q4t 1p2q2t
WS-X6408A-GBIC 1p1q4t 1p2q2t
WS-X6408-GBIC 1q4t 2q2t
WS-X6524-100FX-MM 1p1q0t 1p3q1t
WS-X6324-100FX-SM 1q4t 2q2t
WS-X6324-100FX-MM 1q4t 2q2t
WS-X6224-100FX-MT 1q4t 2q2t
WS-X6548-RJ-21 1p1q0t 1p3q1t
WS-X6548-RJ-45 1p1q0t 1p3q1t
WS-X6348-RJ-21 1q4t 2q2t
WS-X6348-RJ21V 1q4t 2q2t
WS-X6348-RJ-45 1q4t 2q2t
WS-X6348-RJ-45V 1q4t 2q2t
WS-X6148-RJ-45V 1q4t 2q2t
WS-X6148-RJ21V 1q4t 2q2t
WS-X6248-RJ-45 1q4t 2q2t
WS-X6248A-TEL 1q4t 2q2t
WS-X6248-TEL 1q4t 2q2t
WS-X6024-10FL-MT 1q4t 2q2t

Cree QoS en el Catalyst 6500/6000

Tres campos en el Catalyst 6500/6000 se utilizan para hacer QoS:

  • La Prioridad IP — Los primeros tres bits del campo de Tipo de servicio (ToS) en el encabezado IP

  • El Differentiated Services Code Point (DSCP) — Los primeros seis bits del campo TOS en el encabezado IP

  • CoS — Los tres bits usados en el nivel de la capa 2 (L2)

    Estos tres bits son cualquier parte de la encabezado del Inter-Switch Link (ISL) o están dentro de la etiqueta del IEEE 802.1Q (dot1q). No hay CoS dentro de un paquete Ethernet untagged.

Mecanismo de programación de salida en el Catalyst 6500/6000

Cuando una trama se envía del bus de datos que se transmitirá, CoS del paquete es el único parámetro se considera que. El paquete entonces pasa a través de un planificador de trabajos, que elige la cola en la cual se pone el paquete. Por lo tanto, recuerde que la programación de salida y todos los mecanismos que este documento discute están solamente CoS-enterados.

El Catalyst 6500/6000 con un (MSFC) de la Multilayer Switch Feature Card utiliza un DSCP interno para clasificar el paquete. El Catalyst 6500/6000 que se configura con QoS habilitó asigna un valor DSCP cuando la decisión de reenvío se toma en el nivel PFC. Este DSCP se asigna a cualquier paquete, que incluya los paquetes del no IP, y se asocia a CoS para habilitar la programación de salida. Usted puede configurar la asignación del DSCP a los valores de CoS en el Catalyst 6500/6000. Si usted deja el valor predeterminado, usted puede derivar CoS del DSCP. La fórmula es:

DSCP_value / 8

Además, el valor DSCP se asocia en CoS del paquete de salida, si el paquete es un paquete del IP que es ISL o dot1q (VLA N extranjero) marcado con etiqueta. El valor DSCP también se escribe dentro del campo TOS del encabezado IP.

El diagrama en el cuadro 7 muestra una cola 1p2q2t. Las colas de administración del tráfico WRR se vacian con el uso del programador WRR. Hay también un árbitro que marca entre cada paquete de las colas WRR para determinar si hay algo en la cola de prioridad estricta.

Figura 7

/image/gif/paws/10582/60g.gif

  1. El campo TOS se reescribe en el encabezado IP y el campo 802.1p/ISL CoS.

  2. La cola y el umbral de previsión se seleccionan en base de CoS, a través de una correspondencia configurable.

  3. Cada cola tiene los tamaños configurables y umbrales, y algunas colas de administración del tráfico tienen WRED.

  4. Aplicaciones Dequeuing WRR entre dos colas de administración del tráfico.

  5. La encapsulación saliente puede ser dot1q, ISL, o ninguno.

Programación de la configuración, el monitoreo y la salida en el Catalyst 6500/6000

Configuración predeterminada para QoS en el Catalyst 6500/6000

Esta sección proporciona la salida de muestra de la configuración de QoS predeterminada en un Catalyst 6500/6000, además de la información sobre lo que medio de estos valores y cómo usted puede ajustar los valores.

QoS se inhabilita por abandono cuando usted publica este comando:

set qos disable

Los comandos en esta lista muestran la asignación predeterminada para cada CoS en un puerto 2q2t. La cola 1 tiene CoS 0 y 1 asignado a su primer umbral y tiene CoS 2 y 3 asignados a su segundo umbral. La cola 2 tiene CoS 4 y 5 asignados a su primer umbral y tiene CoS 6 y 7 asignados a su segundo umbral:

set qos map 2q2t tx 1 1 cos 0

set qos map 2q2t tx 1 1 cos 1

set qos map 2q2t tx 1 2 cos 2

set qos map 2q2t tx 1 2 cos 3

set qos map 2q2t tx 2 1 cos 4

set qos map 2q2t tx 2 1 cos 5

set qos map 2q2t tx 2 2 cos 6

set qos map 2q2t tx 2 2 cos 7

Estos comandos display el límite de umbral por abandono en un puerto 2q2t para cada cola:

set qos drop-threshold 2q2t tx queue 1 80 100

set qos drop-threshold 2q2t tx queue 2 80 100

Usted puede asignar el peso predeterminado a cada uno de las colas de administración del tráfico WRR. Publique este comando para asignar los pesos predeterminados para la cola 1 y la cola 2:

Nota: La cola de baja prioridad se sirve el 5/260 por ciento del tiempo, y la cola de alta prioridad se sirve el 255/260 por ciento del tiempo.

set qos wrr 2q2t 5 255

La Disponibilidad del búfer total está partida entre las dos colas de administración del tráfico. La cola de baja prioridad se asigna correctamente al 80 por ciento de los buffers que están disponibles porque ésta es la cola que es más probable tener paquetes mitigados y que se sientan por algún tiempo. Publique este comando para definir la Disponibilidad:

set qos txq-ratio 2q2t 80 20

Usted puede ver las configuraciones similares para el puerto 1p2q2t en esta configuración:

set qos map 1p2q2t tx 1 1 cos 0

set qos map 1p2q2t tx 1 1 cos 1

set qos map 1p2q2t tx 1 2 cos 2

set qos map 1p2q2t tx 1 2 cos 3

set qos map 1p2q2t tx 2 1 cos 4

set qos map 1p2q2t tx 3 1 cos 5

set qos map 1p2q2t tx 2 1 cos 6

set qos map 1p2q2t tx 2 2 cos 7

set qos wrr 1p2q2t 5 255

set qos txq-ratio 1p2q2t 70 15 15

set qos wred 1p2q2t tx queue 1 80 100

set qos wred 1p2q2t tx queue 2 80 100

Nota: Por abandono, CoS 5 (tráfico de voz) se asigna a la cola de prioridad estricta.

Configuración

El primer paso para la configuración es habilitar QoS. Recuerde que QoS está desactivada de manera predeterminada. Cuando se inhabilita QoS, el asociar de CoS es inútil. Hay una cola única que se sirve como (Primero en Salir FIFO), y todos los paquetes consiguen caídos allí.

bratan> (enable) set qos enable

QoS is enabled

bratan> (enable) show qos status

QoS is enabled on this switch

El valor de CoS necesita ser asignado a la cola o al umbral para todos los tipos de cola. La asignación que se define para un tipo 2q2t de puerto no se aplica a ningún puerto 1p2q2t. También, la asignación que se hace para 2q2t se aplica a todos los puertos que tengan un Mecanismo para formar la cola 2q2t. Ejecutar este comando:

set qos map queue_type tx Q_number threshold_number cos value

Nota: Las colas de administración del tráfico se numeran siempre para comenzar con el priority queue y el extremo posibles más bajos con la cola de prioridad estricta que está disponible. Aquí tiene un ejemplo:

  • La cola 1 es la cola del WRR de baja prioridad

  • La cola 2 es la cola del WRR de alta prioridad

  • La cola 3 es la cola de prioridad estricta

Usted debe relanzar esta operación para todos los tipos de colas de administración del tráfico. Si no, usted guarda la asignación predeterminada de CoS. Aquí está un ejemplo para 1p2q2t:

Configuración

set qos map 1p2q2t tx 1 1 cos 0

!--- This is the low-priority WRR queue threshold 1, CoS 0 and 1.

set qos map 1p2q2t tx 1 1 cos 1 and 1

set qos map 1p2q2t tx 1 2 cos 2

!--- This is the low-priority WRR queue threshold 2, CoS 2 and 3.

set qos map 1p2q2t tx 1 2 cos 3 and 3

set qos map 1p2q2t tx 2 1 cos 4

!--- This is the high-priority WRR queue threshold 1, CoS 4.

set qos map 1p2q2t tx 3 1 cos 5

!--- This is the strict priority queue, CoS 5.

set qos map 1p2q2t tx 2 1 cos 6

!--- This is the high-priority WRR queue threshold 2, CoS 6.

set qos map 1p2q2t tx 2 2 cos 7 and 7

Resultado de la consola

tamer (enable) set qos map 1p2q2t tx 1 1 cos 0

QoS tx priority queue and threshold mapped to cos successfully

Usted debe configurar la ponderación WRR para las dos colas de administración del tráfico WRR. Ejecutar este comando:

set qos wrr Q_type weight_1 weight_2

Weight_1 se relaciona para hacer cola 1, que debe ser la cola del WRR de baja prioridad. Weight_1 debe siempre ser más bajo que weight_2. La ponderación puede tomar cualquier valor entre 1 y 255. Usted puede asignar el porcentaje con estas fórmulas:

  • Cola 1:

    weight_1 / (weight_1 + weight_2)
  • Cola 2:

    weight_2 / (weight_1 + weight_2)

Usted debe también definir la ponderación para los diversos tipos de colas de administración del tráfico. La ponderación no necesita ser lo mismo. Por ejemplo, para 2q2t, donde la cola 1 se sirve el 30 por ciento del tiempo y la cola 2 se sirve el 70 por ciento del tiempo, usted puede publicar este comando para definir la ponderación:

set qos wrr 2q2t 30 70

!--- This ensures that the high-priority WRR queue is served 70 percent of the time
!--- and that the low-priority WRR queue is served 30 percent of the time.

Resultado de la consola

tamer (enable) set qos wrr 2q2t 30 70

QoS wrr ratio is set successfully

Usted también debe definir el índice de la cola de transmisión, que refiere a la manera que los buffers están partidos entre las diversas colas de administración del tráfico. Ejecutar este comando:

set qos txq-ratio port_type queuel_val queue2_val ... queueN_val

Nota: Si usted tiene tres colas de administración del tráfico (1p2q2t), usted debe fijar la cola del WRR de alta prioridad y la cola de prioridad estricta en el mismo nivel por las razones de hardware.

Configuración

set qos txq-ratio 1p2q2t 70 15 15

!--- This gives 70 percent of the buffer of all 1p2q2t ports to the low-priority WRR
!--- queue and gives 15 percent to each of the other two queues.

set qos txq-ratio 2q2t 80 20

!--- This gives 80 percent of the buffer to the low-priority queue,
!--- and gives 20 percent of the buffer to the high-priority queue.

Resultado de la consola

tamer (enable) set qos txq-ratio 1p2q2t 70 15 20

Queue ratio values must be in range of 1-99 and add up to 100
Example: set qos txq-ratio 2q2t 20 80

tamer (enable) set qos txq-ratio 1p2q2t 70 30 30

Queue ratio values must be in range of 1-99 and add up to 100
Example: set qos txq-ratio 2q2t 20 80

tamer (enable) set qos txq-ratio 1p2q2t 80 10 10

QoS txq-ratio is set successfully

Como esta salida de la consola ilustra, la suma de los valores de la cola debe ser 100. Deje a parte de más grande los buffers para la cola del WRR de baja prioridad porque esta cola necesita mitigar. Las otras colas tienen prioridad de servicio más alta.

El último paso es configurar el nivel del umbral para la cola WRED o para la cola de eliminación. Ejecute estos comandos:

set qos wred port_type [tx] queue q_num thr1 thr2 ... thrn


set qos drop-threshold port_type tx queue q_num thr1 ... thr2

Configuración

set qos drop-threshold 2q2t tx queue 1 50 80

!--- For low-priority queues in the 2q2t port, the first threshold is defined at 50
!--- percent and the second threshold is defined at 80 percent of buffer filling.

set qos drop-threshold 2q2t tx queue 2 40 80

!--- For high-priority queues in the 2q2t port, the first threshold is defined at 40
!--- percent and the second threshold is defined at 80 percent of buffer filling.

set qos wred 1p2q2t tx queue 1 50 90

!--- The commands for the 1p2q2t port are identical.

set qos wred 1p2q2t tx queue 2 40 80

Resultado de la consola

tamer (enable) set qos drop-threshold 2q2t tx queue 1 50 80

Transmit drop thresholds for queue 1 set at 50% 80%

tamer (enable) set qos drop-threshold 2q2t tx queue 2 40 80

Transmit drop thresholds for queue 2 set at 40% 80%

tamer (enable) set qos wred 1p2q2t tx queue 1 50 90

WRED thresholds for queue 1 set to 50 and 90 on all WRED-capable 1p2q2t ports

tamer (enable) set qos wred 1p2q2t tx queue 2 40 80

WRED thresholds for queue 2 set to 40 and 80 on all WRED-capable 1p2q2t ports

El comando set qos wred 1p2q2t tx queue 2 40 80 trabaja conjuntamente con CoS para el mapeo del umbral. Por ejemplo, cuando usted publica los comandos en la lista abajo, usted se asegura de que — en el puerto 1p2q2t en la dirección de transmisión — los paquetes con CoS 0,1, 2, y 3 estén enviados en la primera cola (la cola baja WRR). Cuando los buffers en esa cola son el 50 por ciento llenado, se cae el WRED comienza a caer los paquetes con CoS 0 y los paquetes 1. con CoS 2 y 3 solamente cuando los buffers en la cola son el 90 por ciento llenado.

set qos map 1p2q2t tx 1 1 cos 0

set qos map 1p2q2t tx 1 1 cos 1

set qos map 1p2q2t tx 1 2 cos 2

set qos map 1p2q2t tx 1 2 cos 3

set qos wred 1p2q2t tx queue 1 50 90

Monitoree la programación de salida y verifique la configuración

Un comando simple de utilizar para verificar la configuración de tiempo de ejecución actual para la programación de salida de un puerto es /port Mod del info runtime de los qos de la demostración. El comando visualiza esta información:

  • El tipo cola en el puerto

  • La asignación de CoS a las diversos colas de administración del tráfico y umbrales

  • La distribución de búfer

  • La ponderación WRR

En este ejemplo, los valores están en el 20 por ciento WRR para la cola el 1 y 80 por ciento WRR para la cola 2:

tamer (enable) show qos info runtime 1/1

Run time setting of QoS:
QoS is enabled
Policy Source of port 1/1: Local
Tx port type of port 1/1 : 1p2q2t
Rx port type of port 1/1 : 1p1q4t
Interface type: port-based
ACL attached:
The qos trust type is set to untrusted
Default CoS = 0
Queue and Threshold Mapping for 1p2q2t (tx):
Queue   Threshold     CoS
-----   ---------    -------
1          1           0 1
1          2           2 3
2          1           4 6
2          2           7
3          1           5
Queue and Threshold Mapping for 1p1q4t (rx):
All packets are mapped to a single queue
Rx drop thresholds:
Rx drop thresholds are disabled
Tx drop thresholds:
Tx drop-thresholds feature is not supported for this port type
Tx WRED thresholds:
Queue #        Thresholds - percentage (* abs values)
-------     ------------------------------------------
1             80% (249088 bytes) 100% (311168 bytes)
2             80% (52480 bytes) 100% (61440 bytes)
Queue Sizes:
Queue #       Sizes - percentage (* abs values)
-------       -------------------------------------
1                70% (311296 bytes)
2                15% (65536 bytes)
3                15% (65536 bytes)
WRR Configuration of ports with speed 1000Mbps:
Queue #       Ratios (* abs values)
-------       -------------------------------------
1                20 (5120 bytes)
2                80 (20480 bytes)
(*) Runtime information may differ from user configured setting
due to hardware granularity.
tamer (enable)

En el próximo ejemplo, observe que las ponderaciones WRR no son el valor predeterminado de 1. Las ponderaciones se han fijado a los valores de 20 para la cola 1 y 80 para la cola 2. Este ejemplo utiliza un generador de tráfico para enviar 2 GB de tráfico a un Catalyst 6000. Estos 2 GB de tráfico deben salir a través del puerto 1/1. Porque el puerto 1/1 es oversubscribed, se caen muchos paquetes (1 Gbps). El comando show mac muestra que hay mucha caída de resultados:

tamer (enable) show mac 1/1

Port            Rcv-Unicast            Rcv-Multicast           Rcv-Broadcast
--------     --------------------   --------------------   --------------------
1/1                  0                     1239                     0

Port             Xmit-Unicast             Xmit-Multicast        Xmit-Broadcast
--------     --------------------     --------------------  --------------------
1/1             73193601                     421                     0

Port            Rcv-Octet                 Xmit-Octet
--------     --------------------    --------------------
1/1              761993                  100650803690

MAC          Dely-Exced         MTU-Exced         In-Discard         Out-Discard
--------    --------------   ----------------   ---------------   -----------------
1/1              0                 -                  0              120065264

Last-Time-Cleared
--------------------------
Fri Jan 12 2001, 17:37:43

Tenga en cuenta los paquetes suprimidos. Éste es cómo el patrón del tráfico sugerido está partido:

  • 1 GB de tráfico con la Prioridad IP 0

  • 250 Mb del tráfico con la Prioridad IP 4

  • 250 Mb del tráfico con la Prioridad IP 5

  • 250 Mb del tráfico con la Prioridad IP 6

  • 250 Mb del tráfico con la Prioridad IP 7

Según CoS que asocia, se envía este tráfico:

  • 1 GB de tráfico para hacer cola 1 umbral 1

  • 0 Mb del tráfico para hacer cola 1 umbral 2

  • 500 Mb del tráfico para hacer cola 2 el umbral 1

  • 250 Mb del tráfico para hacer cola 2 el umbral 2

  • 250 Mb del tráfico para hacer cola 3 (cola de prioridad estricta)

El Switch debe confiar en el tráfico recibido para preservar en el Switch y se utilice la precedencia del IP entrante para asociar a CoS el valor para la programación de salida.

Nota: La precedencia del IP predeterminado a asociar de CoS es iguales CoS de la Prioridad IP.

Publique el comando show qos stat 1/1 para ver los paquetes que fueron caídos y el porcentaje aproximado:

  • En este momento, no se cae ningunos paquetes en la cola 3 (CoS 5).

  • el 91.85 por ciento de los paquetes caídos es CoS 0 paquetes en la cola 1.

  • el 8 por ciento de los paquetes perdidos es CoS 4 y 6 en la cola 2, el umbral 1.

  • el 0.15 por ciento de los paquetes perdidos es CoS 7 en la cola 2, el umbral 2.

Esta salida ilustra el uso del comando:

tamer (enable) show qos stat 1/1

Tx port type of port 1/1 : 1p2q2t
Q3T1 statistics are covered by Q2T2.
Q #       Threshold #:Packets dropped
---      -------------------------------
1         1:110249298 pkts, 2:0 pkts
2         1:9752805 pkts, 2:297134 pkts
3         1:0 pkts
Rx port type of port 1/1 : 1p1q4t
Rx drop threshold counters are disabled for untrusted ports
Q #       Threshold #:Packets dropped
---     ---------------------------------
1         1:0 pkts, 2:0 pkts, 3:0 pkts, 4:0 pkts
2         1:0 pkts

Si usted cambia la ponderación WRR de nuevo al valor predeterminado después de que se hayan borrado los contadores, sólo el 1 por ciento de los paquetes perdidos ocurre en la cola 2 en vez del 8 por ciento que apareció previamente:

Nota: El valor predeterminado es 5 para la cola 1 y 255 para la cola 2.

tamer (enable) show qos stat 1/1

TX port type of port 1/1 : 1p2q2t
Q3T1 statistics are covered by Q2T2
Q #               Threshold #:Packets dropped
---             ----------------------------------
1                 1:2733942 pkts, 2:0 pkts
2                 1:28890 pkts, 2:6503 pkts
3                 1:0 pkts
Rx port type of port 1/1 : 1p1q4t
Rx drop threshold counters are disabled for untrusted ports
Q #               Threshold #:Packets dropped
---             ------------------------------------
1                  1:0 pkts, 2:0 pkts, 3:0 pkts, 4:0 pkts
2                  1:0 pkts

Utilice la programación de salida para reducir la fluctuación y retraso

El ejemplo en la programación de salida del monitor de la sección y verifica la configuración demuestra la ventaja de la implementación de la programación de salida, que evita un descenso del VoIP o del tráfico crítico en caso de oversubscription del puerto de egreso. El oversubscription ocurre infrecuentemente en una red normal, determinado en un link Gigabit. Generalmente, el oversubscription sucede solamente durante los tiempos del tráfico pico o durante las ráfagas de tráfico dentro mismo de un período corto.

Incluso sin ningún oversubscription, la programación de salida puede ser de gran ayuda en una red donde está fin-a-fin QoS implementado. Ayudas de la programación de salida para reducir la fluctuación y retraso. Esta sección proporciona los ejemplos de cómo la programación de salida puede ayudar a reducir la fluctuación y retraso.

Reduzca el retardo

El retardo de un paquete se aumenta para el momento en que “perdido” en el buffer de cada Switch durante la espera para la transmisión. Por ejemplo, un paquete de voz pequeño con CoS de 5 se envía fuera de un puerto durante un respaldo o una transferencia de archivos grande. Si usted no tiene ningún QoS para el puerto de egreso, y si usted asume que el paquete de voz pequeño está hecho cola después de 10 paquetes grandes 1500-byte, usted puede calcular fácilmente el tiempo de velocidad en gigabit que es necesario transmitir los 10 paquetes grandes:

(10 � 1500 � 8) = 120,000 bits that are transmitted in 120 microseconds

Si este paquete necesita cruzar ocho o nueve Switches mientras que pasa a través de la red, un retardo de cerca de 1 ms puede resultar. Esta cantidad cuenta solamente los retardos en la cola de salida del Switch que se cruza en la red.

Nota: Si usted necesita hacer cola los mismos 10 paquetes grandes en un 10-Mbps interconectan (por ejemplo, con un teléfono del IP y con un PC conectado), el retardo se introduce que es:

(10 � 1500 � 8) = 120,000 bits that are transmitted in 12 ms

La implementación de la programación de salida se asegura de que los paquetes de voz con CoS de 5 estén puestos en la cola de prioridad estricta. Este las colocaciones se aseguran de que estos paquetes estén enviados antes de cualquier paquete con CoS de menos de 5, que reduce los retardos.

Reduzca el jitter

Otra ventaja importante de la implementación de la programación de salida es que reduce el jitter. El jitter es la variación en el retardo que se observa para los paquetes dentro del mismo flujo. El diagrama en el cuadro 8 muestra un ejemplo de escenario de cómo la programación de salida puede reducir el jitter:

Figura 8

/image/gif/paws/10582/60h.gif

En este escenario, hay dos secuencias que un puerto de salida única debe enviar:

  • Una secuencia de voz que es entrante en un acceso de Ethernet 10-Mbps

  • Una secuencia FTP que es entrante en un link ascendente de Ethernet 1-Gbps

Ambas secuencias dejan el Switch a través del mismo puerto de egreso. Este ejemplo muestra qué puede suceder sin el uso de la programación de salida. Todos los paquetes de datos grandes se pueden interpolar entre dos paquetes de voz, que crea el jitter en la recepción de los paquetes de voz del mismo flujo. Hay un retardo más grande entre la recepción de paquete n y el n+1 del paquete pues el Switch transmite el paquete de datos grande. Sin embargo, el retardo entre el n+1 y n+2 es insignificante. Esto da lugar al jitter en la secuencia del tráfico de voz. Usted puede evitar fácilmente este problema con el uso de una cola de prioridad estricta. Asegúrese de que el valor de CoS de los paquetes de voz esté asociado a la cola de prioridad estricta.

Discusiones relacionadas de la comunidad de soporte de Cisco

La Comunidad de Soporte de Cisco es un foro donde usted puede preguntar y responder, ofrecer sugerencias y colaborar con colegas.


Información Relacionada


Document ID: 10582