Switching de LAN : Calidad de servicio de LAN

Scheduling de QoS y espera en los Catalyst 3550 Switch

17 Octubre 2016 - Traducción Automática
Otras Versiones: PDFpdf | Inglés (6 Octubre 2015) | Comentarios


Contenido


Introducción

La programación de salida garantiza que el tráfico importante no se descarta en caso de una suscripción excesiva en la salida de una interfaz. Este documento analiza todas las técnicas y algoritmos implicados en la programación de salida del switch Cisco Catalyst 3550. Este documento también describe cómo configurar y verificar el funcionamiento de la programación de resultados en los switches Catalyst 3550.

prerrequisitos

Requisitos

No hay requisitos específicos para este documento.

Componentes Utilizados

La información en este documento se basa en el Catalyst 3550 que funciona con el Software Release 12.1(12c)EA1 del ½ del ¿Â de Cisco IOSïÂ.

La información que contiene este documento se creó a partir de los dispositivos en un ambiente de laboratorio específico. Todos los dispositivos que se utilizan en este documento se pusieron en funcionamiento con una configuración verificada (predeterminada). Si la red está funcionando, asegúrese de haber comprendido el impacto que puede tener cualquier comando.

Convenciones

Consulte Convenciones de Consejos TécnicosCisco para obtener más información sobre las convenciones del documento.

Capacidad de formar colas de salida correspondiente a los puertos en switches Catalyst 3550

Hay dos tipos de puertos en los 3550 Switch:

  • Puertos Gigabit

  • Puerto no gigabit (puerto 10/100-Mbps)

Estos dos puertos poseen diferentes capacidades. El resto de esta sección resume estas capacidades. Las otras secciones de este documento explican las capacidades en el detalle adicional.

Características que ambos puertos gigabit y no gigabit soportan

Cada puerto en el 3550 tiene cuatro colas de salida diferentes. Usted puede configurar una de estas colas de administración del tráfico como cola de prioridad estricta. Cada uno de las colas de administración del tráfico restantes se configura como colas de administración del tráfico de prioridad del nonstrict y se mantiene con el uso del ordenamiento cíclico equilibrado (WRR). En todos los puertos, el paquete se asigna a una de las cuatro colas de administración del tráfico posibles en base del Clase de Servicio (CoS).

Características que solamente los puertos Gigabit soportan

Los puertos Gigabit también admiten un mecanismo de administración de colas dentro de cada cola. Usted puede configurar cada cola para utilizar el Weighted Random Early Detection (WRED) o la eliminación de cola con dos umbrales. También, usted puede ajustar el tamaño de cada cola (el buffer que se asigna a cada cola).

Características que solamente los puerto no gigabit soportan

Los puerto no gigabit no tienen ningún Mecanismo para formar la cola tal como WRED o eliminación de cola con dos umbrales. Solamente las colas primero en entrar, primero en salir en un puerto 10/100-Mbps se soportan. Usted no puede cambiar el tamaño de cada uno de las cuatro colas de administración del tráfico en estos puertos. Sin embargo, usted puede asignar un tamaño (mínimo) mínimo de la reserva por la cola.

Asignación de la CoS-a-cola

Esta sección discute cómo los 3550 decide a colocar cada paquete en una cola. El paquete se coloca en la cola en base de CoS. Cada uno de los ocho valores posibles de CoS se asocia a una de las cuatro colas de administración del tráfico posibles con el uso del comando interface de la correspondencia de la CoS-a-cola que este ejemplo muestra:

(config-if)#wrr-queue cos-map queue-id cos1... cos8

Aquí tiene un ejemplo:

3550(config-if)#wrr-queue cos-map 1 0 1
3550(config-if)#wrr-queue cos-map 2 2 3 
3550(config-if)#wrr-queue cos-map 3 4 5
3550(config-if)#wrr-queue cos-map 4 6 7

Este ejemplo coloca:

  • CoS 0 y 1 en la cola 1 (Q1)

  • CoS 2 y 3 en el Q2

  • CoS 4 y 5 en el Q3

  • CoS 6 y 7 en el Q4

Usted puede publicar este comando para verificar la asignación de la CoS-a-cola de un puerto:

cat3550#show mls qos interface gigabitethernet0/1 queueing 
GigabitEthernet0/1
...Cos-queue map:
cos-qid
 0 - 1
 1 - 1
 2 - 2
 3 - 2
 4 - 3
 5 - 3
 6 - 4
 7 - 4...

Cola de prioridad estricta

Siempre se vacía en primer lugar la cola de prioridad estricta. Así pues, tan pronto como haya un paquete en la cola de prioridad estricta, se remite el paquete. Después que cada paquete es enviado desde una de las colas WRR, la cola de prioridad estricta se verifica y se vacía si es necesario.

Una cola de prioridad estricta se diseña especialmente para el retardo/el tráfico jitter-sensible, tal como Voz. Eventualmente, una cola de prioridad estricta puede causar supresión de las otras colas. Los paquetes que se colocan en las tres otras colas de administración del tráfico WRR nunca se remiten si un paquete espera en la cola de prioridad estricta.

Consejos

Para evitar el hambre de las otras colas de administración del tráfico, especial atención de la paga a qué tráfico se pone en el priority queue. Esta cola se utiliza típicamente para el tráfico de voz, el volumen cuyo no es típicamente muy alto. Sin embargo, si alguien puede enviar el tráfico en grandes cantidades con prioridad de Clase de servicio (CoS) a la cola de prioridad estricta (tal como transferencia de archivos o respaldo grande), el hambre del otro tráfico puede resultar. Para evitar este problema, el tráfico especial necesita ser puesto en la clasificación/la admisión y la marca del tráfico en la red. Por ejemplo, usted puede tomar estas precauciones:

  • Haga uso puerto no confiable del estatus de QoS para todos los puertos de origen untrusted.

  • Haga uso de la característica de confianza del límite para el puerto del Cisco IP Phone para asegurarse de que no está utilizado en el estado confiable que se configura para un teléfono del IP para otra aplicación.

  • Regule el tráfico que se dirige hacia la cola de prioridades estrictas. Establezca un límite para limpiar el tráfico con CoS de 5 (el [DSCP] 46 del Differentiated Services Code Point) al 100 MB en un puerto Gigabit.

Para más información sobre estos temas, refiera a estos documentos:

En los 3550, usted puede configurar una cola para ser el priority queue (que sea siempre Q4). Utilice este comando en el modo de la interfaz:

3550(config-if)#priority-queue out

Si el priority queue no se configura en una interfaz, el Q4 se considera como cola estándar WRR. El ordenamiento cíclico equilibrado en la sección del Catalyst 3550 de este documento proporciona más detalles. Usted puede verificar si la cola de prioridad estricta se configura en una interfaz si usted publica el mismo comando cisco ios:

NifNif#show mls qos interface gigabitethernet0/1 queueing 
GigabitEthernet0/1
Egress expedite queue: ena

Ordenamiento cíclico equilibrado en el Catalyst 3550

El WRR es un mecanismo que se utiliza en la programación de salida en los 3550. WRR funciona entre tres o cuatro colas (si no existe una cola prioritaria estricta). Las colas de administración del tráfico que se utilizan en el WRR se vacian en una forma de cargas balanceadas, y usted pueden configurar la ponderación para cada cola.

Por ejemplo, usted puede configurar las ponderaciones para servir las colas de administración del tráfico diferentemente, pues esta lista muestra:

  • Servicio WRR Q1: el 10 por ciento del tiempo

  • Servicio WRR Q2: el 20 por ciento del tiempo

  • Servicio WRR Q3: el 60 por ciento del tiempo

  • Servicio WRR Q4: el 10 por ciento del tiempo

Para cada cola, usted puede publicar estos comandos en el modo de la interfaz para configurar las cuatro ponderaciones (con una asociada a cada cola):

(config-f)#wrr-queue bandwidth weight1 weight2 weight3 weight4

Aquí tiene un ejemplo:

3550(config)#interface gigabitethernet 0/1
3550(config-if)#wrr-queue bandwidth 1 2 3 4

Nota: Los pesos son relativos. Se utilizan estos valores:

  • Q1 = peso 1 /(peso1 + peso2 + peso3 + peso4) = 1/(1+2+3+4) = 1/10

  • Q2 = 2/10

  • Q3= 3/10

  • Q4 = 4/10

El WRR se puede implementar de estas dos maneras:

  • WRR por ancho de banda: Cada ponderación representa un ancho de banda específico que se permita ser enviado. La ponderación Q1 se permite tener áspero 10 por ciento del ancho de banda, Q2 consigue el 20 por ciento del ancho de banda, y así sucesivamente. Este esquema se implementa solamente en la serie del Catalyst 6500/6000 ahora.

  • WRR por paquete: Éste es el algoritmo que se implementa en el 3550 Switch. Cada ponderación representa algunos paquetes que deban ser enviados, sin importar su tamaño.

Pues los 3550 implementa el WRR por el paquete, este comportamiento se aplica a la configuración en esta sección:

  • El Q1 transmite 1 de 10 del paquete

  • El Q2 transmite 2 de 10 de los paquetes

  • El Q3 transmite 3 de 10 de los paquetes

  • El Q4 transmite 4 de 10 de los paquetes

Los paquetes que se transmitirán pueden todos ser el mismo tamaño. Usted todavía alcanza una distribución esperable de ancho de banda entre las cuatro colas de administración del tráfico. Sin embargo, si el tamaño promedio de los paquetes es diferente entre las colas de administración del tráfico, hay un impacto grande en qué se transmite y se cae en caso de congestión.

Por ejemplo: suponga que usted tiene sólo dos flujos presentes en el switch. Hipotéticamente, también asuma que estas condiciones existen:

  • Un Gbps del pequeño tráfico de la aplicación interactiva (del 80-byte tramas [B]) con CoS de 3 se coloca en el Q2.

  • Un Gbps del tráfico de la transferencia del grande-ARCHIVO (tramas 1518-B) con CoS de 0 se coloca en el Q1.

Dos colas de administración del tráfico en el Switch se envían con el 1 Gbps de los datos.

Ambos flujos necesitan compartir el mismo puerto de salida Gigabit. Asuma que la ponderación del igual está configurada entre el Q1 y el Q2. El WRR es aplicado por el paquete, y la cantidad de datos que se transmitan de cada cola diferencia entre las dos colas de administración del tráfico. El mismo número de paquetes se remite de cada cola, pero el Switch envía realmente esta cantidad de datos:

  • 77700 paquetes por segundo (pps) fuera de Q2 = (77700 x 8 x 64) bits por segundo (BPS) (aproximadamente 52 Mbps)

  • 77700 pps fuera de Q1 = (77700 x 8 x 1500) BPS (aproximadamente 948 Mbps)

Consejos

  • Si usted quiere permitir el acceso justo para cada cola a la red, tenga en cuenta el tamaño promedio de cada paquete. Se espera que cada paquete se coloque en una cola y que el peso se modifique según lo necesario. Por ejemplo, si usted quiere dar el acceso equivalente a cada uno de las cuatro colas de administración del tráfico, tal que cada cola consigue 1/4 del ancho de banda, el tráfico es como sigue:

    • En el Q1: Tráfico de Internet de mejor esfuerzo. Asuma que el tráfico tiene un tamaño promedio de los paquetes de 256 B.

    • En Q2 : Respaldo integrado por la transferencia de archivos, con un paquete principalmente de 1500 B.

    • En Q3 : Secuencia de video, que se hacen en los paquetes de 192 B.

    • En Q4 : Aplicación interactiva que se compone principalmente de un paquete de 64 B.

    Esto crea estas condiciones:

    • Q1 consume un ancho de banda 4 veces mayor al de Q4.

    • Q2 consume un ancho de banda 24 veces mayor al de Q4.

    • Q3 consume un ancho de banda 3 veces mayor al de Q4.

  • Para tener acceso de ancho de banda igual a la red, configuración:

    • Q1 con una ponderación de 6

    • Q2 con una ponderación de 1

    • Q3 con un peso de 8

    • Q4 con un peso de 24

  • Si usted asigna estas ponderaciones, usted alcanza un ancho de banda igual que comparte entre las cuatro colas de administración del tráfico en caso de congestión.

  • Si se activa la cola con prioridad estricta, los pesos del WRR se redistribuyen entre las tres colas remanentes. Si se habilita la cola de prioridad estricta y el Q4 no se configura, el primer ejemplo con las ponderaciones de 1, 2,3, y 4 es:

    • Q1 = 1 / (1+2+3) = 1 paquete de 6

    • Q2 = 2 de 6 paquetes

    • Q3 = 3 paquetes de 6

    Usted puede publicar este comando show del Cisco IOS Software para verificar la ponderación de la cola:

    NifNif#show mls qos interface gigabitethernet0/1 queueing  
    GigabitEthernet0/1
    QoS is disabled. Only one queue is used
    When QoS is enabled, following settings will be applied
    Egress expedite queue: dis
    wrr bandwidth weights:
    qid-weights
     1 - 25
     2 - 25
     3 - 25
     4 - 25
    

    Si se habilita el priority queue del apresuramiento, la ponderación Q4 se utiliza solamente si la cola del apresuramiento consigue discapacitada. Aquí tiene un ejemplo:

    NifNif#show mls qos interface gigabitethernet0/1 queueing 
    GigabitEthernet0/1
    Egress expedite queue: ena
    wrr bandwidth weights:
    qid-weights
     1 - 25
     2 - 25
     3 - 25
     4 - 25    
    
    !--- The expedite queue is disabled.
    
    

WRED en switches Catalyst 3550

El WRED está solamente disponible en los puertos Gigabit en los 3550 Series Switch. El WRED es una modificación del Detección temprana aleatoria (RED), que se utiliza en la prevención de congestión. El ROJO tiene estos parámetros definidos:

  • Umbral mínimo: Representa un umbral dentro de una cola. No se cae ningunos paquetes debajo de este umbral.

  • Umbral (máximo) máximo: Representa otro umbral dentro de una cola. Todos los paquetes se caen sobre el umbral máximo.

  • Pendiente: Probabilidad para caer el paquete entre el minuto y el máximo. Los aumentos de la probabilidad de caída linear (con cierta cuesta) con el tamaño de la cola.

Este gráfico muestra la probabilidad de caída de un paquete en la cola ROJA:

Nota: Todos los switches de Catalyst que implementan el ROJO permiten que usted ajuste la cuesta.

/image/gif/paws/24057/187-a.gif

En WRED se ponderan diferentes servicios. Puede definir un servicio estándar y un servicio premium. Cada servicio recibe un diverso conjunto de los umbrales. Solamente se caen los paquetes que se asignan al servicio estándar cuando se alcanza el Umbral mínimo 1. Solamente los paquetes de los servicios superiores comienzan a ser caídos cuando se alcanza el Umbral mínimo 2. Si el Umbral mínimo 2 es más alto que el Umbral mínimo 1, más paquetes del servicio estándar se caen que los paquetes de los servicios superiores. Este gráfico muestra un ejemplo de la probabilidad de caída para cada servicio con el WRED:

Nota: El 3550 Switch no permite que usted ajuste el Umbral mínimo, sino solamente el umbral máximo. El Umbral mínimo es siempre conjunto duro a 0. Esto da una probabilidad de caída que represente qué se implementa actualmente en los 3550.

/image/gif/paws/24057/187-b.gif

Cualquier cola que se habilite para el WRED en los 3550 tiene siempre una probabilidad de caída no-cero y cae siempre los paquetes. Éste es el caso porque el Umbral mínimo es siempre 0. Si usted necesita evitar la caída de paquetes en máximo, utilice el descarte de cola ponderado, que la eliminación de cola en la sección de los Catalyst 3550 Switch describe.

Consejo: El Id. de bug Cisco CSCdz73556 (clientes registrados solamente) documenta un pedido de mejora para la configuración del Umbral mínimo.

Si desea obtener más información sobre RED o WRED, consulte Introducción a la prevención de congestiones.

En los 3550, usted puede configurar el WRED con dos diversos umbrales máximos para proporcionar dos diversos servicios. Asignan diversos tipos de tráfico a cualquier umbral, que depende solamente de los DSCP internos. Esto diferencia de la asignación de la cola, que depende solamente de CoS del paquete. Una asignación de la tabla del DSCP-a-umbral decide a qué umbral cada uno de los 64 DSCP va. Usted puede publicar este comando para ver y modificar esta tabla:

(config-if)#wrr-queue dscp-map threshold_number DSCP_1 DSCP_2 DSCP_8

Por ejemplo, este comando asigna el DSCP 26 al umbral 2:

NifNif(config-if)#wrr-queue dscp-map 2 26
NifNif#show mls qos interface gigabitethernet0/1 queueing
GigabitEthernet0/1
Dscp-threshold map:
     d1 :  d2 0  1  2  3  4  5  6  7  8  9 
     ---------------------------------------
      0 :    01 01 01 01 01 01 01 01 01 01 
      1 :    01 01 01 01 01 01 02 01 01 01 
      2 :    01 01 01 01 02 01 02 01 01 01 
      3 :    01 01 01 01 01 01 01 01 01 01 
      4 :    02 01 01 01 01 01 02 01 01 01 
      5 :    01 01 01 01 01 01 01 01 01 01 
      6 :    01 01 01 01 

Después de la definición de la correspondencia del DSCP-a-umbral, el WRED se habilita en la cola de su opción. Ejecutar este comando:

(config-if)#wrr-queue random-detect max-threshold queue_id threshold_1 threshold_2

Este ejemplo configura:

  • Q1 con el umbral el 1 = 50 por ciento y el umbral el 2 = 100 por ciento

  • Q2 con el umbral el 1 = 70 por ciento y el umbral el 2 = 100 por ciento

3550(config)#interface gigabitethernet 0/1
3550(config-if)#wrr-queue random-detect max-threshold 1 50 100
3550(config-if)#wrr-queue random-detect max-threshold 2 70 100
3550(config-if)#wrr-queue random-detect max-threshold 3 50 100
3550(config-if)#wrr-queue random-detect max-threshold 4 70 100

Usted puede publicar este comando para verificar el tipo cola (WRED o no) en cada cola:

nifnif#show mls qos interface gigabitethernet0/1 buffers 
GigabitEthernet0/1
..
qid WRED thresh1 thresh2
1   dis  10      100     
2   dis  10      100     
3   ena  10      100     
4   dis  100     100 

El ena significa el permiso, y la cola utiliza el WRED. El dis significa la neutralización, y la cola utiliza la eliminación de cola.

Usted puede también monitorea el número de paquetes que se caigan para cada umbral. Ejecutar este comando:

show mls qos interface gigabitethernetx/x statistics 
WRED drop counts:
  qid  thresh1    thresh2   FreeQ
   1 : 327186552  8         1024     
   2 : 0          0         1024      
   3 : 37896030   0         1024      
   4 : 0          0         1024

Eliminación de cola de los switches Catalyst 3550

El descarte de cola es el mecanismo predeterminado en los puertos Gigabit de 3550. Cada puerto Gigabit puede tener dos umbrales de la eliminación de cola. Un conjunto de los DSCP se asigna a cada uno de los umbrales de la eliminación de cola con el uso de la misma correspondencia del umbral DSCP que el WRED en la sección de los Catalyst 3550 Switch de este documento define. Cuando se alcanza un umbral, todos los paquetes con un DSCP que se asigne a ese umbral se caen. Usted puede publicar este comando para configurar los umbrales de la eliminación de cola:

(config-if)#wrr-queue threshold queue-id threshold-percentage1 threshold-percentage2

Este ejemplo configura:

  • Q1 con el umbral de la eliminación de cola el 1 = 50 por ciento y el umbral el 2 = 100 por ciento

  • Q2 con el umbral el 1 = 70 por ciento y el umbral el 2 = 100 por ciento

Switch(config-if)#wrr-queue threshold 1 50 100
Switch(config-if)#wrr-queue threshold 2 70 100
Switch(config-if)#wrr-queue threshold 3 60 100
Switch(config-if)#wrr-queue threshold 4 80 100

Configuración del tamaño de la cola en los puertos Gigabit

El 3550 Switch utiliza el almacenamiento central. Esto significa que no hay tamaños de almacén intermedio fijos por el puerto. Sin embargo, hay un número fijo de paquetes en un puerto Gigabit que pueda ser hecho cola. Este número fijo es 4096. Por abandono, cada cola en un puerto Gigabit puede tener hasta 1024 paquetes, sin importar el tamaño de paquetes. Sin embargo, usted puede modificar la manera de la cual estos 4096 paquetes están partidos entre las cuatro colas de administración del tráfico. Ejecutar este comando:

wrr-queue queue-limit Q_size1 Q_size2 Q_size3 Q_size4

Aquí tiene un ejemplo:

3550(config)#interface gigabitethernet 0/1
3550(config-if)#wrr-queue queue-limit 4 3 2 1

Estos parámetros del tamaño de la cola son relativos. Este ejemplo muestra eso:

  • El Q1 es cuatro veces más grande que el Q4.

  • El Q2 es tres veces más grande que el Q4.

  • El Q3 es dos veces más grande que el Q4.

Los 4096 paquetes se redistribuyen de esta manera:

  • Q1 = [4/(1+2+3+4)] * 4096 = 1639 paquetes

  • Q2 = 0.3 * 4096 = 1229 paquetes

  • Q3 = 0,2 * 4096 = 819 paquetes

  • Q4 = 0.1 * 4096 = 409 paquetes

Este comando permite que usted considere las ponderaciones relativas de los buffers de la fractura entre las cuatro colas de administración del tráfico:

cat3550#show mls qos interface buffers
GigabitEthernet0/1
Notify Q depth:
qid-size
1 - 4
2 - 3
3 - 2
4 - 1
...

Usted puede también publicar este comando para ver cuántos paquetes libres puede todavía sostener cada cola:

(config-if)#show mls qos interface gigabitethernetx/x statistics 
 WRED drop counts:
 qid  thresh1    thresh2   FreeQ
 1 : 0          0         1639      
 2 : 0          0         1229      
 3 : 0          0         819       
 4 : 0          0         409 

El parámetro de la cuenta de FreeQ (Cola libre) es dinámico. El FreeQ contrario da el tamaño máximo de cola menos el número de paquetes que estén actualmente en la cola. Por ejemplo, si hay actualmente 39 paquetes en el Q1, 1600 paquetes están libres en el cuenta del FreeQ. Aquí tiene un ejemplo:

(config-if)#show mls qos interface gigabitethernetx/x statistics 
 WRED drop counts:
 qid  thresh1    thresh2   FreeQ
 1 : 0          0         1600    
 2 : 0          0         1229      
 3 : 0          0         819       
 4 : 0          0         409 

Administración de cola y tamaño de cola en puertos que no son Gigabit

No hay esquema de la Administración de cola disponible en los puertos 10/100-Mbps (ningún WRED o eliminación de cola con dos umbrales). Las cuatro colas de administración del tráfico son colas primero en entrar, primero en salir. No hay tampoco tamaño máximo de cola ese las reservas 4096 paquetes para cada puerto Gigabit. los puertos 10/100-Mbps salvan los paquetes en cada cola hasta que sea llena debido a una falta de recursos. Usted puede reservar un número mínimo de paquetes por la cola. Este valor mínimo se fija de forma predeterminada en 100 paquetes por cola. Usted puede modificar este valor mínimo de la reserva para cada cola si usted define diversos valores mínimos de la reserva y asigna uno de los valores a cada cola.

Complete estos pasos para hacer esta modificación:

  1. Asigne un tamaño de almacén intermedio para cada valor mínimo global de la reserva.

    Usted puede configurar un máximo de ocho diversos valores mínimos de la reserva. Ejecutar este comando:

    (Config)# mls qos min-reserve min-reserve-level min-reserve-buffersize
    
    

    Estos valores mínimos de la reserva son globales al Switch. Por abandono, todos los valores mínimos de la reserva se fijan a 100 paquetes.

    Por ejemplo, para configurar un nivel mínimo 1 de la reserva de 150 paquetes y un nivel mínimo 2 de la reserva de 50 paquetes, publique estos comandos:

    nifnif(config)#mls qos min-reserve ?
    <1-8>  Configure min-reserve level
    nifnif(config)#mls qos min-reserve 1 ?
    <10-170>  Configure min-reserve buffers
    nifnif(config)#mls qos min-reserve 1 150
    nifnif(config)#mls qos min-reserve 2 50
    
  2. Asigne uno de los valores mínimos de la reserva a cada uno de las colas de administración del tráfico.

    Usted debe asignar cada uno de las colas de administración del tráfico a uno de los valores mínimos de la reserva para saber cuántos buffers se garantizan para esta cola. Por abandono, estas condiciones se aplican:

    • El Q1 se asigna al nivel mínimo 1. de la reserva.

    • El Q2 se asigna al nivel mínimo 2. de la reserva.

    • El Q3 se asigna al nivel mínimo 3. de la reserva.

    • El Q4 se asigna al nivel mínimo 4. de la reserva.

    Por abandono, todos los valores mínimos de la reserva son 100.

    Usted puede publicar este comando interface para asignar un diverso valor mínimo de la reserva por la cola:

    (config-if)#wrr-queue min-reserve queue-id min-reserve-level
    
    

    Por ejemplo, para asignar al Q1 una reserva mínima de 2 y al Q2 una reserva mínima de 1, publica este comando:

    nifnif(config)#interface fastethernet 0/1
    nifnif(config-if)#wrr-queue min-reserve ?
    <1-4>  queue id
    nifnif(config-if)#wrr-queue min-reserve 1 ?
    <1-8>  min-reserve level
    nifnif(config-if)#wrr-queue min-reserve 1 2
    nifnif(config-if)#wrr-queue min-reserve 2 1
    

    Usted puede publicar este comando para verificar la asignación mínima de la reserva que resulta:

    nifnif#show mls qos interface fastethernet0/1 buffers 
    FastEthernet0/1
    Minimum reserve buffer size:
    150 50 100 100 100 100 100 100 
    
    !--- This shows the value of all eight min reserve levels.
    
    Minimum reserve buffer level select:
    2 1 3 4 
    
    !--- This shows the min reserve level that is assigned to 
    !--- each queue (from Q1 to Q4).
    
    

Conclusión

La espera y la previsión en un puerto en los 3550 implica estos pasos:

  1. Asigne cada CoS a una de las colas de administración del tráfico.

  2. Habilite las colas de prioridad estricta, si es necesario.

  3. Asigne la ponderación WRR, y tenga en cuenta el tamaño de paquetes previsto dentro de la cola.

  4. Modifique el tamaño de la cola (puertos Gigabit solamente).

  5. Habilite un mecanismo de la Administración de cola (eliminación de cola o WRED, en los puertos Gigabit solamente).

Los Datos en espera apropiados y la previsión pueden reducir el retardo/el jitter para la Voz/el tráfico de video y evitar la pérdida para el tráfico crítico. Esté seguro de adherirse a estos a los guías para el rendimiento máximo de la programación:

  • Clasifique el tráfico que está presente en la red en diversas clases, con confiar en o la marca específica.

  • Limpie el tráfico superior.


Información Relacionada


Document ID: 24057