Qualité de service (QoS) : Réglementation QoS

Forum aux questions sur QoS (Qualité de service)

18 octobre 2016 - Traduction automatique
Autres versions: PDFpdf | Anglais (22 avril 2015) | Commentaires


Contenu


Introduction

Ce document répond aux questions les plus fréquentes (Forum aux questions) relatives à la qualité de service (QoS).

Généralités

Q. Qu'est-ce que la qualité de service (QoS) ?

A. La QoS fait référence à la capacité d'un réseau de fournir le meilleur service au trafic du réseau sélectionné sur diverses technologies sous-jacentes, notamment le relais de trame, le mode de transfert asynchrone (ATM), les réseaux Ethernet et 802.1, SONET et les réseaux routés par IP.

La QoS consiste en un ensemble de technologies qui permettent à des applications de demander et recevoir des niveaux de service prévisibles en termes de capacité de débit de données (bande passante), variations de latence (jitter) et de délais. En particulier, les fonctions QoS offrent un meilleur service réseau, plus prévisible, à l'aide des méthodes suivantes :

  • Prise en charge de bande passante dédiée.

  • Amélioration des caractéristiques de perte.

  • Prévention et gestion de la congestion du réseau.

  • Formatage du trafic réseau.

  • Définition des priorités de trafic sur le réseau.

L'Internet Engineering Task Force (IETF) définit les deux architectures suivantes pour la QoS :

  • Services intégrés (IntServ)

  • Services différenciés (DiffServ)

IntServ utilise le Resource Reservation Protocol (RSVP) pour signaler explicitement les besoins en QoS du trafic d'une application sur les périphériques du chemin d'accès de bout en bout via le réseau. Si chaque périphérique réseau du chemin d'accès peut réserver la bande passante nécessaire, l'application d'origine peut commencer à transmettre. La RFC 2205 définit le RSVP et la RFC 1633 définit les services IntServ.

DiffServ met l'accent sur la QoS agrégée et dimensionnée. Au lieu de signaler les besoins d'une application en termes de QoS, DiffServ utilise un point de code de services différenciés (DSCP) dans l'en-tête IP pour indiquer les niveaux de QoS requis. La version de logiciel 12.1(5)T de ½ du ¿  de Cisco IOSï a introduit la conformité de DiffServ sur des Routeurs de Cisco. Pour plus d'informations, référez-vous aux documents suivants :

Q. Que signifient les termes congestion, délai et gigue ?

A. Une interface est congestionnée lorsqu'elle est confrontée à un trafic plus important que celui qu'elle peut gérer. Les points de congestion du réseau sont de solides candidats pour les mécanismes de qualité de service (QoS). Voici un exemple de points de congestion classiques :

/image/gif/paws/22833/qos_faq1.gif

La congestion d'un réseau entraîne des délais. Un réseau et ses périphériques présentent plusieurs types de délais, comme expliqué dans Présentation des délais dans les réseaux de paquets voix. Une variation de délai est appelée gigue, comme expliqué dans Présentation des gigues dans les réseaux de paquets voix (plates-formes Cisco IOS). Les phénomènes de délai et de gigue doivent être contrôlés et minimisés de façon à pouvoir prendre en charge un trafic interactif et en temps réel.

Q. Que signifie MQC ?

A. MQC désigne l'interface de ligne de commande (CLI) de la qualité de service (QoS) modulaire. Elle est destinée à simplifier la configuration de la QoS sur les routeurs et les commutateurs Cisco en définissant une syntaxe de commandes commune et un ensemble de comportements de QoS résultant sur toutes les plates-formes. Ce modèle remplace la version précédente qui consistait à définir des syntaxes uniques pour chaque fonction QoS et pour chaque plate-forme.

La MQC comprend les trois étapes suivantes :

  1. Définir une classe de trafic en émettant la commande class-map.

  2. Créer une stratégie de trafic en associant la classe de trafic à une ou plusieurs fonctions QoS à l'aide de la commande policy-map.

  3. Lier la stratégie de trafic à l'interface, à la sous-interface ou au circuit virtuel à l'aide de la commande service-policy.

Remarque: Vous implémentez les fonctions de traitement du trafic de DiffServ, telles que le marquage et le formatage, à l'aide de la syntaxe MQC.

Pour plus d'informations, consultez Interface de ligne de commande de qualité de service modulaire.

Q. Que signifie le message service-policy is supported only on VIP interfaces with DCEF enabled ?

A. Sur les Versatile Interface Processors (VIP) de la gamme Cisco 7500, seules les fonctions de qualité de service (QoS) distribuées sont prises en charge à partir des versions Cisco IOS 12.1(5)T, 12.1(5)E et 12.0(14)S. L'activation de la technologie Cisco Express Forwarding (dCEF) distribuée active automatiquement la QoS distribuée.

Les interfaces autres que VIP, appelées processeurs d'interface hérités (IPS), prennent en charge les fonctions QoS centrales telles qu'activées sur les processeurs de commutation routage (RSP). Pour plus d'informations, référez-vous aux documents suivants :

Q. Combien de classes une stratégie QoS prend-t-elle en charge ?

A. Dans les versions de Cisco IOS antérieures à 12.2, vous ne pouvez définir qu'un maximum de 256 classes, avec la possibilité de définir jusqu'à 256 classes dans chaque stratégie si les mêmes classes sont réutilisées pour des stratégies différentes. Si vous avez deux stratégies, le nombre total de classes des deux stratégies ne doit pas dépasser 256. Si une stratégie inclut la mise en file d'attente pondérée basée sur les classes (CBWFQ) (ce qui signifie qu'elle contient une instruction de bande passante [ou de priorité] dans n'importe quelle classe), le nombre total de classes prises en charge est 64.

Dans Cisco IOS Versions 12.2(12), 12.2(12)T et 12.2(12)S, cette limitation de 256 mappages de classes globales a été modifiée. Il est maintenant possible de configurer jusqu'à 1 024 mappages de classes globales et d'utiliser 256 mappages de classes à l'intérieur du même mappage de stratégies.

Q. Comment les mises à jour de routage et les keepalives de protocole point à point (PPP)/High-Level Data Link Control (HDLC) sont traités lorsqu'une stratégie de service est appliquée ?

A. Les routeurs Cisco IOS utilisent les deux mécanismes suivants pour définir les priorités des paquets de contrôle :

  • Priorité IP

  • pak_priority

Les deux mécanismes sont conçus pour s'assurer que des paquets de contrôle de clé ne sont pas supprimés ou qu'ils sont supprimés en dernier par le routeur et le système de mise en file d'attente lorsqu'une interface de sortie est congestionnée. Pour plus d'informations, consultez Comprendre comment les mises à jour de routage et les paquets de contrôle sont mis en file d'attente sur une interface avec une stratégie de service QoS.

Q. La qualité de service (QoS) est-elle prise en charge sur les interfaces configurées avec l'lntegrated Routing and Bridging (IRB) ?

A. Non. Vous ne pouvez pas configurer de fonctions QoS quand l'interface est configurée pour l'IRB.

Classification et marquage

Q. Qu'est-ce que la pré-classification de qualité de service (QoS) ?

A. La pré-classification de QoS permet d'établir une correspondance et une classification en fonction du contenu de l'en-tête IP d'origine des paquets faisant l'objet d'une encapsulation de tunnel et/ou d'un chiffrement. Cette fonction ne décrit pas le processus de copie de la valeur initiale de l'octet de type de service (ToS) de l'en-tête du paquet d'origine dans l'en-tête du tunnel. Pour plus d'informations, référez-vous aux documents suivants :

Q. Quels champs d'en-tête de paquet peuvent être marqués une nouvelle fois ? Quelles sont les valeurs disponibles ?

A. La fonction de marquage basé sur les classes permet de définir ou de marquer la couche 2, la couche 3 ou l'en-tête de commutation multiprotocole par étiquette (MPLS) de vos paquets. Pour plus d'informations, référez-vous aux documents suivants :

Q. Puis-je établir une priorité du trafic en fonction de l'URL ?

A. Oui. La Network Based Application Recognition (NBAR) permet de classer les paquets en fonction de la correspondance des champs de la couche applicative. Avant l'introduction de NBAR, la classification la plus précise était basée sur les numéros de port TCP et UDP de la couche 4. Pour plus d'informations, référez-vous aux documents suivants :

Q. Quelles plates-formes et versions de logiciel Cisco IOS prennent en charge la Network Based Application Recognition (NBAR) ?

A. NBAR est prise en charge dans les versions logicielles Cisco IOS suivantes :

Plate-forme Version logicielle Cisco IOS minimale
7200 12.1(5)T
7100 12.1(5)T
3660 12.1(5)T
3640 12.1(5)T
3620 12.1(5)T
2600 12.1(5)T
1700 12.2(2)T

Remarque: Vous devez activer le Cisco Express Forwarding (CEF) pour pouvoir utiliser la NBAR.

La NBAR distribuée (DNBAR) est disponible sur les plates-formes suivantes :

Plate-forme Version logicielle Cisco IOS minimale
7500 12.2(4)T, 12.1(6)E
FlexWAN 12.1(6)E

Remarque: NBAR n'est pas prise en charge sur les interfaces VLAN de la carte de commutation multicouche (MSFC) Catalyst 6000, la gamme Cisco 12000, ou le commutateur de route (RSM) de la gamme Catalyst 5000. Si vous ne trouvez pas une plate-forme particulière dans la liste ci-dessus, contactez le représentant du support technique Cisco.

Gestion de la congestion et de la mise en file d'attente

Q. Quel est le but de la mise en file d'attente ?

A. La mise en file d'attente est destinée à recevoir les congestions temporaires sur l'interface d'un périphérique réseau en stockant les paquets excédentaires dans des mémoires tampon jusqu'à ce que la bande passante soit disponible. Les routeurs Cisco IOS prennent en charge plusieurs méthodes de mise en file d'attente de façon à répondre aux besoins variables en termes de bande passante, de gigue et de délai des différentes applications.

Le mécanisme par défaut sur la plupart des interfaces est la mise en file d'attente First In First Out (FIFO). Certains types de trafics sont plus exigeants en termes de délai/gigue. Ainsi, l'un des autres mécanismes de mise en file d'attente suivants doit être configuré ou est activé par défaut :

  • Mise en file d'attente pondérée (WFQ)

  • Mise en file d'attente pondérée basée sur les classes (CBWFQ)

  • Low Latency Queueing (LLQ), qui est en fait une CBWFQ avec une file d'attente par priorité (PQ) (appelée PQCBWFQ)

  • Mise en file d'attente par priorité (PQ)

  • Mise en file d'attente personnalisée (CQ)

La mise en file d'attente se produit généralement uniquement sur les interfaces de sortie. Un routeur place en file d'attente les paquets qui sortent d'une interface. Vous pouvez réglementer le trafic entrant, mais vous ne pouvez généralement pas le mettre en file d'attente (à l'exception de la mise en mémoire tampon côté réception sur un routeur de la gamme Cisco 7500 utilisant la technologie Cisco Express Forwarding (CEF) distribuée pour transférer des paquets de l'interface d'entrée vers l'interface de sortie ; pour plus d'informations, consultez Présentation du CPU VIP s'exécutant à 99 % et de la mise en mémoire tampon Rx-Side. Sur les plates-formes distribuées de pointe, telles que les gammes Cisco 7500 et 12000, l'interface d'entrée peut utiliser ses propres mémoires tampon de paquets pour stocker le trafic excédentaire commuté vers une interface de sortie congestionnée suite à la décision de commutation de l'interface d'entrée. Dans de rares conditions, généralement quand l'interface d'entrée alimente une interface de sortie plus lente, l'interface d'entrée peut être confrontée à un nombre croissant d'erreurs ignorées lorsqu'elle manque de mémoire de paquets. Une congestion excessive peut engendrer la suppression de la file d'attente de sortie. Les suppressions de files d'attente d'entrée ont généralement une cause d'origine différente. Pour plus d'informations sur le dépannage des suppressions, consultez le document suivant :

Pour plus d'informations, référez-vous aux documents suivants :

Q. Comment la mise en file d'attente pondérée (WFQ) et la mise en file d'attente pondérée basée sur les classes (CBWFQ) fonctionnent-elles ?

A. La mise en file d'attente pondérée cherche à allouer un partage équitable de la bande passante d'une interface parmi des conversations actives ou des flux IP. Elle classe les paquets en sous-files d'attente, identifiées par un numéro d'identification de conversation, utilisant un algorithme de hachage basé sur plusieurs champs de l'en-tête IP et la longueur du paquet. La pondération est calculée de la façon suivante :

  • W=K/(priorité +1)

K= 4 096 avec Cisco IOS 12.0(4)T et les versions antérieures, et 32 384 avec 12.0(5)T et les versions ultérieures.

Plus la pondération est faible, plus la priorité et le partage de la bande passante sont élevés. En plus de la pondération, la longueur du paquet est prise en considération.

CBWFQ permet de définir une classe de trafic et de lui attribuer une garantie de bande passante minimale. L'algorithme derrière ce mécanisme est WFQ, qui explique le nom. Pour configurer CBWFQ, vous définissez des classes spécifiques dans des instructions de classes de mappage. Vous affectez ensuite une stratégie à chaque classe dans un mappage de stratégie. Ce mappage de stratégie sera alors attaché en sortie à une interface. Pour plus d'informations, référez-vous aux documents suivants :

Q. Si une classe dans la mise en file d'attente pondérée basée sur les classes (CBWFQ) n'utilise pas sa bande passante, d'autres classes peuvent-elles l'utiliser ?

A. Oui. Bien que les garanties de bande passante fournies par les commandes bandwidth et priority aient été décrites avec des mots tels que «  réservé » et « bande passante à mettre de côté », aucune de ces commandes ne met en œuvre une vraie réservation. En d'autres termes, si une classe de trafic n'utilise pas sa bande passante configurée, n'importe quelle bande passante inutilisée est partagée parmi les autres classes.

Le système de mise en file d'attente impose une importante exception à la règle avec une classe prioritaire. Comme noté ci-dessus, la charge offerte d'une classe prioritaire est dosée par un régulateur de trafic. Pendant les états d'encombrement, une classe prioritaire ne peut utiliser aucune bande passante excessive. Pour plus d'informations, reportez-vous à Comparaison des commandes bandwidth et priority d'une stratégie de service QoS.

Q. La mise en file d’attente pondérée basée sur les classes (CBWFQ) est-elle prise en charge sur des sous-interfaces ?

A. Les interfaces logiques de Cisco IOS ne prennent pas en charge un état de congestion de façon inhérente et ne prennent pas en charge l'application directe d'une stratégie de service qui applique une méthode de mise en file d'attente. Au lieu de cela, vous devez d'abord appliquer le formatage à la sous-interface à l'aide du Generic Traffic Shaping (GTS) ou du formatage basé sur les classes. Pour plus d'informations, consultez Application des fonctions QoS aux sous-interfaces Ethernet.

Q. Quelle est la différence entre les instructions priority et bandwidth dans un mappage de stratégie ?

A. Les commandes priority et bandwidth diffèrent dans les deux fonctionnalités et dans les applications qu'elles prennent généralement en charge. Le tableau suivant récapitule ces différences :

Fonction commande bandwidth commande priority
Garantie de bande passante minimale Oui Oui
Garantie de bande passante maximale Non Oui
Contrôle intégré Non Oui
Fournit une faible latence Non Oui

Pour plus d'informations, reportez-vous à Comparaison des commandes bandwidth et priority d'une stratégie de service QoS.

Q. Comment la limite de file d'attente est-elle calculée sur le FlexWAN et les Versatile Interface Processors (VIP) ?

A. En supposant que la SRAM soit suffisante sur le VIP ou le FlexWAN, la limite de file d'attente est calculée en fonction d'un délai maximal de 500 ms avec une taille moyenne des paquets de 250 octets. Voici l'exemple d'une classe avec un Mbits/s de bande passante :

Limite de file d'attente = 1000000/(250 x 8 x 2) = 250

À mesure que la quantité de mémoire de paquets disponible diminue, des limites de file d'attente plus petites sont attribuées, avec un nombre plus grand de circuits virtuels (VC).

Dans l'exemple suivant, un PA-A3 est installé dans une carte FlexWAN de la gamme Cisco 7600 et prend en charge plusieurs sous-interfaces avec des circuits virtuels permanents de 2 Mo (PVC). La stratégie de service est appliquée à chaque circuit virtuel.

class-map match-any XETRA-CLASS 
  match access-group 104 
class-map match-any SNA-CLASS 
  match access-group 101 
  match access-group 102 
  match access-group 103 
policy-map POLICY-2048Kbps 
  class XETRA-CLASS 
    bandwidth 320 
  class SNA-CLASS 
    bandwidth 512 

interface ATM6/0/0 
 no ip address 
 no atm sonet ilmi-keepalive 
 no ATM ilmi-keepalive 
! 
interface ATM6/0/0.11 point-to-point 
 mtu 1578 
 bandwidth 2048 
 ip address 22.161.104.101 255.255.255.252 
 pvc ABCD 
  class-vc 2048Kbps-PVC 
  service-policy out POLICY-2048Kbps

L'interface de mode de transfert asynchrone (ATM) obtient une limite de file d'attente pour l'intégralité de l'interface. La limite est une fonction calculant la quantité totale de mémoire tampon disponible, le nombre d'interfaces physiques sur le FlexWAN et le délai de mise en file d'attente maximal autorisé sur l'interface. Chaque PVC obtient une partie de la limite d'interface en fonction du Sustained Cell Rate (SCR) ou du Minimum Cell Rate (MCR) du PVC, et chaque classe obtient une partie de la limite de PVC en fonction de son allocation de bande passante.

L'exemple de sortie suivant de la commande show policy-map interface est dérivé d'un FlexWAN avec 3687 mémoires tampon globales. Émettez la commande show buffer pour obtenir cette valeur. 50 paquets sont alloués à chaque PVC de 2 Mbits/s en fonction de la bande passante du PVC de 2 Mbits/s (2047/149760 x 3687 = 50). Une partie des 50 paquets est ensuite allouée à chaque classe, comme le montre l'exemple suivant :

service-policy output: POLICY-2048Kbps
    class-map: XETRA-CLASS (match-any) 
      687569 packets, 835743045 bytes 
      5 minute offered rate 48000 bps, drop rate 6000 BPS 
      match: access-group 104 
        687569 packets, 835743045 bytes 
        5 minute rate 48000 BPS 
      queue size 0, queue limit 7 
      packets output 687668, packet drops 22 
      tail/random drops 22, no buffer drops 0, other drops 0 
      bandwidth: kbps 320, weight 15 
 
    class-map: SNA-CLASS (match-any) 
      2719163 packets, 469699994 bytes 
      5 minute offered rate 14000 BPS, drop rate 0 BPS 
      match: access-group 101 
        1572388 packets, 229528571 bytes 
        5 minute rate 14000 BPS 
      match: access-group 102 
        1146056 packets, 239926212 bytes 
        5 minute rate 0 BPS 
      match: access-group 103 
        718 packets, 245211 bytes 
        5 minute rate 0 BPS 
      queue size 0, queue limit 12 
      packets output 2719227, packet drops 0 
      tail/random drops 0, no buffer drops 0, other drops 0 
      bandwidth: kbps 512, weight 25 
      queue-limit 100 
 
    class-map: class-default (match-any) 
      6526152 packets, 1302263701 bytes 
      5 minute offered rate 44000 BPS, drop rate 0 BPS 
      match: any 
        6526152 packets, 1302263701 bytes 
        5 minute rate 44000 BPS 
      queue size 0, queue limit 29 
      packets output 6526840, packet drops 259 
      tail/random drops 259, no buffer drops 0, other drops 0

Si vos flux de trafic utilisent de grandes tailles de paquet, le résultat de la commande show policy-map interface peut signaler une valeur à incrémentation pour les champs no buffer drops dans la mesure où vous pouvez manquer de mémoires tampon avant d'atteindre la limite de la file d'attente. Dans ce cas, essayez de diminuer manuellement les classes queue-limit et non-priority. Pour plus d'informations, consultez Présentation de la transmission de la limite de file d'attente avec CoS IP à ATM.

Q. Comment vérifiez-vous la valeur de la limite de file d'attente ?

A. Sur des plates-formes non distribuées, la limite de file d'attente est de 64 paquets par défaut. L'exemple de résultat suivant a été capturé sur un routeur de la gamme Cisco 3600 :

november# show policy-map interface s0      
   Serial0
	 
   Service-policy output: policy1 

     Class-map: class1 (match-all) 
       0 packets, 0 bytes 
       5 minute offered rate 0 BPS, drop rate 0 BPS 
       Match: ip precedence 5 
       Weighted Fair Queueing 
         Output Queue: Conversation 265 
         Bandwidth 30 (kbps) Max Threshold 64 (packets) 
         
!--- Max Threshold is the queue-limit. 

         (pkts matched/bytes matched) 0/0 
         (depth/total drops/no-buffer drops) 0/0/0 

      Class-map: class2 (match-all) 
        0 packets, 0 bytes 
        5 minute offered rate 0 BPS, drop rate 0 BPS 
        Match: ip precedence 2 
        Match: ip precedence 3 
        Weighted Fair Queueing 
          Output Queue: Conversation 266 
          Bandwidth 24 (kbps) Max Threshold 64 (packets) 
          (pkts matched/bytes matched) 0/0 
          (depth/total drops/no-buffer drops) 0/0/0 

       Class-map: class-default (match-any) 
         0 packets, 0 bytes 
         5 minute offered rate 0 BPS, drop rate 0 BPS 
         Match: any

Q. Puis-je activer la mise en file d'attente pondérée à l'intérieur d'une classe ?

A. La gamme Cisco 7500 avec la qualité de service (QoS) distribuée prend en charge la mise en file d'attente pondérée par classe. D'autres plates-formes, y compris la gamme Cisco 7200 et la gamme Cisco 2600/3600, prennent en charge la mise en file d'attente pondérée (WFQ) dans la classe class-default ; toutes les classes de bande passante utilisent le mécanisme First In First Out (FIFO).

Q. Quelles commandes puis-je utiliser pour contrôler la mise en file d'attente ?

A. Utilisez les commandes suivantes pour contrôler la mise en file d'attente :

Q. Le RSVP peut être utilisé en même temps que la mise en file d'attente pondérée basée sur les classe (CBWFQ). Lorsque les protocoles Resource Reservation Protocol (RSVP) et CBWFQ sont tous deux configurés pour une interface, RSVP et CBWFQ agissent-ils de façon indépendante, en ayant le même comportement que celui qu'ils auraient si chacun d'eux s'exécutait seul ? RSVP semble se comporter comme si CBWFQ n'était pas configuré en termes de disponibilité, d'estimation et d'allocation de bande passante.

A. Lors de l'utilisation du RSVP et de la CBWFQ dans le logiciel Cisco IOS Versions 12.1(5)T et ultérieures, le routeur peut fonctionner de telle sorte que les flux RSVP et les classes CBWFQ partagent la bande passante disponible sur une interface ou un PVC, sans surabonnement.

La version logicielle d'IOS 12.2(1)T et versions ultérieures permet au RSVP d'effectuer un contrôle d'admission en utilisant son propre pool « ip rsvp bandwidth », tandis que la CBWFQ gère la classification, la réglementation et la planification des paquets RSVP. Cela suppose que les paquets soient prémarqués par l'expéditeur et que les paquets non RSVP soient marqués différemment.

Weighted Random Early Detection (WRED) en prévention de congestion

Q. Puis-je activer la Weighted Random Early Detection (WRED) et la Low Latency Queueing (LLQ) ou la mise en file d’attente pondérée basée sur les classes (CBWFQ) en même temps ?

A. Oui. La mise en file d'attente définit l'ordre dans lequel les paquets sortent de la file d'attente. En d'autres termes, elle définit un mécanisme de planification des paquets. Elle peut également être utilisée pour fournir une allocation de bande passante équitable et des garanties de bande passante minimales. En revanche, la RFC 2475 définit la suppression comme le « processus de suppression des paquets en fonction de règles spécifiées ». Le « tail-drop » constitue le mécanisme de suppression par défaut, dans lequel l'interface supprime les paquets lorsque la file d'attente est pleine. La détection précoce aléatoire (RED) et la WRED de Cisco constituent d'autres mécanismes de suppression, lesquels suppriment des paquets de façon aléatoire avant que la file d'attente ne soit pleine et cherchent à conserver une profondeur moyenne de file d'attente cohérente. La WRED utilise la valeur de priorité IP des paquets pour prendre une décision de suppression différenciée. Pour plus d'informations, consultez Weighted Random Early Detection (WRED).

Q. Comment puis-je surveiller la Weighted Random Early Detection (WRED) et la voir réellement appliquée ?

A. La WRED contrôle la profondeur moyenne de la file d'attente et commence à supprimer des paquets quand la valeur calculée dépasse la valeur de seuil minimale. Émettez la commande show policy-map interface et contrôlez la valeur de la profondeur moyenne de la file d'attente, come le montre l'exemple suivant :

Router# show policy interface s2/1 

  Serial2/1 
  output : p1 
   Class c1 
    Weighted Fair Queueing 
        Output Queue: Conversation 265 
          Bandwidth 20 (%) 
          (pkts matched/bytes matched) 168174/41370804 
          (pkts discards/bytes discards/tail drops) 20438/5027748/0 
          mean queue depth: 39 

     Dscp     Random drop       Tail drop        Minimum   Maximum     Mark 
     (Prec)    pkts/bytes        pkts/bytes      threshold threshold probability 
       0(0)    2362/581052        1996/491016        20        40       1/10 
       1          0/0                0/0             22        40       1/10 
       2          0/0                0/0             24        40       1/10 
       [output omitted]

Réglementation et formatage

Q. Quelle est la différence entre la réglementation et le formatage ?

A. Le diagramme suivant illustre la différence principale. Le formatage de trafic retient les paquets excédentaires dans une file d'attente, puis planifie l'excédent pour une transmission ultérieure sur des incréments de temps. Le résultat du formatage de trafic est un débit en sortie en douceur de paquets. En revanche, la réglementation du trafic propage des salves. Quand le débit de trafic atteint le débit maximal configuré, le trafic excessif est extrait (ou marqué une nouvelle fois). Le résultat est un débit en sortie qui apparaît en dents de scie avec des hauts et des bas.

/image/gif/paws/22833/qos_faq2.gif

Pour plus d'informations, consultez Vue d'ensemble de la réglementation et du formatage.

Q. Qu'est-ce qu'un saut à jetons et comment l'algorithme fonctionne-t-il ?

A. Un saut à jetons lui-même n'a aucune stratégie de rejet ni de priorité. L'exemple suivant illustre la façon dont le saut à jetons fonctionne :

  • Les jetons sont placés dans le saut à un certain débit.

  • Chaque jeton constitue une autorisation pour que la source envoie un certain nombre de bits.

  • Pour envoyer un paquet, le régulateur de trafic doit pouvoir retirer du saut un certain nombre de jetons égal dans la représentation à la taille de paquet.

  • Si le nombre de jetons dans le saut est insuffisant pour envoyer un paquet, le paquet attend que le saut ait assez de jetons (dans le cas d'un modélisateur), ou le paquet est ignoré ou démarqué (dans le cas d'un régulateur).

  • Le saut lui-même a une capacité spécifique. Si le saut est totalement rempli, les jetons nouvellement arrivés sont ignorés et ne sont pas disponibles pour de futurs paquets. Ainsi, à tout moment, la plus grande rafale qu'une source peut envoyer dans le réseau est approximativement proportionnelle à la taille du saut. Un saut à jetons permet les rafales, mais les lie.

Q. Avec un régulateur de trafic tel que la réglementation basée sur les classes, que signifient les valeurs Committed Burst (BC) et Excess Burst (Be) et comment dois-je les sélectionner ?

A. Un régulateur de trafic ne place pas les paquets excédentaires en mémoire tampon pour les transmettre ultérieurement, comme cela est le cas pour un modéliseur. Au lieu de cela, le régulateur exécute une simple stratégie d'envoi ou de non-envoi sans mise en mémoire tampon. Durant les périodes de congestion, puisque vous ne pouvez pas placer les paquets en mémoire tampon, la meilleure solution consiste à supprimer des paquets de façon moins agressive en configurant correctement le mode rafale étendue. Par conséquent, il est important de comprendre que le régulateur utilise les valeurs de rafale normale et de rafale étendue pour être sûr que le débit minimal garanti (CIR) soit atteint.

Les paramètres de rafale sont légèrement modelés sur la règle générique de mise en mémoire tampon destinée aux routeurs. La règle recommande de configurer la mise en mémoire tampon par rapport à la vitesse de transmission des allers-retours de façon à pouvoir accueillir les fenêtres du protocole de contrôle de transmissions (TCP) de toutes les connexions en période de congestion.

Le tableau suivant décrit l'usage et la formule recommandée pour les valeurs de rafale normales et étendues :

Paramètre de rafale But Formule recommandée
rafale normale
  • Implémente un saut à jetons standard.

  • Fixe la taille maximale du saut à jetons (bien que des jetons puissent être empruntés si Be est supérieur à BC).

  • Détermine la taille du saut à jetons dans la mesure où les nouveaux jetons sont supprimés et ne sont pas disponibles pour les futurs paquets si le saut atteint sa pleine capacité.

CIR [BPS] * 
(1 byte)/(8 bits) * 
1.5 seconds

Remarque: La durée standard des boucles est de 1,5 seconde.

rafale étendue
  • Implémente un saut à jetons avec des fonctionnalités de rafale étendue.

  • Désactivé en définissant BC = Be.

  • Lorsque BC est égal à Be, le régulateur du trafic ne peut pas emprunter de jetons et il supprime simplement le paquet si le nombre de jetons disponibles est insuffisant.

2 * normal burst

Toutes les plates-formes n'utilisent pas ou ne prennent pas en charge la même plage de valeurs pour un régulateur. Consultez le document suivant pour connaître les valeurs prises en charge pour votre plate-forme spécifique :

Q. Comment le Committed Access Rate (CAR) et la réglementation basée sur les classes décident-ils si un paquet est conforme ou dépasse le débit minimal garanti (CIR) ? Le routeur supprime des paquets et signale un débit dépassé même si le débit conforme est inférieur au CIR configuré.

A. Un régulateur de trafic utilise les valeurs de rafale normale et de rafale étendue pour s'assurer que le CIR configuré soit atteint. Il est important de définir des valeurs de rafale suffisamment élevées de façon à garantir un débit correct. Si les valeurs de rafale ne sont pas suffisamment élevées, le débit obtenu peut être largement inférieur au débit configuré. Les rafales provisoires peut avoir une incidence fortement défavorable sur le débit du trafic TCP. Avec le CAR, émettez la commande show interface rate-limit pour contrôler la rafale actuelle et déterminer si la valeur affichée est constamment proche des valeurs BC et Be.

rate-limit 256000 7500 7500 conform-action continue exceed-action drop 
rate-limit 512000 7500 7500 conform-action continue exceed-action drop 

router# show interfaces virtual-access 26 rate-limit 
    Virtual-Access26 Cable Customers 
      Input 
        matches: all traffic 
          params:  256000 BPS, 7500 limit, 7500 extended limit 
          conformed 2248 packets, 257557 bytes; action: continue 
          exceeded 35 packets, 22392 bytes; action: drop 
          last packet: 156ms ago, current burst: 0 bytes 
          last cleared 00:02:49 ago, conformed 12000 BPS, exceeded 1000 BPS 
      Output 
        matches: all traffic 
          params:  512000 BPS, 7500 limit, 7500 extended limit 
          conformed 3338 packets, 4115194 bytes; action: continue 
          exceeded 565 packets, 797648 bytes; action: drop 
          last packet: 188ms ago, current burst: 7392 bytes 
          last cleared 00:02:49 ago, conformed 194000 BPS, exceeded 37000 BPS

Pour plus d'informations, référez-vous aux documents suivants :

Q. Les valeurs de rafale et de limite de file d'attente sont-elles indépendantes l'une de l'autre ?

A. Oui, les valeurs de rafale de régulation et de limite de file d'attente sont distinctes et indépendantes l'une de l'autre. Vous pouvez considérer le régulateur comme une porte qui autorise un certain nombre de paquets (ou octets) et la file d'attente comme un saut de taille queue limit qui contient les paquets admis avant la transmission sur le réseau. Idéalement, vous voulez que votre saut soit suffisamment grand pour contenir une rafale des octets/paquets admis par la porte (régulateur).

Qualité de service (QoS) des relais de trame

Q. Quelles valeurs dois-je sélectionner pour le débit minimal garanti (CIR), le Committed Burst (BC), l'Excess Burst (Be) et le CIR minimum (MinCIR) ?

A. Le formatage du trafic Frame Relay (FRTS), que vous activez en émettant la commande frame-relay traffic-shaping, prend en charge plusieurs paramètres configurables. Ces paramètres incluent frame-relay cir, frame-relay mincir et frame-relay BC. Consultez les documents suivants pour plus d'informations sur la sélection de ces valeurs et une présentation des commandes show associées :

Q. La mise en file d'attente par priorité sur l'interface principale de relais de trame fonctionne-t-elle dans Cisco IOS 12.1 ?

A. Les interfaces de relais de trame prennent à la fois en charge les mécanismes de mise en file d'attente d'interface et les mécanismes de mise en file d'attente par circuit virtuel. À partir de Cisco IOS 12.0(4)T, la file d'attente d'interface ne prend en charge la mise en file d’attente First In First Out (FIFO) ou la mise en file d'attente par priorité (PQ) par interface que lorsque vous configurez le formatage du trafic Frame Relay (FRTS). Par conséquent, la configuration suivante ne fonctionnera plus si vous effectuez une mise à niveau vers Cisco IOS 12.1.

interface Serial0/0 
  frame-relay traffic-shaping 
  bandwidth 256 
  no ip address 
  encapsulation frame-relay IETF 
  priority-group 1
 
 ! 
 interface Serial0/0.1 point-to-point 
  bandwidth 128 
  ip address 136.238.91.214 255.255.255.252 
  no ip mroute-cache 
  traffic-shape rate 128000 7936 7936 1000 
  traffic-shape adaptive 32000 
  frame-relay interface-dlci 200 IETF

Si FRTS n'est pas activé, vous pouvez appliquer une autre méthode de mise en file d'attente, telle que la mise en file d'attente pondérée basée sur les classes (CBWFQ), à l'interface principale, laquelle agit comme un canal de bande passante unique. En outre, depuis Cisco IOS 12.1.1(T), vous pouvez activer la mise en file d'attente d'interface prioritaire (PIPQ) de circuits virtuels permanents (PVC) Frame Relay sur une interface principale Frame Relay. Vous pouvez définir des PVC de priorité élevée, moyenne, normale ou basse et émettre la commande frame-relay interface-queue priority sur l'interface principale, comme dans l'exemple suivant :

interface Serial3/0 
 description framerelay main interface 
 no ip address 
 encapsulation frame-relay 
 no ip mroute-cache 
 frame-relay traffic-shaping 
 frame-relay interface-queue priority
 
interface Serial3/0.103 point-to-point 
 description frame-relay subinterface 
 ip address 1.1.1.1 255.255.255.252 
 frame-relay interface-dlci 103 
  class frameclass 

map-class frame-relay frameclass 
 frame-relay adaptive-shaping becn 
 frame-relay cir 60800 
 frame-relay BC 7600 
 frame-relay be 22800 
 frame-relay mincir 8000 
 service-policy output queueingpolicy 
 frame-relay interface-queue priority low

Q. Le formatage du trafic Frame Relay (FRTS) fonctionne-t-il avec Cisco Express Forwarding distribué (dCEF) et la mise en file d'attente pondérée basée sur les classes distribuée (dCBWFQ) ?

A. À partir de Cisco IOS 12.1(5)T, seules les versions distribuées des fonctions QoS sont prises en charge sur les VIP dans la gamme Cisco 7500. Pour permettre le formatage du trafic sur des interfaces de relais de trame, utilisez le Distributed Traffic Shaping (DTS). Pour plus d'informations, référez-vous aux documents suivants :

Qualité de service (QoS) sur mode de transfert asynchrone (ATM)

Q. Où dois-je appliquer une stratégie de service avec la mise en file d'attente pondérée basée sur les classes (CBWFQ) et la Low Latency Queueing (LLQ) sur une interface en mode de transfert asynchrone (ATM) ?

A. Depuis Cisco IOS 12.2, les interfaces ATM prennent en charge les stratégies de service à trois niveaux ou interfaces logiques : interface principale, sous-interface et circuit virtuel permanent (PVC). L'emplacement auquel vous appliquez la stratégie est conditionnée par la fonction de qualité de service (QoS) que vous activez. Les stratégies de mise en file d'attente doivent être appliquées par circuit virtuel (VC) puisque l'interface ATM contrôle le niveau de congestion par circuit virtuel et gère les files d'attente des paquets excédentaires par circuit virtuel. Pour plus d'informations, référez-vous aux documents suivants :

Q. Quels sont les octets pris en compte par IP pour la mise en file d'attente de la classe de service (CoS) du mode de transfert asynchrone (ATM) ?

A. Les commandes de bande passante et de priorité configurées dans une stratégie de service pour permettre la mise en file d'attente pondérée basée sur les classes (CBWFQ) et la Low Latency Queuing (LLQ), respectivement, utilisent une valeur de Kbits/s qui prend en compte les mêmes octets de surcharge que ceux pris en compte par la sortie de la commande show interface. En particulier, le système de mise en file d'attente de couche 3 prend en compte le contrôle de la liaison logique / protocole d'accès au sous-réseau (LLC/SNAP). Il ne prend pas en compte ce qui suit :

Q. Combien de circuits virtuels (VC) peuvent prendre en charge simultanément une stratégie de service ?

A. Le document suivant fournit des instructions utiles sur le nombre de VC en mode de transfert asynchrone (ATM) pouvant être pris en charge. Environ 200 à 300 circuits virtuels permanents vbr-nrt (PVC) VBR-nrt ont été déployés en toute sécurité :

Prenez en compte également ce qui suit :

  • Utilisez un processeur de forte capacité. Par exemple, un VIP4-80 fournit de manière significative des performances plus élevées qu'un VIP2-50.

  • Quantité de mémoire de paquets disponible. Sur le NPE-400, jusqu'à 32 Mo (dans un système de 256 Mo) sont réservés pour la mémoire tampon des paquets. Pour un NPE-200, jusqu'à 16 Mo sont réservés pour des mémoires tampon de paquets sur un système de 128 Mo.

  • Des configurations avec la Weighted Random Early Detection (WRED) par circuit virtuel fonctionnant simultanément sur un maximum de 200 circuits virtuels ATM ont été intensivement testées. La quantité de mémoire de paquets sur le VIP2-50 pouvant être utilisée pour les files d'attente par circuit virtuel est limitée. Par exemple, un VIP2-50 avec 8 Mo de SRAM fournit 1 085 mémoires tampon de paquets disponibles pour la mise en file d'attente par circuit virtuel de classe de service IP à ATM sur lesquelles la WRED fonctionne. Si 100 PVC ATM ont été configurés et si tous les circuits virtuels ont simultanément fait l'objet d'une congestion excessive (comme cela pourrait être simulé dans des environnements de test où une source contrôlée par un flux autre que TCP serait utilisée), chaque PVC aurait en moyenne une mise en mémoire tampon d'environ 10 paquets, ce qui peut être insuffisant pour que la WRED fonctionne correctement. Les périphériques VIP2-50 avec une SRAM importante sont donc fortement recommandés dans les conceptions comportant un nombre élevé de circuits virtuels ATM exécutant des WRED par circuit virtuel et pouvant faire simultanément l'objet de congestion.

  • Plus le nombre de PVC configurés actifs est élevé, plus le nombre de Sustained Cell Rate (SCR) devra être faible, et par conséquent, plus la file d'attente requise par la WRED pour fonctionner sur le PVC devra être courte. Ainsi, comme cela est le cas lors de l'utilisation des profils WRED par défaut de la fonction de phase 1 de classe de service (COs) IP à ATM, la configuration de seuils inférieurs de suppression de WRED lorsque la WRED par circuit virtuel est activée sur un très grand nombre de PVC lents congestionnés réduirait le risque de pénurie de mémoire tampon sur le VIP. La pénurie de mémoire tampon sur le VIP n'entraîne aucun dysfonctionnement. Dans le cas de pénurie de mémoire tampon sur le VIP, la fonction de phase 1 de COs d'IP à ATM passe simplement au « tail drop » First In First Out (FIFO) durant la pénurie de mémoire tampon (c'est-à-dire la même stratégie de suppression qui serait utilisée si la fonction de COs d'IP à ATM n'était pas activée sur ce PVC).

  • Nombre maximal de circuits virtuels simultanés qui peut être raisonnablement pris en charge.

Q. Quels matériels en mode de transfert asynchrone (ATM) prennent en charge les fonctions de classe de service (COs) IP à ATM comprenant la mise en file d'attente pondérée basée sur les classes (CBWFQ) et la Low Latency Queuing (LLQ) ?

A. La COs IP à ATM se rapporte à un ensemble de fonctionnalités qui sont activées « par circuit virtuel ». La COs IP à ATM n'est donc pas prise en charge sur le processeur d'interface ATM (AIP), ou sur les processeurs réseau ATM 4500 ou PA-A1. Ce matériel ATM ne prend pas en charge la mise en file d'attente par circuit virtuel, telle que le PA-A3 et la plupart des modules réseau (autres que l'ATM-25) la définissent. Pour plus d'informations, reportez-vous au document suivant :

Voix et qualité de service (QoS)

Q. Comment le Link Fragmentation and Interleaving (LFI) fonctionne-t-il ?

A. Le trafic interactif tel que Telnet et la Voix sur IP est susceptible d'augmenter la latence lorsque le réseau traite des paquets importants tels que les transferts par protocole de transfert de fichiers (FTP) sur un WAN. Le délai de paquets pour le trafic interactif est significatif lorsque les paquets FTP sont placés en file d'attente sur des liaisons WAN plus lentes. Une méthode a été conçue pour fragmenter les paquets les plus grands, et placer en file d'attente les paquets les plus petits (voix) entre les fragments des paquets les plus grands (FTP). Les routeurs Cisco IOS prennent en charge plusieurs mécanismes de fragmentation de la couche 2. Pour plus d'informations, référez-vous aux documents suivants :

Q. Quels outils puis-je utiliser pour contrôler les performances de la Voix sur IP ?

A. Cisco offre actuellement plusieurs options pour contrôler la qualité de service (QoS) dans les réseaux utilisant les solutions de Voix sur IP de Cisco. Ces solutions ne mesurent pas la qualité vocale à l'aide de la méthode Perceptual Speech Quality Measurement (PSQM) ou de certains des nouveaux algorithmes proposés pour mesurer la qualité vocale. Les outils Agilent (HP) et NetIQ sont disponibles à cet effet. Cisco offre cependant des outils qui donnent une idée de la qualité vocale que vous obtenez en mesurant le délai, la gigue et la perte de paquets. Pour plus d'informations, consultez Utilisation du Service Assurance Agent et de l'Internetwork Performance Monitor de Cisco pour gérer la qualité de service sur des réseaux Voix sur IP.

Q. %SW_MGR-3-CM_ERROR_FEATURE_CLASS : Connection Manager Feature Error: Class SSS: (QoS) - install error, ignore.

A. L'erreur d'installation de fonctionnalité observée constitue le comportement prévu lorsqu'une configuration incorrecte est appliquée à un modèle. Elle indique que la stratégie de service n'a pas été appliquée en raison d'un conflit. Vous ne devez généralement pas configurer le formatage sur la valeur par défaut des classes de la stratégie enfant dans les mappages de stratégies hiérarchiques ; configurez-le sur la stratégie parente de l'interface. L'impression et le traçage de ce message en sont la conséquence.

Avec des stratégies basées sur les sessions, le formatage des valeurs par défaut des classes doit être uniquement effectué au niveau PVC de la sous-interface. La formatage de l'interface physique n'est pas pris en charge. Si la configuration est effectuée sur l'interface physique, l'occurrence de ce message d'erreur est un comportement attendu.

Dans le cas de LNS, une autre raison pourrait être que la stratégie de service peut être fournie par l'intermédiaire du serveur RADIUS lorsque les sessions sont démarrées. Émettez la commande show tech pour afficher la configuration du serveur RADIUS et toutes les stratégies de service illégales qui sont installées par l'intermédiaire du serveur RADIUS lorsque la session s'ouvre ou devient instable.


Informations connexes


Document ID: 22833