Ce document explique comment interpréter la sortie de commande show policy-map interface, que vous pouvez utiliser pour surveiller les résultats d'une stratégie de service créée avec l'interface de ligne de commande (CLI) modulaire de Cisco QoS (Quality of Service).
Aucune spécification déterminée n'est requise pour ce document.
Ce document n'est pas limité à des versions de matériel et de logiciel spécifiques.
Les informations présentées dans ce document ont été créées à partir de périphériques dans un environnement de laboratoire spécifique. All of the devices used in this document started with a cleared (default) configuration. Si vous travaillez sur un réseau qui est en ligne, assurez-vous de bien comprendre l’incidence possible d’une commande avant de l’utiliser.
Remarque : Dans le logiciel Cisco IOS® Version 12.1T, les paquets des sorties des commandes répertoriées dans ce document incluent tous les paquets qui correspondent à une classe particulière. Cependant, dans la version 12.1 du logiciel Cisco IOS, seuls les paquets qui sont mis en file d'attente lors de la congestion sont comptés et affichés dans le résultat de ces mêmes commandes.
Pour plus d'informations sur les conventions des documents, référez-vous aux Conventions utilisées pour les conseils techniques de Cisco.
Pour comprendre comment interpréter la commande show policy-map interface, vous devez d'abord comprendre le concept de congestion.
Conceptuellement, la congestion est définie par le guide de configuration du logiciel Cisco IOS comme suit : « Pendant les périodes d'encombrement de transmission sur l'interface sortante, les paquets arrivent plus vite que l'interface ne peut les envoyer. »
En d'autres termes, l'encombrement se produit généralement lorsqu'une interface d'entrée rapide alimente une interface de sortie relativement lente. Un point d’encombrement courant est un routeur de filiale avec un port Ethernet faisant face au réseau local et un port série faisant face au réseau étendu. Les utilisateurs du segment LAN génèrent 10 Mbits/s de trafic, qui est alimenté en un T1 avec 1,5 Mbits/s de bande passante.
Sur le plan fonctionnel, l'encombrement est défini comme le remplissage de l'anneau de transmission sur l'interface. Un anneau est une structure de contrôle de tampon spéciale. Chaque interface prend en charge une paire de anneaux : un anneau de réception pour la réception des paquets et un anneau de transmission pour la transmission des paquets. La taille des anneaux varie selon le contrôleur d'interface et la bande passante de l'interface ou du circuit virtuel (VC). Par exemple, utilisez la commande show atm vc {vcd} pour afficher la valeur de l'anneau de transmission sur une carte de port ATM PA-A3. Référez-vous à Compréhension et réglage de la valeur limite de sonnerie pour plus d'informations.
7200-1# show atm vc 3 ATM5/0.2: VCD: 3, VPI: 2, VCI: 2 VBR-NRT, PeakRate: 30000, Average Rate: 20000, Burst Cells: 94 AAL5-LLC/SNAP, etype:0x0, Flags: 0x20, VCmode: 0x0 OAM frequency: 0 second(s) PA TxRingLimit: 10 InARP frequency: 15 minutes(s) Transmit priority 2 InPkts: 0, OutPkts: 0, InBytes: 0, OutBytes: 0 InPRoc: 0, OutPRoc: 0 InFast: 0, OutFast: 0, InAS: 0, OutAS: 0 InPktDrops: 0, OutPktDrops: 0 CrcErrors: 0, SarTimeOuts: 0, OverSizedSDUs: 0 OAM cells received: 0 OAM cells sent: 0 Status: UP
Cisco IOS, également appelé processeur de couche 3 (L3), et le pilote d’interface utilisent la sonnerie de transmission lors du déplacement des paquets vers le support physique. Les deux processeurs collaborent de cette manière :
L’interface transmet les paquets en fonction du débit d’interface ou d’un débit en forme.
L’interface gère une file d’attente matérielle ou une boucle de transmission, où elle stocke les paquets qui attendent d’être transmis sur le câble physique.
Lorsque la file d'attente matérielle ou l'anneau de transmission se remplit, l'interface fournit une contre-pression explicite au système processeur L3. L'interface avertit le processeur de couche 3 d'arrêter de mettre en file d'attente les paquets vers la boucle de transmission de l'interface, car la boucle de transmission est pleine. Le processeur de couche 3 stocke désormais les paquets excédentaires dans les files d'attente de couche 3.
Lorsque l'interface envoie les paquets sur la boucle de transmission et vide la boucle, elle dispose à nouveau de suffisamment de tampons pour stocker les paquets. Il libère la contre-pression et le processeur de couche 3 défile de nouveaux paquets vers l'interface.
L'aspect le plus important de ce système de communication est que l'interface reconnaît que son anneau de transmission est plein et limite la réception de nouveaux paquets du système processeur de couche 3. Ainsi, lorsque l'interface est congestionnée, la décision de rejet est déplacée d'une décision aléatoire, dernière/première abandonnée dans la file d'attente FIFO (Transmission ring first in, first out) vers une décision différenciée basée sur les politiques de service de niveau IP implémentées par le processeur de couche 3.
Ensuite, vous devez comprendre quand votre routeur utilise les files d'attente de couche 3, car les politiques de service s'appliquent uniquement aux paquets stockés dans les files d'attente de couche 3.
Ce tableau illustre le moment où les paquets sont placés dans la file d'attente L3. Les paquets générés localement sont toujours commutés par processus et sont livrés en premier dans la file d'attente L3 avant d'être transmis au pilote d'interface. Les paquets commutés Fast-switched et Cisco Express Forwarding (CEF) sont livrés directement à l'anneau de transmission et sont placés dans la file d'attente L3 uniquement lorsque l'anneau de transmission est plein.
Type de paquet | Congestion | Non encombrement |
---|---|---|
Paquets générés localement, qui inclut les paquets Telnet et les requêtes ping | Oui | Oui |
Autres paquets à commutation de processus | Oui | Oui |
Paquets à commutation CEF ou rapide | Oui | Non |
Cet exemple montre ces directives appliquées à la sortie show policy-map interface (les quatre compteurs clés sont en gras) :
7206# show policy-map interface atm 1/0.1 ATM1/0.1: VC 0/100 - Service-policy output: cbwfq (1283) Class-map: A (match-all) (1285/2) 28621 packets, 7098008 bytes 5 minute offered rate 10000 bps, drop rate 0 bps Match: access-group 101 (1289) Weighted Fair Queueing Output Queue: Conversation 73 Bandwidth 500 (kbps) Max Threshold 64 (packets) (pkts matched/bytes matched) 28621/7098008 (depth/total drops/no-buffer drops) 0/0/0 Class-map: B (match-all) (1301/4) 2058 packets, 148176 bytes 5 minute offered rate 0 bps, drop rate 0 bps Match: access-group 103 (1305) Weighted Fair Queueing Output Queue: Conversation 75 Bandwidth 50 (kbps) Max Threshold 64 (packets) (pkts matched/bytes matched) 0/0 (depth/total drops/no-buffer drops) 0/0/0 Class-map: class-default (match-any) (1309/0) 19 packets, 968 bytes 5 minute offered rate 0 bps, drop rate 0 bps Match: any (1313)
Ce tableau définit les compteurs en gras :
Compteur | Explication |
---|---|
28621 paquets, 7098008 octets | Nombre de paquets qui correspondent aux critères de la classe. Ce compteur est incrémenté que l'interface soit ou ne soit pas congestionnée. |
(pkts correspondants/octets correspondants) 28621/7098008 | Nombre de paquets qui correspondent aux critères de la classe lorsque l'interface a été congestionnée. En d'autres termes, l'anneau de transmission de l'interface était plein et le pilote et le système de processeur de couche 3 ont travaillé ensemble pour mettre en file d'attente les paquets excédentaires dans les files d'attente de couche 3, où la stratégie de service s'applique. Les paquets qui sont commutés par processus passent toujours par le système de file d'attente L3 et incrémentent ainsi le compteur « paquets correspondants ». |
Class-map : B (match-all) (1301/4) | Ces numéros définissent un ID interne utilisé avec la base MIB (Management Information Base) CISCO-CLASS-BASED-QOS-MIB. Ils n'apparaissent plus dans la sortie show policy-map dans les versions actuelles de Cisco IOS. |
Taux offert de 5 minutes 0 bit/s, taux de chute 0 bit/s | Utilisez la commande load-interval pour modifier cette valeur et en faire une valeur plus instantanée. La valeur la plus basse est de 30 secondes ; cependant, les statistiques affichées dans la sortie show policy-map interface sont mises à jour toutes les 10 secondes. Puisque la commande fournit effectivement un instantané à un moment spécifique, les statistiques peuvent ne pas refléter une augmentation temporaire de la taille de la file d'attente. |
Sans encombrement, il n'est pas nécessaire de mettre en file d'attente les paquets excédentaires. Avec l'encombrement, les paquets, qui incluent les paquets CEF et à commutation rapide, peuvent entrer dans la file d'attente L3. Reportez-vous à la façon dont le guide de configuration de Cisco IOS définit la congestion : « Si vous utilisez des fonctions de gestion de congestion, les paquets qui s'accumulent sur une interface sont mis en file d'attente jusqu'à ce que l'interface soit libre de les envoyer ; ils sont ensuite planifiés en fonction de leur priorité assignée et du mécanisme de mise en file d'attente configuré pour l'interface. »
Normalement, le compteur « paquets » est beaucoup plus grand que le compteur « paquets correspondants ». Si les valeurs des deux compteurs sont presque égales, alors l'interface reçoit actuellement un grand nombre de paquets commutés par processus ou est fortement congestionnée. Ces deux conditions doivent être étudiées pour garantir un transfert optimal des paquets.
Cette section explique comment votre routeur attribue des numéros de conversation aux files d'attente créées lors de l'application de la stratégie de service.
Router# show policy-map interface s1/0.1 dlci 100 Serial1/0.1: DLCI 100 - output : mypolicy Class voice Weighted Fair Queueing Strict Priority Output Queue: Conversation 72 Bandwidth 16 (kbps) Packets Matched 0 (pkts discards/bytes discards) 0/0 Class immediate-data Weighted Fair Queueing Output Queue: Conversation 73 Bandwidth 60 (%) Packets Matched 0 (pkts discards/bytes discards/tail drops) 0/0/0 mean queue depth: 0 drops: class random tail min-th max-th mark-prob 0 0 0 64 128 1/10 1 0 0 71 128 1/10 2 0 0 78 128 1/10 3 0 0 85 128 1/10 4 0 0 92 128 1/10 5 0 0 99 128 1/10 6 0 0 106 128 1/10 7 0 0 113 128 1/10 rsvp 0 0 120 128 1/10 Class priority-data Weighted Fair Queueing Output Queue: Conversation 74 Bandwidth 40 (%) Packets Matched 0 Max Threshold 64 (packets) (pkts discards/bytes discards/tail drops) 0/0/0 Class class-default Weighted Fair Queueing Flow Based Fair Queueing Maximum Number of Hashed Queues 64 Max Threshold 20 (packets)
La classe par défaut est la classe par défaut vers laquelle le trafic est dirigé, si ce trafic ne satisfait pas aux critères de correspondance des autres classes dont la stratégie est définie dans la carte de stratégie. La commande fair-queue vous permet de spécifier le nombre de files d'attente dynamiques dans lesquelles vos flux IP sont triés et classés. Vous pouvez également attribuer un nombre par défaut de files d’attente dérivées de la bande passante sur l’interface ou le circuit virtuel. Dans les deux cas, les valeurs prises en charge sont deux, dans une plage comprise entre 16 et 4 096.
Ce tableau répertorie les valeurs par défaut des interfaces et des circuits virtuels permanents ATM (PVC) :
Nombre par défaut de files d'attente dynamiques en fonction de la bande passante de l'interfacePlage de bande passante | Nombre de files d'attente dynamiques |
---|---|
Inférieur ou égal à 64 kbits/s | 16 |
Plus de 64 kbits/s et inférieur ou égal à 128 kbits/s | 32 |
Plus de 128 kbits/s et inférieur ou égal à 256 kbits/s | 64 |
Plus de 256 kbits/s et inférieur ou égal à 512 kbits/s | 128 |
Plus de 512 kbits/s | 256 |
Plage de bande passante | Nombre de files d'attente dynamiques |
---|---|
Inférieur ou égal à 128 kbits/s | 16 |
Plus de 128 kbits/s et inférieur ou égal à 512 kbits/s | 32 |
Plus de 512 kbits/s et inférieur ou égal à 2 000 kbits/s | 64 |
Plus de 2 000 kbits/s et inférieur ou égal à 8 000 kbits/s | 128 |
Plus de 8 000 kbits/s | 256 |
En fonction du nombre de files d'attente réservées pour la mise en file d'attente pondérée, Cisco IOS attribue un numéro de conversation ou de file d'attente comme indiqué dans ce tableau :
Numéro de conversation/file d'attente | Type de trafic |
---|---|
1 - 256 | Files d'attente de trafic basées sur le flux général. Le trafic qui ne correspond pas à une classe créée par l'utilisateur correspond à la classe par défaut et à l'une des files d'attente basées sur le flux. |
257 - 263 | Réservé au protocole CDP (Cisco Discovery Protocol) et aux paquets marqués d'un indicateur de priorité haute interne. |
264 | File d'attente réservée pour la classe de priorité (classes configurées avec la commande priority). Recherchez la valeur « Priorité stricte » pour la classe dans la sortie show policy-map interface. La file d'attente prioritaire utilise un ID de conversation égal au nombre de files d'attente dynamiques plus huit. |
265 et plus | Files d'attente pour les classes créées par l'utilisateur. |
Complétez ces étapes si vous devez tester le compteur « pkts correspondants » et votre stratégie de service :
Simulez l’encombrement avec une requête ping étendue à l’aide d’une grande taille de requête ping et d’un grand nombre de requêtes ping. Essayez également de télécharger un fichier volumineux à partir d'un serveur FTP (File Transfer Protocol). Le fichier constitue des données « dérangeantes » et remplit la bande passante de l'interface.
Réduisez la taille de l'anneau de transmission de l'interface à l'aide de la commande tx-ring-limit. Une réduction de cette valeur accélère l'utilisation de la QoS dans le logiciel Cisco IOS.
interface ATMx/y.z point-to-point ip address a.b.c.d M.M.M.M PVC A/B tx-ring-limitservice-policy output test
Spécifiez la taille comme le nombre de paquets pour les routeurs des gammes 2600 et 3600 ou comme le nombre de particules de mémoire pour les routeurs des gammes 7200 et 7500.
Assurez-vous que votre flux de trafic correspond au paramètre d'entrée ou de sortie de votre stratégie. Par exemple, le téléchargement d'un fichier à partir d'un serveur FTP génère un encombrement dans la direction de réception, car le serveur envoie de grandes trames de taille MTU, et l'ordinateur client renvoie de petits accusés de réception (ACK).