Pour les partenaires
Vous êtes déjà partenaire?
ConnexionAvez-vous un compte?
The documentation set for this product strives to use bias-free language. For the purposes of this documentation set, bias-free is defined as language that does not imply discrimination based on age, disability, gender, racial identity, ethnic identity, sexual orientation, socioeconomic status, and intersectionality. Exceptions may be present in the documentation due to language that is hardcoded in the user interfaces of the product software, language used based on RFP documentation, or language that is used by a referenced third-party product. Learn more about how Cisco is using Inclusive Language.
Cisco a traduit ce document en traduction automatisée vérifiée par une personne dans le cadre d’un service mondial permettant à nos utilisateurs d’obtenir le contenu d’assistance dans leur propre langue. Il convient cependant de noter que même la meilleure traduction automatisée ne sera pas aussi précise que celle fournie par un traducteur professionnel.
Ce document vous aidera à comprendre la structure des files d'attente et les tampons sur la plate-forme Catalyst 3650/3850. Il fournit également un exemple sur la manière dont les pertes de production peuvent être atténuées dans une certaine mesure.
Les pertes de sortie sont généralement le résultat d'un surabonnement d'interface causé par plusieurs à un ou un transfert de 10gig à 1gig. Les tampons d'interface sont une ressource limitée et ne peuvent absorber qu'une rafale jusqu'à un point après lequel les paquets tomberont. Le réglage des tampons peut vous donner un peu de coussin, mais il ne peut garantir un scénario de perte de sortie zéro.
Il est recommandé d'exécuter la dernière version de 03.06 ou 03.07 pour obtenir les allocations de tampon appropriées en raison de bogues connus dans les codes plus anciens.
Cisco vous recommande d'avoir une connaissance de base de la qualité de service sur la plate-forme Catalyst.
Les informations contenues dans ce document sont basées sur les versions de matériel et de logiciel suivantes :
Traditionnellement, les tampons sont alloués de manière statique pour chaque file d'attente et, lorsque vous augmentez le nombre de files d'attente, le nombre de mémoires tampon réservées diminue. Cela était inefficace et pouvait conduire à ne pas disposer de suffisamment de tampons pour gérer les trames pour toutes les files d'attente.
Pour contourner ce type de limitation, la plate-forme Catalyst 3650/3850 utilise des tampons durs et des tampons logiciels.
Tampons durs : Il s'agit de la mémoire tampon minimale réservée pour des files d'attente spécifiques. Si une file d'attente spécifique n'utilise pas les tampons, elle n'est pas disponible pour les autres files d'attente.
Tampons logiciels : Ces tampons sont affectés à une file d'attente mais peuvent être partagés par d'autres files d'attente et interfaces si elles ne sont pas utilisées.
Allocation de mémoire tampon par défaut sans stratégie de service appliquée :
L'allocation de tampon par défaut pour un port de 1 Go est de 300 tampons et pour un port de 10 Go, elle est de 1 800 tampons (1 tampon = 256 octets). Le port peut utiliser jusqu'à 400 % de la valeur par défaut allouée à partir du pool commun avec les paramètres par défaut, soit 1200 tampons et 7200 tampons pour une interface 1 Gig et une interface 10Gig respectivement.
La limite de mémoire tampon logicielle par défaut est définie sur 400 (seuil max.). Le seuil détermine le nombre maximal de tampons logiciels pouvant être empruntés au pool commun.
Lorsqu'aucune stratégie de service n'est appliquée, il y a 2 files d'attente par défaut (file d'attente 0 et file d'attente 1). La file d'attente 0 est utilisée pour le trafic de contrôle (DSCP 32, 48 ou 56) et la file d'attente 1 est utilisée pour le trafic de données.
Par défaut, la file d'attente 0 reçoit 40 % des tampons disponibles pour l'interface en tant que tampons durs. c'est-à-dire que 120 tampons sont alloués à la file d'attente 0 dans le contexte des ports 1G ; 720 mémoires tampon dans le contexte des ports 10G. Le softmax, le maximum de tampons logiciels, pour cette file d'attente est défini sur 480 (calculé comme 400 % sur 120) pour les ports de 1 Go et 2880 pour les ports de 10 Go, où 400 est le seuil maximum par défaut configuré pour toute file d'attente.
Aucune mémoire tampon n'est allouée à la file d'attente 1. La valeur de la mémoire tampon logicielle pour queue-1 est calculée comme 400 % de la mémoire tampon restante de l'interface après avoir été allouée à queue-0. Il s'agit donc de 400 % de 180 pour une interface 1Gig et de 400 % de 1800 pour une interface 10Gig.
La commande show qui peut être utilisée pour afficher cette allocation est show platform qos queue config <interface>.
Pour une interface 1Gig,
3850#show platform qos queue config gigabitEthernet 1/0/1 DATA Port:20 GPN:66 AFD:Disabled QoSMap:0 HW Queues: 160 - 167 DrainFast:Disabled PortSoftStart:1 - 1080 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 5 120 6 480 6 320 0 0 3 1440 1 1 4 0 7 720 3 480 2 180 3 1440 2 1 4 0 5 0 5 0 0 0 3 1440 3 1 4 0 5 0 5 0 0 0 3 1440 4 1 4 0 5 0 5 0 0 0 3 1440 5 1 4 0 5 0 5 0 0 0 3 1440 6 1 4 0 5 0 5 0 0 0 3 1440 7 1 4 0 5 0 5 0 0 0 3 1440 <<output omitted>>
Pour une interface 10Gig,
3850#show platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:1 GPN:37 AFD:Disabled QoSMap:0 HW Queues: 8 - 15 DrainFast:Disabled PortSoftStart:2 - 6480 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 6 720 8 2880 7 1280 0 0 4 8640 1 1 4 0 9 4320 8 1920 3 1080 4 8640 2 1 4 0 5 0 5 0 0 0 4 8640 3 1 4 0 5 0 5 0 0 0 4 8640 4 1 4 0 5 0 5 0 0 0 4 8640
<<output omitted>>
Hardmax ou Hard Buffers est la quantité de Buffer toujours réservée et disponible pour cette file d'attente.
Softmax ou Soft Buffers est la quantité de tampon qui peut être empruntée à d'autres files d'attente ou pool global. Le nombre total de tampons softmax par interface 1Gig est de 1200 (400 % sur 300) et de 7200 si c'est une interface 10Gig. Lorsque nous appliquons une stratégie de service, il y aura 1 file d'attente supplémentaire créée pour « Classe par défaut » si elle n'est pas explicitement créée. Tout le trafic qui ne correspond pas aux classes précédemment définies se trouve dans cette file d'attente. Il ne peut y avoir aucune instruction de correspondance sous cette file d'attente.
Afin de régler les tampons dans la plate-forme 3650/3850, nous devons attacher une stratégie de service sous l'interface respective. nous pouvons ajuster l'allocation de tampon Hardmax et Softmax à l'aide de la stratégie de service.
Calculs de tampon dur et de tampon logiciel :
C'est ainsi que le système alloue softmax et hardmax pour chaque file d'attente.
Tampon de port total = 300 (1G) ou 1800 (10G)
S'il y a un total de 5 files d'attente (5 classes), chaque file d'attente obtient 20 % de tampon par défaut.
File d'attente prioritaire :
1Gig :
HardMax = Oper_Buff = 20% de 300 = 60.
qSoftMax = (Oper_Buff * Max_Threshold)/100=60*400/100=240
10 Gig
HardMax = Oper_Buff = 20 % sur 1 800 = 360
qsoftMax = (Oper_Buff * Max_Threshold)/100 = 360*400/100= 1 440
File d'attente non prioritaire :
1Gig :
HardMax = 0
qSoftMax = (Oper_Buffer*Max_Threshold)/100 = 300*20/100= 60. 400 % sur 60 = 240
10Gig :
HardMax = 0
qSoftMax = (Oper_Buffer*Max_Threshold)/100 = 1800*20/100= 360. 400 % sur 360 = 1 440
si une stratégie de service est appliquée, seule la file d'attente prioritaire avec le niveau 1/2 obtient le Hardmax. Les exemples ci-dessous aideront à clarifier l'allocation de tampon pour une politique de service spécifique dans les interfaces 1Gig et 10Gig.
Comme nous le savons, avec la configuration par défaut où vous n'avez appliqué aucune stratégie de service, la file d'attente-0 obtient le Hardmax par défaut de 120 si la liaison est une liaison 1Gig et des tampons 720 si la liaison est une liaison 10Gig.
3850#show platform qos queue config gig 1/0/1 DATA Port:0 GPN:119 AFD:Disabled QoSMap:0 HW Queues: 0 - 7 DrainFast:Disabled PortSoftStart:1 - 1080 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 5 120 6 480 6 320 0 0 3 1440 1 1 4 0 7 720 3 480 2 180 3 1440 2 1 4 0 5 0 5 0 0 0 3 1440
<<output omitted>>
3850#show platform qos queue config tenGigabitEthernet 1/0/37
DATA Port:1 GPN:37 AFD:Disabled QoSMap:0 HW Queues: 8 - 15
DrainFast:Disabled PortSoftStart:2 - 6480
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 720 8 2880 7 1280 0 0 4 8640
1 1 4 0 9 4320 8 1920 3 1080 4 8640
2 1 4 0 5 0 5 0 0 0 4 8640
<<output omitted>>
Lors de l'application d'une stratégie de service, si vous ne configurez pas de file d'attente prioritaire ou si vous ne définissez pas de niveau de file d'attente prioritaire, aucun hardmax n'est affecté à cette file d'attente
Pour une interface 1Gig :
policy-map MYPOL
class ONE
priority percent 20
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
3800#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 360
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 240 7 160 3 60 4 480
1 1 4 0 8 240 7 160 3 60 4 480
2 1 4 0 8 240 7 160 3 60 4 480
3 1 4 0 8 240 7 160 3 60 4 480
4 1 4 0 8 240 7 160 3 60 4 480
<<output omitted>>
Note: There are 5 classes present though you only created 4 classes. The 5th class is
the default class.
Each class represent a queue and the order in which it is shown is the order in which
it is present in the running configuration when checking "show run | sec policy-map".
Pour une interface 10Gig :
policy-map MYPOL class ONE priority percent 20 class TWO bandwidth percent 40 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 3850#show run int TenGig1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850#sh platform qos queue config te 1/0/40 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 2160 ----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 10 1440 9 640 4 360 5 2880
1 1 4 0 10 1440 9 640 4 360 5 2880
2 1 4 0 10 1440 9 640 4 360 5 2880
3 1 4 0 10 1440 9 640 4 360 5 2880
4 1 4 0 10 1440 9 640 4 360 5 2880
5 1 4 0 5 0 5 0 0 0 5 2880 <<output omitted>>
Lorsque vous appliquez « priority level 1 », la file d'attente 0 obtient 60 mémoires tampon comme Hardmax. Il y a un peu de maths derrière cela et il a été expliqué dans la section de calcul SoftMax et HardMax plus tôt.
Pour une interface 1Gig :
policy-map MYPOL
class ONE
priority level 1 percent 20
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
BGL.L.13-3800-1#sh platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 360
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 60 8 240 7 160 0 0 4 480
1 1 4 0 8 240 7 160 3 60 4 480
2 1 4 0 8 240 7 160 3 60 4 480
3 1 4 0 8 240 7 160 3 60 4 480
4 1 4 0 8 240 7 160 3 60 4 480
<<output omitted>>
Pour une interface 10Gig :
policy-map MYPOL class ONE priority level 1 percent 20 class TWO bandwidth percent 40 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 3850#show run int Te1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850_1# sh platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:3 - 2160 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 7 360 10 1440 9 640 0 0 5 2880 1 1 4 0 10 1440 9 640 4 360 5 2880 2 1 4 0 10 1440 9 640 4 360 5 2880 3 1 4 0 10 1440 9 640 4 360 5 2880 4 1 4 0 10 1440 9 640 4 360 5 2880 5 1 4 0 5 0 5 0 0 0 5 2880 <<output omitted>>
Pour ce 3e exemple, je vais ajouter une classe supplémentaire. maintenant, le nombre total de files d'attente devient 6. Avec 2 niveaux de priorité configurés, chaque file d'attente obtient 51 tampons comme Hardmax. Les calculs sont identiques à ceux de l'exemple précédent.
Pour l'interface 1Gig :
policy-map MYPOL
class ONE
priority level 1 percent 20
class TWO
priority level 2 percent 10
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
class FIVE
bandwidth percent 10
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:16 GPN:10 AFD:Disabled QoSMap:1 HW Queues: 128 - 135
DrainFast:Disabled PortSoftStart:3 - 306
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 7 51 10 204 9 136 0 0 5 408
1 1 7 51 10 204 9 136 0 0 5 408
2 1 4 0 10 204 9 136 4 51 5 408
3 1 4 0 10 204 9 136 4 51 5 408
4 1 4 0 11 192 10 128 5 48 5 408
5 1 4 0 11 192 10 128 5 48 5 408
6 1 4 0 5 0 5 0 0 0 5 408
<<output omitted>>
Pour une interface 10Gig :
policy-map MYPOL class ONE priority level 1 percent 20 class TWO priority level 2 percent 10 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 class FIVE bandwidth percent 10 3850#show run int Te1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850_2#sh platform qos queue config te 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 1836 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 8 306 12 1224 11 544 0 0 6 2448 1 1 8 306 12 1224 11 544 0 0 6 2448 2 1 4 0 12 1224 11 544 6 306 6 2448 3 1 4 0 12 1224 11 544 6 306 6 2448 4 1 4 0 13 1152 12 512 7 288 6 2448 5 1 4 0 13 1152 12 512 7 288 6 2448 6 1 4 0 5 0 5 0 0 0 6 2448 <<output omitted>>
Remarque : vous pouvez parfois voir moins de mémoires tampon allouées à quelques files d'attente. Cela est attendu car les valeurs ne peuvent pas s'insérer dans le calcul Softmax pour la file d'attente prioritaire et la file d'attente non prioritaire lors de certaines combinaisons de configurations.
En résumé, plus vous créez de files d'attente, moins chaque file d'attente reçoit de tampons en termes de Hardmax et softmax (comme Hardmax dépend également de la valeur Softmax).
Note: À partir de 3.6.3 ou 3.7.2, la valeur maximale pour softmax peut être modifiée à l'aide d'une commande CLI : « qos queue-softmax-multiplicateur 1200 », 100 étant la valeur par défaut. Si elle est configurée comme 1200, la valeur softmax pour les files d'attente non prioritaires et les files d'attente de priorité non primaire (!=niveau 1) est multipliée par 12 à partir de leurs valeurs par défaut. Cette commande ne prend effet que sur les ports où une carte-politique est connectée. il ne s'applique pas non plus au niveau de file d'attente prioritaire 1.
La configuration de la stratégie de service et l'allocation de tampon correspondante sont indiquées ci-dessous
policy-map TEST_POLICY
class ONE
priority level 1 percent 40
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output TEST_POLICY
end
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 450
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 75 8 300 7 200 0 0 4 600
1 1 4 0 8 300 7 200 3 75 4 600
2 1 4 0 8 300 7 200 3 75 4 600
3 1 4 0 8 300 7 200 3 75 4 600
<<output omitted>>
Les tampons sont également répartis entre les files d'attente. L'utilisation de la commande bandwidth ne fait que modifier le poids de chaque file d'attente et, par conséquent, la manière dont le planificateur agira sur celle-ci.
Pour ajuster la valeur softmax, vous devez utiliser la commande « Queue-buffer ratio » sous la classe respective.
policy-map TEST_POLICY class ONE priority level 1 percent 40 class TWO bandwidth percent 40 queue-buffers ratio 50 <--------------- class THREE bandwidth percent 10 class FOUR bandwidth percent 5
Les nouvelles allocations de tampon sont les suivantes :
Pour l'interface 1gig :
3850#show platform qos queue conf gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 39 8 156 7 104 0 0 0 1200
1 1 4 0 9 600 8 400 3 150 0 1200
2 1 4 0 8 156 7 104 4 39 0 1200
3 1 4 0 10 144 9 96 5 36 0 1200
4 1 4 0 10 144 9 96 5 36 0 1200
Maintenant, queue-1 obtient 50 % du tampon logiciel, c'est-à-dire : 600 tampons. les mémoires tampon restantes sont allouées aux autres files d'attente conformément à l'algorithme.
La sortie similaire pour une interface 10 gig est la suivante :
3850#sh platform qos queue config te 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 1836 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 7 234 10 936 9 416 0 0 5 7200 1 1 4 0 11 3600 10 1600 4 900 5 7200 2 1 4 0 10 936 9 416 5 234 5 7200 3 1 4 0 4 864 11 384 1 216 5 7200 4 1 4 0 4 864 11 384 1 216 5 7200 5 1 4 0 5 0 5 0 0 0 5 7200 <<output omitted>>
Note: parfois, vous verrez moins de mémoires tampon allouées à quelques files d'attente. Cela est attendu car les valeurs ne peuvent pas s'insérer dans le calcul Softmax pour la file d'attente prioritaire et la file d'attente non prioritaire lors de certaines combinaisons de configurations. Il y a un algorithme interne qui s'en occupe.
Attribution de la totalité de la mémoire tampon softmax à la file d'attente par défaut unique
policy-map NODROP class class-default bandwidth percent 100 queue-buffers ratio 100
Les résultats de la configuration QOS sont les suivants :
3850#show platfo qos queue config GigabitEthernet 1/1/1 DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175 DrainFast:Disabled PortSoftStart:0 - 900 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 4 0 8 1200 7 800 3 300 2 2400 1 1 4 0 5 0 5 0 0 0 2 2400
Il n'y a pas de tampon Hardmax puisque la stratégie est appliquée à une interface et qu'elle n'a pas de file d'attente prioritaire avec le « niveau » défini.
Dès que vous appliquez le policy-map, la 2ème file d'attente est désactivée, ne laissant qu'une file d'attente dans le système.
La mise en garde ici est que tous les paquets vont utiliser cette file d'attente unique (y compris les paquets de contrôle comme OSPF/EIGRP/STP).
En cas d'encombrement (tempête de diffusion, etc.), cela peut facilement perturber le réseau.
Ceci est vrai si d'autres classes sont définies mais ne correspondent pas aux paquets de contrôle.
Pour ce test, le générateur de trafic IXIA est connecté à une interface 1Gig et le port de sortie est une interface de 100 Mbits/s. Il s'agit d'une connexion de 1 Gbit/s à 100 Mbit/s et une rafale de 1 Gig de paquets est envoyée pendant 1 seconde. Cela entraînera une perte de sortie sur l'interface de sortie 100 Mbits/s.
Avec la configuration par défaut (aucune stratégie de service appliquée), le nombre de pertes de sortie après l'envoi d'un flux est indiqué ci-dessous
3850#show interfaces gig1/0/1 | in output drop Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 497000
Ces pertes sont visibles dans Th2, qui est le seuil par défaut. Par défaut, le système utilisera le seuil max comme seuil de rejet, qui est Drop-Th2.
3800#show platform qos queue stats gigabitEthernet 1/0/1 <snip> DATA Port:21 Drop Counters ------------------------------- Queue Drop-TH0 Drop-TH1 Drop-TH2 SBufDrop QebDrop ----- ----------- ----------- ----------- ----------- ----------- 0 0 0 497000 0 0 1 0 0 0 0 0
Après avoir configuré la stratégie de service suivante pour ajuster la mémoire tampon,
policy-map TEST_POLICY
class class-default
bandwidth percent 100
queue-buffers ratio 100
3850#show runn int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output TEST_POLICY
end
3850#sh platform qos queue config gigabitEthernet 2/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 1200 7 800 3 300 2 2400 <-- queue 0 gets all the buffer.
3850#show interfaces gig1/0/1 | in output drop
Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 385064
Les chutes ont été réduites de 497000 à 385064 pour une même rafale de trafic. pourtant, il y a encore des chutes.
Après avoir configuré la commande de configuration globale « qos queue-softmax-multiplicateur 1200 ».
3850#sh platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 10000 7 800 3 300 2 10000
3850#show interfaces gig1/0/1 | in output drop
Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 0
Maintenant, le softmax pour queue-0 peut aller jusqu'à 10 000 tampons et par conséquent, les pertes sont Zéro.
Note: Dans la vie réelle, ce type de scénario peut ne pas être possible car d'autres interfaces peuvent également utiliser la mémoire tampon, mais cela peut aider à réduire les pertes de paquets à un certain niveau.
La mémoire tampon logicielle maximale disponible pour une interface peut être augmentée à l'aide de cette commande. Cependant, vous devez également garder à l'esprit que cette fonctionnalité n'est disponible que si aucune autre interface n'utilise ces mémoires tampon.
1. Lorsque vous créez plus de files d'attente, vous obtenez moins de tampon pour chaque file d'attente.
2. Le nombre total de tampons disponibles peut être augmenté à l'aide de la commande « qos queue-softmax-multiplicateur X ».
3. Si vous ne définissez qu'une seule classe par défaut, afin de régler le tampon, tout le trafic tombe sous la file d'attente unique (y compris les paquets de contrôle). Notez que lorsque tout le trafic est mis dans une file d'attente, il n'y a aucune classification entre le trafic de contrôle et le trafic de données et que, pendant la congestion, le trafic de contrôle peut être abandonné. Il est donc recommandé de créer au moins 1 autre classe pour le trafic de contrôle. Les paquets de contrôle générés par le processeur vont toujours à la file d'attente de première priorité même si elle n'est pas mise en correspondance dans la carte-classe. Si aucune file d'attente prioritaire n'est configurée, elle accède à la première file d'attente de l'interface, qui est queue-0.
4. Avant CSCuu14019, les interfaces n'afficheront pas de compteurs de perte de sortie. vous devez exécuter la sortie « show platform qos queue stats » pour vérifier les pertes.
5. Une demande d'amélioration, CSCuz86625, a été envoyée pour nous permettre de configurer le multiplicateur soft-max sans utiliser de stratégie de service.(Résolu en 3.6.6 et plus)