Avez-vous un compte?
Cisco a traduit ce document en traduction automatisée vérifiée par une personne dans le cadre d’un service mondial permettant à nos utilisateurs d’obtenir le contenu d’assistance dans leur propre langue. Il convient cependant de noter que même la meilleure traduction automatisée ne sera pas aussi précise que celle fournie par un traducteur professionnel.
Le document aidera à fournir une compréhension de la structure et des mémoires tampons de file d'attente sur la plate-forme du Catalyst 3650/3850. Il fournit également l'exemple sur la façon dont des suppressions de sortie peuvent être atténuées dans une certaine mesure.
Les suppressions de sortie sont généralement un résultat de surabonnement d'interface provoqué par beaucoup à un ou des 10gig au transfert 1gig. Les mémoires tampons d'interface sont une ressource limitée et peuvent seulement absorber une rafale jusqu'à un certain point après quoi les paquets relâcheront. L'accord des mémoires tampons peut te donner un certain coussin mais il ne peut pas garantir un scénario zéro de suppression de sortie.
Il est recommandé pour exécuter 03.06 ou dernière version 03.07's pour obtenir des allocations appropriées de mémoire tampon dues à quelques bogues connu en codes plus anciens.
Cisco recommande que vous ayez la connaissance de base de QoS sur la plate-forme Catalyst.
Les informations contenues dans ce document sont basées sur les versions de matériel et de logiciel suivantes :
Traditionnellement, des mémoires tampons sont statiquement allouées pour chaque file d'attente, et à mesure que vous augmentez le nombre de files d'attente la quantité de mémoires tampons réservées diminue. C'était inefficace et a pu mener à ne pas avoir assez de mémoires tampons pour manipuler des trames pour toutes les files d'attente. ?
Pour venir à bout ce type de limite, la plate-forme du Catalyst 3650/3850 utilise les mémoires tampons dures et les mémoires tampons molles.
Mémoires tampons dures : C'est la mémoire tampon réservée minimum pour les files d'attente spécifiques. Si une file d'attente spécifique n'utilise pas les mémoires tampons, elle n'est pas disponible pour d'autres files d'attente.
Mémoires tampons molles : Ces mémoires tampons sont assignées à une file d'attente mais peuvent être partagées par d'autres files d'attente et interfaces si elle n'est pas utilisée.
L'allocation par défaut de mémoire tampon sans la service-stratégie est appliquée :
L'allocation par défaut de mémoire tampon pour un port 1GB est 300 mémoires tampons et pour un port 10GB, c'est 1800 mémoires tampons (1 mémoire tampon = 256 octets). Le port peut utiliser jusqu'à 400% du par défaut alloué du pool commun avec des valeurs par défaut, qui est 1200 mémoires tampons et 7200 mémoires tampons pour 1 interface GIG et 10Gig relient respectivement.
La limite douce par défaut de mémoire tampon est fixée à 400 (qui est le seuil maximum). Le seuil déterminerait le nombre maximal de mémoires tampons molles qui peuvent être empruntées au pool commun.
Quand aucune service-stratégie n'est appliquée, il y a 2 files d'attente par défaut (file d'attente 0 et file d'attente 1). Le queue-0 est utilisé pour le trafic de contrôle (le DSCP 32 ou 48 ou 56) et queue-1 est utilisé pour le trafic de données.
Par défaut, la file d'attente 0 sera donnée 40% des mémoires tampons qui sont disponibles pour l'interface en tant que ses mémoires tampons dures. c.-à-d. 120 mémoires tampons sont allouées pour la file d'attente 0 dans le cadre des ports 1G ; 720 mémoires tampons dans le cadre des ports 10G. Le softmax, les mémoires tampons molles maximum, parce que cette file d'attente est placé à 480 (calculé en tant que 400% de 120) pour les ports 1GB et à 2880 pour les ports 10GB, où 400 est le seuil maximum par défaut qui est configuré pour n'importe quelle file d'attente.
La file d'attente 1 n'a aucune mémoire tampon dure allouée. La valeur de mémoire tampon douce pour queue-1 est calculée comme 400% de la mémoire tampon restante de l'interface après avoir été alloué à queue-0. Ainsi, il est 400% de 180 pour l'interface 1Gig et 400% de 1800 pour une interface 10Gig.
La commande show qui peut être utilisée pour voir cette allocation est « <interface> de config de file d'attente de show platform qos ».
Pour une interface 1Gig,
3850#show platform qos queue config gigabitEthernet 1/0/1 DATA Port:20 GPN:66 AFD:Disabled QoSMap:0 HW Queues: 160 - 167 DrainFast:Disabled PortSoftStart:1 - 1080 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 5 120 6 480 6 320 0 0 3 1440 1 1 4 0 7 720 3 480 2 180 3 1440 2 1 4 0 5 0 5 0 0 0 3 1440 3 1 4 0 5 0 5 0 0 0 3 1440 4 1 4 0 5 0 5 0 0 0 3 1440 5 1 4 0 5 0 5 0 0 0 3 1440 6 1 4 0 5 0 5 0 0 0 3 1440 7 1 4 0 5 0 5 0 0 0 3 1440 <<output omitted>>
Pour une interface 10Gig,
3850#show platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:1 GPN:37 AFD:Disabled QoSMap:0 HW Queues: 8 - 15 DrainFast:Disabled PortSoftStart:2 - 6480 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 6 720 8 2880 7 1280 0 0 4 8640 1 1 4 0 9 4320 8 1920 3 1080 4 8640 2 1 4 0 5 0 5 0 0 0 4 8640 3 1 4 0 5 0 5 0 0 0 4 8640 4 1 4 0 5 0 5 0 0 0 4 8640
<<output omitted>>
Hardmax ou mémoires tampons dures est la quantité de mémoire tampon qui est toujours réservée et disponible pour ceci file d'attente.
Softmax ou mémoires tampons molles est la quantité de mémoire tampon qui peut être empruntée aux autres files d'attente ou pool global. Le nombre total de softmax par interface 1Gig est 1200 (400% de 300) et 7200 mémoires tampons si c'est un inrerface 10Gig. Quand nous appliquons une service-stratégie, il y aura 1 file d'attente supplémentaire créée pour le « par défaut de classe » sinon explicitement créé. Tout le trafic qui ne s'assortissent pas sous les classes précédemment définies tombent sous cette file d'attente. Il ne peut pas y avoir aucune déclaration de correspondance sous cette file d'attente.
Afin de tordre les mémoires tampons dans 3650/3850 plate-forme, nous devons relier une stratégie de service sous l'interface respective. nous pouvons allocation tordre de Hardmax et de Softmax mémoire tampon utilisant la service-stratégie.
Mémoire tampon dure et calculs doux de mémoire tampon :
C'est comment le système alloue le softmax et le hardmax pour chaque file d'attente.
Tampon de port total = 300 (1G) ou 1800 (10G)
S'il y a un total de 5 files d'attente (5 classes), chaque file d'attente obtient la mémoire tampon de 20% par défaut.
File d'attente prioritaire :
1Gig :
HardMax = Oper_Buff = 20% de 300 = de 60.
qSoftMax = (Oper_Buff * Max_Threshold)/100=60*400/100=240
10Gig
HardMax = Oper_Buff = 20% de 1800 = de 360
qsoftMax = (Oper_Buff * Max_Threshold)/100 = 360*400/100= 1440
File d'attente non-prioritaire :
1Gig :
HardMax = 0
qSoftMax = (Oper_Buffer*Max_Threshold)/100 = 300*20/100= 60. 400% de 60 = de 240
10Gig :
HardMax = 0
qSoftMax = (Oper_Buffer*Max_Threshold)/100 = 1800*20/100= 360. 400% de 360 = de 1440
si une service-stratégie est appliquée, seulement la « file d'attente prioritaire avec le niveau 1/2" obtient le Hardmax. Au-dessous des exemples aidera à clarifier l'allocation de mémoire tampon pour la stratégie de service specfic dans l'interface 1Gig et l'interface 10Gig.
Comme nous savons, avec la configuration par défaut où vous n'avez appliqué aucune stratégie de service, le queue-0 obtient Hardmax par défaut de 120 si le lien est un lien 1Gig et 720 mémoires tampons si le lien est un lien 10Gig.
3850#show platform qos queue config gig 1/0/1 DATA Port:0 GPN:119 AFD:Disabled QoSMap:0 HW Queues: 0 - 7 DrainFast:Disabled PortSoftStart:1 - 1080 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 5 120 6 480 6 320 0 0 3 1440 1 1 4 0 7 720 3 480 2 180 3 1440 2 1 4 0 5 0 5 0 0 0 3 1440
<<output omitted>>
3850#show platform qos queue config tenGigabitEthernet 1/0/37
DATA Port:1 GPN:37 AFD:Disabled QoSMap:0 HW Queues: 8 - 15
DrainFast:Disabled PortSoftStart:2 - 6480
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 720 8 2880 7 1280 0 0 4 8640
1 1 4 0 9 4320 8 1920 3 1080 4 8640
2 1 4 0 5 0 5 0 0 0 4 8640
<<output omitted>>
Tandis que l'application d'une service-stratégie, si vous ne configurez pas une file d'attente prioritaire ou si vous ne placez pas un niveau de file d'attente prioritaire, là ne sera aucun hardmax assigné à cette file d'attente
Pour une interface 1Gig :
policy-map MYPOL
class ONE
priority percent 20
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
3800#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 360
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 240 7 160 3 60 4 480
1 1 4 0 8 240 7 160 3 60 4 480
2 1 4 0 8 240 7 160 3 60 4 480
3 1 4 0 8 240 7 160 3 60 4 480
4 1 4 0 8 240 7 160 3 60 4 480
<<output omitted>>
Note: There are 5 classes present though you only created 4 classes. The 5th class is
the default class.
Each class represent a queue and the order in which it is shown is the order in which
it is present in the running configuration when checking "show run | sec policy-map".
Pour une interface 10Gig :
policy-map MYPOL class ONE priority percent 20 class TWO bandwidth percent 40 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 3850#show run int TenGig1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850#sh platform qos queue config te 1/0/40 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 2160 ----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 10 1440 9 640 4 360 5 2880
1 1 4 0 10 1440 9 640 4 360 5 2880
2 1 4 0 10 1440 9 640 4 360 5 2880
3 1 4 0 10 1440 9 640 4 360 5 2880
4 1 4 0 10 1440 9 640 4 360 5 2880
5 1 4 0 5 0 5 0 0 0 5 2880 <<output omitted>>
Quand vous appliquez le « niveau de priorité 1", le queue-0 obtient 60 mémoires tampons comme Hardmax. Il y a un peu de calcul derrière ceci et il a été expliqué section dans de SoftMax et de HardMax calcul plus tôt.
Pour une interface 1Gig :
policy-map MYPOL
class ONE
priority level 1 percent 20
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
BGL.L.13-3800-1#sh platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 360
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 60 8 240 7 160 0 0 4 480
1 1 4 0 8 240 7 160 3 60 4 480
2 1 4 0 8 240 7 160 3 60 4 480
3 1 4 0 8 240 7 160 3 60 4 480
4 1 4 0 8 240 7 160 3 60 4 480
<<output omitted>>
Pour une interface 10Gig :
policy-map MYPOL class ONE priority level 1 percent 20 class TWO bandwidth percent 40 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 3850#show run int Te1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850_1# sh platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:3 - 2160 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 7 360 10 1440 9 640 0 0 5 2880 1 1 4 0 10 1440 9 640 4 360 5 2880 2 1 4 0 10 1440 9 640 4 360 5 2880 3 1 4 0 10 1440 9 640 4 360 5 2880 4 1 4 0 10 1440 9 640 4 360 5 2880 5 1 4 0 5 0 5 0 0 0 5 2880 <<output omitted>>
Pour cet 3ème exemple, je vais ajouter une classe supplémentaire. maintenant le nombre total de files d'attente devient 6. Les 2 niveaux de priorité étant configuré, chaque file d'attente obtient 51 mémoires tampons comme Hardmax. Le calcul correspond l'exemple précédent.
Pour l'interface 1Gig :
policy-map MYPOL
class ONE
priority level 1 percent 20
class TWO
priority level 2 percent 10
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
class FIVE
bandwidth percent 10
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:16 GPN:10 AFD:Disabled QoSMap:1 HW Queues: 128 - 135
DrainFast:Disabled PortSoftStart:3 - 306
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 7 51 10 204 9 136 0 0 5 408
1 1 7 51 10 204 9 136 0 0 5 408
2 1 4 0 10 204 9 136 4 51 5 408
3 1 4 0 10 204 9 136 4 51 5 408
4 1 4 0 11 192 10 128 5 48 5 408
5 1 4 0 11 192 10 128 5 48 5 408
6 1 4 0 5 0 5 0 0 0 5 408
<<output omitted>>
Pour une interface 10Gig :
policy-map MYPOL class ONE priority level 1 percent 20 class TWO priority level 2 percent 10 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 class FIVE bandwidth percent 10 3850#show run int Te1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850_2#sh platform qos queue config te 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 1836 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 8 306 12 1224 11 544 0 0 6 2448 1 1 8 306 12 1224 11 544 0 0 6 2448 2 1 4 0 12 1224 11 544 6 306 6 2448 3 1 4 0 12 1224 11 544 6 306 6 2448 4 1 4 0 13 1152 12 512 7 288 6 2448 5 1 4 0 13 1152 12 512 7 288 6 2448 6 1 4 0 5 0 5 0 0 0 6 2448 <<output omitted>>
Remarque: Parfois vous pouvez voir moins de mémoires tampons allouées à peu de files d'attente. Ceci est prévu car l'adaptation biseautée de valeurs dans le calcul de Softmax pour la file d'attente prioritaire et la file d'attente non-prioritaire pendant certaine combinaison des configurations.
En résumé, plus que vous créez files d'attente, moins les mémoires tampons chaque file d'attente obtient en termes de Hardmax et softmax (car Hardmax dépend également de la valeur de Softmax).
Note: À partir de 3.6.3 ou de 3.7.2, la valeur maximale pour le softmax peut être modifiée utilisant une commande CLI : « file d'attente-softmax-multiplicateur 1200" de qos, avec 100 étant valeur par défaut. Si configuré en tant que 1200, le softmax pour les files d'attente non-prioritaires et file d'attente prioritaire non-primaire (! le =level 1) sont multipliés par 12 de leurs valeurs par défaut. Cette commande la prendrait effet seulement sur les ports où un policy-map est relié. ce s'applique également pas applicable pour le niveau 1. de file d'attente prioritaire.
La configuration de politique de service et l'allocation correspondante de mémoire tampon est affichée ci-dessous
policy-map TEST_POLICY
class ONE
priority level 1 percent 40
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
3850#show run int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output TEST_POLICY
end
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 450
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 75 8 300 7 200 0 0 4 600
1 1 4 0 8 300 7 200 3 75 4 600
2 1 4 0 8 300 7 200 3 75 4 600
3 1 4 0 8 300 7 200 3 75 4 600
<<output omitted>>
Les mémoires tampons sont également séparées à travers les files d'attente. Utilisant la commande bandwidth seule modification le poids pour chaque file d'attente et également comment le programmateur agira là-dessus.
Pour tordre la valeur de softmax, vous devez utiliser la commande « de rapport de File d'attente-mémoire tampon » sous la classe respective.
policy-map TEST_POLICY class ONE priority level 1 percent 40 class TWO bandwidth percent 40 queue-buffers ratio 50 <--------------- class THREE bandwidth percent 10 class FOUR bandwidth percent 5
Les nouvelles allocations de mémoire tampon sont :
Pour l'interface 1gig :
3850#show platform qos queue conf gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 39 8 156 7 104 0 0 0 1200
1 1 4 0 9 600 8 400 3 150 0 1200
2 1 4 0 8 156 7 104 4 39 0 1200
3 1 4 0 10 144 9 96 5 36 0 1200
4 1 4 0 10 144 9 96 5 36 0 1200
Maintenant, queue-1 obtient 50% de la mémoire tampon molle, c.-à-d. : 600 mémoires tampons. les mémoires tampons restantes sont allouées aux autres files d'attente selon l'algorithme.
La sortie semblable pour une interface 10-gig est :
3850#sh platform qos queue config te 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 1836 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 7 234 10 936 9 416 0 0 5 7200 1 1 4 0 11 3600 10 1600 4 900 5 7200 2 1 4 0 10 936 9 416 5 234 5 7200 3 1 4 0 4 864 11 384 1 216 5 7200 4 1 4 0 4 864 11 384 1 216 5 7200 5 1 4 0 5 0 5 0 0 0 5 7200 <<output omitted>>
Remarque: parfois vous pouvez voir moins de mémoires tampons allouées à peu de files d'attente. Ceci est prévu car l'adaptation biseautée de valeurs dans le calcul de Softmax pour la file d'attente prioritaire et la file d'attente non-prioritaire pendant certaine combinaison des configurations. Il y a un algorithme interne qui prend soin de lui.
Allouer toute la mémoire tampon de softmax à la file d'attente par défaut simple
policy-map NODROP class class-default bandwidth percent 100 queue-buffers ratio 100
Les résultats de config QOS sont comme suit :
3850#show platfo qos queue config GigabitEthernet 1/1/1 DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175 DrainFast:Disabled PortSoftStart:0 - 900 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 4 0 8 1200 7 800 3 300 2 2400 1 1 4 0 5 0 5 0 0 0 2 2400
Il n'y a aucune mémoire tampon de Hardmax puisque la stratégie est appliquée à une interface et elle n'a aucune file d'attente prioritaire avec « de niveau » réglé.
Dès que vous appliquerez le policy-map, la 2ème file d'attente obtient handicapé laissant seulement 1 file d'attente dans le système.
La mise en garde ici est que tous les paquets vont utiliser cette file d'attente simple (paquets de contrôle y compris comme OSPF/EIGRP/STP).
Pendant la période de l'encombrement (saturation de diffusion etc.), ceci peut facilement entraîner l'interruption du réseau.
C'est vrai si vous avez d'autres classes définies mais n'appariant pas les paquets de contrôle.
Pour ce test, le genertor du trafic d'IXIA est connecté à l'interface 1Gig et le port de sortie est interface de 100 Mbits/s. C'est un 1Gbps à la connexion de 100 Mbits/s et une rafale de 1 yole des paquets sont envoyées pour 1 seconde. Ceci entraînera la suppression de sortie sur l'interface du de sortie 100mbps.
Avec le config par défaut (aucune service-stratégie appliquée), le nombre de suppressions de sortie après envoi de 1 flot est affiché ci-dessous
3850#show interfaces gig1/0/1 | in output drop Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 497000
Ces baisses sont vues dans Th2, qui est le seuil par défaut. Par le par défaut, le système utilisera le seuil maximum comme seuil de baisse qui est Drop-Th2.
3800#show platform qos queue stats gigabitEthernet 1/0/1 <snip> DATA Port:21 Drop Counters ------------------------------- Queue Drop-TH0 Drop-TH1 Drop-TH2 SBufDrop QebDrop ----- ----------- ----------- ----------- ----------- ----------- 0 0 0 497000 0 0 1 0 0 0 0 0
Après avoir configuré la service-stratégie suivante pour tordre la mémoire tampon,
policy-map TEST_POLICY
class class-default
bandwidth percent 100
queue-buffers ratio 100
3850#show runn int gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output TEST_POLICY
end
3850#sh platform qos queue config gigabitEthernet 2/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 1200 7 800 3 300 2 2400 <-- queue 0 gets all the buffer.
3850#show interfaces gig1/0/1 | in output drop
Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 385064
Les baisses ont réduit de 497000 à 385064 pour une même rafale du trafic. néanmoins, il restent des baisses.
Après avoir configuré « la configuration globale du file d'attente-softmax-multiplicateur 1200" de qos commandez.
3850#sh platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 10000 7 800 3 300 2 10000
3850#show interfaces gig1/0/1 | in output drop
Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 0
Maintenant, le softmax pour queue-0 peut disparaître jusqu'à 10,000 mémoires tampons et en conséquence, les baisses sont zéro.
Remarque: Dans la vie réelle, ce genre de scénario ne peut pas être possible pendant que d'autres interfaces peuvent également utiliser la mémoire tampon, mais, ceci peut certainement aider en ramenant les pertes de paquets à un certain niveau.
La mémoire tampon molle maximum disponible pour une interface peut être augmentée utilisant cette commande cependant, vous devrait également maintenir dans l'esprit que c'est disponible seulement si aucune autre interface n'utilise ces mémoires tampons.
1. Quand vous créez plus de files d'attente, vous obtenez moins de mémoire tampon pour chaque file d'attente.
2. Le nombre total de mémoires tampons disponibles peut être augmenté utilisant des « qos commande du file d'attente-softmax-multiplicateur X ».
3. Si vous définissez seulement 1 classe-par défaut, afin de tordre la mémoire tampon, tout le trafic tombe sous la file d'attente simple (paquets de contrôle y compris). Soyez informé que quand tout le trafic est mis dans une file d'attente, il n'y a aucune classification entre le contrôle et le trafic de données et pendant la période de l'encombrement, le trafic de contrôle pourrait obtenir relâché. Ainsi, il est recommandé pour créer au moins la 1 autre classe pour le trafic de contrôle. Les paquets de contrôle générés par CPU iront toujours à la première file d'attente prioritaire même si non apparié dans le class-map. S'il n'y a aucune file d'attente prioritaire configurée, elle irait à la première file d'attente de l'interface, qui est queue-0.
4. Avant CSCuu14019, les interfaces n'afficheront pas des compteurs de « suppression de sortie ». vous devez exécuter la sortie « de stats de file d'attente de show platform qos » pour vérifier des baisses.
5. Une demande d'amélioration, CSCuz86625, a été soumise de nous permettre de configurer le multiplicateur doux-maximum sans utiliser n'importe quelle service-stratégie. (Résolu dans 3.6.6 et ci-dessus)