Асинхронный режим передачи (ATM) : Управление ATM-трафиком

Устранение неполадок при сбросе выходных данных с формированием очередей по приоритету

5 апреля 2016 - Машинный перевод
Другие версии: PDF-версия:pdf | Английский (22 августа 2015) | Отзыв


Содержание


Введение

В этом документе приводятся советы по устранению неполадок с отбрасыванием на выходе, которые являются следствием приоритетной конфигурации механизма организации очередей на интерфейсе маршрутизатора.

Предварительные условия

Требования

Читатели данной документации должны быть знакомы с этими понятиями:

  • приоритетно - групповой или приоритетная группа frame-relay - Включает механизм постановки в очередь с установлением приоритетa традиционного синтаксиса Cisco. Поддерживает до четырех уровней очередей с приоритетами.

  • ip rtp priority или frame-relay ip rtp priority - Совпадают на Номерах порта UDP для Пакетов VoIP инкапсуляции трафика Протокола RTP и размещают эти пакеты в очередь с приоритетами.

  • приоритет - Активирует опцию организации очереди низкой задержки (LLQ) Cisco и использует структуру команды QoS Command-Line Interface модульного качества сервиса (CLI).

Маршрутизатор может сообщить об отбрасываниях выходных данных, когда любой из этих методов настроен, но существуют важные функциональные различия между методами и причиной для падений каждого случая.

Сведения, представленные в этом документе, были получены от устройств в специфической лабораторной среде. Все устройства, используемые в этом документе, были запущены с чистой конфигурацией (конфигурацией по умолчанию). В рабочей сети необходимо изучить потенциальное воздействие всех команд до их использования.

Используемые компоненты

Настоящий документ не имеет жесткой привязки к каким-либо конкретным версиям программного обеспечения и оборудования.

Сведения, представленные в этом документе, были получены от устройств в специфической лабораторной среде. Все устройства, используемые в этом документе, были запущены с чистой конфигурацией (конфигурацией по умолчанию). При работе с реальной сетью необходимо полностью осознавать возможные результаты использования всех команд.

Условные обозначения

Для получения дополнительной информации об условных обозначениях в документации обратитесь к Условным обозначениям, Используемым в Технических рекомендациях Cisco.

Отбрасывание пакетов на основании приоритетов ip rtp и LLQ

Руководство Конфигурации Cisco IOS предупреждает против отбрасываний выходных данных с этими механизмами постановки в очередь с установлением приоритетa:

  • iP: приоритет обработки данных в реальном времени (RTP): Поскольку команда ip rtp priority отдает абсолютный приоритет по другому трафику, это должно использоваться с осторожностью. В случае перегрузки, если трафик превышает установленную пропускную способность, весь лишний трафик отбрасывается.

  • приоритетная команда и LLQ: при определении приоритетной команды для класса она берет аргумент полосы пропускания, который дает максимальную пропускную способность. Когда пропускная способность превышена, в случае перегрузки применение политик используется для отбрасывания пакетов.

Эти два механизма используют встроенный инструмент создания политик для измерения потока трафика. Цель ограничителя - обеспечить все прочие очереди организацией с помощью планировщика. В возможности постановки в очередь с исходным приоритетом cisco, в которой используются команды priority-group и priority-list, планировщик всегда обслуживает первой очередь с наивысшим приоритетом. Если всегда был трафик в очереди с высоким приоритетом, низкоприоритетные очереди были исчерпаны ресурсы пропускной способности и пакетов, переходящих к неприоритетная последовательностям.

Выпадения при организации очереди по наследованному приоритету

Очередность приоритетов (PQ) является традиционным механизмом Cisco организации очередей по приоритету. Как показано ниже, PQ поддерживает до четырех уровней очередей: высокий, средний, нормальный и низкий.

/image/gif/paws/10105/pqpic.gif

Включение очередности с приоритетами в интерфейсе изменяет отображение очереди на выходе, как показано ниже. Перед очередностью приоритетов интерфейс Ethernet использует единую очередь задерживаемых исходящих данных, размер которой по умолчанию составляет 40 пакетов.

R6-2500# show interface ethernet0 
Ethernet0 is up, line protocol is up 
  Hardware is Lance, address is 0000.0c4e.59b1 (bia 0000.0c4e.59b1) 
  Internet address is 42.42.42.2/24 
  MTU 1500 bytes, BW 10000 Kbit, DLY 1000 usec, rely 255/255, load 1/255 
  Encapsulation ARPA, loopback not set, keepalive set (10 sec) 
  ARP type: ARPA, ARP Timeout 04:00:00 
  Last input 00:00:03, output 00:00:02, output hang never 
  Last clearing of "show interface" counters never 
  Queueing strategy: fifo 
  Output queue 0/40, 0 drops; input queue 0/75, 0 drops 
  5 minute input rate 0 bits/sec, 0 packets/sec 
  5 minute output rate 0 bits/sec, 0 packets/sec 
     239407 packets input, 22644297 bytes, 0 no buffer 
     Received 239252 broadcasts, 0 runts, 0 giants, 0 throttles 
     0 input errors, 0 CRC, 0 frame, 0 overrun, 0 ignored, 0 abort 
     0 input packets with dribble condition detected 
     374436 packets output, 31095372 bytes, 0 underruns 
     0 output errors, 1 collisions, 13 interface resets 
     0 babbles, 0 late collision, 8 deferred 
     0 lost carrier, 0 no carrier 
     0 output buffer failures, 0 output buffers swapped out

После включения PQ Интерфейс Ethernet теперь использует четыре очереди с приоритетами с переменными предельными размерами очереди, как показано в выходных данных ниже:

R6-2500(config)# interface ethernet0 
R6-2500(config-if)# priority-group 1 
R6-2500(config-if)# end 
R6-2500# show interface ethernet 0 
Ethernet0 is up, line protocol is up 
  Hardware is Lance, address is 0000.0c4e.59b1 (bia 0000.0c4e.59b1)
  Internet address is 42.42.42.2/24 
  MTU 1500 bytes, BW 10000 Kbit, DLY 1000 usec, rely 255/255, load 1/255 
  Encapsulation ARPA, loopback not set, keepalive set (10 sec)
  ARP type: ARPA, ARP Timeout 04:00:00 
  Last input 00:00:03, output 00:00:03, output hang never 
  Last clearing of "show interface" counters never 
  Input queue: 0/75/0 (size/max/drops); Total output drops: 0
  Queueing strategy: priority-list 1 
  Output queue (queue priority: size/max/drops): 
     high: 0/20/0, medium: 0/40/0, normal: 0/60/0, low: 0/80/0 
  5 minute input rate 0 bits/sec, 0 packets/sec 
  5 minute output rate 0 bits/sec, 0 packets/sec 
     239411 packets input, 22644817 bytes, 0 no buffer
     Received 239256 broadcasts, 0 runts, 0 giants, 0 throttles 
     0 input errors, 0 CRC, 0 frame, 0 overrun, 0 ignored, 0 abort 
     0 input packets with dribble condition detected 
     374440 packets output, 31095658 bytes, 0 underruns
     0 output errors, 1 collisions, 14 interface resets
     0 babbles, 0 late collision, 8 deferred 
     0 lost carrier, 0 no carrier 
     0 output buffer failures, 0 output buffers swapped out

Priority-list {list-number} команда используется для присвоения трафиков на определенную очередь. По мере поступления пакетов на интерфейс очереди, которым назначен приоритет, сканируются в поисках пакетов в убывающем порядке приоритетности. Очередь с высоким приоритетом просмотрена сначала, тогда очередь среднего приоритета, и т.д. Пакет во главе очереди наивысшего приоритета выбран для передачи. Эта процедура повторяется всякий раз после отправки пакета.

Любая очередь определяется максимальной длиной или максимальным числом пакетов, которые могут содержаться в очереди. Когда поступающий пакет заставил бы текущую глубину очереди превышать настроенный предел очереди, пакет отброшен. Поэтому, как указано выше, отбрасывания выхода с PQ обычно являются следствием превышения размера очереди, а не внутреннего ограничителя скорости, как обычно бывает в случае с LLQ. С помощью команды priority-list list-number queue-limit можно изменить размер очереди по приоритету.

Измерение трафика с помощью алгоритма Token Bucket

Приоритеты LLQ и IP RTP внедряют встроенный механизм политик при помощи алгоритма Token, который работает в качестве системы измерения трафика. В этом разделе рассматривается алгоритм Token bucket.

/image/gif/paws/10105/policing.gif

Сам по себе алгоритм token bucket не имеет политик отбрасывания или приоритизации. Модельное представление работы алгоритма token bucket работает по следующему порядку:

  • Маркеры помещаются в сегмент с определенной частотой.

  • Каждый маркер показывает разрешения для источника для передачи определенного числа битов в сеть.

  • Чтобы отправить пакет, регулятор трафика должен быть способен удалить из участка памяти число маркеров, равное размеру пакета.

  • Если на участке памяти недостаточно маркеров для отправки пакета, пакет либо ждет, пока на участке не накопится достаточно маркеров (при использовании регулировщика), либо пакет отбрасывается или понижается (при использовании ограничителя скорости).

  • "Ведро" имеет определенную вместимость. После того как буфер заполнится, поступающие в него новые маркеры будут отбрасываться и окажутся недоступны для будущих пакетов. Поэтому в любое время наибольший размер пакета, который приложение может отправить в сеть, примерно пропорционален размеру сегмента. Буфер маркеров предполагает блочную отправку, при этом ограничивая ее темпы.

Рассмотрим пример использования пакетов и согласованную скорость передачи данных (CIR) 8000 бит/с.

  • В этом примере начальные области памяти запускаются на полную, т.е. 1000 байт.

  • Если поступает пакет размером 450 байт, то он принимается, так как в соответствующем Token Bucket доступно достаточно байт. Посылается пакет, и 450 байтов удаляются из маркированной области памяти, оставляя при этом 550 байт.

  • Когда следующий пакет прибывает на 0,25 секунд позже, 250 байт добавляются в token bucket (0.25 * 8000/8), при этом в token bucket остается 700 байт. Если следующий пакет составляет 800 байтов, пакет превышает и отброшен. Из "маркерного ведра" байты не берутся.

Устранение неполадок: шаги диагностики обрывов

Этап 1 – Сбор данных

Шаги для сбора данных показывают ниже.

  1. Выполните следующие команды несколько раз и определите, как быстро и как часто увеличивается количество сбросов. Используйте выходные данные для установления базовых показателей структур трафика и уровней трафика. Выясните "обычный" уровень сбросов, происходящих на интерфейсе.

    • show queueing interface

      router# show queueing interface hssi 0/0/0
                Interface Hssi0/0/0 queueing strategy: priority
      
                Output queue utilization (queue/count)
      
                 high/12301 medium/4 normal/98 low/27415
    • show interface – отслеживает значение загрузки, отображаемое в выходных данных. Кроме того, убедитесь, что сумма счетчиков сброса для каждой очереди выходных данных команды show interface соответствует значению внешнего счетчика сброса. Счетчик отбрасываний выходных данных show interface должен отобразить общий агрегат всех выходных данных on отбрасываний, включая сброс WRED, сброс из-за переполнения буфера (ошибки "no buffer"), и даже сбрасывает в памяти адаптера встроенного порта.

      router# show interface serial 4/1/2
      
      Serial4/1/2 is up, line protocol is up 
      Hardware is cyBus Serial 
      Description: E1 Link to 60W S9/1/2 Backup 
      Internet address is 169.127.18.228/27 
      MTU 1500 bytes, BW 128 Kbit, DLY 21250 usec, rely 255/255, load 183/255 
      Encapsulation HDLC, loopback not set, keepalive set (10 sec) 
      Last input 00:00:00, output 00:00:00, output hang never 
      Last clearing of "show interface" counters 5d10h 
      Input queue: 0/75/0 (size/max/drops); Total output drops: 68277 
      Queueing strategy: priority-list 7 
      Output queue: high 0/450/0, medium 0/350/143, normal 0/110/27266, low 0/100/40868 
      5 minute input rate 959000 bits/sec, 419 packets/sec 
      5 minute output rate 411000 bits/sec, 150 packets/sec 
      144067307 packets input, 4261520425 bytes, 0 no buffer 
      Received 0 broadcasts, 0 runts, 0 giants, 0 throttles 
      42 input errors, 34 CRC, 0 frame, 0 overrun, 1 ignored, 8 abort 
      69726448 packets output, 2042537282 bytes, 0 underruns 
      0 output errors, 0 collisions, 0 interface resets 
      0 output buffer failures, 46686454 output buffers swapped out 
      0 carrier transitions

      Примечание: Некоторые интерфейсы отображают отдельные значения "txload" и "rxload".

      Hssi0/0/0 is up, line protocol is up 
       Hardware is cyBus HSSI 
       MTU 1500 bytes, BW 7500 Kbit, DLY 200 usec, 
       reliability 255/255, txload 138/255, rxload 17/255 
       Encapsulation FRAME-RELAY IETF, crc 16, loopback not set 
       Keepalive set (5 sec) 
       LMI enq sent 4704, LMI stat recvd 4704, LMI upd recvd 0, DTE LMI up 
       LMI enq recvd 0, LMI stat sent 0, LMI upd sent 0 
       LMI DLCI 1023 LMI type is CISCO frame relay DTE 
       Broadcast queue 0/256, broadcasts sent/dropped 8827/0, interface 
       broadcasts 7651 
       Last input 00:00:00, output 00:00:00, output hang never 
       Last clearing of "show interface" counters 06:31:58 
       Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 84 
       Queueing strategy: priority-list 1 
       Output queue (queue priority: size/max/drops): 
       high: 0/20/0, medium: 0/40/0, normal: 0/60/0, low: 0/80/84 
       5 minute input rate 524000 bits/sec, 589 packets/sec 
       5 minute output rate 4080000 bits/sec, 778 packets/sec 
       11108487 packets input, 1216363830 bytes, 0 no buffer 
       Received 0 broadcasts, 0 runts, 0 giants, 0 throttles 
       0 parity 
       0 input errors, 0 CRC, 0 frame, 0 overrun, 0 ignored, 0 abort 
       15862186 packets output, 3233772283 bytes, 0 underruns 
       0 output errors, 0 applique, 1 interface resets 
       0 output buffer failures, 2590 output buffers swapped out 
       0 carrier transitions 
       LC=down CA=up TM=down LB=down TA=up LA=down
    • show policy-map interface interface-name – найдите нулевое значение счетчика "pkts discards".

      Router# show policy-map interface s1/0
       Serial1/0.1: DLCI 100 -
       output : mypolicy
        Class voice
         Weighted Fair Queueing
             Strict Priority
             Output Queue: Conversation 72 
               Bandwidth 16 (kbps) Packets Matched 0
              (pkts discards/bytes discards) 0/0
        Class immediate-data
         Weighted Fair Queueing
             Output Queue: Conversation 73 
               Bandwidth 60 (%) Packets Matched 0
               (pkts discards/bytes discards/tail drops) 0/0/0
               mean queue depth: 0
               drops: class  random   tail     min-th   max-th   mark-prob 
                      0      0        0        64       128      1/10
                      1      0        0        71       128      1/10
                      2      0        0        78       128      1/10
                      3      0        0        85       128      1/10
                      4      0        0        92       128      1/10
                      5      0        0        99       128      1/10
                      6      0        0        106      128      1/10
                      7      0        0        113      128      1/10
                      rsvp   0        0        120      128      1/10

      Примечание: Следующий пример вывел соответствующие значения показов для "пакетов" и счетчиков "pkts matched". Это состояние показывает, что большое число пакетов было перенаправлено, или что этот интерфейс испытывает крайнюю перегрузку. Оба эти условия могут привести к превышению максимального размера очереди для класса и требуют изучения.

      router# show policy-map interface
      
      Serial4/0 
      
      Service-policy output: policy1 
      
      Class-map: class1 (match-all) 
      189439 packets, 67719268 bytes 
      5 minute offered rate 141000 bps, drop rate 0 bps 
      Match: access-group name ds-class-af3 
      Weighted Fair Queueing 
      Output Queue: Conversation 265 
      Bandwidth 50 (%) Max Threshold 64 (packets) 
      (pkts matched/bytes matched) 189439/67719268 
      (depth/total drops/no-buffer drops) 0/0/0
  2. Охарактеризуйте потоки трафика и пакеты в этих потоках.

    • Каков средний размер пакета?

    • В каком направлении осуществляется передача кадров, имеющих размер MTU? Много трафиков являются асинхронными относительно загрузки. Например, при загрузке с FTP большинство пакетов размера MTU перемещаются от FTP-сервера к клиенту. Пакеты, посылаемые FTP-клиентом серверу, представляют собой простые подтверждения TCP ACK.

    • Для этих пакетов используется TCP или UDP? TCP позволяет каждому потоку передавать санкционированное количество пакетов, прежде чем источник должен будет приостановить передачу и ждать назначения для подтверждения передаваемых пакетов.

  3. С помощью Frame Relay определите, происходят ли потери на очереди интерфейса или на очереди каждого VC. На следующей диаграмме изображен поток пакетов через виртуальный канал Frame Relay:

    /image/gif/paws/10105/priorityqueuedrops1.jpg

  4. Приоритетная очередность поддерживает до 4 выходных очередей, по одной для каждого уровня приоритета очереди, и каждая очередь определяется лимитом очереди. Система организации очереди проверяет размер очереди относительно настроенного предела, прежде чем поместить в очередь пакет. Если выбранная очередь заполнена, маршрутизатор сбрасывает пакет. Попытайтесь увеличить размер очереди с priority-list {#} команда queue-limit и продолжите контролировать.

Этап 2 - обеспечение необходимой пропускной способности

С LLQ применение политик обеспечивает справедливую обработку других пакетов данных в другой взвешенной организации очереди на основе классов (CBWFQ) или очередях WFQ. Для предотвращения удаления пакетов четко определяйте оптимальный размер полосы пропускания по очереди с приоритетами, принимая во внимание тип используемого кодека и характеристики интерфейса. IP RTP Priority не позволит трафик вне выделенной суммы.

Всегда значительно безопаснее выделить для приоритетной очереди полосу пропускания немного большей ширины, чем известное необходимое значение., Например, предположите выделение пропускной способности на 24 кбит/с, стандартная сумма, требуемая для передачи речи, к очереди с приоритетами. Это размещение представляется надежным, поскольку передача голосовых пакетов происходит при постоянной скорости передачи данных. Однако, потому что сеть и маршрутизатор или коммутатор могут использовать часть пропускной способности для создания дрожания и задержки, выделяя немного больше, чем необходимая пропускная способность (такие как 25 кбит/с) гарантирует постоянство и доступность.

Пропускная способность, выделенная для очереди с приоритетами всегда, включает заголовок инкапсуляции Уровня 2. Она не включает CRC. (Обратитесь к тому, Какие Байты считаются Организацией очереди IP на ATM CoS? дополнительные сведения.) Несмотря на то, что это - только несколько байтов, CRC imposis увеличивающееся влияние, поскольку трафики включают более высокое количество небольших пакетов.

Кроме того, на ATM-интерфейсах, пропускная способность, выделенная для очереди с приоритетами, не включает придерживающиеся издержки ATM cell tax:

  • Любое заполнение данными через сегментацию и повторную сборку (SAR), чтобы сделать последнюю ячейку пакета кратной множителю 48 байт.

  • 4-байтовый CRC трейлера уровня 5 адаптации ATM (AAL5).

  • 5-байтовый заголовок ячейки ATM.

При расчете полосы пропускания, которую необходимо выделить для данного приоритетного класса, следует учесть, что включаются заголовки уровня 2. При использовании ATM необходимо принять во внимание тот факт, что служебные данные ячейки ATM не включаются. Необходимо также позволить пропускную способность для возможности дрожания, представленного сетевыми устройствами в пути передачи речи. Сошлитесь на Обзор характеристик Организации очереди Низкой задержки.

При использовании постановки в очередь с установлением приоритетa для переноса Пакетов VoIP обратитесь к Передаче голоса по IP - На Потребление трафика при вызове.

Шаг 3 - выбор подходящего размера пакета

Обработка группы пакетов, отправляемых из интерфейса через очередь по приоритету, зависит от размера пакета и числа байтов, оставшихся в token bucket. Важно считать характеристики трафика направленными к очереди с приоритетами, потому что LLQ использует ограничитель, не формирователь. Ограничитель использует алгоритм token bucket следующим образом:

  • Ведро наполняется маркерами с соответствующей классу скоростью до значения максимального пакета.

  • Если количество маркеров больше, чем или равно размеру пакета, пакет передан, и алгоритм Token bucket постепенно уменьшен. В противном случае пакет отбрасывается.

Пиковое значение токена измерителя трафика LLQ по умолчанию вычисляется как объем трафика для настроенной пропускной способности канала, проходящий за 200 миллисекунд. В некоторых случаях значение по умолчанию является неподходящим, особенно когда трафик TCP происходит в очереди приоритетов. Потоки TCP обычно пакетные, и им может требоваться размер пакета больший, чем значение по умолчанию, назначенное системой постановки в очередь, особенно на медленных каналах.

Придерживающийся пример выходных данных генерировался на постоянном виртуальном канале ATM с устойчивой скоростью передачи ячеек 128 кбит/с. Система обработки очереди выравнивает размер пакета согласно значению, указанному командой priority.

7200-17# show policy-map int atm 4/0.500
 ATM4/0.500: VC 1/500 - 
  
Service-policy output: drops 

    Class-map: police (match-all)
      0 packets, 0 bytes 
      5 minute offered rate 0 bps, drop rate 0 bps 
      Match: any 
      Weighted Fair Queueing 
        Strict Priority 
        Output Queue: Conversation 24 
        Bandwidth 90 (%) 
        Bandwidth 115 (kbps) Burst 2875 (Bytes) 
        
!--- Burst value of 2875 bytes is assigned when 
        !--- the reserved bandwidth value is 115 kbps. 

        (pkts matched/bytes matched) 0/0 
        (total drops/bytes drops) 0/0 

    Class-map: class-default (match-any) 
      0 packets, 0 bytes 
      5 minute offered rate 0 bps, drop rate 0 bps 
      Match: any 

7200-17# show policy-map int atm 4/0.500 
 ATM4/0.500: VC 1/500 - 

  Service-policy output: drops 

    Class-map: police (match-all) 
      0 packets, 0 bytes 
      5 minute offered rate 0 bps, drop rate 0 bps 
      Match: any 
      Weighted Fair Queueing 
        Strict Priority 
        Output Queue: Conversation 24 
        Bandwidth 50 (%) 
        Bandwidth 64 (kbps) Burst 1600 (Bytes) 
        
!--- Burst value changes to 1600 bytes when the 
        !--- reserved bandwidth value is changed to 64 kbps. 

        (pkts matched/bytes matched) 0/0 
        (total drops/bytes drops) 0/0 

    Class-map: class-default (match-any) 
      0 packets, 0 bytes 
      5 minute offered rate 0 bps, drop rate 0 bps 
      Match: any

Функциональные возможности LLQ были расширены, что позволило использовать изменяемый размер согласованного пакета (Bc) для функции настройки размера пакетов в очередях с малым временем ожидания. Теперь, благодаря этой новой функции, сеть может приспосабливаться к временным всплескам трафика и более эффективно обрабатывать сетевой трафик.

Используйте параметр пакета с командой priority, чтобы повысить значение пакета с 1600 байт до 3200 байт.

policy-map AV 
  class AV 
  priority percent 50 3200

Примечание: Максимальное значение увеличивает эффективную пропускную способность, что класс приоритета может использовать и может дать появление, что классы приоритета получают больше, чем свои справедливые доли пропускной способности.

Кроме того, система организации очереди первоначально назначила ограничение внутренней очереди в 64 пакета для очереди с малой задержкой. В некоторых случаях, когда группа из 64 пакетов приходит в очередь приоритетов, измеритель трафика определяет, что группа согласуется со сконфигурированной скоростью, но количество пакетов превышает ограничение очереди. В результате некоторые пакеты были отброшены хвостом. Идентификатор ошибки Cisco CSCdr51979 (только зарегистрированные клиенты) решает эту проблему, позволяя размеру очереди с приоритетами стать настолько же глубоким, как позволено измерителем трафика.

Следующий результат был перехвачен на Постоянной виртуальной сети Frame Relay PVC, настроенной с CIR 56 кбит/с. В первой секции выходных данных комбинированная предложенная скорость классов c1 и c2 составила 76Кбит. Причина состоит в том, что расчетные значения предложенных скоростей минус уровни сброса не представляют фактические скорости передачи и не включают пакеты, находящиеся в формирователь, прежде чем они будут переданы.

router# show policy-map int s2/0.1
  Serial2/0.1: DLCI 1000 - 

   Service-policy output: p 

     Class-map: c1 (match-all) 
       7311 packets, 657990 bytes 
       30 second offered rate 68000 bps, drop rate 16000 bps 
       Match: ip precedence 1 
       Weighted Fair Queueing 
         Strict Priority 
         Output Queue: Conversation 24 
         Bandwidth 90 (%) 
         Bandwidth 50 (kbps) Burst 1250 (Bytes) 
         (pkts matched/bytes matched) 7311/657990 
         (total drops/bytes drops) 2221/199890 

     Class-map: c2 (match-all) 
       7311 packets, 657990 bytes 
       30 second offered rate 68000 bps, drop rate 44000 bps 
       Match: ip precedence 2 
       Weighted Fair Queueing 
         Output Queue: Conversation 25 
         Bandwidth 10 (%) 
         Bandwidth 5 (kbps) Max Threshold 64 (packets) 
         (pkts matched/bytes matched) 7310/657900 
         (depth/total drops/no-buffer drops) 64/6650/0 

     Class-map: class-default (match-any) 
       2 packets, 382 bytes 
       30 second offered rate 0 bps, drop rate 0 bps 
       Match: any

Во втором наборе выходных данных счетчики команды show policy-map interface нормализованы. В PVC с пропускной способностью 56 Кбит/с класс c1 использует 50 Кбит/с, а класс c2 примерно 6 Кбит/с.

router# show policy-map int s2/0.1 
  Serial2/0.1: DLCI 1000 - 

   Service-policy output: p 

     Class-map: c1 (match-all) 
       15961 packets, 1436490 bytes 
       30 second offered rate 72000 bps, drop rate 21000 bps 
       Match: ip precedence 1 
       Weighted Fair Queueing 
         Strict Priority 
         Output Queue: Conversation 24 
         Bandwidth 90 (%) 
         Bandwidth 50 (kbps) Burst 1250 (Bytes) 
         (pkts matched/bytes matched) 15961/1436490 
         (total drops/bytes drops) 4864/437760 

     Class-map: c2 (match-all) 
       15961 packets, 1436490 bytes 
       30 second offered rate 72000 bps, drop rate 66000 bps 
       Match: ip precedence 2 
       Weighted Fair Queueing 
         Output Queue: Conversation 25 
         Bandwidth 10 (%) 
         Bandwidth 5 (kbps) Max Threshold 64 (packets) 
         (pkts matched/bytes matched) 15960/1436400 
         (depth/total drops/no-buffer drops) 64/14591/0 

     Class-map: class-default (match-any) 
       5 packets, 1096 bytes 
       30 second offered rate 0 bps, drop rate 0 bps 
       Match: any

Шаг 4 – порядок очередности отладки

Команда debug priority отображает выходные данные формирования очереди по приоритету, если из очереди отбрасываются пакеты.

caution Внимание.  : Перед использованием команд debug ознакомьтесь с документом Важные сведения о командах debug. Команда debug priority может распечатать большое количество подрывных выходных данных отладки на производственном маршрутизаторе. Объем зависит от уровня перегрузки.

Придерживающийся пример выходных данных генерировался на Cisco 3640.

r3-3640-5# debug priority 
Priority output queueing debugging is on 

r3-3640-5# ping 10.10.10.2 

Type escape sequence to abort. 
Sending 5, 100-byte ICMP Echos to 10.10.10.2, timeout is 2 seconds: 
!!!!! 
Success rate is 100 percent (5/5), round-trip min/avg/max = 56/57/60 ms 
r3-3640-5# 
00:42:40: PQ: Serial0/1: ip -> normal 
00:42:40: PQ: Serial0/1 output (Pk size/Q 104/2) 
00:42:40: PQ: Serial0/1: ip -> normal 
00:42:40: PQ: Serial0/1 output (Pk size/Q 104/2) 
00:42:40: PQ: Serial0/1: ip -> normal 
00:42:40: PQ: Serial0/1 output (Pk size/Q 104/2) 
00:42:40: PQ: Serial0/1: ip -> normal 
00:42:40: PQ: Serial0/1 output (Pk size/Q 104/2) 
00:42:40: PQ: Serial0/1: ip -> normal 
00:42:40: PQ: Serial0/1 output (Pk size/Q 104/2) 
00:42:41: PQ: Serial0/1 output (Pk size/Q 13/0) 
r3-3640-5#no debug priority 
00:42:51: PQ: Serial0/1 output (Pk size/Q 13/0) 
Priority output queueing debugging is off

В следующем результате выполнения команды debug priority, 64 указывает на фактическую глубину очереди с приоритетами в то время, когда был отброшен пакет.

*Feb 28 16:46:05.659:WFQ:dropping a packet from the priority queue 64
*Feb 28 16:46:05.671:WFQ:dropping a packet from the priority queue 64
*Feb 28 16:46:05.679:WFQ:dropping a packet from the priority queue 64
*Feb 28 16:46:05.691:WFQ:dropping a packet from the priority queue 64

Другие причины отбрасываний

В процессе устранения неполадок по заявке в Центре технической поддержки Cisco (TAC) были обнаружены и задокументированы в отчете об ошибках Cisco следующие причины потери исходящих данных для:

  • Увеличение максимальных пороговых значений для взвешенного случайного раннего обнаружения (WRED) на другом классе резко уменьшило число доступных буферов и привело к удалениям в очереди приоритетов. Чтобы облегчить диагностику этой проблемы, в будущих версиях IOS запланирован ввод счетчика приоритетного класса "no-buffer drops".

  • Если предел очереди входного интерфейса меньше, чем предел очереди выходного интерфейса, отбрасывания пакетов переключаются на интерфейс входа. Эти признаки задокументированы в идентификатор ошибки Cisco CSCdu89226 (только зарегистрированные клиенты). Решите эту проблему путем калибровки входной очереди и очереди вывода соответственно, чтобы предотвратить отбрасывание ввода и позволить механизму организации очереди приоритета исходящего трафика вступать в силу.

  • Активация опции, которая не поддерживается в CEF-коммутируемых причинах или причинах пути быстрой коммутации большое число пакетов, чтобы быть процессной коммутацией. При использовании LLQ выполняется текущее управление пакетов с коммутацией процессов, вне зависимости от того, перегружен интерфейс или нет. Другими словами, даже если интерфейс не переполнен, система массового обслуживания отслеживает пакеты с переключением процессов и с помощью команды priority следит за тем, чтобы предлагаемая загрузка не превосходила настроенное значение ширины канала. Эта проблема задокументирована в идентификатор ошибки Cisco CSCdv86818 (только зарегистрированные клиенты).

Выпадения приоритетности постановки в очередь и Frame Relay

Frame Relay является особым случаем относительно применения политик очереди с приоритетами. Обзор характеристик Low Latency Queueing for Frame Relay обращает внимание на придерживающееся предупреждение: Алгоритм приоритетной очередности (PQ) реализован так, чтобы справедливые очереди не испытывали недостатка пропускной способности. Настройка приоритетной очередности предполагает задание максимального объема пропускной способности, доступной для данной очереди, в Кбит/с. Пакеты, превышающие максимальный размер, удалены.". Другими словами, изначально управление очередью по приоритету для политики обслуживания, настроенной в классе сопоставления Frame Relay, осуществлялось во время периодов наличия и отсутствия перегрузки. IOS 12.2 удаляет это исключение. PQ все еще охраняется с FRF.12, но другие несоответствующие пакеты только отброшены, если существует перегрузка.

Связанные обсуждения сообщества поддержки Cisco

В рамках сообщества поддержки Cisco можно задавать и отвечать на вопросы, обмениваться рекомендациями и совместно работать со своими коллегами.


Дополнительные сведения


Document ID: 10105