Коммутация LAN : Качество обслуживания в локальных сетях

Создание расписания и организация очередей службы качества обслуживания на коммутаторах Catalyst 3550

5 апреля 2016 - Машинный перевод
Другие версии: PDF-версия:pdf | Английский (6 октября 2015) | Отзыв


Содержание


Введение

Выходной планировщик гарантирует, что важный трафик не будет отброшен в случае значительной перегрузки на выходном интерфейсе. В этом документе рассматриваются все методы и алгоритмы, реализованные в выходных планировщиках на коммутаторах Cisco Catalyst 3550. Этот документ посвящен также способам настройки и проверки механизма планирования выходных данных на коммутаторах Catalyst 3550.

Предварительные условия

Требования

Для этого документа отсутствуют особые требования.

Используемые компоненты

Сведения в этом документе основываются на Catalyst 3550, который выполняет Cisco Выпуск ПО IOS� 12.1 (12c) EA1.

Сведения, представленные в этом документе, были получены от устройств, работающих в специальной лабораторной среде. Все устройства, описанные в этом документе, были запущены с чистой (стандартной) конфигурацией. В рабочей сети необходимо изучить потенциальное воздействие всех команд до их использования.

Условные обозначения

Дополнительные сведения об условных обозначениях см. в документе Условные обозначения технических терминов Cisco.

Возможность организации выходной очереди портов на коммутаторах Catalyst 3550

Существует два типа портов на 3550 коммутаторах:

  • Гигабитные порты

  • Нецифровые порты (10/100-Mbps порт)

Эти два порта имеют разные свойства. Остаток от этого раздела суммирует эти возможности. Другие разделы этого документа объясняют возможности более подробно.

Функции, что и гигабит и поддержка нецифровых портов

Каждый порт на 3550 имеет четыре различных выходных очереди. Можно настроить одну из этих очередей как очередь строго по приоритету. Каждая из остающихся очередей настроена как нестрогие очереди с приоритетами и обслуживается с использованием взвешенного алгоритма кругового обслуживания (WRR). На всех портах пакет назначен на одну из четырех возможных очередей на основе класса обслуживания (CoS).

Функции, что только гигабитные порты поддержка

Гигабитные порты поддерживают также механизм управления очередью внутри каждой очереди. Можно настроить каждую очередь для использования или взвешенного произвольного раннего обнаружения (WRED) или отбрасывания остатка с двумя порогами. Кроме того, можно настроить размер каждой очереди (буфер, который назначен на каждую очередь).

Функции та единственная поддержка нецифровых портов

Нецифровые порты не имеют никакого механизма организации очередей, такого как WRED или отбрасывание остатка с двумя порогами. Только организация очереди FIFO на 10/100-Mbps порте поддерживается. Вы не можете изменить размер каждой из этих четырех очередей на этих портах. Однако можно назначить минимум (min) резервный размер на очередь.

Сопоставление классов обслуживания и очередей

В этом разделе рассматриваются, как эти 3550 решают разместить каждый пакет в очередь. Пакет размещен в очередь на основе CoS. Каждое из восьми возможных значений CoS сопоставлено с одной из четырех возможных очередей с использованием интерфейса карты CoS очереди, дают команду, чтобы данный пример показал:

(config-if)#wrr-queue cos-map queue-id cos1... cos8

Например:

3550(config-if)#wrr-queue cos-map 1 0 1
3550(config-if)#wrr-queue cos-map 2 2 3 
3550(config-if)#wrr-queue cos-map 3 4 5
3550(config-if)#wrr-queue cos-map 4 6 7

Данный пример размещает:

  • CoS 0 и 1 в очереди 1 (Q1)

  • CoS 2 и 3 в Q2

  • CoS 4 и 5 в Q3

  • CoS 6 и 7 в Q4

Можно выполнить эту команду для подтверждения CoS к сопоставлению очередности порта:

cat3550#show mls qos interface gigabitethernet0/1 queueing 
GigabitEthernet0/1
...Cos-queue map:
cos-qid
 0 - 1
 1 - 1
 2 - 2
 3 - 2
 4 - 3
 5 - 3
 6 - 4
 7 - 4...

Очередь с жестким приоритетом

Очередь с жестким приоритетом освобождается в первую очередь. Так, как только существует пакет в очереди строго по приоритету, пакет передан. После переадресации каждого пакета из очередей WRR очередь с жестким приоритетом проверяется и при необходимости опустошается.

Очередь строго по приоритету особенно разработана для delay/jitter-sensitive трафика, такого как голос. Очередь с жестким приоритетом может привести к нехватке пакетов в других очередях. Пакеты, которые размещены в три других очереди WRR, никогда не передаются, если пакет ждет в очереди строго по приоритету.

Советы

Во избежание исчерпания ресурсов других очередей обратите особое внимание на то, какой трафик размещен в очередь с приоритетами. Эта очередь, как правило, используется для голосового трафика, громкость которого, как правило, не очень высоко. Однако, если кто-то в состоянии передать трафик большого объема с приоритетом CoS к очереди строго по приоритету (такой как большая передача файла или резервная копия), исчерпание ресурсов другого трафика может закончиться. Во избежание этой проблемы специальный трафик должен быть размещен в классификацию/разрешение и маркировку трафика в сети. Например, можно принять эти меры предосторожности:

  • Используйте статус QoS ненадежного порта для всех недоверяемых исходных портов.

  • Используйте доверяемую граничную функцию порта Cisco IP Phone, чтобы гарантировать, что это не используется в режиме доверия, который настроен для IP-телефона для другого приложения.

  • Управление трафиком, направляющимся в очередь строго по приоритету. Установите предел для применения политик трафика с Из-за 5 (кодовая точка дифференцированных сервисов [DSCP] 46) к 100 МБ на Гигабитном порту.

Для получения дополнительной информации об этих темах сошлитесь на эти документы:

На этих 3550 можно настроить одну очередь, чтобы быть очередью с приоритетами (который всегда является Q4). Используйте эту команду в интерфейсном режиме:

3550(config-if)#priority-queue out

Если очередь с приоритетами не настроена в интерфейсе, Q4 рассматривают как стандартную очередь WRR. Взвешенный алгоритм кругового обслуживания на разделе Catalyst 3550 этого документа предоставляет больше подробную информацию. Можно проверить, настроена ли очередь строго по приоритету на интерфейсе при запуске той же Команды Cisco IOS:

NifNif#show mls qos interface gigabitethernet0/1 queueing 
GigabitEthernet0/1
Egress expedite queue: ena

Взвешенная круговая система на Catalyst 3550

WRR является механизмом, который используется в планировании вывода на 3550. WRR работает между тремя из четырех очередей (если нет жесткой очереди по приоритетам). Очереди, которые используются в WRR, освобождены в порядке круговой очереди, и можно настроить вес для каждой очереди.

Например, можно настроить веса так, чтобы очереди были поданы по-другому, как показано в следующем списке:

  • Q1 WRR подачи: 10 процентов времени

  • Q2 WRR подачи: 20 процентов времени

  • Q3 WRR подачи: 60 процентов времени

  • Q4 WRR подачи: 10 процентов времени

Для каждой очереди можно выполнить эти команды в интерфейсном режиме для настройки этих четырех весов (с одним cвязанным каждой очереди):

(config-f)#wrr-queue bandwidth weight1 weight2 weight3 weight4

Например:

3550(config)#interface gigabitethernet 0/1
3550(config-if)#wrr-queue bandwidth 1 2 3 4

Примечание: Весовые коэффициенты относительны. Эти значения используются:

  • Q1 = вес 1 /(вес 1 + вес 2 + вес 3 + вес 4) = 1/(1+2+3+4) = 1/10

  • Q2 = 2/10

  • Q3 = 3/10

  • Q4 = 4/10

WRR может быть внедрен этими двумя способами:

  • WRR для полосы пропускания: Каждый вес представляет определенную пропускную способность, которой позволяют быть переданной. Q1 веса позволяют иметь примерно 10 процентов пропускной способности, Q2 получает 20 процентов пропускной способности и т.д. Эта схема только внедрена в Коммутаторах Catalyst серий 6500/6000 в это время.

  • WRR для каждого пакета: Это - алгоритм, который внедрен в этих 3550 коммутаторах. Каждый вес представляет определенное число пакетов, которые должны быть переданы, независимо от их размера.

Как 3550 WRR внедрений на пакет, это поведение применяется к конфигурации в этом разделе:

  • Q1 передает 1 пакет из 10

  • Q2 передает 2 пакета из 10

  • Q3 передает 3 пакета из 10

  • Q4 передает 4 пакета из 10

Пакеты, которые будут переданы, могут все быть одинаковым размером. Вы все еще достигаете ожидаемого разделения полосы пропускания среди этих четырех очередей. Однако, если средний размер пакета является другим между очередями, существует большое влияние на то, что передано и отброшено в случае перегрузки.

Например, допустите, что в коммутаторе в наличии только два потока. Гипотетически, также предположите, что существуют эти условия:

  • Один Гбит/с маленького трафика интерактивного приложения (80 байтов [B] кадры) с Из-за 3 размещен в Q2.

  • Один Гбит/с трафика большой передачи файла (1518-B кадры) с Из-за 0 размещен в Q1.

Две очереди в коммутаторе передаются с 1 Гбит/с данных.

Для обоих потоков нужен один и тот же гигабитный порт вывода. Предположите, что равный вес настроен между Q1 и Q2. WRR применен на пакет, и объем данных, которые переданы от каждой очереди, отличается между этими двумя очередями. То же количество пакетов передано из каждой очереди, но коммутатор фактически передает этот объем данных:

  • 77700 пакетов в секунду (pps) из Q2 = (77700 x 8 x 64) биты в секунду (бит/с) (приблизительно 52 Мбит/с)

  • 77700 pps из Q1 = (77700 x 8 x 1500) бит в секунду (приблизительно 948 Мбит/с)

Советы

  • Если вы хотите позволить справедливый доступ для каждой очереди к сети, примите во внимание средний размер каждого пакета. Каждый пакет должен быть помешен в одну очередь с соответствующим изменением веса., Например, если вы хотите дать равный доступ каждой из этих четырех очередей, так, что каждая очередь получает 1/4 пропускной способности, трафик следующие:

    • В Q1: Наилучший уровень Интернет-трафика. предположите, что трафик имеет средний размер пакета 256 B.

    • В Q2: Резервная копия сочинила передачи файла с пакетом в основном 1500 B.

    • В Q3: Видеопотки, которые сделаны на пакетах 192 B.

    • В Q4: Интерактивное приложение, которое составлено из в основном пакета 64 B.

    Это создает эти условия:

    • Q1 тратит в 4 раза больше пропускной способности, чем Q4.

    • Q2 тратит в 24 раза больше пропускной способности Q4.

    • Q3 потребляет в 3 раза больше пропускной способности Q4.

  • Для имения равного доступа к полосе пропускания к сети настройте:

    • Q1 с весом 6

    • Q2 с весом 1

    • Q3 с весом 8

    • Q4 с весом 24

  • При присвоении этих весов вы достигаете равного совместного использования пропускной способности среди этих четырех очередей в случае перегрузки.

  • Если включена очередь по строгому приоритету, весовые коэффициента WRR перераспределяются между тремя оставшимися очередями. Если очередь строго по приоритету включена, и Q4 не настроен, первый пример с весами 1, 2, 3, и 4:

    • Q1 = 1 / (1+2+3) = 1 пакет из 6

    • Q2 = 2 пакета из 6

    • Q3 = 3 пакетам из 6

    Можно выполнить эту команду показа программного обеспечения Cisco IOS для подтверждения веса очереди:

    NifNif#show mls qos interface gigabitethernet0/1 queueing  
    GigabitEthernet0/1
    QoS is disabled. Only one queue is used
    When QoS is enabled, following settings will be applied
    Egress expedite queue: dis
    wrr bandwidth weights:
    qid-weights
     1 - 25
     2 - 25
     3 - 25
     4 - 25
    

    Если незатрудненная очередь с приоритетами включена, вес Q4 только используется, если отключена незатрудненная очередь. Например:

    NifNif#show mls qos interface gigabitethernet0/1 queueing 
    GigabitEthernet0/1
    Egress expedite queue: ena
    wrr bandwidth weights:
    qid-weights
     1 - 25
     2 - 25
     3 - 25
     4 - 25    
    
    !--- The expedite queue is disabled.
    
    

Алгоритм WRED на коммутаторах Catalyst 3550

WRED только доступен на Гигабитных портах на коммутаторах серии "3550". WRED является модификацией произвольного раннего обнаружения (RED), которое используется в предотвращении перегрузки. КРАСНЫЙ определили эти параметры:

  • Минимальный порог: Обозначает пороговое значение в рамках очереди. никакие пакеты не опущены ниже этого порога.

  • Максимальный (Max.) порог: Представляет другой порог в очереди. Все пакеты после максимального порога отбрасываются.

  • Наклон: Вероятность для отбрасывания пакета между min и максимальным вероятность сброса увеличивается линейно (с определенным, некоторый наклоном) с размером очереди.

Этот график показывает вероятность сброса пакета в КРАСНОЙ очереди:

Примечание: Все Коммутаторы Catalyst, которые внедряют КРАСНЫЙ, позволяют вам настраивать наклон.

/image/gif/paws/24057/187-a.gif

При использовании WRED определяются весовые коэффициенты для различных служб. Можно определить стандартное и привилегированное обслуживание. Каждый сервис получает другой набор порогов. Только пакеты, которые назначены на стандартный сервис, отброшены, когда достигнут минимальный порог 1. Когда минимальный порог 2 достигнут, только пакеты от сервисов повышенного качества начинают отбрасываться. Если минимальный порог 2 выше, чем минимальный порог 1, больше пакетов от стандартного сервиса отброшено, чем пакеты от сервисов повышенного качества. Этот график показывает пример вероятности сброса для каждого сервиса с WRED:

Примечание: Эти 3550 коммутаторов не позволяют вам настраивать минимальный порог, но только максимальный порог. Минимальный порог всегда трудно устанавливается в 0. Это дает вероятность сброса, которая представляет то, что в настоящее время внедряется в 3550.

/image/gif/paws/24057/187-b.gif

Любая очередь, которая включена для WRED на 3550 всегда, имеет ненулевую вероятность сброса и всегда отбрасывает пакеты. Дело обстоит так, потому что минимальный порог всегда 0. Если необходимо избежать отбрасывания пакета в Max., используйте взвешенное отбрасывание остатка, которое описывает Отбрасывание остатка на разделе Коммутаторов Catalyst 3550.

Совет: Идентификатор ошибки Cisco CSCdz73556 (только зарегистрированные клиенты) документирует запрос на расширение для конфигурации минимального порога.

Дополнительные сведения по RED и WRED см. в разделе "Общие сведения о предотвращении перегрузок".

На этих 3550 можно настроить WRED с двумя другими максимальными порогами для предоставления двух других сервисов. Различные типы трафика назначены на любой порог, который зависит только от внутренних DSCP. Это отличается от присвоения очереди, которое только зависит от Из-за пакета. Сопоставление таблицы DSCP К ПОРОГУ решает, в который порог переходит каждый из этих 64 DSCP. Можно выполнить эту команду, чтобы видеть и модифицировать эту таблицу:

(config-if)#wrr-queue dscp-map threshold_number DSCP_1 DSCP_2 DSCP_8

Например, эта команда назначает DSCP 26 на порог 2:

NifNif(config-if)#wrr-queue dscp-map 2 26
NifNif#show mls qos interface gigabitethernet0/1 queueing
GigabitEthernet0/1
Dscp-threshold map:
     d1 :  d2 0  1  2  3  4  5  6  7  8  9 
     ---------------------------------------
      0 :    01 01 01 01 01 01 01 01 01 01 
      1 :    01 01 01 01 01 01 02 01 01 01 
      2 :    01 01 01 01 02 01 02 01 01 01 
      3 :    01 01 01 01 01 01 01 01 01 01 
      4 :    02 01 01 01 01 01 02 01 01 01 
      5 :    01 01 01 01 01 01 01 01 01 01 
      6 :    01 01 01 01 

После определения карты DSCP К ПОРОГУ WRED включен на очереди по Вашему выбору. Введите следующую команду:

(config-if)#wrr-queue random-detect max-threshold queue_id threshold_1 threshold_2

Данный пример настраивает:

  • Q1 с порогом 1 = 50 процентов и порогом 2 = 100 процентов

  • Q2 с порогом 1 = 70 процентов и порогом 2 = 100 процентов

3550(config)#interface gigabitethernet 0/1
3550(config-if)#wrr-queue random-detect max-threshold 1 50 100
3550(config-if)#wrr-queue random-detect max-threshold 2 70 100
3550(config-if)#wrr-queue random-detect max-threshold 3 50 100
3550(config-if)#wrr-queue random-detect max-threshold 4 70 100

Можно выполнить эту команду для подтверждения типа организации очереди (WRED или не) на каждой очереди:

nifnif#show mls qos interface gigabitethernet0/1 buffers 
GigabitEthernet0/1
..
qid WRED thresh1 thresh2
1   dis  10      100     
2   dis  10      100     
3   ena  10      100     
4   dis  100     100 

Средства ena включают, и очередь использует WRED. Средства dis отключают, и очередь использует отбрасывание остатка.

Можно также контролировать количество пакетов, которые отброшены для каждого порога. Введите следующую команду:

show mls qos interface gigabitethernetx/x statistics 
WRED drop counts:
  qid  thresh1    thresh2   FreeQ
   1 : 327186552  8         1024     
   2 : 0          0         1024      
   3 : 37896030   0         1024      
   4 : 0          0         1024

Отбрасывание остатка на коммутаторах Catalyst 3550

Отбрасывание "хвоста" – механизм по умолчанию на 3550 на портах Gigabit. Каждый Гигабитный порт может иметь два порога отбрасывания остатка. Ряд DSCP назначен на каждый из порогов отбрасывания остатка с использованием той же пороговой карты DSCP, которую определяет WRED на разделе Коммутаторов Catalyst 3550 этого документа. Когда порог достигнут, отброшены все пакеты с DSCP, который назначен на тот порог. Можно выполнить эту команду для настройки порогов отбрасывания остатка:

(config-if)#wrr-queue threshold queue-id threshold-percentage1 threshold-percentage2

Данный пример настраивает:

  • Q1 с порогом отбрасывания остатка 1 = 50 процентов и порогом 2 = 100 процентов

  • Q2 с порогом 1 = 70 процентов и порогом 2 = 100 процентов

Switch(config-if)#wrr-queue threshold 1 50 100
Switch(config-if)#wrr-queue threshold 2 70 100
Switch(config-if)#wrr-queue threshold 3 60 100
Switch(config-if)#wrr-queue threshold 4 80 100

Настройка размера очереди на гигабитных портах

3550 центральной буферизации использования коммутатора. Это означает, что нет никаких неподвижных буферных размеров на порт. Однако существует фиксированный номер пакетов на Гигабитном порту, который может быть помещен в очередь. Этот фиксированный номер 4096. Каждая очередь в гигабитном порту по умолчанию может иметь до 1024 пакетов, независимо от их размеров. Однако можно модифицировать путь, которым эти 4096 пакетов разделены среди этих четырех очередей. Введите следующую команду:

wrr-queue queue-limit Q_size1 Q_size2 Q_size3 Q_size4

Например:

3550(config)#interface gigabitethernet 0/1
3550(config-if)#wrr-queue queue-limit 4 3 2 1

Эти параметры размера очереди относительны. Данный пример показывает что:

  • Q1 в четыре раза больше, чем Q4.

  • Q2 в три раза больше, чем Q4.

  • Q3 является вдвое более большим, чем Q4.

Эти 4096 пакетов перераспределены таким образом:

  • Q1 = [4 /(1+2+3+4) ] * 4096 = 1639 пакетов

  • Q2 = 0.3 * 4096 = 1229 пакетов

  • Пакеты Q3 = 0.2 * 4096 = 819

  • Q4 = 0.1 * 4096 = 409 пакетов

Эта команда позволяет вам видеть относительные веса раздельных буферов среди этих четырех очередей:

cat3550#show mls qos interface buffers
GigabitEthernet0/1
Notify Q depth:
qid-size
1 - 4
2 - 3
3 - 2
4 - 1
...

Можно также выполнить эту команду для наблюдения, сколько свободных пакетов каждая очередь может все еще держаться:

(config-if)#show mls qos interface gigabitethernetx/x statistics 
 WRED drop counts:
 qid  thresh1    thresh2   FreeQ
 1 : 0          0         1639      
 2 : 0          0         1229      
 3 : 0          0         819       
 4 : 0          0         409 

Параметр отсчета FreeQ – динамический. Счетчик FreeQ дает максимальный размер очереди минус количество пакетов, которые в настоящее время находятся в очереди. Например, если в настоящее время существует 39 пакетов в Q1, 1600 пакетов свободны в количество FreeQ. Например:

(config-if)#show mls qos interface gigabitethernetx/x statistics 
 WRED drop counts:
 qid  thresh1    thresh2   FreeQ
 1 : 0          0         1600    
 2 : 0          0         1229      
 3 : 0          0         819       
 4 : 0          0         409 

Управление очередями и размер очереди на негигабитных портах

Нет никакой схемы управления очередью, доступной на 10/100-Mbps портах (никакой WRED или отбрасывание остатка с двумя порогами). Все четыре очереди являются очередями FIFO. Нет также никакого максимального размера очереди, который резервирует 4096 пакетов для каждого Гигабитного порта. 10/100-Mbps порты хранят пакеты в каждой очереди, пока это не полно из-за отсутствия ресурсов. Можно резервировать минимальный номер пакетов на очередь. Это минимальное значение по умолчанию равно 100 пакетам на очередь. Если вы определяете другие значения резерва min и назначаете одно из значений каждой очереди, можно модифицировать это значение резерва min для каждой очереди.

Выполните эти шаги для создания этой модификации:

  1. Назначьте размер буфера для каждого глобального значения минимального резервирования.

    Можно настроить максимум восьми других значений резерва min. Введите следующую команду:

    (Config)# mls qos min-reserve min-reserve-level min-reserve-buffersize
    
    

    Эти значения резерва min являются глобальным к коммутатору. По умолчанию все минимальные резервные значения устанавливаются на 100 пакетов.

    Например, для настройки уровня 1 резерва min 150 пакетов и уровня 2 резерва min 50 пакетов, выполните эти команды:

    nifnif(config)#mls qos min-reserve ?
    <1-8>  Configure min-reserve level
    nifnif(config)#mls qos min-reserve 1 ?
    <10-170>  Configure min-reserve buffers
    nifnif(config)#mls qos min-reserve 1 150
    nifnif(config)#mls qos min-reserve 2 50
    
  2. Назначьте одно из значений "min-reserve" каждой очереди.

    Необходимо назначить каждую из очередей к одному из значений резерва min для знания, сколько буферов гарантируется для этой очереди. По умолчанию эти условия применяются:

    • Q1 назначен уровню 1 минимального резерва.

    • Q2 назначается минимальный уровень резервирования 2.

    • Q3 назначается уровню минимального резервирования 3.

    • Q4 назначается 4 уровень min-reserve.

    По умолчанию все значения min-reserve равны 100.

    Можно выполнить эту интерфейсную команду для присвоения другого значения резерва min на очередь:

    (config-if)#wrr-queue min-reserve queue-id min-reserve-level
    
    

    Например, для присвоения на Q1 резерва min 2 и к Q2 резерв min 1, выполните эту команду:

    nifnif(config)#interface fastethernet 0/1
    nifnif(config-if)#wrr-queue min-reserve ?
    <1-4>  queue id
    nifnif(config-if)#wrr-queue min-reserve 1 ?
    <1-8>  min-reserve level
    nifnif(config-if)#wrr-queue min-reserve 1 2
    nifnif(config-if)#wrr-queue min-reserve 2 1
    

    Можно выполнить эту команду для подтверждения присвоения резерва min, которое заканчивается:

    nifnif#show mls qos interface fastethernet0/1 buffers 
    FastEthernet0/1
    Minimum reserve buffer size:
    150 50 100 100 100 100 100 100 
    
    !--- This shows the value of all eight min reserve levels.
    
    Minimum reserve buffer level select:
    2 1 3 4 
    
    !--- This shows the min reserve level that is assigned to 
    !--- each queue (from Q1 to Q4).
    
    

Заключение

Организация очереди и планирование на порту на этих 3550 включают эти шаги:

  1. Назначьте каждый CoS на одну из очередей.

  2. Включите очереди строго по приоритету в случае необходимости.

  3. Назначьте вес WRR и примите во внимание ожидаемый размер пакета в очереди.

  4. Модифицируйте размер очереди (Только гигабитные порты).

  5. Включите механизм управления очередью (отбрасывание остатка или WRED только на Гигабитных портах).

Правильная организация очереди и правильное расписание может уменьшить задержку/отклонение для голосового/видео трафика и поможет избежать потери критически важного трафика. Обязательно придерживайтесь этих рекомендаций по максимизации производительности планирования:

  • Классифицируйте трафик, который присутствует в сети в других классах, или с доверием или с определенной маркировкой.

  • Трафик политики в избытке.

Связанные обсуждения сообщества поддержки Cisco

В рамках сообщества поддержки Cisco можно задавать и отвечать на вопросы, обмениваться рекомендациями и совместно работать со своими коллегами.


Дополнительные сведения


Document ID: 24057