Научная статья на тему 'Алгоритм планирования очередей передачи трафика в телекоммуникационных сетях для управления доступностью'

Алгоритм планирования очередей передачи трафика в телекоммуникационных сетях для управления доступностью Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
386
47
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ДОСТУПНОСТЬ СЕТИ / УПРАВЛЕНИЕ ПОТОКОМ / ПРИОРИТИЗАЦИЯ ТРАФИКА / АЛГОРИТМ ПЛАНИРОВАНИЯ / ТЕХНОЛОГИЯ "QUALITY OF SERVICE" / АЛГОРИТМ HIERARCHICAL TOKEN BUCKET / NETWORK AVAILABILITY / FLOW CONTROL / TRAFFIC SHAPING / SCHEDULING ALGORITHM / TECHNOLOGY "QUALITY OF SERVICE" / ALGORITHM HIERARCHICAL TOKEN BUCKET

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Монахов Юрий Михайлович, Кузнецова Анна Павловна, Исмаилова Мария Рустамовна

Современное состояние телекоммуникаций характеризуется все более возрастающей масштабностью сетей, большими скоростями передачи данных и постоянным появлением новых сервисов и приложений, работающих на различных протоколах и по-разному использующих ресурсы сети. В то же время с развитием сенсорных сетей все больше становится доля трафика, чувствительного к изменениям параметров среды. Поэтому для более эффективного применения сетевых ресурсов актуальными являются задачи приоритизации и контроля трафика, позволяющие увеличивать доступность как в телекоммуникационной системе в целом, так и приоритетных сервисов. В данной статье предлагается алгоритм планирования очередей передачи данных на основе приоритизации, который позволяет оптимизировать использование пропускной способности и обеспечивать минимально возможную задержку для приоритетных классов. Этот алгоритм основан на известном алгоритме планирования «маркерное ведро» и служит для минимизации времени обработки пакетов на маршрутизируемом устройстве. Тестирование и сравнение разработанного алгоритма с существующими решениями позволили сделать вывод, что предложенный алгоритм показывает более низкие суммарные значения задержки для различных классов трафика. Приведена концептуальная модель доступности, представлены математическое описание алгоритма приоритизации, методика оценки качества обслуживания и результаты сравнительного тестирования и его анализа.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Монахов Юрий Михайлович, Кузнецова Анна Павловна, Исмаилова Мария Рустамовна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Traffic queue management algorithm for availability control in telecommunication networks

The current state of telecommunications is characterized by more and more increasing scale of networks, increase in the speeds of data transmission and continuous emergence of the new services and applications which use various protocols and peruse resources of network diverently. However, with development of sensor networks there is an increasing share of the traffic sensitive to environmental changes. Therefore, for more effective use of network resources the problems of priority management and traffic control aimed at increasing the availability of both the telecommunication system in general and the prioritized services in particular, are relevant. In this article authors offer the priority-based traffic queue management algorithm which allows to optimize channel capacity utilization and to provide minimum possible delay for prioritized classes. This algorithm is based on the known hierarchical token-bucket method and serves for minimization of packet delay times on the routing device. Testing and comparison of the proposed algorithm with the existing decisions has allowed to draw a conclusion that the offered algorithm shows lower total delays for various classes of traffic.

Текст научной работы на тему «Алгоритм планирования очередей передачи трафика в телекоммуникационных сетях для управления доступностью»

УДК 004.738 Вестник СПбГУ. Прикладная математика. Информатика... 2019. Т. 15. Вып. 3

MSC 60K30, 90B25

Алгоритм планирования очередей передачи трафика в телекоммуникационных сетях для управления доступностью*

Ю. М. Монахов, А. П. Кузнецова, М. Р. Исмаилова

Владимирский государственный университет имени А. Г. и Н. Г. Столетовых, Российская Федерация, 600026, Владимир, ул. Горького, 87

Для цитирования: Монахов Ю. М., Кузнецова А. П., Исмаилова М. Р. Алгоритм планирования очередей передачи трафика в телекоммуникационных сетях для управления доступностью // Вестник Санкт-Петербургского университета. Прикладная математика. Информатика. Процессы управления. 2019. Т. 15. Вып. 3. С. 385-396. https://doi.org/10.21638/11702/spbu10.2019.308

Современное состояние телекоммуникаций характеризуется все более возрастающей масштабностью сетей, большими скоростями передачи данных и постоянным появлением новых сервисов и приложений, работающих на различных протоколах и по-разному использующих ресурсы сети. В то же время с развитием сенсорных сетей все больше становится доля трафика, чувствительного к изменениям параметров среды. Поэтому для более эффективного применения сетевых ресурсов актуальными являются задачи приоритизации и контроля трафика, позволяющие увеличивать доступность как в телекоммуникационной системе в целом, так и приоритетных сервисов. В данной статье предлагается алгоритм планирования очередей передачи данных на основе прио-ритизации, который позволяет оптимизировать использование пропускной способности и обеспечивать минимально возможную задержку для приоритетных классов. Этот алгоритм основан на известном алгоритме планирования «маркерное ведро» и служит для минимизации времени обработки пакетов на маршрутизируемом устройстве. Тестирование и сравнение разработанного алгоритма с существующими решениями позволили сделать вывод, что предложенный алгоритм показывает более низкие суммарные значения задержки для различных классов трафика. Приведена концептуальная модель доступности, представлены математическое описание алгоритма приоритизации, методика оценки качества обслуживания и результаты сравнительного тестирования и его анализа.

Ключевые слова: доступность сети, управление потоком, приоритизация трафика, алгоритм планирования, технология «Quality of Service», алгоритм Hierarchical Token Bucket.

Введение. Доступность сервиса является основополагающим свойством безопасности системы, так как отсутствие доступа к требуемому ресурсу может повлечь за собой простой элементов IT-инфраструктуры, который может привести к отказу работоспособности всей IT-инфраструктуры и, как следствие, к серьезным экономическим убыткам [1].

К наиболее эффективным способам повышения доступности относится внедрение известной технологии «Quality of Service» (QoS) [2] в телекоммуникационную сеть предприятия. Определений для такой технологии множество, приведем данное компанией Cisco [3].

QoS определяет способность сети предоставлять наиболее качественный сервис выбранному сетевому трафику в заданных технологических рамках. В частности,

* Работа выполнена при финансовой поддержке Российского фонда фундаментальных исследований (гранты № 16-47-330055 и 18-07-01109).

© Санкт-Петербургский государственный университет, 2019

функции QoS обеспечивают улучшенный и более предсказуемый сетевой сервис, реализуя следующие службы:

— поддержка гарантированной полосы пропускания;

— уменьшение потерь;

— управление перегрузками;

— формирование (шейпинг) трафика;

— настройка приоритетов трафика в сети.

В корпоративных сетях выполняются сложные критически важные приложения, при этом возрастает доля чувствительного к задержкам трафика. QoS служит для определения его приоритетности, чтобы гарантировать, что каждое приложение получит требуемый уровень сервиса [4]. Здесь важной задачей является разработка механизмов, благодаря которым в периоды перегрузки пакеты с информацией, чувствительной к задержкам, не будут простаивать в очередях или получат более высокий приоритет, чем пакеты с не чувствительной к задержкам информацией [4].

Постановка проблемы. Использование алгоритмов приоритизации и контроля трафика позволяет отделять трафик функционирующих сервисов из общего потока и обеспечивать гарантированную полосу пропускания для таких типов трафика. В настоящее время конфигурирование данных алгоритмов производится на основании выделения части канала связи для различных типов трафика. Однако такое распределение не учитывает особенности проходящего трафика и не гарантирует обеспечение доступности трафика, чувствительного к задержкам канала. Тем самым доступность сервиса понижается, что ведет к потенциальной угрозе безопасности системы [5].

По нашему мнению, эту проблему возможно решить путем разработки новых алгоритмов приоритизации и контроля трафика, позволяющих оптимально распределять трафик, проходящий через канал связи, с целью повышения доступности определенных типов трафика.

Объектом исследования является телекоммуникационная сеть передачи данных, а предметом — модели и алгоритмы контроля задержек при обслуживании. Цель работы заключается в повышении доступности сервисов в телекоммуникационных сетях за счет разработки и внедрения новых алгоритмов приоритизации и управления качеством обслуживания. Ввиду того, что глобальные сети содержат массу гетерогенных устройств, и, как следствие, неконтролируемы, а локальные сети обладают недостаточным инструментарием для имплементации собственных протоколов приорити-зации, авторы видят приложение своей работы скорее в программно-определяемых сетях (SDN), или маршрутизаторах, базирующихся на свободном программном обеспечении, либо в рамках IaaS.

Под доступностью будем понимать время отклика сервиса, входящее в директивный интервал времени, в течение которого этот сервис доступен между определенными входной и выходной точками с параметрами, оговоренными в соглашении об уровне обслуживания (SLA); под повышением доступности — гарантированное попадание в заданные SLA временные интервалы, которое обеспечивается посредством уменьшения времени отклика сервиса посредством минимизации времени обработки пакетов на маршрутизирующем устройстве [6]. Стоит отметить, что исследование проводится на транспортном уровне (4 в модели OSI), вследствие чего коммутаторы не рассматриваются как низкоуровневые устройства.

Описание модели. Концептуальная модель доступности включает:

— множество соглашений об уровне обслуживании S, где каждая s^ — максимальное время отклика для каждого г-го сервиса: S = {si,..., s„};

— множество приоритетов каждого сервиса C, в котором каждая ci является приоритетом г-го сервиса, где сервис с наименьшим значением c имеет наивысший приоритет: C = {ci,...,cri} , c £ [0, г];

— множество откликов сервисов T, где каждая ti — время отклика г-го сервиса: T = {ti,..., tn}.

Время отклика зависит от различного рода задержек, выделяют следующие [7]: сетевые задержки маршрутизирующего оборудования, N; задержки операционной системы по обработке процессов, O; задержки программного обеспечения сервиса, P. Следовательно, каждая ti рассчитывается по формуле

ti = (N + O + P)a, ti £ [0, Si].

Выделим ограничения, которые препятствуют бесконечному уменьшению времени отклика сервиса: размер буферной памяти маршрутизируемого оборудования, B; скорость передачи пакетов сетевым оборудованием, E; требования по обеспечению работы нескольких сервисов в равных приоритетах, V.

Обозначим Y как множество ограничений для системы в целом: Y = BEV. Соответственно функция доступности определенного сервиса выглядит следующим образом:

ti = min(N + O + P )ci, B<BU, V <VU.

Выявление параметров оптимизации. Исследования показывают прямую зависимость отклика сервиса от используемого алгоритма планирования очередей. Для обеспечения должных откликов применяют метод приоритизации трафика посредством его классификации. Наибольшей популярностью пользуется иерархический алгоритм Hierarchical Token Bucket (HTB), подразумевающий разделение полосы пропускания для определенных типов потока в отдельные классы, каждый из которых имеет собственную полосу пропускания. HTB выстраивает классы в виде дерева: они могут разделяться на дочерние классы, каждый из которых делит между собой полосу родительского класса. В русскоязычной литературе Hierarchical Token Bucket переводят как «маркерное ведро», или «(иерархическая) корзина маркеров».

Для выявления узких мест в функционировании алгоритма планирования HTB на экспериментальной установке было проведено изучение его типовой конфигурации в различных режимах нагрузки. Целью эксперимента являлось определение ключевых аспектов, влияющих на обеспечение низкой задержки передачи пакетов при различной интенсивности входящего потока пакетов. Анализ полученных данных показал следующие закономерности и ключевые места планировщиков пакетов, оптимизация которых может привести к уменьшению задержки пакетов при высокой интенсивности потока: минимизация простоя полосы пропускания при отсутствии пакетов в том или ином классе, динамическое изменение полосы пропускания относительно интенсивности входящего потока пакетов, размер буфера.

Исходя из результатов анализа [8], были предложены направления оптимизации основных параметров, влияющих на задержку передачи пакетов: контроль интенсивности входящего потока пакетов, динамическое изменение пропускной способности канала относительно входящей интенсивности, оптимизация предоставления полосы для классов трафика относительно входящей интенсивности.

Входные данные алгоритма планирования очередей. Алгоритм подразумевает классификацию трафика по определенным признакам, таким как: IP-адрес

назначения или источника, порт назначения или источника, протокол передачи данных и т. д. Для каждого класса трафика определяются приоритет в соответствии с SLA и директивное время задержки пакета в очереди на ожидание передачи сетевым оборудованием. Каждый класс имеет свою очередь накопления пакетов. Выпуск пакетов в передающую очередь осуществляется со скоростью, рассчитанной на основании директивного времени и алгоритма планирования использования пропускной способности.

Математически это можно описать через следующие множества:

— множество классов трафика: C = co,...,cn, где n — количество классов трафика;

— множество приоритетов класса: Q = qc,..., qn;

— множество задержек для классов: D = do, ...,dn;

— множество пороговых скоростей потока пакетов для каждого класса: S = {s0,..., sn}, где Si рассчитывается по формуле

MTU • 8 • 1000

Si = ---.

di

Также должно соблюдаться условие

n

si < max_rate,

i=0

в котором max_rate — максимальная пропускная способность интерфейса;

— множество времени обработки пакетов для каждого класса: X = {xci, ...,Xn}, где Xi = di;

— множество интенсивностей входящего трафика пакетов: Л = {Ao,..., Xn};

— множество интенсивностей обслуживания пакетов: M = {^c, ...,^n}, где ¡лi =

i/xf,

— множество нагрузок на очередь передачи пакетов класса: R = {р0,..., pn}, где Pi = Ai/^i.

Следовательно, для каждого класса устанавливаются параметры интенсивности потока пакетов A; время обработки пакета X, в начальный момент работы алгоритма равное гарантированному времени для г-го класса; ¡л — интенсивность обслуживания пакетов.

В современных телекоммуникационных сетях между отправителем и получателем находятся сетевые устройства, которые реализуют другие алгоритмы обработки очередей, по большей части несовпадающие с описанными в данной работе, однако следует отметить тот факт, что расстановка приоритетов в этих очередях не имеет для нас решающего значения по следующим причинам:

— если устройств в сети достаточно много, то, исходя из положений теории случайных процессов, задержки на входе можно моделировать с помощью пуассоновско-го потока с малой погрешностью;

— в различных телекоммуникационных системах существуют разные подходы к приоритизации: если для одной системы важно приоритизировать легковесный трафик, то для другой системы тяжеловесный трафик может оказаться важнее, соответственно необходимо изменять приоритеты в трафике, поступающем на вход.

Алгоритм определяет одну очередь передачи для пакетов различных классов. Из очередей классов пакеты выходят с интенсивностью, меньшей или равной si для

г-го класса. Пакеты попадают в очередь последовательно в соответствии с приоритетами Р.

Если интенсивность входного потока в наиболее приоритетном классе ниже выходной пороговой интенсивности з^, следующий по приоритету класс может произвести повышение пороговой выходной интенсивности при сохранении приведенного на стр. 388 условия. Право повышения пороговой выходной интенсивности переходит нижестоящим по приоритету классам.

Если интенсивность потока пакетов больше пороговой интенсивности потока з^, то пакеты начинают отбрасываться для уравнивания интенсивности потока до пороговой интенсивности потока. Повышение или понижение интенсивности пакетов определяется в результате работы алгоритма планирования использования пропускной способности. Авторы не включают в рассмотрение механизмы управления перегрузками, поскольку данные алгоритмы работают на оконечных устройствах (терминалах), не рассматриваемых в данной работе.

Описание предлагаемого алгоритма. Алгоритм производит управление временем обработки пакетов в очередях их передачи. Его проход производится на временной основе, каждые 0,5 мс.

Шаг 1. Проверяем условие, превышает ли суммарная интенсивность потока всех

п

пакетов возможную скорость обработки ^ < тах_га1е.

¿=0

Если условие выполняется, переходим к шагу 2, если нет — к шагу 3.

Шаг 2. Устанавливаем значение времени обработки пакета для каждого класса в минимальное время обработки пакетов min_delay : х = min_delay.

Шаг 3. Проверяем условие, что минимальное время обработки пакета для приоритетного класса 0 меньше или равно тш_с1е1ау : ^ тт_с1е1ау.

Если условие выполняется, переходим к шагу 4, если нет — то к шагу 8.

Шаг 4. Производится распределение полосы пропускания выпускающей очереди таким образом, что наиболее приоритетный класс забирает всегда 2/3 доступной ему полосы пропускания, каждый следующий по приоритету класс занимает 2/3 полосы, оставшейся после первого класса, и т. д. до последнего класса, который занимает оставшуюся полосу.

Шаг 5. Запускается цикл проверки необходимости оптимальности использования полосы. Цикл отрабатывает по всем классам трафика — от 1 до п. После прохождения происходит переход к шагу 1.

Шаг 6. Проверка соответствия интенсивности обслуживания интенсивности входящего потока пакетов по условию ^ < 1.

Если условие выполняется, то производится переход к шагу 7, если нет — то к шагу 5.

Шаг 7. Производится предоставление неиспользуемой полосы для класса, максимальное значение которого равно путем определения разницы интенсивности обслуживания пакетов класса и полученной оптимальной интенсивности обслуживания. Оптимальное время обработки пакетов находится по формуле Хг = х--

Шаг 8. Время обработки пакетов для класса с приоритетом 0 выставляется в половину гарантированной полосы пропускания минус минимальное время обработки пакетов. Время обработки остальных пакетов определяется по принципу разделения полосы, представленному согласно шагу 4.

Блок-схема работы алгоритма приведена на рис. 1.

Рис. 1. Блок-схема работы алгоритма

Тестирование алгоритма. Для проверки эффективности разработанного алгоритма было произведено имитационное моделирование его работы в среде AnyLogic в сравнении с работой алгоритма планирования очередей НТВ в типовой конфигурации.

Состав моделируемой системы. Моделируемая система состояла из следующих элементов:

— очереди передачи пакетов с приоритетом 0;

— очереди передачи пакетов с приоритетом 1;

— очереди передачи пакетов в среду передачи сигнала;

— планировщика распределения использования очереди передачи пакетов в среду для очередей с приоритетами.

Каждая моделируемая очередь обладала такими параметрами:

— интенсивность потока пакетов, Хг;

— время обработки пакетов в очереди, Хг;

— гарантированная задержка для передачи пакетов очереди, .

Для очередей задавались ограничения:

— интенсивность пакетов в очередь передачи пакетов в среду передачи не может превышать значение шах_га1е;

— время обработки пакетов в очереди передачи пакетов в среду передачи всегда составляет шт_ёе1ау;

— буфер очередей с приоритетами ограничен значением, равным 100 пакетам.

На рис. 2 представлена схема имитационной модели в AnyLogic.

Рис. 2. Схема имитационной модели в AnyLogic

В рамках тестирования разработанного алгоритма было произведено сравнение задержек передачи пакетов каждой очереди при одинаковых нагрузках на канал очереди классов. Исследование предполагало проведение 5 тестовых съемов задержки передачи пакетов. Режимы тестирования представлены в таблице.

Таблица. Режимы тестирования алгоритма

Режим тестирования Интенсивность очереди 1, пакет/мс Интенсивность очереди 2, пакет/мс Количество замеров

1 0.48 0.857 180

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2 100 0.857 180

3 0.48 100 180

4 20.825 62.4 180

5 100 100 180

Результаты эксперимента приведены на рис. 3, 4. На рис. 3, а изображен график работы алгоритмов в режиме 1. Из него видно, что при низкой интенсивности входящего потока пакетов оба алгоритма обеспечивают низкую задержку обработки пакетов. Однако для низкоприоритетной очереди НТВ задержка выше приоритетного класса, что обусловлено последовательностью права передачи пакетов на основании приоритета.

Задержка,

мс а б

О 20 40 60 80 100 120 140 160 180 0 20 40 60 80 100 120 140 160 180

Время, мс

Рис. 3. Графики работы алгоритмов в режимах 1 (а) и 2 (б) 1 — очередь с приоритетом 0 (модификация НТВ); 2 — очередь с приоритетом 1 (модификация НТВ); 3 — очередь с приоритетом 0 (НТВ); 4 — очередь с приоритетом 1 (НТВ).

На рис. 3, б представлен график работы алгоритмов в режиме 2. Он показывает, что НТВ произвел выделение полосы для приоритетного класса и тем самым занял большую часть ресурсов сети, поэтому задержка во втором классе начала расти. Разработанный алгоритм, в свою очередь, определил, что интенсивность потока низкоприоритетного класса невысокая, тем самым можно обеспечивать низкую задержку для обоих классов, оставаясь в директивном времени.

График работы алгоритмов в режиме 3 иллюстрирует рис. 4, а. На нем видно, что НТВ определил низкую активность высокоприоритетного класса и позволяет низкоприоритетному классу использовать больше полосы. В свою очередь, с помощью разработанного алгоритма выявлена необходимая часть полосы для высокоприоритетного класса, чтобы выдавать пакеты с минимальной задержкой, а оставшаяся часть определена для класса низкоприоритетного.

На рис. 4, б приведен график работы алгоритмов в режиме 4. Нагрузка на систему равняется 1, это предел обработки пакетов без потерь. Из рисунка следует, что НТВ сохраняет заданную полосу пропускания для высокоприоритетного класса,

Задержка,

мс а в

О 20 40 60 80 100 120 140 160 180

Время, мс

Рис. 4. Результаты тестирования моделей в режимах 3 (а), 4 (б) и 5 (в) 1 — очередь с приоритетом 0 (модификация НТВ); 2 — очередь с приоритетом 1 (модификация НТВ); 3 — очередь с приоритетом 0 (НТВ); 4 — очередь с приоритетом 1 (НТВ).

не снижая его задержки, притом, что задержка низкоприоритетного класса сильно возросла.

Разработанный алгоритм производит расчет оптимального распределения полосы в пределах нагрузки на систему таким образом, чтобы обеспечить среднюю минимальную задержку для обоих классов. Но поскольку классы имеют разные приоритеты, задержка для высокоприоритетного класса определяется ниже. К тому же интенсивность потока заявок высокоприоритетного класса меньше, чем у низкоприоритетного, и согласно работе алгоритма приоритетный класс получает большую часть необходимой полосы, а низкоприоритетный только ту часть, которая осталась. Исходя из этого, мы наблюдаем возрастание задержки для низкоприоритетного класса.

На рис. 4, в продемонстрирован график работы алгоритмов в режиме 5. Интенсивность входящего потока пакетов обоих классов трафика сильно превышает значение, возможное для обработки. Следовательно, происходит накопление пакетов в буфере очереди, все пакеты, что выходят за границу буфера, начинают отбрасываться.

На графике получаем значения задержки пакетов, передача которых была осуществлена. И данная ситуация аналогична режиму 4, когда система способна обра-

ботать входящий поток заявок, но так как интенсивность обоих классов равна, то для низкоприоритетного класса остается меньше допустимой полосы и его задержка начинает возрастать. HTB производит обработку аналогичным образом, и распределение полосы пропускания происходит согласно сконфигурированному значению, без возможности расширения полосы для разных классов.

Заключение. Результат сравнительного тестирования алгоритмов позволяет сделать вывод, что разработанный алгоритм показывает более низкие суммарные значения задержки для различных классов трафика, тем самым обеспечивая доступность сервисов в обоих классах. Соответственно предложенный алгоритм планирования очередей передачи данных дает возможность оптимизировать использование пропускной способности и приводит к минимально возможной задержке для приоритетных классов.

Использование и внедрение предложенного алгоритма в реальных условиях является трудоемкой задачей, требующей добавления специального модуля в операционную систему маршрутизатора, поэтому следующим этапом будет исследование возможностей внедрения данного алгоритма для работы в реальной телекоммуникационной сети в целях увеличения доступности сервисов в условиях повышенной сетевой активности. Также, отмечая определенное взаимовлияние между алгоритмами приоритизации трафика и алгоритмами контроля перегрузок, авторы видят возможность продолжения своей работы в изучении данного влияния.

Литература

1. Вегешна Ш. Качество обслуживания в сетях IP. Основополагающие принципы реализации функций качества обслуживания в сетях Cisco / пер. с англ. А. А. Борисенко, А. В. Журавлева. М.: Издат. дом «Вильямс», 2003. 368 с. (Vegesna S. IP Quality of Service.)

2. Roughan M., Sen S., Spatscheck O., Duffield N. Class-of-service mapping for QoS: a statistical signature-based approach to IP traffic classification // Proceedings of the 4-th ACM SIGCOMM conference on Internet measurement. 2004. P. 135—148.

3. Quality of Service Overview // The Cisco Company. https://www. cisco.com/c/en/us/td/docs/ios/ qos/configuration/guide/12_2sr/qos_12_2sr_book/qos_overview.html (дата обращения: 13.01.2019).

4. Чапурин Е. Н. Предложения по повышению эффективности функционирования инфоком-муникационной сети связи // Современные проблемы науки и образования. 2015. № 1-1. С. 425—430.

5. Кобрин А. В. Адаптивный буфер компенсации джиттера задержки прибытия пакетов на основе робастного фильтра Калмана // Проблемы телекоммуникаций. Харьков: Харьк. нац. ун-т радиоэлектроники, 2013. 10 с. http://openarchive.nure.ua/bitstream/document/459/1/131_kobrin_jitter.pdf (дата обращения: 12.01.2019).

6. Prasad R., Dovrolis C., Murray M., Claffy K. C. Bandwidth estimation: metrics, measurement techniques, and tools // IEEE network. 2003. Vol. 17. N 6. P. 27-35.

7. Олифер В. Г., Олифер Н. А. Компьютерные сети. Принципы, технологии, протоколы. 2-е изд. СПб.: Питер, 2006. 958 с.

8. Кудзиновская И. П. Анализ методов обеспечения качества обслуживания в высокоскоростных компьютерных сетях // Проблемы информатизации и управления. Киев: Наука, 2008. http://jrnl.nau.edu.ua/index.php/PIU/article/download/9276/11507 (дата обращения: 02.12.2018).

Статья поступила в редакцию 3 декабря 2018 г.

^атья принята к печати 6 июня 2019 г.

Контактная информация:

Монахов Юрий Михайлович — канд. техн. наук, доц.; unklefck@gmail.com

Кузнецова Анна Павловна — аспирант; akuznecova@vlsu.ru

Исмаилова Мария Рустамовна — студент; maryfelin@gmail.com

Traffic queue management algorithm for availability control in telecommunication networks*

Yu. M. Monakhov, A. P. Kuznetsova, M. R. Ismailova

Vladimir State University, 87, Gorky ul., Vladimir, 600026, Russian Federation

For citation: Monakhov Yu. M., Kuznetsova A. P., Ismailova M. R. Traffic queue management algorithm for availability control in telecommunication networks. Vestnik of Saint Petersburg University. Applied Mathematics. Computer Science. Control Processes, 2019, vol. 15, iss. 3, pp. 385-396. https://doi.org/10.21638/11702/spbu10.2019.308 (In Russian)

The current state of telecommunications is characterized by more and more increasing scale of networks, increase in the speeds of data transmission and continuous emergence of the new services and applications which use various protocols and peruse resources of network diverently. However, with development of sensor networks there is an increasing share of the traffic sensitive to environmental changes. Therefore, for more effective use of network resources the problems of priority management and traffic control aimed at increasing the availability of both the telecommunication system in general and the prioritized services in particular, are relevant. In this article authors offer the priority-based traffic queue management algorithm which allows to optimize channel capacity utilization and to provide minimum possible delay for prioritized classes. This algorithm is based on the known hierarchical token-bucket method and serves for minimization of packet delay times on the routing device. Testing and comparison of the proposed algorithm with the existing decisions has allowed to draw a conclusion that the offered algorithm shows lower total delays for various classes of traffic.

Keywords: network availability, flow control, traffic shaping, scheduling algorithm, technology "Quality of Service", algorithm Hierarchical Token Bucket.

References

1. Vegesna S. IP Quality of Service. Innopolis, Cisco Press, 2001, 232 p. (Rus. ed.: Vegesna S. Kachestvo obsluzhivaniya v setyakh IP. Osnovopolagayushchie principy realizacii funkcij kachestva obslu-zhivaniya v setyakh Cisco. Moscow, House Williams Publ., 2003, 368 p.)

2. Roughan M., Sen S., Spatscheck O., Duffield N. Class-of-service mapping for QoS: a statistical signature-based approach to IP traffic classification, Proceedings of the 4-th ACM SIGCOMM conference on Internet measurement, 2004, pp. 35—148.

3. Quality of Service Overview. The Cisco Company. Available at: https://www.cisco.com/c/en/us/td /docs/ios/qos/configuration/guide/12_2sr/qos_12_2sr_book/qos_overview.html (accessed: 13.01.2019).

4. Chapurin E. N. Predlozheniya po povysheniyu effektivnosti funkcionirovaniya infokommunika-cionnoj seti svyazi [Suggestions for improving the efficiency of the information and communication network]. Sovremennye problemy nauki i obrazovaniya [Modern for problems of science and education], 2015, no. 1-1, pp. 425-430. (In Russian)

5. Kobrin A. V. Adaptivnyj bufer kompensacii dzhittera zaderzhki pribytiya paketov na osnove robastnogo fil'tra Kalmana [Adaptive jitter compensation buffer for packet arrival delay based on robust Kalman filter]. Problemy telekommunikacij [Problems of telecommunications]. Khar'kov, Khar'kovskiy national radioelectronic University Publ., 2013, 10 p. Available at:

http://openarchive.nure.ua/bitstream/document/459/1/131_kobrin_jitter.pdf (accessed: 12.01.2019). (In Russian)

6. Prasad R., Dovrolis C., Murray M., Claffy K. C. Bandwidth estimation: metrics, measurement techniques, and tools. IEEE network, 2003, vol. 17, no. 6, pp. 27-35.

7. Olifer V. G., Olifer N. A. Komp'yuternye seti. Principy, tekhnologii, protokoly [Computer networks. Principles, technologies, protocols]. Saint Petersburg, Peter Publ., 2006, 958 p. (In Russian)

* This work was supported by Russian Foundation for Basic Reaserch (grants N 16-47-330055, 1807-01109).

8. Kudzinovskaya I. P. Analiz metodov obespecheniya kachestva obsluzhivaniya v vysokoskorostnykh komp'yuternykh setyakh [Analysis of methods for ensuring quality of service in high-speed computer networks]. Kiev, Nauka Publ., 2008. Available at:

http://jrnl.nau.edu.ua/index.php/PIU/article/download/9276/11507 (accessed: 02.12.2018). (In Russian)

Received: December 03, 2018. Accepted: June 06, 2019.

Author's information:

Yury M. Monakhov — PhD in Technics, Associate Professor; unklefck@gmail.com Anna P. Kuznetsova — Postgraduate Student; akuznecova@vlsu.ru Maria R. Ismailova — Student; maryfelin@gmail.com

i Надоели баннеры? Вы всегда можете отключить рекламу.