Научная статья на тему 'МОДЕЛЬ ОЦЕНКИ СКВОЗНОЙ ЗАДЕРЖКИ ПАКЕТОВ ДЛЯ ЦЕПОЧКИ NFV УЗЛОВ В СЕТЯХ ПЯТОГО ПОКОЛЕНИЯ'

МОДЕЛЬ ОЦЕНКИ СКВОЗНОЙ ЗАДЕРЖКИ ПАКЕТОВ ДЛЯ ЦЕПОЧКИ NFV УЗЛОВ В СЕТЯХ ПЯТОГО ПОКОЛЕНИЯ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
72
18
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
NFV / SDN / СЕТИ ПЯТОГО ПОКОЛЕНИЯ / 5G / НИЗКАЯ ЗАДЕРЖКА / СЕТЕВАЯ АРХИТЕКТУРА

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Елагин В.С., Богачев А.В., Белозерцев И.А.

Ожидается, что будущие сети связи будут предоставлять настраиваемые чувствительные к задержкам виды услуг (например, потоковое видео, межмашинное взаимодействие). Для поддержки разнообразных приложений и вариантов использования серверов, обеспечивающих различные функции, можно использовать виртуализацию сетевых функций (NFV), которые смогу обеспечить гибкую реализацию и размещение настройку необходимых функций сети. В этой статье проводится анализ сквозной задержки пакетов (E2E) для множества потоков трафика, проходящих через цепочку встроенных функций виртуальной сети (VNF) в сетях связи пятого поколения (5G). Совместное использование обобщенной обработки доминирующих ресурсов (DR-GPS) используется для распределения вычислительных ресурсов и передачи данных между потоками в каждом узле виртуализации сетевых функций для достижения справедливого распределения и использования имеющихся ресурсов. Модель тандемной организации очередей разработана для поступающих пакетов, объединенные в нескольких потоков, проходящих через узел NFV и его исходящий канал передачи. Для анализа управляемости мы разделяем обработку пакетов (и передачу) различных потоков при моделировании и определяем средние скорости обработки пакетов и передачи каждого потока как приблизительные скорости обслуживания.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Елагин В.С., Богачев А.В., Белозерцев И.А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

MODELING THE ESTIMATION OF END-TO-END PACKET LATENCY FOR A CHAIN OF NFV NODES IN 5G NETWORKS

It is expected that future communication networks will provide configurable delay-sensitive types of services (for example, streaming video, machineto-machine interaction). To support a variety of applications and use cases of servers providing various functions, you can use network function virtualization(NFV), which will be able to provide flexible implementation and placement of configuration of the necessary network functions. This article analyzes the end-to-end packet latency (E2E) for multiple traffic flows passing through the chain of embedded virtual network functions (VNF) in fifthgeneration communication networks (5G). The Dominant of Generalized Resource Processing (DR-GPS) is used to distribute computing resources and transfer data between threads in each node of Network Function Virtualization (NFV) to achieve equitable distribution and utilization of available resources. The tandem queuing model is designed for incoming packets combined in several streams passing through the NFV node and its outgoing transmission channel. To analyze manageability, we separate packet processing (and transmission) of various streams in the simulation and determine the average packet processing and transmission rates of each stream as approximate service speeds.

Текст научной работы на тему «МОДЕЛЬ ОЦЕНКИ СКВОЗНОЙ ЗАДЕРЖКИ ПАКЕТОВ ДЛЯ ЦЕПОЧКИ NFV УЗЛОВ В СЕТЯХ ПЯТОГО ПОКОЛЕНИЯ»

МОДЕЛЬ ОЦЕНКИ СКВОЗНОЙ ЗАДЕРЖКИ ПАКЕТОВ ДЛЯ ЦЕПОЧКИ NFV УЗЛОВ В СЕТЯХ ПЯТОГО ПОКОЛЕНИЯ

Елагин Василий Сергеевич,

Санкт-Петербургский государственный университет телекоммуникаций им. проф. М.А. Бонч-Бруевича, г. Санкт-Петербург, Россия, elagin.vas@gmail.com

Богачев Александр Васильевич,

Netcracker Technology, Москва, Россия

Белозерцев Илья Алексеевич,

Санкт-Петербургский государственный университет телекоммуникаций им. проф. М.А. Бонч-Бруевича, г. Санкт-Петербург, Россия, ilya.belozercev@outlook.com

Ожидается, что будущие сети связи будут предоставлять настраиваемые чувствительные к задержкам виды услуг (например, потоковое видео, межмашинное взаимодействие). Для поддержки разнообразных приложений и вариантов использования серверов, обеспечивающих различные функции, можно использовать виртуализацию сетевых функций которые смогу обеспечить гибкую реализацию и размещение настройку необходимых функций сети. В этой статье проводится анализ сквозной задержки пакетов (E2E) для множества потоков трафика, проходящих через цепочку встроенных функций виртуальной сети в сетях связи пятого поколения (5G). Совместное использование обобщенной обработки доминирующих ресурсов (DR-GPS) используется для распределения вычислительных ресурсов и передачи данных между потоками в каждом узле виртуализации сетевых функций для достижения справедливого распределения и использования имеющихся ресурсов. Модель тандемной организации очередей разработана для поступающих пакетов, объединенные в нескольких потоков, проходящих через узел NFV и его исходящий канал передачи. Для анализа управляемости мы разделяем обработку пакетов (и передачу) различных потоков при моделировании и определяем средние скорости обработки пакетов и передачи каждого потока как приблизительные скорости обслуживания.

Информация об авторах:

Елагин Василий Сергеевич, к.т.н., доцент кафедры Инфокоммуникационных систем Санкт-Петербургского государственного университета телекоммуникаций им. проф. М.А. Бонч-Бруевича, г. Санкт-Петербург, Россия Богачев Александр Васильевич, аналитик, Netcracker Technology, Москва, Россия

Белозерцев Илья Алексеевич, аспирант, кафедра Инфокоммуникационных систем Санкт-Петербургского государственного университета телекоммуникаций им. проф. М.А. Бонч-Бруевича, г. Санкт-Петербург, Россия

Для цитирования:

Елагин В.С., Богачев А.В., Белозерцев И.А. Модель оценки сквозной задержки пакетов для цепочки NFV узлов в сетях пятого поколения // T-Comm: Телекоммуникации и транспорт. 2022. Том 16. №3. С. 23-30.

For citation:

Elagin V.S., Bogachev A.V., Belozertsev I.A. (2022) Modeling the estimation of end-to-end packet latency for a chain of NFV nodes in 5G networks. T-Comm, vol. 16, no.3, pp. 23-30. (in Russian)

7TT

DOI: 10.36724/2072-8735-2022-16-3-23-30

Manuscript received 03 February 2022; Accepted 28 February 2022

Ключевые слова: NFV, SDN, сети пятого поколения, 5G, низкая задержка, сетевая архитектура

Введение

Ожидается, что будущие сети связи будут предоставлять настраиваемые чувствительные к задержкам сквозные (E2E) виды услуг (например, потоковое видео, межмашинное взаимодействие) с требуемым качеством обслуживания (QoS) [1] для Интернет-вещей (IoT). Типичные сценарии приложений IoT [2, 3] включают дистанционное управление для умного самонаведения, интеллектуальное зондирование, промышленную автоматизацию и многое другое. Для поддержки разнообразных приложений и вариантов использования серверов, обеспечивающих различные функции (например, брандмауэры и прокси), должны быть расширены в большом масштабе для выполнения индивидуальных требований услуг как беспроводные, так и в базовые сети. Виртуализация сетевых функций (NFV) [4]-[7] обеспечивает решение для снижения стоимости развертывания и реализации гибкого размещения функций и настройки услуг. С помощью NFV сетевые функции отделены от специфичных для функций серверов, программно преобразованы в виртуальные сетевые функции (VNF) и размещены на программируемых серверах общего назначения. В частности, с помощью платформы виртуализации вычислительные ресурсы (т.е. ядра ЦП) на каждом узле NFV представляются как виртуальные ЦП (vCPU), на которых устанавливаются виртуальные машины (VM). Затем VNF программируются на виртуальных машинах разных узлов NFV в разных местах сети для достижения высокой производительности сети.

Узлы NFV, на которых размещаются и работают VNF, представлены для улучшения предоставления услуг и использования ресурсов. Набор VNF и соединяющие их виртуальных каналов составляют логическую цепочку VNF, называемую цепочкой сервисных функций (SFC) [8], представляющую конкретную последовательность сетевых функций. Все цепочки VNF управляются контроллером виртуализации и размещаются в физической сети, при этом каждая VNF встроена в узел NFV, а виртуальные каналы представлены линиями передачи и сетевыми коммутаторами. Обратите внимание, что контроллер виртуализации поддерживает программно-определяемую сеть (SDN) [9], при этом все функции управления отделены от базовой физической сети. Таким образом, контроллер имеет прямое управление (возможность программирования) на всех VNF для улучшения использования ресурсов за счет балансировки трафика и миграции виртуальных машин.

Сквозная задержка пакета для каждого потока трафика вычисляется как сумма задержек передачи пакетов по каждому физическому каналу без учета задержки обработки пакетов из-за обработки ЦП на узлах NFV. Однако каждый пакет из разных потоков трафика, проходящих через узел NFV, обычно требует разного количества времени обработки ЦП на узле NFV [10] и времени передачи пакета в исходящем канале[11]. В зависимости от типа VNF, который проходит каждый поток, пакеты некоторых потоков с большими заголовками являются узким местом при обработке ЦП, тогда как пакеты других потоков с большими размерами полезной нагрузки требуют большего времени передачи. Кроме того, процесс прибытия пакета в узел NFV коррелирует с обработкой и передачей пакетов в предшествующих узлах NFV, что затрудняет анализ сквозной задержки.

Следовательно, требуется разработать аналитическую модель для оценки задержки, которая учитывает каждый поток при прохождении через встроенную цепочку У№, включая задержку при нахождении пакета в очереди, задержку обработки пакетов на узлах №У и задержку передачи пакетов на каналах. Поскольку потоки трафика, проходящие через каждый узел №У, демонстрируют несоответствующее «доминирующее» потребление ресурсов на ЦП или полосе пропускания канала, необходимо изучить вопрос о том, как распределить ресурсы между потоками трафика, чтобы гарантировать справедливое распределение и достичь высокого использования ресурсов.

В этой статье мы используем совместное использование процессора с доминирующим ресурсом (БК-ОР8) [12] в качестве схемы распределения двух ресурсов (скорости обработки и передачи) ме^ду потоками трафика, совместно использующими ресурсы в каждом узле №У. БК-вР8 устанавливает компромисс между изоляцией услуг и высокой степенью использования ресурсов. Используя БК-ОР8, мы устанавливаем тандемную модель организации очередей, чтобы выделить каждый поток, проходящий через обработку ЦП и передачу канала в узле №У

Модель трафика

Агрегированный поток трафика данных из домена беспроводной сети, принадлежащий к одному и тому же виду услуг, требует наличия У№ для прохождения в базовой сети при выполнении определенных требований. Каждая У№ встроена и работает на узле №У, а каждый виртуальный канал представляет собой набор каналов передачи и сетевых коммутаторов. Несколько цепочек У№ могут быть встроены в общий сетевой путь, чтобы улучшить использование ресурсов и снизить развертывание сети и эксплуатационные расходы. Мы рассматриваем набор I потоков трафика, пересекающих различные логические цепочки У№ по общему встроенному физическому пути. Представим 2 потока 1 и) (6 I), представляющие две логические цепочки У№ ^ ^ fз и ^ ^ соответственно, проходят по одному выстроенному сетевому пути и совместно используют одни и те же физические ресурсы. На уровне обслуживания у нас есть поток 1, использующийся для передачи голосового трафика приложения А, и поток передающий также голосовые данные для приложения В. На уровне сети поток 1 проходит через первый узел №У работающий с У№ ^ и каналом передачи Ь0, а затем направляется п1 сетевыми коммутаторами {Я1, ..., Як, ..., Яп1} и п1 каналов передачи (Ь1, ..., Ьк, ..., Ьп1} между ними до достижения второго узла №У работающего с У№ поток) пересекает тот же физический путь, но проходит через У№ ^ во втором узле №У Для общего случая у нас есть набор I потоков, проходящих и разделяющих выстроенный физический путь, с т узлами МБУ обозначенными N2 (7 = 1, 2, ..., т), и п2 парами сетевых коммутаторов и пересылкой физических каналов. С помощью №У различные У№ могут быть гибко организованы и установлены на соответствующих узлах №У для улучшения балансировки трафика и снижения затрат на развертывание сетевой инфраструктуры. Когда поток трафика проходит через узел №У, каждый пакет потока сначала требует времени для обработки пакета ЦП, после чего обработанному

T-Comm Том 16. #3-2022

пакету выделяются ресурсы полосы пропускания канала для передачи. Предполагается, что общее количество процессорного времени делится до бесконечности на каждом узле МБУ и должно правильно распределяться между проходящими потоками трафика, а ресурсы полосы пропускания на каналах передачи также распределяются между потоками трафика.

Поток]

К К

Рис. 1. Цепочка из двух VNF, использующих один физический путь

Поступления пакетов потока i в первый узел NFV N моделируются как процесс Пуассона с частотой поступления

Для требований к ресурсам потока мы определяем временной профиль для потока i, проходящего через N, как двумерный вектор времени [xi,1, xi2], указывая, что каждый пакет потока i требует xi l раз для обработки ЦП и xi 2 время для передачи, если все время ЦП на N и ресурсы полосы пропускания канала на L0 выделены потоку i. Соответственно, вектор скорости [Cib Ci2] (в единицах пакеты в секунду) для потока i является обратной величиной временного профиля, Q,i = 1/X1,i и Ci,2 = 1/х1,2. Потоки услуг с разными структурами пакетов часто имеют несовпадающий временной профиль при прохождении через узел NFV. Например, при прохождении функции брандмауэра служебные потоки переносят небольшие пакеты с большим размером заголовка, такие как запрос DNS, поэтому они требуют больше процессорного времени для обработки, тогда как другие потоки трафика данных, например видеотрафик, с большим размером пакета потребуют больше времени для передачи пакетов, но меньше времени на обработку ЦП.

Следовательно, потоки услуг всегда имеют более критическое потребление ресурсов либо по времени ЦП, либо по полосе пропускания канала [13]. При заданном наборе максимально доступных ресурсов ЦП и ресурсов полосы пропускания канала на узле NFV и его исходящем канале временной профиль для разных потоков трафика, совместно использующих один узел NFV, может сильно отличаться. Максимальное доступное время ЦП на N1 и максимальная пропускная способность канала на L0 распределяются между потоками. Предположим, потоку i назначена скорость обработки пакетов ci1 из максимальной скорости обработки Ci1, и скорость передачи пакетов ci2 из максимальной скорости передачи Ci 2. Обратите внимание, что когда время ЦП распределяется между несколькими потоками, могут возникнуть некоторые накладки на обработку ресурсов, поскольку общие ресурсы ЦП переключаются между потоками для различных задач обработки.

Существующие исследования показывают, что эти накладки на переключение ЦП становятся очевидными, только когда происходит насыщение трафика каждого потока, из-за чего процент использования ЦП становится высоким (т. е. ядра ЦП часто прерываются для переключения задач) [14].

Рассматривая только ненасыщенный трафик, мы предполагаем, что выделенная скорость обработки ci1 для потока i (6 I) изменяется линейно с занятой частью времени ЦП (т. е. полезной частью использования ЦП). Таким образом, мы обозначаем долю ресурсов ЦП, выделенных потоку i, через hi,1 = ci1/Ci1, а долю ресурсов полосы пропускания канала -через hi2 = ci,2/Ci,2.

Обобщенное совместное использование ресурсов

Когда разные потоки услуг мультиплексируются на общем узле NFV, мы хотим определить, как ресурсы ЦП и полосы пропускания канала должны распределяться между потоками трафика, чтобы достичь высокой степени использования каждого типа услуги и, в то же время, поддерживать (взвешенное) справедливое распределение среди услуг. Поскольку потоки услуг могут иметь разные требования к обработке, совместное использование двух ресурсов становится более сложной задачей, чтобы сбалансировать обработку между высокой производительностью и справедливым распределением. Дисциплина обобщенного совместного использования процессора (GPS - generalized processor sharing) представляет собой эталонную модель распределения единого ресурса (т. е. с бесконечно делимого) для сетей с интегрированными услугами в традиционных сетях связи. Каждому потоку услуг, например потоку i, на общем сервере GPS (например, сетевом коммутаторе) назначается положительное значение, указывающее его приоритет при распределении полосы пропускания [15, 16]. Сервер GPS гарантирует, что назначенная скорость передачи gi для потока i удовлетворяет требованию:

(1)

где G - это максимальная скорость обслуживания GPS-сервера. Обратите внимание, что знак неравенства в (1) сохраняется, когда некоторые потоки в I не имеют пакетов для передачи, и, таким образом, можно выделить больше ресурсов среди любых отложенных потоков. Следовательно, GPS обладает свойствами достижения как изоляции услуг, так и высокого выигрыша от мультиплексирования ресурсов между потоками.

Рассмотрим поток i и поток j с временными профилями [Чь ТЫ и [у, j] соответственно, проходящий через узел NFV N1, с тем же приоритетом обслуживания для справедливого совместного использования ресурсов. Предположим, что xi1> xi2 и хь1 < Xj,2. Если мы применяем двухресурсный GPS, максимальная скорость обработки и передачи делятся поровну для двух потоков. Следовательно, производительность обоих потоков, проходящих через N1, не максимизируется: для потока i из-за несбалансированных временных профилей выделенная скорость передачи канала ci 2 больше, чем скорость обработки ci1, что приводит к неэффективной трате ресурсов в канале передачи; crnyauHH, обратная для потока j, где пакеты накапливаются для передачи, что приводит к увеличению задержки в очереди. Следовательно, основной принцип для повышения производительности системы заключается в том, что доли ресурсов ЦП (hi1 и hi2) и полосы пропускания, выделенных любому потоку i (6 I) должны быть в той же пропорции, что и его временной про-

25

филь, т. е. hi,j/hi,2 = тц/ти, чтобы гарантировать, что выделенная скорость обработки будет уравновешена со скоростью передачи, т. е. c^ = cl2. Таким образом, может быть устранена задержка в очереди перед передачей пакетов для каждого потока. Однако в соответствии с этим основным принципом, если мы применяем GPS к одному из двух ресурсов, распределение (например, ЦП) ресурсов другого типа (например, полосы пропускания) среди потоков трафика по-прежнему будет несбалансированным из-за несоответствия временных профилей между разными потоками.

Чтобы максимизировать компромисс между высокой производительностью и справедливым распределением ресурсов для каждого потока трафика, мы используем обобщенную схему разделения процессора с доминирующим ресурсом. DR-GPS сочетает в себе концепции справедливости доминирующих ресурсов (DRF) [29] и GPS, в которых доли выделенных доминирующих ресурсов среди различных отложенных потоков выравниваются на основе приоритета обслуживания, а ресурсы другого типа выделяются для обеспечения равной скорости обработки и передачи для каждого потока. Когда потоки не имеют пакетов для обработки, их выделенные ресурсы перераспределяются между другими потоками с отложенной загрузкой, если таковые имеются.

Поскольку существует конечное число комбинаций потоков для формирования набора отложенных потоков из I, мы обозначим B (6 I) как одну из комбинаций потоков. Потребление ресурсов каждым отложенным потоком преобладает либо во время обработки, либо во время передачи пакетов.Мы математически формулируем DR-GPS в (2), когда множество I (|I| > 1) транспортных потоков пересекает Nj

Г £¿6в Ki < 1 and h,2 < 1

Ьи = 7^,2

(2)

\d _ nj,d

-, hi:1,hi:2wi,wj 6 [0,1]

На основе моделирования задержки для потоков, проходящих через первый узел №У, может быть проанализирована сквозная задержка пакетов для потоков трафика, проходящих через встроенные цепочки У№.

Рис. 2. Модель с организацией очередей при прохождении нескольких потоков трафика

В (2) w1 и WJ - веса распределения ресурсов для представления приоритета обслуживания для потока 1 и потока ^ соответственно, а - доля занятых доминирующих ресурсов потока 1, которая равна Ь1,1 или Ь12. Ограничение два гарантирует с1,1 = с12; ограничение три уравнивает доли выделенных доминирующих ресурсов среди отложенных потоков.

БК-вР8 имеет следующие свойства:

• изоляция услуг, гарантирующая скорость обслуживания (1) для каждого потока;

• непрерывность работы над потоками за счет полного использования по крайней мере одного из двух типов ресурсов при обслуживании отложенных потоков [18].

Хотя задержка постановки в очередь для пакетных передач уменьшается за счет использования схемы БЯ-ОР8, следует оценивать общую задержку пакетов для каждого потока, проходящего через один и тот же узел NFV. Общая задержка пакетов - это сумма задержки в очереди пакетов перед обработкой, задержка обработки пакетов и задержка передачи пакетов. Далее мы разрабатываем аналитическую модель для оценки общей задержки пакетов для каждого потока трафика, проходящего через N1 (рис. 2).

Поток ¡(Л,)

Поток j U,)

Рис. 3. Модель с организацией очередей при разделенной обработке и передаче пакетов

Интенсивность обработки

Основная трудность при анализе задержки пакетов для каждого потока заключается в том, что скорость обработки и передачи каждого потока зависит от состояния обработки других потоков в том же узле №У. В случае двух потоков, когда один из потоков имеет пустую очередь на обработку, ресурсы, необходимые для обработки и передачи, передаются другому отложенному потоку, чтобы использовать выигрыш от мультиплексирования трафика. Следовательно, скорость обработки (передачи) каждого потока переключается между двумя детерминированными значениями скорости в зависимости от состояния другого потока. Для общего случая, когда у нас есть набор I мультиплексируемых потоков, который включает набор В отложенных потоков, исключая помеченный поток 1, скорость обработки с1д потока 1 может быть определена путем решения (2) на множестве В отложенных потоков. Далее мы обозначим В как Вг, где г = 1, 2, ..., представляя одну из комбинаций |В| отложенных потоков. Таким образом, с1д изменяется с Вг. Эта корреляция состояния в очереди между потоками приводит к тому, что скорость обработки каждого потока перескакивает через дискретные детерминированные значения, что усложняет анализ общей задержки пакета.

Чтобы устранить эффект связи мгновенной скорости обработки одного потока, колеблющейся в зависимости от обработки других потоков, определим среднюю скорость обработки для потока 1 с учетом мультиплексирования ресурсов между различными потоками.

| _ £|В|=о5]гПтеВгУтдПпеВг(1-

■ yn,i)Ci,i

(3)

У

В (3) Вг = 1\ и Вг}, уи - непустая вероятность обработки очереди для потока 1 в N1. Учитывая скорость поступления пакетов для любого потока в I, (3) может быть решена численно для набора средних скоростей обработки каждого потока. Для обеспечения управляемости анализа мы используем среднюю скорость обработки ц1,1 в качестве приближения для мгновенной скорости обработки с1,1. Случай двух потоков трафика в узле №У показан на рисунке 3. Обработка пакетов с разделенными детерминированными скоростями для каждого потока может быть смоделирована как процесс организации очереди Ы/О/1 [19], на основе которого мы можем дополнительно вычислить задержку обработки пакета.

Первый ОТУ узел

Взяв в качестве примера поток 1 на рисунке 3, мы сосредоточимся на времени между отправкой двух последовательных пакетов. Пусть случайная величина Т1 будет временем между приходящими пакетами потока 1 на узел N. Если 1-й приходящий пакет попадает в непустую очередь, тогда Т1 = где 1 = 1/-ц - время обработки без привязки для пакета потока 1; если приходящий пакет видит пустую очередь. Т1 = 1 + х1, где случайная величина х1 обозначает продолжительность от момента отправления 1-го пакета потока 1 до времени прибытия (1 + 1) -го пакета. Из-за того, что процесс поступления Пуассона не имеет памяти, х1 имеет такое же экспоненциальное распределение, как время между прибытиями пакетов с параметром Х1. Следовательно плотность вероятности ^Т1(1) может быть вычислена:

+ (4)

Так как 1 и х1 независимые величины, то получившееся уравнение можно переписать:

-£,1

-£Д

(5)

где и(1) - кусочно-заданная функция, 5(1) - дельта-функция, * - оператор свертки. Отсюда можем получить функцию распределения:

и(Р - Ы

(6)

а11= —+ —

1,1 -£,1 2-?д(1-угд) -£|2

(7)

Т = в противном случае рассматриваются следующие два случая.

Случай 1. Если время прибытия (1 + 1)-го пакета в очередь обработки больше, чем время передачи 1-го пакета далее, то есть х1> мы получаем:

г1 = С + 2С = (х£ - + = Х1 + t¿,

(8)

где указывает продолжительность от момента, когда 1-й пакет покидает очередь передачи, до момента, когда (1 + 1)-й пакет прибывает в очередь обработки, и = Ъ;

Случай 2. Если (1 + 1) -й пакет поступает в очередь на обработку, в то время как 1-й пакет все еще находится в очереди на передачу, то есть х1 < ц, мы получаем:

= С + С? = в - - *г)] + t¿ = +

(9)

где обозначает оставшееся время обработки (1 +1)-го пакета в очереди обработки после того, как 1-й пакет уходит из очереди передачи, а =

пояаленне 1-го пакета

переучи (¡+ 1)-го пакета

XI + х1+ Д

(а) XI> и

Время

ноиилезше 1-го пакета

передача (5—1 )-Г0

пакета ----► Ъ\ ----

1 1 . - С, \ Сг ■

Время

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Поскольку частота отправления пакетов после каждой обработки такая же, как частота поступления пакетов, скорость передачи -12 для потока 1 такая же, как -1,1, путем решения системы уравнений в (2). Средняя задержка пакета для потока 1 определяется как:

Рассмотрим процесс передачи пакета для каждого потока в N1. Установим время 0 как момент, когда 1-й пакет покидает очередь обработки и достигает обработки для передачи пакета. Поскольку у нас -1,1 = -12, то 1 = 1/-12. Пусть т1 обозначает время между отправкой пакетов потока 1. Если поступивший 1-й пакет видит непустую очередь, мы имеем

Рис. 4. Организация т1 для разных случаев

В итоге получаем плотность вероятности в виде: = (1 - Уи) > + Р{х, <

(10)

Сравнивая с (4) и (10), мы заключаем, что т1 и у1 имеют точно такое же распределение вероятностей и, следовательно, любой порядок (например, математическое ожидание, дисперсия).

Задержка в канале передачи между узлами N1 и N2

Прежде чем достичь второго узла NFV потоки могут проходить через последовательность сетевых коммутаторов и физических каналов, пересылающих трафик. Скорости передачи, выделенные потоку 1 от этих коммутаторов и каналов, такие же, как скорости передачи -12 от N1, чтобы максимально использовать полосу пропускания [20]. Следовательно, задержки в очередях на коммутаторах и каналах не учитываются для каждого потока. Задержка передачи пакета для потока 1, пересекающего п коммутаторов и п каналов, прежде чем достигнуть определяется выражением:

й\= ^

' -1,2

(11)

Второй ОТУ узел

Положение 1. Пуассоновский поток проходит через к (к=1, 2, 3, ...) серверов, каждый с детерминированной пропускной способностью У (к). Если у нас У (ф) > У (д - 1), |7ф Е [2, к], процесс отправления потока трафика, выходящего из к-го (к > 2) сервера, остается таким же, как и процесс отправления. с первой подачи

Определим 2 как время между отправлениями пакетов на к-м сервере и определите р1 как вероятность того, что 1-й исходящий пакет увидит непустую очередь на первом сервере. Если 1-й уходящий пакет видит пустую очередь на первом сервере, определим, что х1 быть длительностью от момента времени 0 до момента, когда (1 + 1) -й пакет прибудет на сервер. При 1ч > I4"1 нет задержки в очереди на каждом из последующих серверов. Аналогично описанию на рис. 4, если 1-й приходящий пакет видит непустую очередь, мы имеем ^ = I1; в противном случае рассматриваются два случая:

Первый случай, когда х£ >

гк = (х1 - £кч=2 + £$=1 ^ = х1 + 11

Второй случай, когда х£ <

гк = £*=1 & - $к=2- х1) = х1 + I -

(12)

(13)

Согласно положению 1, процесс прибытия во второй узел №У N такой же, как и процесс отправления пакетов трафика из N1. На основании (7) и (11) скорость поступления потока 1 в N равна Х1. Таким образом, можно использовать тот же метод, что и в (3), чтобы получить набор для скоростей обработки и передачи ц'ц и ц\2 для потока 1 в N как показано на рисунке 5, с учетом типов трафика, проходящих через У№ на N и мгновенные скорости обработки и передачи с'1д и с'1,2, выделенные потоку 1. Основное отличие моделирования задержки пакета для потока 1 в N от моделирования в N1 состоит в том, что процесс прибытия пакета для потока 1 является общим со средней скоростью поступления Х1. Процесс имеет время между поступления пакетов с такой же функцией распределения. Таким образом, мы можем смоделировать обработку пакетов на N как процесс постановки в очередь для в/ Б/1, где средняя задержка постановки в очередь пакетов перед обработкой для потока 1 на N определяется выражением:

=

1 I1 1

~2— >

Ч Ци

<

(14)

Поскольку процесс поступления в N для каждого потока коррелирует с предыдущими скоростями обработки в как указано в (6), модель организации очередей в/Б/1 не является точной, особенно когда становится большим [38]. Использование верхней границы в (14) для аппроксимации не является точным, когда мало (система массового обслуживания слегка загружена), поскольку вероятность того, что прибывающий пакет в очереди обработки N увидит пустую очередь, увеличивается, и с12 становится большим.

Рис. 5. Независимая организация потоков трафика через узлы №У

Из (6) и (7), в случае ц'1,1 < Ц1,2, 21 с большей вероятностью приблизится к экспоненциально распределенной случайной величине, чем к детерминированному значению с изменяющимся значением при условии у'ц < 1. Поэтому, чтобы сделать процесс поступления каждого потока в очередь обработки N независимым от скорости обработки и передачи в N мы аппроксимируем процесс прибытия пакета потока 1 в N как процесс Пуассона с параметром скорости и устанавливаем модель М/Б/1 для обработки пакетов потока 1. Предположение 2 указывает на то, что средняя задержка в очереди пакетов 012 в модели массового обслуживания М/Б/1 является улучшенной верхней границей по сравнению с таковой в системе в/Б/1 в (14).

Положение 2. Учитывая, что ц ',1 < ¡,2, Qi2 является верхней границей Ж,2, когда очередь при постуалении потока I в N2 является как слегка загруженной, так и сильно загруженной.

Когда мало, с12 в (14) близко к соответствующему значению для системы массового обслуживания М/Б/1, задаваемому формулой:

1

(15)

Следовательно получаем W1,2 :

И4;

^-¿[""2--2--( ~

Ц/ 1 \ К

_ 1 2~ ,2 Ц;д

х£(-

Ц 1,1

2(1~У Ы

2(1~У ¡,1)

(16)

Когда становится больше, продолжительность простоя в течение времени между поступлением последовательных пакетов потока 1 в N мала, что делает с12 незначительным. Таким образом, мы получаем:

~— цТ")

Ц 1,1 Ци

(17)

2(1-уи) 2(1 -уи1)

С другой стороны, для обоих случаев загрузка трафика у1,2 в приближенной системе массового обслуживания М/Б/1 получается как:

Qi,2 =

2Ц;д(1-У;д)

> Щг

(18)

Таким образом, мы доказали, что у12 является верхней границей W1,2 как в условиях легкой, так и в сильной загруженности системы, и определили более жесткую верхнюю границу, чем в системе в/Б/1 в (14), когда мало.

В соответствии с аппроксимацией процесса поступления пакетов для потока 1 в N вычисляется средняя общая задержка пакета в N2 (независимо от скорости обработки и передачи в N1):

28

Т-Сотт Том 16. #3-2022

di,2 =

1 Xi 1

—Г" + -Я-!- + —Г" , Дм < Mi 7

1 1 -Г- + —Г", > M-j 2

(19)

Задержка из конца в коней

На основе той же методологии моделирования задержки для пакетов, проходящих через N средняя общая задержка пакетов для потока 1, проходящего через каждый последующий узел NFV (если таковой имеется), может быть получена независимо. При условии, что скорость обработки пакетов потока 1 в одном последующем узле N (т> 2) меньше, чем скорость передачи пакетов в его предыдущем узле NFV N^1, с использованием приближенной модели Ы/О/1, процесс прибытия пакета потока 1 в N с большей вероятностью приблизится к процессу Пуассона с изменяющимся значением Х1. В общем, средняя задержка для пакетов потока 1, проходящего через встроенную цепочку 'У№, состоящую из т узлов представляет собой сумму задержкек для пакета, проходящего через все узлы и общей задержки передачи на коммутаторах и каналах:

j — ут ß i ym jî ui — Zjz=1 uI,Z ^ ZJZ=1 ui,:

(20)

diz - это средняя задержка пакетов потока i на всех встречных NFV узлах, d\,z - это общая задержка передачи пакета потока i, пересекающего nz коммутаторов и nz каналов до достижения узла NFV Nz+i.

Заключение

В этой статье мы рассмотрели аналитическую модель для оценки сквозной задержки пакета для нескольких потоков трафика, пересекающих общую встроенную цепочку VNF. При использовании DR-GPS ресурсы ЦП и полосы пропускания распределяются между разными потоками в каждом узле NFV для достижения справедливого распределения ресурсов с высокой производительностью. Модель тандем-ной организации очередей устанавливается для описания пакетов каждого потока, проходящего через узел NFV и его исходящий канал. Путем устранения эффекта связывания мгновенных скоростей обработки пакетов между несколькими потоками, модель организации очереди M/D /1 используется для определения средней задержки пакета в каждой отделенной очереди обработки первого узла NFV. Корреляция скоростей передачи пакетов также удаляется при моделировании на основе анализа процесса отправления пакетов из каждой отделенной очереди обработки. Мы дополнительно анализируем процесс прибытия пакетов каждого потока в последующий узел NFV и устанавливаем приближенную модель организации очереди M/D/1 для определения средней задержки пакетов потока в очереди обработки узла NFV в условиях легкой, так и в условиях высокой нагрузки. Задержка передачи пакета по каждому встроенному виртуальному каналу между последовательными узлами NFV также выводится для вычисления сквозной задержки.

Литература

1. Goldstein A.B., Zarubin A.A., Onufrienko A.V., Elagin V.S., Belozertsev I A. Synchronization of delay for OTT services in LTE // 2018 Systems of Signal Synchronization.

2. Al-Fuqaha A., Guizani M., Mohammadi M., Aledhari M., Ayyash M. Internet of Things: A survey on enabling technologies, protocols, and applications // IEEE Commun. Surv. Tutor., vol. 17, no. 4, pp. 2347-2376, Fourth Quarter 2015ITU-R, "IMT vision: Framework and overall objectives of the future development of IMT for 2020 and beyond," Recommendation ITU-R M.2083-0, Sept. 2015.

3. Ye Q., Zhuang W. Distributed and adaptive medium access control for Internet-of-Things-enabled mobile networks // IEEE Internet Things J., vol. 4, no. 2, pp. 446-460, Apr.3GPP TS 23.501; System architecture for the 5G system; Stage 2. Apr. 2018.

4. Mijumbi R., Serrat J., Gorricho J. L., Bouten N., Turck F. D., Boutaba R. Network function virtualization: State-of-the-art and research challenges // IEEE Commun. Surv. Tutor., vol. 18, no. 1, pp. 236- 262, First Quarter 2017.

5. Wang L., Lu Z., Wen X., Knopp R., Gupta R. Joint optimization of service function chaining and resource allocation in network function virtualization // IEEE Access, vol. 4, pp. 8084-8094, Nov. 2017.

6. Bari F., Chowdhury S. R., Ahmed R., Boutaba R., Duarte O. C. M. B. Orchestrating virtualized network functions // IEEE Trans. Netw. Serv. Manage., vol. 13, no. 4, pp. 725-739, Dec. 2018.

7. Elagin V.S., Belozertsev I.A., Goldshtein B.S., Onufrienko A. V., Vladyko A.G. Models of QoE ensuring for OTT services // 2019 Systems of Signals Generating and Processing in the Field of on Board Communications, SOSG 2019. 2019. P. 8706748.

8. LiX., Rao J., Zhang H., Callard A. Network slicing with elastic SFC // Proc. IEEE VTC' 17, Sept. 2017, pp. 1-5.

9. Nunes B. A. A., Mendonca M., Nguyen X. N., Obraczka K., Turletti T. A survey of software-defined networking: Past, present, and future of programmable networks // IEEE Commun. Surv. Tutor., vol. 16, no. 3, pp. 1617-1634, Third Quarter 2014.

10. Ayoubi S., Assi C., Shaban K., Narayanan L. MINTED: Multicast virtual network embedding in cloud data centers with delay constraints // IEEE Trans. Commun., vol. 63, no. 4, pp. 1291-1305, Apr. 2015.

11. A. Ghodsi, V. Sekar, M. Zaharia, I. Stoica. Multi-resource fair queueing for packet processing // ACM SIGCOMM Comput. Commun. Rev., vol. 42, no. 4, pp. 1-12, Oct. 2012.

12. Wang W., Liang B., Li B. Multi-resource generalized processor sharing for packet processing // Proc. ACM IWQoS' 13, Jun. 2013, pp. 1-10.

13. Goldstein A.B., Belozertsev IA ., Spirkina A.V., Elagin V.S. Providing QOS for OTT Services in Communication Networks // Conference: 2020 Systems of Signals Generating and Processing in the Field of on Board Communications, March 2020, DOI: 10.1109/IEEECONF48371.2020.9078633

14. Egi N. et al., "Understanding the packet processing capability of multicore servers. Intel Tech. Rep., 2009.

15. Parekh A. K., Gallager R. G. A generalized processor sharing approach to flow control in integrated services networks: The single node case // IEEE/ACM Trans. Netw., vol. 1, no. 3, pp. 344-357, Jun. 1993.

16. Zhang Z.-L., Towsley D., Kurose J. Statistical analysis of the generalized processor sharing scheduling discipline // IEEE J. Sel. Areas Commun., vol. 13, no. 6, pp. 1071-1080, Aug. 1995.

17. Ghodsi A., Zaharia M., Hindman B., Konwinski A., Shenker S., Stoica I. Dominant resource fairness: Fair allocation of multiple resource types // Proc. ACM NSDI' 11, Apr. 2011, pp. 24-37.

18. Parkes D. C., Procaccia A. D., Shah N. Beyond dominant resource fairness: Extensions, limitations, and indivisibilities // ACM Trans. Econ. Comput., vol. 3, no. 1, p. 3, Mar. 2015.

19. Bertsekas D. P., Gallager R. G., Humblet P. Data networks. Englewood Cliffs, NJ, USA: Prentice-hall, 1987, vol. 2.

20. Larsen S., Sarangam P., Huggahalli R., Kulkarni S. Architectural breakdown of end-to-end latency in a TCP/IP network // Int. J. Parallel Program., vol. 37, no. 6, pp. 556-571, Dec. 2009.

MODELING THE ESTIMATION OF END-TO-END PACKET LATENCY FOR A CHAIN OF NFV NODES IN 5G NETWORKS

Vasily S. Elagin, The Bonch-Bruevich Saint-Petersburg State University of Telecommunications, St. Petersburg, Russia, elagin.vas@gmail.com

Alexander V. Bogachev, Netcracker Technology, Moscow, Russia Ilya A. Belozertsev, The Bonch-Bruevich Saint-Petersburg State University of Telecommunications, St. Petersburg, Russia,

ilya.belozercev@outlook.com

It is expected that future communication networks will provide configurable delay-sensitive types of services (for example, streaming video, machine-to-machine interaction). To support a variety of applications and use cases of servers providing various functions, you can use network function visualization (NFV), which will be able to provide flexible implementation and placement of configuration of the necessary network functions. This article analyzes the end-to-end packet latency (E2E) for multiple traffic flows passing through the chain of embedded virtual network functions (VNF) in fifth-generation communication networks (5G). The Dominant of Generalized Resource Processing (DR-GPS) is used to distribute computing resources and transfer data between threads in each node of Network Function Virtualization (NFV) to achieve equitable distribution and utilization of available resources. The tandem queuing model is designed for incoming packets combined in several streams passing through the NFV node and its outgoing transmission channel. To analyze manageability, we separate packet processing (and transmission) of various streams in the simulation and determine the average packet processing and transmission rates of each stream as approximate service speeds.

Keywords: NFV, SDN, fifth generation networks, 5G, low latency, network architecture.

1. A.B. Goldstein, A.A. Zarubin, A.V. Onufrienko, V.S. Elagin, I.A. Belozertsev (2018). Synchronization of delay for OTT services in LTE. 2018 Systems of Signal Synchronization,

2. A. Al-Fuqaha, M. Guizani, M. Mohammadi, M. Aledhari, and M. Ayyash (2015), "Internet of Things: A survey on enabling technologies, protocols, and applications," IEEE Commun. Surv. Tutor., vol. 17, no. 4, pp. 2347-2376, Fourth Quarter 20I5ITU-R, "IMT vision: Framework and overall objectives of the future development of IMT for 2020 and beyond," Recommendation ITU-R M.2083-0, Sept. 2015.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3. Q. Ye and W. Zhuang (2018), "Distributed and adaptive medium access control for Internet-of-Things-enabled mobile networks," IEEE Internet Things J., vol. 4, no. 2, pp. 446-460, Apr.3GPP TS 23.501; System architecture for the 5G system; Stage 2. Apr. 2018.

4. R. Mijumbi, J. Serrat, J. L. Gorricho, N. Bouten, F. D. Turck, and R. Boutaba (2017), "Network function virtualization: State-of-the-art and research challenges," IEEE Commun. Surv. Tutor., vol. 18, no. I, pp. 236- 262, First Quarter 2017.

5. L. Wang, Z. Lu, X. Wen, R. Knopp, and R. Gupta (2017), "Joint optimization of service function chaining and resource allocation in network function virtualization," IEEE Access, vol. 4, pp. 8084-8094, Nov. 2017.

6. F. Bari, S. R. Chowdhury, R. Ahmed, R. Boutaba, and O. C. M. B. Duarte (2018), "Orchestrating virtualized network functions," IEEE Trans. Netw. Serv. Manage., vol. 13, no. 4, pp. 725-739, Dec. 2018.

7. V.S. Elagin, I.A. Belozertsev, B.S. Goldshtein, A.V. Onufrienko, A.G. Vladyko (2019). Models of QoE ensuring for OTT services. 2019 Systems of Signals Generating and Processing in the Field of on Board Communications, SOSG 2019. P. 8706748.

8. X. Li, J. Rao, H. Zhang, and A. Callard (2017), "Network slicing with elastic SFC," in Proc. IEEE VTC' 17, Sept. 2017, pp. 1-5.

9. B. A. A. Nunes, M. Mendonca, X. N. Nguyen, K. Obraczka, and T. Turletti (2014), "A survey of software-defined networking: Past, present, and future of programmable networks," IEEE Commun. Surv. Tutor., vol. 16, no. 3, pp. 1617-1634, Third Quarter 2014.

10. S. Ayoubi, C. Assi, K. Shaban, and L. Narayanan (2015), "MINTED: Multicast virtual network embedding in cloud data centers with delay constraints," IEEE Trans. Commun., vol. 63, no. 4, pp. 1291-1305, Apr. 2015.

11. A. Ghodsi, V. Sekar, M. Zaharia, and I. Stoica (2012), "Multi-resource fair queueing for packet processing," ACM SIGCOMM Comput. Commun. Rev., vol. 42, no. 4, pp. 1-12, Oct. 2012.

12. W. Wang, B. Liang, and B. Li (2013), "Multi-resource generalized processor sharing for packet processing," in Proc. ACM IWQoS' 13, Jun. 2013, pp. 1-10

13. A.B. Goldstein, I.A. Belozertsev, A.V. Spirkina, V.S. Elagin (2020). Providing QOS for OTT Services in Communication Networks. Conference: 2020 Systems of Signals Generating and Processing in the Field of on Board Communications, March 2020, DOI: I0.II09/IEEECONF4837I.2020.9078633

14. N. Egi et al. (2009), "Understanding the packet processing capability of multicore servers," Intel Tech. Rep.

15. A. K. Parekh and R. G. Gallager (I993), "A generalized processor sharing approach to flow control in integrated services networks: The single node case," IEEE/ACM Trans. Netw., vol. I, no. 3, pp. 344-357, Jun. I993.

16. Z.-L. Zhang, D. Towsley, and J. Kurose (I995), "Statistical analysis of the generalized processor sharing scheduling discipline," IEEE J. Sel. Areas Commun., vol. I3, no. 6, pp. I07I-I080, Aug. I995.

17. A. Ghodsi, M. Zaharia, B. Hindman, A. Konwinski, S. Shenker, and I. Stoica (20II), "Dominant resource fairness: Fair allocation of multiple resource types," in Proc. ACM NSDI' II, Apr. 20II, pp. 24-37.

18. D. C. Parkes, A. D. Procaccia, and N. Shah (20I5), "Beyond dominant resource fairness: Extensions, limitations, and indivisibilities," ACM Trans. Econ. Comput., vol. 3, no. I, p. 3, Mar. 20I5.

19. D. P. Bertsekas, R. G. Gallager, and P. Humblet (I987), Data networks. Englewood Cliffs, NJ, USA: Prentice-hall, vol. 2.

20. S. Larsen, P. Sarangam, R. Huggahalli, and S. Kulkarni (2009), "Architectural breakdown of end-to-end latency in a TCP/IP network," Int. J. Parallel Program., vol. 37, no. 6, pp. 556-57I, Dec. 2009.

Information about authors:

Vasily S. Elagin, docent of the Department of Infocommunication Systems, The Bonch-Bruevich Saint-Petersburg State University of Telecommunications, St. Petersburg, Russia

Alexander V. Bogachev, product analytic, Netcracker Technology, Moscow, Russia

Ilya A. Belozertsev, postgraduate student of the Department of Infocommunication Systems, The Bonch-Bruevich Saint-Petersburg State University of Telecommunications, St. Petersburg, Russia

Abstract

References

i Надоели баннеры? Вы всегда можете отключить рекламу.