Научная статья на тему 'Оценка средних задержек телекоммуникационных инфраструктур и каналов межсоединения Центров обработки данных в архитектуре Web Scale'

Оценка средних задержек телекоммуникационных инфраструктур и каналов межсоединения Центров обработки данных в архитектуре Web Scale Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
331
34
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЦОД / МЕЖСОЕДИНЕНИЕ / СЕТЕВАЯ ЗАДЕРЖКА / WEB SCALE / ВИРТУАЛИЗАЦИЯ / КОЭФФИЦИЕНТ ИСПОЛЬЗОВАНИЯ / САМОПОДОБИЕ ТРАФИКА / ВРЕМЯ ЗАДЕРЖКИ / АРХИТЕКТУРА / LEAF-SPINE / 10G / 40G / QOS / КОНТЕНТ / "ОБЛАЧНЫЕ" УСЛУГИ / DCB / DATA PROCESSING CENTER / DPC / INTERCONNECTING / CROSS-NETWORK DELAY / VIRTUALIZATION / UTILIZATION COEFFICIENT / SELF-SIMILARITY OF A TRAFFIC / DELAY PERIOD / ARCHITECTURE / CONTENT / "CLOUDY" SERVICES

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Ромасевич Павел Владимирович

В данной работе рассмотрены типовые архитектуры Центров обработки данных (ЦОД) и тенденции их объединения в рамках концепции Web Scale в связи развитием технологий виртуализации, «облачных» услуг и требованиями все более быстрой доставки возрастающих объемов контента с надлежащим качетвом обслуживания (QoS). Предложены формулы оценок средней сетевой задержки канала межсоединения Центров обработки данных в архитектуре Web Scale и средней задержки телекоммуникационной инфраструктуры ЦОД произвольной архитектуры с учетом эффектов самоподобия трафика и потери пакетов. Дана характеристика специального программного обеспечения Data Center Bridging (DCB) и аппаратного функционала активного сетевого оборудования, необходимого для работы в специфических условиях эксплуатации Центров обработки данных и представлены соответствующие модели коммутаторов D-Link.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Ромасевич Павел Владимирович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

AVERAGE DELAYS ASSESSMENT OF TELECOMMUNICATION INFRASTRUCTURES AND INTERCONNECTING CHANNELS OF DATA PROCESSING CENTERS IN WEB SCALE ARCHITECTURE

In this article are considered standard architecture of the Data Centers (DC) and a tendency of their combining within the concept of Web Scale in communication by development of technologies of virtualization, "cloudy" services and requirements of more and more fast delivery of the increasing content volumes with appropriate quality of service (QoS). The proposed formulas estimates the average cross-network delay of channel interconnects for Data Centers in architecture of Web Scale and average delay of DC telecommunication infrastructure of arbitrary architecture taking into account effects of self-similarity of a traffic and loss of packets. The characteristic of the special software of Data Center Bridging (DCB) and hardware functionality of the active network equipment necessary for operation in specific operating conditions of Data Centers is also this and the appropriate models D-Link switches are provided.

Текст научной работы на тему «Оценка средних задержек телекоммуникационных инфраструктур и каналов межсоединения Центров обработки данных в архитектуре Web Scale»

УДК 004.7 DOI 10.25559/SITITO.2017.3.618

Ромасевич П.ВЛ 2

1 Компания D-Link, г. Волгоград, Россия 2 Волгоградский государственный университет, г. Волгоград, Россия

ОЦЕНКА СРЕДНИХ ЗАДЕРЖЕК ТЕЛЕКОММУНИКАЦИОННЫХ ИНФРАСТРУКТУР И КАНАЛОВ МЕЖСОЕДИНЕНИЯ ЦЕНТРОВ ОБРАБОТКИ ДАННЫХ В АРХИТЕКТУРЕ WEB

SCALE

Аннотация

В данной работе рассмотрены типовые архитектуры Центров обработки данных (ЦОД) и тенденции их объединения в рамках концепции Web Scale в связи развитием технологий виртуализации, «облачных» услуг и требованиями все более быстрой доставки возрастающих объемов контента с надлежащим качетвом обслуживания (QoS). Предложены формулы оценок средней сетевой задержки канала межсоединения Центров обработки данных в архитектуре Web Scale и средней задержки телекоммуникационной инфраструктуры ЦОД произвольной архитектуры с учетом эффектов самоподобия трафика и потери пакетов. Дана характеристика специального программного обеспечения Data Center Bridging (DCB) и аппаратного функционала активного сетевого оборудования, необходимого для работы в специфических условиях эксплуатации Центров обработки данных и представлены соответствующие модели коммутаторов D-Link.

Ключевые слова

ЦОД, межсоединение, сетевая задержка, Web Scale, виртуализация, коэффициент использования, самоподобие трафика, время задержки, архитектура, leaf-spine, 10G, 40G, QoS, контент, «облачные»услуги, DCB.

Romasevich P.V.1, 2

1 D-Link, Volgograd, Russia 2 Volgograd State University, Volgograd, Russia

AVERAGE DELAYS ASSESSMENT OF TELECOMMUNICATION INFRASTRUCTURES AND INTERCONNECTING CHANNELS OF DATA PROCESSING CENTERS IN WEB SCALE

ARCHITECTURE

Abstract

In this article are considered standard architecture of the Data Centers (DC) and a tendency of their combining within the concept of Web Scale in communication by development of technologies of virtualization, "cloudy" services and requirements of more and more fast delivery of the increasing content volumes with appropriate quality of service (QoS). The proposed formulas estimates the average cross-network delay of channel interconnects for Data Centers in architecture of Web Scale and average delay of DC telecommunication infrastructure of arbitrary architecture taking into account effects of self-similarity of a traffic and loss of packets. The characteristic of the special software of Data Center Bridging (DCB) and hardware functionality of the active network equipment necessary for operation in specific operating conditions of Data Centers is also this and the appropriate models D-Link switches are provided.

Keywords

Data processing center, DPC, interconnecting, cross-network delay, Web Scale, virtualization, utilization coefficient, self-similarity of a traffic, delay period, architecture, leaf-spine, 10G, 40G, QoS, content, "cloudy"services, DCB.

Введение

Распространение облачных услуг и виртуализации привело к появлению множества Центров Обработки Данных (ЦОД), результатом чего стал эффект «масштаба Web» (Web Scale) (Рис. 1). Это стало стимулом для поставщиков интернет-контента и облачных услуг предложить своим клиентам разнообразные приложения и предоставить доступ огромному множеству пользователей [1].

Фундаментом этих преобразований является сеть. Доступность ЦОД в мире Web Scale напрямую зависит от масштабируемости сети и эффективной бизнес-модели предоставления услуг.

Сегодня ЦОД подвергаются радикальной трансформации, нацеленной на обеспечение эффективной работы в условиях постоянно меняющихся объемов и природы трафика, растущей потребности в пропускной способности в связи с лавинообразным появлением новых приложений. Получение максимально быстрого доступа к интернет-контенту становится для пользователей принципиальным для возможности его использования [1].

Ввиду массового распространения мобильных устройств и появления в связи с этим разнообразных современных услуг и приложений пользовательский контент должен доставляться максимально быстро с соблюдением соответствующего для

приложения качества обслуживания (QoS), что стимулирует строительство дополнительных ЦОД вне крупных городов с тенденцией их объединения.

Уже сегодня корпоративные ИТ-подразделения все активнее переходят от собственных заказных ИТ-приложений к стандартным «облачным» решениям, контент которых хранится в ЦОД, географическое положение которого клиент может и не знать. А с учётом роста количества центров обработки данных и объемов запрашиваемой информации, а также всё большего распространения виртуализации серверов и вычислительных устройств, межсоединение ЦОД - DCI (Data Center Interconnet) становится одним из ключевых факторов обеспечения успешной реализации приложений верхнего уровня.

Виртуализация затронула все компоненты ЦОД и современные технологии теперь позволяют использовать два или несколько ЦОД как один — с разделением нагрузки и задач с целью сведения к минимуму эксплуатационных расходов и достижения максимальной производительности [1].

Поэтому сетевой обмен данными является фундаментом для основных функций ЦОД независимо от его типа и решает следующие задачи:

Организация соединений между серверами для компьютеров и вычислительных устройств с высоким быстродействием.

Доступ к устройствам хранения

Соединения между различными ЦОД, а также между ЦОД и внешним миром._

Архитектура Web Scale

Рис. 1

В этой связи превентивная оценка средних задержек, вносимых каналами межсоединений и самими коммутационными инфраструктурами ЦОД при обмене трафиком между ними в результате миграции виртуальных машин, уже на этапе проектирования или модернизации позволяет определить необходимые параметры сетевой инфраструктуры для обеспечения необходимого качества обслуживания (QoS) соответствующего «специализации»

конкретного центра обработки данных.

Оценка средней задержки канала межсоединения ЦОД

Учитывая постоянно растущую долю мультимедийного трафика, обладающего выраженной самоподобной природой, в оценках принципиально важно учитывать данный эффект, отрицательно влияющий на сетевую задержку и повышающий требования к аппаратным возможностям активного сетевого оборудования [4].

При этом в качестве исходных данных целесообразно оперировать получаемыми из систем мониторинга сети средними за исследуемый период параметрами

телекоммуникационных систем, которые в случае межсоединения ЦОДов являются одноканальными.

С точки зрения многолетнего опыта автора по созданию и модернизации

телекоммуникационных сетей, на практике важна именно оценка сетевых задержек в конкретных условиях эксплуатации.

Поэтому в данном случае можно применить формулу средней задержки, полученную в [2], учитывающую пропускную способность канала С и коэффициент его использования р, а также входящую скорость X в пакетах/с и параметр Херста Н, отражающий степень самоподобия трафика:

T =

(1)

Р р 1

2(1 - р)|_Л/ С 1 - р

Из формулы видно, что положительно влияют на задержку в сторону её уменьшения увеличение пропускной способности канала и скорости трафика в нём. Напротив, увеличение коэффициента использования канала и параметра Херста способствуют её увеличению, что в определенных случаях может оказаться неприемлемым для приложений и потребует масштабирования параметров

телекоммуникационной системы.

Уже сейчас на рынке доступны для использования сетевые коммутаторы с максимальной скоростью интерфейса 40G, сделав еще недавно фантастические скорости 10G обычным техническим решением.

Поскольку подключение к «внешнему миру» делается на граничном устройстве, порты которого, как правило, также задействованы и под «внутренние» подключения в ЦОД, имеет практический смысл ввести понятие среднего коэффициента одновременной загрузки портов, что при наличии интерфейсов 10G описывается формулой, полученной в [3] с условием, что пакеты не должны теряться из-за переполнения буферной памяти интерфейсов коммутатора:

8(64У+^)

Р <

WOO(K1G+WK10G )

(2)

где:

V - скорость передачи узлом 64-байтного пакета (если не оговорен иной размер пакета), 106 пакетов в секунду (Mpps);

Кюа - общее число портов с пропускной способностью до 10 Гбит/с;

Кю - общее число портов с пропускной способностью до 1 Гбит/с;

W - общий объем памяти ввода/вывода, который в современных архитектурах коммутаторов не делится жестко между всеми портами коммутатора, а может быть динамически распределен между реально работающими.

Продолжая преобразования, подставляя (2) в (1) можно получить формулу оценки средней задержки канала межсоединения ЦОД в

зависимости от документированных характеристик коммутатора, степени самоподобия трафика, а также параметров телекоммуникационной системы -

максимальной пропускной способности подведенного канала и среднего значения пакетной скорости трафика в нём.

Полученное выражение может быть легко обобщено для случая уже имеющихся на рынке интерфейсов 40G и использовано для инженерной оценки среднего значения сетевой задержки на основании документированных характеристик применяемого активного оборудования в телекоммуникационной системе межсоединения ЦОД на этапе проектирования или модернизации.

Оценка средней

телекоммуникационной

ЦОД

задержки инфраструктуры

Общая сетевая задержка зависит также и от задержки самой телекоммуникационной инфраструктуры центра обработки данных.

Доминирующая в последние десятилетия иерархическая трехуровневая сетевая архитектура, вполне подходящая для распределенных инфраструктур и

представляющая собой те или иные комбинации древовидной и кольцевой топологий, в ЦОД сменилась на двухуровневую инфраструктуру сетевой фабрики, традиционно применяющейся в системах хранения данных (СХД), на основе топологии «каждый с каждым» для обеспечения максимально быстрого сетевого обмена за счет минимизации «длины пути» между узлами.

Архитектура ЦОД эволюционирует вместе с развитием технологий виртуализации и облачных моделей. Для перехода к «облакам» каналы передачи должны обеспечивать максимально быстрый обмен данными между серверами и как раз с этой целью была разработана двухуровневая архитектура leaf-spine (Рис.2), благодаря которой приложения, размещенные на любом вычислительном устройстве, и все хранилища данных могут работать и масштабироваться согласованно, вне зависимости от того, где они физически расположены в инфраструктуре ЦОД [4].

При этом должно быть обеспечено соответствующее качество обслуживания, что делает актуальным превентивную оценку одного из основных критериев QoS - средней сетевой задержки телекоммуникационной инфраструктуры ЦОДа для понимания степени адекватности её архитектуры задачам выполняемых приложений.

Одним из вариантов реализации данной

2H-1

концепции является сетевой фабрики по топологии leaf-spine с установкой коммутаторов в каждой стойке (ToR). Объем медной кабельной инфраструктуры минимален: серверы подключаются к коммутаторам

соответствующими шнурами или короткими

твинкоаксиальными кабелями непосредственно в стойках с ИТ-оборудованием через интерфейсы 10G (Рис.3). При этом основная часть кабельной инфраструктуры является оптической [5].

Коммутаторы ядра

Коммутаторы доступа

Конечные Конечные Конечные Конечные Конечные Конечные

ИТ-устройства ИТ-устройства ИТ-устройства ИТ-устройства ИТ-устройства МТ-устройства

Источник: CommScope

Рис. 2

256 оптических соединений 40G

Коммутатор Leaf (ToR)

Стойка 0 (40 серверов) Стойка 1 (40 серверов)

Коммутатор Leaf (ToR)

32 «листа». Стойка 62 Стойка 63

По 80 серверов в каждом (40 серверов) (40 серверов)

Источник: Broadcom

Рис.3

Другой подход состоит в концентрации коммутаторов в середине (MoR) или в конце (EoR) ряда стоек и подключении к ним серверов каналами 10G (Рис. 4). Это позволяет существенно снизить стоимость активного оборудования, за счёт использования коммутаторов с медными портами 40GBase-T ввиду сокращения длин каналов 40G, реализуемые посредством медных кабелей

прямого подключения (DAC), и возможности размещения коммутаторов доступа и ядра рядом, а в ряде случаев даже в одной стойке. И несмотря на рост расходов на ту часть СКС, которая используется для подключения серверов к коммутаторам доступа, по оценкам Broadcom, стоимость данного варианта оказывается примерно в три раза ниже [5].

В [6] была предложена формула оценки

средней задержки для сети произвольной архитектуры с учетом самоподобия трафика

af ''(в)2 H р

С2 H Ч(1 -р)2 H

Л

i

2(1-H)

(3)

где средняя задержка телекоммуникационной сети зависит от вариации трафика а , скорости

канала С и обратной функции от распределения вероятности потери пакетов f 1 (г), средней длины пути в

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

телекоммуникационной сети П , параметра Херста Н и полной средней скорости трафика внутри сети X.

Источник: Broadcom

Рис. 4

Средняя длина пути телекоммуникационной системы произвольной архитектуры с внешними каналами может быть получена по

прочих равных условиях.

Для этого случая формула (3) модифицирована в [8] и имеет вид

формуле теоремы Клейнрока

n =

7

[7], где

У - средняя величина общего внешнего трафика телекоммуникационной сети, которую легко определить, т.к. к ЦОДу подходит ограниченное количество внешних каналов. Таким образом в формуле (1) мы избавляемся от трудоемкого расчета X и П.

Если кабельная система ЦОД выполнена по соответствующим стандартам, то вклад кабельной системы в потери пакетов ничтожен и основной причиной роста задержки будет являться переполнение буферной памяти интерфейсов за счет превышения суммы среднего значения т и вариации трафика а над С при отсутствии шейпинга, а также эффект самоподобия трафика, который увеличивает требования к размеру буферной памяти при

Т =-V

7,

ар

С2

- ln(

С

2H-1 Л \2H

1 - Р

2ра ^ H

x

1 - H

2(1-H) ^ )

1-р

2(1-H)

(4)

Итак, общая задержка при транзите трафика через ЦОД в архитектуре Web Scale будет выражаться суммой задержек, выражаемых формулами (1) с учетом (2) и (4).

Заключение

Полученный результат может быть использован специалистами системных интеграторов для предварительной оценки необходимых параметров

телекоммуникационной инфраструктуры ЦОД в архитектуре Web Scale на этапах проектирования и модернизации.

Необходимо отметить, что специфика работы коммутаторов в ЦОД отличается от иных условий эксплуатации и предполагает поддержку определенного функционала - Data Center Bridging (DCB), который является обязательной установкой специальных расширений технологии Ethernet для сетевой работы в дата-центрах. Главными DCB являются IEEE 802.1Qbb, IEEE 802.1Qaz и IEEE 802.1Qau. IEEE 802.1Qbb отвечает за контроль потока на основе приоритетов, отвечающий контроль потока для нивелирования потерь данных во время сетевой перегрузки. IEEE 802.1Qaz обеспечивает выбор расширенной передачи, задача которого состоит в управлении распределением ширины полосы пропускания среди различных классов трафика. IEEE 802.1Qau инициирует уведомление о перегрузке, обеспечивающий управление перегрузкой для потоков данных внутри сетевых доменов в целях предотвращения перегрузки.

При этом высокая плотность размещения большого количества оборудования в аппаратных стойках делает актуальными задачи экономии электроэнергии и поддержание соответствующего температурного баланса. В коммутаторах D-Link это достигается наличием автоматического выбора направления

вентиляции от задней панели к передней или наоборот, что обеспечивает максимальное кондиционирование воздуха для более эффективного охлаждения всех систем, монтируемых в стойках ЦОД. Коммутаторы также оснащены встроенными

интеллектуальными вентиляторами,

внутренними термодатчиками,

контролирующими изменение температуры и реагирующими соответственно на

использование различной скорости

вентиляторов при разных температурах. При низких температурах скорость вентиляторов снижается, что сокращает потребление энергии и снижает уровень шума.

Компания D-Link предлагает линейку коммутаторов, обладающих этими качествами и специально предназначенных для работы в ЦОД - DGS-3400-24SC [9], DGS-3400-24TC [10], DGS-3600-16S [11] и DGS-3600-32S [12].

В частности, стек коммутаторов, построенных на модели DGS-3400-24TC, уже около года успешно эксплуатируется в качестве ядра корпоративной сети в главном телекоммуникационном узле Волгоградского государственного университета, где имеет честь также работать автор.

Литература

9.

10. 11. 12.

Open System Publications [электронный ресурс] // URL: https://www.osp.ru/lan/2016/04/13049078/ (дата обращения 24.08.2017)

П.В.Ромасевич, Оценка некоторых параметров одноканальной телекоммуникационной системы при самоподобном трафике, Сборник избранных трудов V Международной научно-практической конференции «Современные информационные технологии и ИТ-образование», Доиздание, Москва, 2011, с.87-91.

П.В. Ромасевич, Метод оценки возможности применения коммутаторов на уровнях иерархии пакетных телекоммуникационных сетей. - Тезисы IV Региональной научно-практической конференции «Проблемы передачи информации в телекоммуникационных системах», 2012, Волгоград, с. 51-54.

Open System Publications [электронный ресурс] // URL: https://www.osp.ru/lan/2016/10/13050614/ (дата обращения 24.08.2017)

Open System Publications [электронный ресурс] // URL: https://www.osp.ru/lan/2017/01-02/13051371/ (дата обращения 24.08.2017)

П.В.Ромасевич Оценка влияния параметров телекоммуникационной системы на среднее время задержки в условиях самоподобного трафика // Инфокоммуникационные технологии. - 2005. - №3. - С. 21-26. Л.Клейнрок, Коммуникационные сети, М., Наука, 1970, 255 с.

Ромасевич П.В., Оценка необходимой канальной емкости телекоммуникационной ситсемы с ограниченной буферной памятью в условиях самоподобного трафика - Сборник избранных трудов IX Международной научно-практической конференции «Современные информационные технологии и ИТ-образование», Москва, 2014, с.456-461, ISBN 978-5-95560165-6.

D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/2117.html (дата обращения 24.08.2017) D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/2116.html (дата обращения 24.08.2017) D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/1698.html (дата обращения 24.08.2017) D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/1529.html (дата обращения 24.08.2017)

References

Open System Publications [электронный ресурс] // URL: https://www.osp.ru/lan/2016/04/13049078/ (дата обращения 24.08.2017)

P.V. Romasevich, Ocenka nekotoryh parametrov odnokanal'noj telekommunikacionnoj sistemy pri samopodobnom trafike, Sbornik izbrannyh trudov V Mezhdunarodnoj nauchno-prakticheskoj konferencii «Sovremennye informacionnye tehnologii i IT-obrazovanie», Doizdanie, Moskva, 2011, s.87-91.

P.V. Romasevich, Metod ocenki vozmozhnosti primenenija kommutatorov na urovnjah ierarhii paketnyh telekommunikacionnyh setej. - Tezisy IV Regional'noj nauchno-prakticheskoj konferencii «Problemy peredachi informacii v telekommunikacionnyh sistemah», 2012, Volgograd, s. 51-54.

Open System Publications [электронный ресурс] // URL: https://www.osp.ru/lan/2016/10/13050614/ (дата обращения 24.08.2017)

Open System Publications [электронный ресурс] // URL: https://www.osp.ru/lan/2017/01-02/13051371/ (дата обращения 24.08.2017)

P.V. Romasevich Ocenka vlijanija parametrov telekommunikacionnoj sistemy na srednee vremja zaderzhki v uslovijah samopodobnogo trafika // Infokommunikacionnye tehnologii. - 2005. - №3. - S. 21-26. L.Klejnrok, Kommunikacionnye seti, M., Nauka, 1970, 255 s.

Romasevich P.V., Ocenka neobhodimoj kanal'noj emkosti telekommunikacionnoj sitsemy s ogranichennoj bufernoj pamjat'ju v uslovijah samopodobnogo trafika - Sbornik izbrannyh trudov IX Mezhdunarodnoj nauchno-prakticheskoj konferencii «Sovremennye informacionnye tehnologii i IT-obrazovanie», Moskva, 2014, s.456-461, ISBN 978-5-9556-0165-6.

9. D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/2117.html (дата обращения 24.08.2017)

10. D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/2116.html (дата обращения 24.08.2017)

11. D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/1698.html (дата обращения 24.08.2017)

12. D-Link [электронный ресурс] // URL: http://www.dlink.ru/ru/products/1/1529.html (дата обращения 24.08.2017)

Поступила: 10.09.2017

Об авторe:

Ромасевич Павел Владимирович, кандидат технических наук, региональный менеджер компании D-Link по Волгоградской, Астраханской областям и республике Калмыкия; доцент кафедры «Телекоммуникационных систем», Волгоградский государственный университет, promasevich@dlink.ru

Note on the author:

Romasevich Pavel V., Candidate of Technical Sciences, Head of the D-Link company on the Volgograd, Astrakhan regions and the Republic of Kalmykia; Associate professor of «Telecommunication systems», Volgograd State University, promasevich@dlink.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.