Научная статья на тему 'Исследование качества обслуживания в локальных вычислительных сетях'

Исследование качества обслуживания в локальных вычислительных сетях Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
446
140
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Исследование качества обслуживания в локальных вычислительных сетях»

Все коэффициенты а будут являться частными корреляционными коэффициентами.

Коэффициент корреляции не показывает степень воздействия факторного признака на результативный. Таким показателем является коэффициент детерминации (обозначим его Б), для случая линейной связи представляющий собой квадрат парного линейного коэффициента корреляции (Б=г2) или квадрат множественного коэффициента корреляции. Его значение определяет долю (в процентах) изменений, обусловленных влиянием факторного признака, в общей изменчивости результативного признака.

В рамках данной задачи ограничимся только таблицей из коэффициентов регрессии. Вид таблицы следующий:

Зависимость между величинами линейная.

Используя табл. 2, можно оценить зависимость между случайными величинами.

Таким образом, зная зависимости и изменяя входные параметры, итерационно достигнем максимума целевой функции Б и тем самым решим поставленную задачу оптимизации, ггш

— Коротко об авторе

Со-Мин-Тун - аспирант, кафедра АСУ, Московский государственный горный университет.

© Со-Мин-Тун, 2GG8

Со-Мин-Тун

ИССЛЕДОВАНИЕ КАЧЕСТВА ОБСЛУЖИВАНИЯ В ЛОКАЛЬНЫХ ВЫЧИСЛИТЕЛЬНЫХ СЕТЯХ

Функции качества обслуживания (QoS) заключаются в обеспечении гарантированного и дифференцированного

2G2

обслуживания сетевого трафика путем передачи контроля за использованием ресурсов и загруженностью сети ее оператору. QoS представляет собой набор требований, предъявляемых к ресурсам сети при транспортировке потока данных. QoS обеспечивает сквозную гарантию передачи данных и основанный на системе правил контроль за средствами повышения производительности IP-сети, такими как механизм распределения ресурсов, коммутация, маршрутизация, механизмы обслуживания очередей и механизмы отбрасывания пакетов.

Ниже перечислены некоторые из основных преимуществ качества обслуживания:

• Обеспечение поддержки существующих и появляющихся мультимедийных служб и приложений.

• Передача контроля за ресурсами сети и их использованием сетевому оператору. Обеспечение гарантии обслуживания и дифференцирование сетевого трафика. Это условие является необходимым для объединения аудио/видеотрафика и трафика приложений в пределах одной IP-сети.

• Возможность поставщикам услуг Internet предлагать клиентам дополнительные услуги наряду со стандартной услугой негарантированной доставки данных (другими словами, предоставлять услуги в соответствии с так называемым классом обслуживания -Class of Service (CoS)).

• Играет значительную роль в развитии новых сетевых технологий, таких как виртуальные частные сети (Virtual Private Networks - VPNs).

Способность сети обеспечивать различные уровни обслуживания, запрашиваемые теми или иными сетевыми приложениями, наряду с проведением контроля за характеристиками производительности - полосой пропускания, задержкой/ дрожанием и потерей пакетов - может быть классифицирована по трем перечисленным ниже категориям.

Негарантированная доставка данных (best-effort service)

Обеспечение связности узлов сети без гарантии времени и самого факта доставки пакета в пункт назначения. Отбрасывание пакета может произойти только в случае переполнения буфера входной или выходной очереди маршрутизатора.

На самом деле негарантированная доставка пакетов не является частью QoS вследствие отсутствия гарантии качества обслужи-

вания и гарантии обеспечения доставки пакетов. Негарантированная доставка пакетов является на сегодняшний день единственной услугой, поддерживаемой в Internet.

Дифференцированное обслуживание (differentiated service) Дифференцирование обслуживание предполагает разделение трафика на классы на основе требований к качеству обслуживания. Каждый класс трафика дифференцируется и обрабатывается сетью в соответствии с заданными для этого класса механизмами QoS. Подобная схема обеспечения качества обслуживания (QoS) довольно часто называется схемой CoS.

Следует отметить, что дифференцированное обслуживание само по себе не предполагает обеспечения гарантий предоставляемых услуг. В соответствии с данной схемой трафик распределяется по классам, каждый из которых имеет свой собственный приоритет. По этой причине дифференцированное обслуживание довольно часто называют мягким QoS (soft QoS).

Дифференцированное обслуживание удобно применять в сетях с интенсивным трафиком приложений.

Гарантированное обслуживание (guaranteed service) Гарантированное обслуживание предполагает резервирование сетевых ресурсов с целью удовлетворения специфических требований к обслуживанию со стороны потоков трафика.

В соответствии с гарантированным обслуживанием выполняется предварительное резервирование сетевых ресурсов по всей траектории движения трафика.

Гарантированное обслуживание довольно часто называют еще жестким QoS (hard QoS) в связи с предъявлением строгих требований к ресурсам сети.

К сожалению, резервирование ресурсов на всем пути следования отдельных потоков трафика невозможно реализовать в масштабах магистрали Internet, обслуживающей в отдельный момент времени тысячи потоков данных.

Характеристики производительности сетевого соединения Внедрение механизмов QoS предполагает обеспечение со стороны сети соединения с определенными ограничениями по производительности. Основными характеристиками производительности сетевого соединения являются полоса пропускания, задержка, дрожание и уровень потери пакетов.

Полоса пропускания

Термин полоса пропускания (bandwidth) используется для описания номинальной пропускной способности среды передачи информации, протокола или соединения.

Как правило, каждое соединение, нуждающееся в гарантированном качестве обслуживания, требует от сети резервирования минимальной полосы пропускания. К примеру, приложения, ориентированные на передачу оцифрованной речи, создают поток информации интенсивностью 64 Кбит/с. Эффективное использование таких приложений становится практически невозможным вследствие снижения полосы пропускания ниже 64 Кбит/с на каком-либо из участков соединения.

Задержка при передаче пакета (packet delay), или латентность (latency), на каждом переходе состоит из задержки сериализации, задержки распространения и задержки коммутации. Ниже приведены определения каждого из названных выше типов задержки.

Задержка сериализации (serialization delay). Время, которое требуется устройству на передачу пакета при заданной ширине полосы пропускания. Задержка сериализации зависит как от ширины полосы пропускания канала передачи информации, так и от размера передаваемого пакета. Например, передача пакета размером 64 байт при заданной полосе пропускания 3 Мбит/с занимает всего лишь 171 не. Обратите внимание, что задержка сериализации очень сильно зависит от полосы пропускания: передача того же самого пакета размером 64 байт при заданной полосе пропускания 19,2 Кбит/с занимает уже 26 мс. Довольно часто задержку сериализации называют еще задержкой передачи (transmission delay).

Задержка распространения (propagation delay). Время, которое требуется переданному биту информации для достижения принимающего устройства на другом конце канала. Эта величина довольно существенна, поскольку в наилучшем случае скорость передачи информации соизмерима со скоростью света. Задержка распространения зависит от расстояния и используемой среды передачи информации, а не от полосы пропускания. Для линий связи глобальных сетей задержка распространения измеряется в миллисекундах. Для трансконтинентальных сетей Соединенных Штатов характерна задержка распространения порядка 30 мс.

Задержка коммутации (switching delay). Время, которое требуется устройству, получившему пакет, для начала его передачи следующему устройству. Как правило, это значение меньше 10 нс.

Обычно каждый из пакетов, принадлежащий одному и тому же потоку трафика, передается с различным значением задержки. Задержка при передаче пакетов меняется в зависимости от состояния промежуточных сетей.

Если сеть не испытывает перегрузки, то пакеты не ставятся в очередь в маршрутизаторах, а общее время задержки при передаче пакета состоит из суммы задержки сериализации и задержки распространения на каждом промежуточном переходе. В этом случае можно говорить о минимально возможной задержке при передаче пакетов через заданную сеть. Следует отметить, что задержка сериализации становится незначительной по сравнению с задержкой распространения при передаче пакета по каналу с большой пропускной способностью.

Если же сеть перегружена, задержки при организации очередей в маршрутизаторах начинают влиять на общую задержку при передаче пакетов, и приводят к возникновению разницы в задержке при передаче различных пакетов одного и того же потока. Колебание задержки при передаче пакетов получило название джиттер-пакетов (packet jitter).

Данный параметр имеет большую важность, поскольку именно он определяет максимальную задержку при приеме пакетов в конечном пункте назначения. Принимающая сторона, в зависимости от типа используемого приложения, может попытаться компенсировать дрожание пакетов за счет организации приемного буфера для хранения принятых пакетов на время, меньшее или равное верхней границе дрожания. К этой категории относятся приложения, ориентированные на передачу/прием непрерывных потоков данных, например IP-телефония или приложения, обеспечивающие проведение видеоконференций.

Методы обеспечения качества обслуживания: DiffServ и IntServ

Integrated Service (IntServ, RFC 1633) - модель интегрированного обслуживания. Может обеспечить сквозное (End-to-End) качество обслуживания, гарантируя необходимую пропускную способность. IntServ использует для своих целей протокол сигнализации RSVP, позволяет приложениям выражать сквозные требования к

ресурсам и содержит механизмы обеспечения данных требований. IntServ можно кратко охарактеризовать как резервирование ресурсов (Resource reservation).

Протокол RSVP

Данный протокол позволяет приложениям посылать сигналы в сеть о своих QoS-требованиях для каждого потока. Чтобы определить количественные характеристики этих требований с целью управления доступом, используются служебные параметры.

Протокол RSVP применяется в приложениях с групповой рассылкой, таких как приложения аудио- и видеоконференций. Несмотря на то, что изначально протокол RSVP был ориентирован на мультимедийный трафик, с его помощью легко можно резервировать полосу пропускания для однонаправленного трафика, например для трафика сетевой файловой системы (Network File System -NFS) и управляющего трафика виртуальных частных сетей (Virtual Private Networks - VPN).

Протокол RSVP сигнализирует о запросах резервирования ресурсов по доступному маршрутизируемому пути в сети. При этом RSVP не производит собственную маршрутизацию; напротив, этот протокол был разработан для использования других, более мощных протоколов маршрутизации. Как и любой другой 1Р-трафик, при определении пути для данных и управляющего трафика RSVP полагается на применяемый в сети протокол маршрутизации.

Работа протокола RSVP

Конечные системы используют протокол RSVP для запрашивания у сети определенного уровня QoS от имени потока______

Узел

Приложение

X

RSVPD

Классификатор пакетов

Управление

политикой

Управление

доступом

Планировщик пакетов

Демон маршрутизатора

RSVPD

Управление

политикой

Классификатор пакетов

Управление

доступом

Планировщик пакетов

Рис. 1. Основные модули КБУР

данных приложения. RSVP-запросы передаются по сети при прохождении каждого узла, который применяется для передачи пото-

ка. Протокол RSVP пытается зарезервировать ресурсы для потока данных на каждом из этих узлов.

RSVP-совместимые маршрутизаторы помогают доставить нужные потоки данных в нужную точку назначения. На рис.1.1 изображены основные модули, информация о потоке данных и информация об управляющих потоках клиента и маршрутизатора, поддерживающих протокол RSVP

Перед тем как зарезервировать ресурсы, RSVP-демон маршрутизатора соединяется с двумя локальными модулями принятия решения - модулем управления доступом (admission control) и модулем управления политикой (policy control). Модуль управления доступом определяет, имеет ли узел достаточно свободных ресурсов для обеспечения запрошенного уровня QoS. Модуль управления политикой определяет, есть ли у пользователя права для того, чтобы произвести резервирование. Если какая-либо из проверок не прошла, RSVP-демон отправляет сообщение об ошибке процессу приложения, которое создало запрос. Если обе проверки прошли нормально, RSVP-демон устанавливает параметры классификатора пакетов (packet classifier) и планировщика пакетов (packet scheduler) для получения нужного уровня QoS. Классификатор пакетов определяет класс QoS для каждого пакета, а планировщик пакетов управляет передачей пакетов, основываясь на их классе QoS. Взвешенный алгоритм равномерного обслуживания очередей (Weighted Fair Queuing - WFQ) и взвешенный алгоритм произвольного раннего обнаружения (Weighted Random Early Detection -WRED) обеспечивают поддержку QoS на уровне планировщика. Алгоритмы WFQ и WRED рассмотрены ниже.

Во время процесса принятия решения модулем управления доступом резервирование затребованной полосы пропускания производится только в том случае, если для запрашиваемого класса трафика достаточно оставшейся части. В противном случае запрос на доступ отклоняется, но трафик все равно передается с качеством обслуживания, определенным по умолчанию для данного класса трафика. Во многих случаях, даже если запрос на доступ отклонен на одном или нескольких маршрутизаторах, модуль все еще может реализовать приемлемое качество обслуживания, установив резервирование на перегруженных маршрутизаторах. Это возможно из-за того, что другие потоки данных могут не полностью использовать заказанную ими полосу пропускания.

Резервирование всегда должно следовать по одному и тому же одноадресному пути или по многоадресному дереву. В случае выхода из строя линии связи маршрутизатор должен сообщить об этом RSVP-демону, чтобы генерируемые им RSVP-сообщения передавались по новому пути.

Процесс установки резервирования можно разбить на пять отдельных шагов.

1. Отправители данных посылают управляющие сообщения RSVP PATH по тому же пути, по которому они отправляют обычный трафик с данными. В этих сообщениях описываются данные, которые уже отправляются или только будут отправляться.

2. Каждый RSVP-маршрутизатор перехватывает РАТН-сообщения, сохраняет IP-адрес предыдущей точки назначения, записывает вместо него свой собственный адрес и отправляет обновленное сообщение дальше по тому же пути, по которому передаются данные приложения.

3. Станции-получатели выбирают подмножество сеансов, для которых они получили РАТН-информацию и с помощью RSVP RESV-сообщения запрашивают RSVP-резерви-рование ресурсов у предыдущего маршрутизатора. RSVP RESV -сообщения идут от получателя к отправителю в противоположном направлении по маршруту, пройденному RSVP РАТН-сообщениями.

Рис. 2. Механизм Я8УР-резервирования ресурсов

4. RSVP-маршрутroаroры определяют, могут ли они удовлетворить эти RESV-запросы. Если нет, они отказывают в резервировании. Если да, то они объединяют полученные запросы на резервирование и отсылают запрос предыдущему маршрутизатору.

5. Отправители, получив запросы на резервирование ресурсов от соответствующих маршрутизаторов, считают резервирование ресурсов состоявшимся. Т.е реальное резервирование ресурсов осуществляется RESV-сообщениями. Механизм RSVP-резервирования схематически показан на рис. 2.

Архитектура дифференцированных услуг БШ^егу

В 1998 году организация IETF сформировала рабочую группу по созданию дифференцированных услуг (diffserv Working Group). Архитектурную модель diffserv можно сравнить с мостом, соединяющим механизм гарантированного качества обслуживания модели intserv с механизмом негарантированной доставки трафика. Модель diffserv обеспечивает дифференцирование трафика путем его разбивки на классы с различным приоритетом.

Главной задачей подхода diffserv является определение стандартизированного байта дифференцированной услуги (DS) - байта типа обслуживания (Type of Service - ToS) из заголовка пакета IPv4 и байта класса трафика (Traffic Class) пакета IPv6. От данной маркировки зависит принятие решения о продвижении пакета данных на каждом переходе (per-hop behavior - РНВ), т.е. в каждом промежуточном узле.

Архитектура дифференцированных услуг обеспечивает базовую основу (A Framework for Differentiated Services/Bemet Y. et al, Internet Draft), которая может быть использована поставщиками услуг для предоставления своим клиентам большого диапазона различных предложений в зависимости от предъявляемых требований к качеству обслуживания. Клиент может выбрать требуемый уровень услуг путем установки соответствующего значения поля кода дифференцированной услуги

Рис. 3. Архитектура метода DiffServ

(Differentiated Services Code Point - DSCP) для пакетов определенного приложения. Код дифференцированной услуги определяет

цепочку решений о продвижении пакета в каждом промежуточном узле сети поставщика услуг (РНВ-политика).

Механизмы обработки очередей FIFO

Элементарная очередь с последовательным прохождением пакетов, работающая по принципу "первым пришел - первым ушел" (first-in first-out - FIFO). По сути, здесь нет никакой приоритезации.

PQ. Очереди приоритетов

Priority Queuing (PQ) обеспечивает безусловный приоритет одних пакетов над другими. Всего 4 очереди: high, medium, normal и low. Обработка ведется последовательно (от high до low), начиная с высокоприоритетной очереди, и до ее полной очистки не переходит к менее приоритетным очередям. Таким образом, возможна монополизация канала высокоприоритетными очередями. Трафик, приоритет которого явно не указан, попадет в очередь по умолчанию (default).

CQ. Произвольные очереди

Custom Queuing (CQ) обеспечивает настраиваемые очереди. Предусматривается управление долей полосы пропускания канала для каждой очереди. Поддерживается 17 очередей. Системная 0 очередь зарезервирована для управляющих высокоприоритетных пакетов (маршрутизация и т.п.) и пользователю недоступна.

Очереди обходятся последовательно, начиная с первой. Каждая очередь содержит счетчик байтов, который в начале обхода содержит заданное значение и уменьшается на размер пакета, пропущенного из этой очереди. Если счетчик не 0, то пропускается следующий пакет целиком, а не его фрагмент, равный остатку счетчика.

WFQ. Взвешенные справедливые очереди

Weighted Fair Queuing (WFQ) автоматически разбивает трафик на потоки (flows). По умолчанию их число равно 256, но может быть изменено. Если потоков больше, чем очередей, то в одну очередь помещается несколько потоков. Принадлежность пакета к потоку (классификация) определяется на основе ToS, IP-адреса источника, IP-адреса назначения, порта источника и порта назначения (протокол IP). Каждый поток использует отдельную очередь.

Обработчик WFQ (scheduler) обеспечивает равномерное (fair -справедливое) разделение полосы между существующими потоками. Для этого доступная полоса делится на число потоков, и каждый получает равную часть. Кроме того, каждый поток получает

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

свой вес (weight), с некоторым коэффициентом обратно пропорциональный IP-приоритету (TOS). Вес потока также учитывается обработчиком.

В итоге WFQ автоматически справедливо распределяет доступную пропускную способность, дополнительно учитывая ToS. Потоки с одинаковыми IP-приоритетами ToS получат равные доли полосы пропускания; потоки с большим IP-приоритетом - большую долю полосы. В случае перегрузок ненагруженные высокоприоритетные потоки функционируют без изменений, а низкоприоритетные высокона-груженные - ограничиваются.

Вместе с WFQ работает RSVP . По умолчанию WFQ включается на низкоскоростных интерфейсах.

WRED. Взвешенный алгоритм произвольного раннего обнаружения

Взвешенный алгоритм произвольного раннего обнаружения (Weighted Random Early Detection - WRED) предоставляет различные уровни обслуживания пакетов в зависимости от вероятности их отбрасывания и обеспечивает избирательную установку параметров механизма RED на основании значения поля IP-приоритета. Другими словами, алгоритм WRED предусматривает возможность более интенсивного отбрасывания пакетов, принадлежащих определенным типам трафика, и менее интенсивного отбрасывания всех остальных пакетов.

CBWFQ

Class Based Weighted Fair Queuing (CBWFQ) соответствует механизму обслуживания очередей на основе классов. Весь трафик разбивается на 64 класса на основании следующих параметров: входной интерфейс, лист доступа (access list), протокол, значение DSCP, метка MPLS QoS.

Общая пропускная способность выходного интерфейса распределяется по классам. Выделяемую каждому классу полосу пропускания можно определять как в абсолютном значении (bandwidth в kbit/s) или в процентах (bandwidth percent) относительно установленного значения на интерфейсе.

Пакеты, не попадающие в сконфигурированные классы, попадают в класс по умолчанию, который можно дополнительно настроить и который получает оставшуюся свободной полосу пропускания канала. При переполнении очереди любого класса пакеты данного класса игнорируются.

LLQ

Low Latency Queuing (LLQ) - очередность с низкой задержкой. LLQ можно рассматривать как механизм CBWFQ с приоритетной очередью PQ (LLQ = PQ + CBWFQ).

PQ в LLQ позволяет обеспечить обслуживание чувствительного к задержке трафика. LLQ рекомендуется в случае наличия голосового (VoIP) трафика. Кроме того, он хорошо работает с видеоконференциями.

------------------------------------------ СПИСОК ЛИТЕРАТУРЫ

1. Столлингс В. Современные компьютерные сети, 2-е изд. - СПб.:Питер,

2003.

2. Столлингс В. Передача данных.- 4-е изд. СПб.: Питер, 2004.

3. Куроуз Дж., Росс К. Компьютерные сети, 4-е изд. - СПб.: Питер,2004.

4. Шринивас Вегешна. Качество обслуживания в сетях IP.- Вильямс, 2003.

h:fj=i

— Коротко об авторе -----------------------------------------------

Со-Мин-Тун - аспирант, кафедра АСУ, Московский государственный горный университет.

----------------------------------- © М.В. Соснин, 2008

М.В. Соснин

РЕАЛИЗАЦИЯ ОПТИМАЛЬНОЙ АРХИТЕКТУРЫ И ОБЕСПЕЧЕНИЕ БЕЗОПАСНОГО ФУНКЦИОНИРОВАНИЯ СЕТИ ЭВМ

ЛВС является ключевой частью при функционировании центрально организованной системы. Она обеспечивает коммуникацию всех элементов сети. При проектировании ЛВС необходимо выбрать топологию её построения, настроить принципы её функционирования (маршрутизация), принцип доступа в Интернет, обеспечить безопасность функционирования сети. Таким образом, встают проблемы:

Выбор топологии

Настройка принципа функционирования (маршрутизация)

i Надоели баннеры? Вы всегда можете отключить рекламу.