ИНФОРМАТИКА И ВЫЧИСЛИТЕЛЬНАЯ
ТЕХНИКА
УДК 004.724:004.728
И. П. Иванов
ОЦЕНКА ИНТЕНСИВНОСТИ ИНФОРМАЦИОННЫХ ПОТОКОВ СЕРВЕРОВ В КОРПОРАТИВНОЙ СЕТИ
Приведены результаты экспериментальных исследований нагрузки на транспортную систему локальной вычислительной сети МГТУ им. Н.Э. Баумана, создаваемой общеуниверситетскими серверами. Определены параметры бимодального распределения Бернулли для длин кадров во входных и выходных информационных потоках серверов, а также параметры эквивалентного унимодального распределения, создающего эквивалентную нагрузку.
Ключевые слова: сеть, сервер, нагрузка, трафик, статистика, математическая модель.
В современных глобальных и локальных вычислительных сетях (ЛВС) основной технологией является клиент-серверная технология вычисления [1, 2], при которой выделяются два типа сущностей, реализуемых прикладными приложениями: клиенты и серверы. Протокол, по которому общаются клиенты и серверы, — это протокол типа запрос-ответ, по которому клиенты отправляют запросы, а серверы отвечают на них. Клиентский процесс, или просто клиент, запускается на персональном компьютере или рабочей станции, поддерживает пользовательский интерфейс для сбора и отображения данных, формирования запросов на специфические службы или услуги, выполняемые одним или несколькими серверными процессами, реализуемыми на удаленных ЭВМ. Клиентские машины могут выполнять часть кода приложений. Серверный процесс, или просто сервер, реализуется на ЭВМ, которые обычно более производительны, имеют большие оперативную память и дисковое пространство в сравнении с клиентскими компьютерами. Серверы выполняют набор функционально связанных операций, обычно требующих специализированного аппаратно-программного обеспечения, при этом серверы никогда не инициируют обмен информацией с каким-либо клиентом, являясь пассивными объектами в сети, получающими запросы от пользователей, выполняющими эти запросы и отвечающими на них.
В подавляющем большинстве сетей используется стек протоколов Transmission Control Protocol / Internet Protocol (TCP/IP). При этом обычно на уровне сетевых интерфейсов реализуется технология Ethernet для локальных сетей и протокол Point-to-point (PPP) для соединения точка-точка. На сетевом уровне используется 4-я версия
Internet Protocol (IPv4). На транспортном уровне применяется протокол TCP для обмена информацией с установлением соединений или протокол User Datagram Protocol (UDP) для передачи данных без установления соединения.
Существуют разные типы серверов, используемых в сетевом окружении: файловые, серверы баз данных, приложений, объектов, web-серверы, потоковые серверы и пр.
Как было установлено в работе [3], именно серверы создают основную нагрузку в транспортной системе ЛВС МГТУ им. Н.Э. Баумана. Для оценки производительности системы необходимо проанализировать информацию о нагрузке и выбрать параметры, наиболее полно ее характеризующие, т.е. построить ее модель. Выбор характеристик и параметров нагрузки зависит от целей исследований. С точки зрения оптимизации транспортной системы корпоративной сети наиболее важной характеристикой нагрузки является интенсивность трафика, генерируемого источником, т.е. число пакетов или кадров, отправляемых в сеть в единицу времени, размеры пакетов или кадров, интервалы времени между смежными кадрами и т.д. Задачи оценки производительности требуют количественной информации о нагрузке. Например, при запросе большого графического документа в тысячи килобайт требуется большое число обращений к дискам, и это занимает б<5льшую долю пропускной способности транспортной системы сети, чем при запросе небольшого документа. Все основные операционные системы серверных и клиентских машин имеют средства, позволяющие определить нагрузку системных ресурсов. Обычно операционные системы снабжены учетными журналами и мониторами производительности, записывающими используемые аппаратные ресурсы каждого выполняемого процесса. Время занятости центрального процессора, общее затраченное время, общее число операций ввода-вывода, использование оперативной памяти, количество занятой страничной памяти и некоторые другие характеристики помещаются в системный журнал. К сожалению, эта информация, как правило, доступна лишь системным администраторам конкретного сервера и недоступна сетевым администраторам, что соответствует общепринятым принципам информационной безопасности. Поэтому использование журналов операционных систем возможно лишь в отдельных случаях анализа функционирования, проектирования и модернизации транспортных систем корпоративных сетей.
Для анализа и сравнения вычислительных систем применительно к On-line Transaction Processing (OLTP-приложениям), каковыми являются практически все клиент-серверные технологии, функционирующие по протоколам запрос-ответ, сегодня наибольшей популярностью пользуется методика тестирования Transaction Processing performance Council (TPC). Суть методики TPC заключается в исследовании производительности различных серверных систем, включа-
ющих в себя аппаратное обеспечение (компьютеры различных фирм-производителей), операционную систему и систему управления базой данных (СУБД). Различные тестовые смеси — это наборы типовых запросов к серверным системам, для выполнения которых необходимо задействовать разнообразные ресурсы, начиная от внутренних ресурсов сервера и заканчивая ресурсами Internet. Например, смесь TPC Benchmark App (TPC-App) является тестом для оценки сервера приложений и web-сервисов, работающих 24 ч в сутки 7 дней в неделю. Смесь TPC Benchmark H (TPC-H) является тестом для оценки систем поддержки принятия решений и т.д. Мерой производительности для различных тестовых смесей является число транзакций в единицу времени, когда запросы идут одним потоком от множества пользователей, работающих одновременно. Результаты тестовых испытаний общедоступны, в частности на сайте http://www.tpc.org/information/results.asp. Методика TPC дает возможность выбрать сервер для реализации в корпоративной сети необходимого сервиса, однако не позволяет установить характеристики нагрузки транспортной системы.
Совершенствование технологии коммутации в корпоративных сетях предприятий различного масштаба позволяет для характеристики нагрузки использовать средства операционных систем коммутаторов различного уровня благодаря принципу микросегментации, в соответствии с которым каждый хост в сети подключается к отдельному порту (интерфейсу) коммутатора. Исследуя статистику входного и выходного интерфейсов, к которым подключен какой-либо сервер, можно охарактеризовать нагрузку, создаваемую этим сервером в транспортной системе локальной сети.
В последних модификациях коммутаторов Cisco Catalyst фирмы Cisco Corporation, используемых на уровне ядра и на уровне распределения ЛВС, применяется операционная система Internetwork Operation System (IOS). Команда show interface этой операционной системы позволяет установить некоторые статистические характеристики трафика, проходящего через этот порт. Листинг выводимой на монитор сетевого администратора информации приведен на рис. 1.
Полная расшифровка выводимой информации приведена в работе [3]. Среди прочих статистических характеристик указаны: интенсивность выходного и входного потоков (1084 packet/sec и 867 packets/sec); среднее число бит в секунду, прошедших за 5 мин через порт в выходном и входном потоках (7493 000 bits/sec и 3 312 000 bits/sec); общее число байт и пакетов, прошедших через порт со времени последнего обнуления счетчиков (5 281425 517 packets output, 3 676125 143 282 bytes и 3 699 511 595 packets input, 1 451 368 876 787 bytes).
Corebmstu2#show interfaces GigabitEthernet 8/2 GigabitEthernet8/2 is up, line protocol is up (connected)
Hardware is C6k 1000Mb 802.3, address is 0014.a861.1771 (bia 0014.a861.1771)
MTU 1500 bytes, BW 1000000 Kbit, DLY 10 usee,
reliability 255/255, txload 5/255, rxload 1/255 Encapsulation ARPA, loopback not set Keepalive set (10 sec)
Full-duplex, lOOOMb/s, media type is LH
input flow-control is off, output flow-control is off
Clock mode is auto
ARP type: ARPA, ARP Timeout 04:00:00
Last input 00:00:13, output 00:00:49, output hang never Last clearing of "show interface" counters never Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 0
Queueing strategy: fifo Output queue: 0/40 (size/max)
5 minute input rate 3312000 bits/sec, 867 packets/sec 5 minute output rate 7493000 bits/sec, 1084 packets/sec
3699511595 packets input, 1451368876787 bytes, 0 no buffer Received 50312434 broadcasts (24512447 multicasts) 0 runts, 0 giants, 0 throttles
0 input errors, 0 CRC, 0 frame, 0 overrun, 0 ignored 0 watchdog, 0 multicast, 0 pause input 0 input packets with dribble condition detected 5281425517 packets output, 3676125143282 bytes, 0 underruns 0 output errors, 0 collisions, 3 interface resets 0 babbles, 0 late collision, 0 deferred 0 lost carrier, 0 no carrier, 0 PAUSE output 0 output buffer failures, 0 output buffers swapped out
Рис. 1. Листинг реакции IOS на системную команду show interface
Эти данные позволяют вычислить среднюю длину кадров в выходном и входном потоках:
или
= 7493000 =
cp 8 • 1084 '
. 3 312 000 „
UP =-— = 478 байт,
cp 8-867 '
r t 3 676125143 282
Up =-= 696 байт;
cp 5 281425 517 '
. 1451368 876 787
UP =-= 392 байт.
cp 3 699 511595
(1)
(2)
Расхождение в средних размерах входных и выходных кадров, найденных по формулам (1) и (2), объясняется пульсацией сетевого трафика и разными интервалами наблюдения его интенсивности. Число байт и пакетов, прошедших через интерфейс со времени последнего обнуления счетчиков, более близко к реальным значениям математического ожидания длины кадра.
В операционных системах коммутаторов других фирм-производителей также присутствуют команды, позволяющие найти некоторые характеристики нагрузки. Так, в одном из сегментов ЛВС МГТУ им. Н.Э. Баумана используются коммутаторы Bay Stack фирмы Nortel Networks, на которых установлена операционная система BayStack Operating System Switching Software (BOSS). Статистические характеристики по входным и выходным потокам интерфейса могут быть получены командой show port-statistics. На рис.2 приведен листинг, выводимый на монитор администратора сети в ответ на данную команду.
Среди прочих характеристик приведены число пакетов (кадров) и число байт (октетов), принятых в порт (Received) и вышедших из порта (Transmitted). Разделив число байт на число пакетов, можно установить среднюю длину кадра во входном и выходном потоках. Кроме того, приведено распределение длин кадров, что характерно для технологии Ethernet. К сожалению, границы интервалов ориентированы на экспоненциальное распределение длин кадров, что характерно для MIB-агентов (Management Information Base) протокола Simple Network Management Protocol (SNMP), и среди статистических характеристик
#show port-statistics port 9 Received
Packetsï 42725673
Multicasts: 4
Broadcasts: 197731
Total Octets: 3443877360
FCS Errors: 742
Undersized Packets: 0
Oversized Packets: 0
Filtered Packets: 0
Pause Frames: 0 Transmitted
Packets: 33593772
Multicasts: 1543532
Broadcasts: 6847024
Total Octets: 3210257858
Collisions: 0
Single Collisions: 0
Multiple Collisions: 0
Excessive Collisions: 0
Deferred Packets: 0
Late Collisions: 0
Pause Frames: 0
Packets 64 bytes: 24940472
65-127 bytes: 8685281
128-255 bytes: 5205800
256-511 bytes: 829219
512-1023 bytes: 488486
1024-1518 bytes: 36169911
Jumbo : 0
Dropped On No Resources : 1
Рис. 2. Листинг реакции BOSS на системную команду show port-statistics
отсутствуют временные параметры, что не позволяет установить интенсивность трафика входных и выходных потоков информации.
Для более детального анализа трафика на исследуемом интерфейсе предлагается использовать программный пакет 1ердишр, который реализуется любой операционной системой хоста [4]. Для этого к любому свободному порту исследуемого коммутатора необходимо подключить компьютер-анализатор, осуществить зеркализацию исследуемого интерфейса на этот порт и на компьютере-анализаторе запустить 1ердишр с добавлениями, осуществляющими требуемый статистический анализ для входного и выходного потоков информации.
Все эксперименты по исследованию трафиков общеуниверситетских серверов, проводились в течение шести дней недели (за исключением воскресенья) в период с 800 до 900, 1300 до 1400 и 1900 до 2000. При проведении экспериментов захватывалось по 100 000 пакетов в каждом измерении. Результаты обработки экспериментальных данных приведены в таблице.
Характеристика входных и выходных потоков информации серверов ЛВС
МГТУ им. Н.Э. Баумана
Сервер in/out A, Lcp> P q Po Pi P2
кадр/с байт
ns.bmstu.ru in 260 104 0,97 0,03 0,00022 0,00027 0,00027
out 260 186 0,91 0,09 0,00038 0,00044 0,00044
ftp.bmstu.ru in 1527 105 0,97 0,03 0,0013 0,0015 0,0015
out 2070 1288 0,16 0,84 0,0213 0,0217 0,0217
iptv.bmstu.ru in 2 63 0,988 0,002 0,000012 0,000013 0,000013
out 306 1192 0,78 0,78 0,029 0,030 0,030
www.bmstu.ru in 82 129 0,95 0,05 0,00085 0,001 0,001
out 98 1416 0,07 0,93 0,01 0,011 0,011
e-u.bmstu.ru in 112 138 0,95 0,05 0,00123 0,00145 0,00145
out 129 1432 0,06 0,94 0,015 0,015 0,015
db.bmstu.ru in 15 115 0,96 0,04 0,00014 0,00017 0,00017
out 18 619 0,62 0,38 000089 0,00093 0,00093
Данные приведены для следующих серверов, подключенных к коммутаторам ядра сети университета:
• ns.bmstu.ru — сервер, обеспечивающий выполнение службы доменных имен (DNS — Domain Name System), транспортный протокол UDP, скорость обмена информацией 1000 Мбит/с;
• ftp.bmstu.ru — файловый сервер, обеспечивающий хранение файлов различного назначения, транспортный протокол TCP, протокол прикладного уровня File Transfer Protocol (FTP), скорость обмена информацией 1000 Мбит/с;
• iptv.bmstu.ru — сервер трансляции потокового видео, транспортный протокол UDP, протокол прикладного уровня Real-Time Protocol (RTP), скорость обмена информацией 100 Мбит/с;
• www.bmstu.ru — web-сервер МГТУ им. Н.Э. Баумана, транспортный протокол TCP, протокол прикладного уровня HyperText Transfer Protocol (HTTP), скорость обмена информацией 100 Мбит/с;
• e-u.bmstu.ru — сервер портала информационной системы "Электронный университет" МГТУ им. Н.Э. Баумана, транспортный протокол TCP, протокол прикладного уровня HTTP, скорость обмена информацией 100 Мбит/с;
• db.bmstu.ru — сервер баз данных, транспортный протокол TCP, протокол прикладного уровня Structured Query Language (SQL), скорость обмена информацией 100 Мбит/с.
Характеристики рассчитываются отдельно для входных (in) и выходных (out) потоков серверов (соответственно для выходных и входных потоков портов коммутатора, к которым микросегментно подключены сетевые адаптеры серверов). Интенсивность Л измеряется непосредственно, средняя длина кадра определяется как математическое ожидание длин кадров (гистограмма распределения устанавливается в результате статистического анализа выполнения программы, дополняющей tcpdump). Полученные гистограммы распределения длин кадров показывают существенное отличие от экспоненциального закона. В информационных потоках явно просматривается многомодаль-ность распределения длин кадров, а именно: высокий процент присутствия кадров, длины которых близки к минимальным (Lmin = 60 байт для технологии Ethernet). Сюда относятся служебные кадры для установления и разрыва TCP-соединений, кадры подтверждений и т.д.; высокий процент очень длинных кадров (Lmax = 1514 байт для технологии Ethernet), обеспечивающих максимальную производительность при передаче файлов больших размеров и мультимедийной информации; небольшой процент кадров длиной от 500 до 600 байт, являющихся, скорее всего, "остатками" передаваемых файлов; практически нулевой процент кадров прочих длин.
Если пренебречь невысоким (от 2 до 3 %) процентом кадров средней длины, то можно считать, что наиболее близким к реальности распределением длин кадров в информационных потоках является дискретное распределение Бернулли [5], т.е. с вероятностью p длина кадра L = Lmin, а с вероятностью q =1 — p длина кадра L = Lmax. Для распределения Бернулли математическое ожидание длины кадра можно записать как
Приравнивая значение математического ожидания и среднее значение длины кадра в информационных потоках = Ьср, можно установить значения р и q:
pL min + qL
]
max
(3)
Значения p и q приведены в соответствующих столбцах таблицы. Полезная нагрузка сети со стороны клиентов (in) или со стороны сервера (out), обозначенная как р0, может быть вычислена по формуле:
8Lcp Л р0 = —'
где С — пропускная способность интерфейса (C = 109 бит/с для технологии Gigabit Ethernet и C = 108 бит/с для технологии Fast Ethernet).
Реальная нагрузка сети должна учитывать накладные расходы технологии Ethernet [1] (24 байт на кадр), т.е.
_ 8(Lcp + 24) Л
p1 = C •
В последнем столбце таблицы приведены значения нагрузки для бимодального дискретного распределения Бернулли длин передаваемых кадров, т.е.
8((Lmin + 24)p +(Lmax + 24^)Л
р2 = с •
Значения р2 совпадают со значением р1, что и следовало ожидать при определении p и q по формулам (3).
Для сервера ns.bmstu.ru характерным является схожесть параметров нагрузки, создаваемой входным и выходным потоками. Это объясняется тем, что dns-запросы и dns-ответы помещаются в одном кадре Ethernet. Размер dns-ответа превышает размер dns-запроса. Следует помнить, что в выходном потоке могут присутствовать dns-запросы к внешним по отношению к корпоративной сети университета dns-серверам Internet и, наоборот, во входном потоке имеют место dns-ответы внешних серверов, пересылаемые затем запрашивающим клиентам. Нагрузка сети не превышает 0,05 % пропускной способности сегмента (109 бит/с).
Для сервера ftp.bmstu.ru наблюдается существенная асимметрия входного и выходного потоков. На входе в сервер присутствуют короткие кадры подтверждений, кадры установления и разрыва TCP-соединений и небольшие кадры с запросами необходимых файлов. Сами файлы передаются длинными кадрами в выходном потоке. Достаточно высокая интенсивность кадров во входном потоке объясняется не только передачей информации с установлением соединения, но и востребованностью информации, размещенной на ftp-сервере. Загрузка пропускной способности сегмента чуть более 2 %, что гарантирует отсутствие заторов в этом сегменте даже для почти 50-кратной пульсации трафика.
Сервер iptv.bmstu.ru является потоковым, поэтому его трафик определяется не только задачей повышения производительности, но и особенностью используемых алгоритмов сжатия видеоизображения MPEG-2 (Moving Picture Experts Group v. 2) и звука MP3 (MPEG-1/2/2.5
Layer 3). Данные в таблице свидетельствуют о низкой востребованности телевизионных программ, транслируемых в корпоративной сети.
Серверы www.bmstu.ru и e-u.bmstu.ru реализуют технологию intranet в корпоративной сети университета, для которой характерны короткие запросы клиентов и объемные ответы серверов, что проявляется в нагрузке (процент занятости пропускной способности на выходных потоках серверов на порядок выше, чем в входных).
Наконец, сервер db.bmstu.ru обслуживает бухгалтерские подразделения университета (SQL-сервер). Для SQL-серверов также характерным является асимметрия потоков входной и выходной информации.
Общим выводом в результате проведенных статистических исследований является утверждение о достаточности ресурсов транспортной системы ЛВС университета для обеспечения функционирования без заторов и перегрузок. Основную нагрузку на сеть создают выходные потоки серверов, при этом сегодня следует отказаться от допущения экспоненциальности распределения длин кадров, заменив его более близким к реальности дискретным распределением Бернулли.
СПИСОК ЛИТЕРАТУРЫ
1. О л и ф е р В. Г., О л и ф е р Н. А. Компьютерные сети. - СПб.: Питер, 2007.
2. ТаненбаумЭ. Компьютерные сети. - СПб.: Питер, 2002.
3. Разработка математических моделей источников и стоков информационных потоков в коммутируемых корпоративных сетях / М. Бойченко и др. // Отчет о НИР 01.09.05. - М.: МГТУ им. Н.Э. Баумана, 2008.
4. http://www.tcpdump.org
5. Аверилл М. Лоу, В. Дэвид Кельтон. Имитационное моделирование. - СПб.: Питер, 2004.
Статья поступила в редакцию 30.04.2009
Игорь Потапович Иванов родился в 1955 г., окончил в 1979 г. МВТУ им. Н.Э. Баумана. Проректор по информатизации, заведующий кафедрой "Теоретическая информатика и компьютерные технологии" МГТУ им. Н.Э. Баумана. Канд. техн. наук, доцент. Автор более 30 научных работ в области информационно-коммуникационных технологий.
I.P. Ivanov (b. 1955) graduated from the Bauman Moscow Higher Technical School in 1979. Ph. D. (Eng.), vice-rector on informatization, head of "Theoretical Bases of Information and Computer Technologies" department of the Bauman Moscow State Technical University. Author of more than 30 publications in the field of data and communication technologies.