Научная статья на тему 'ДОСЛіДЖЕННЯ ВПЛИВУ ВіРТУАЛіЗАЦії МЕРЕЖі НА ФУНКЦіЮВАННЯ ОБЧИСЛЮВАЛЬНИХ КЛАСТЕРіВ'

ДОСЛіДЖЕННЯ ВПЛИВУ ВіРТУАЛіЗАЦії МЕРЕЖі НА ФУНКЦіЮВАННЯ ОБЧИСЛЮВАЛЬНИХ КЛАСТЕРіВ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
108
47
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ВИРТУАЛЬНАЯ МАШИНА / ВЫЧИСЛИТЕЛЬНЫЙ КЛАСТЕР / СЕТЕВОЕ ВЗАИМОДЕЙСТВИЕ / ТРАССИРОВЩИК ПРОЦЕССОВ / VIRTUAL MACHINE / COMPUTING CLUSTER / NETWORKING / PROCESS TRACER

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Нікітченко В. В.

В статье представлены результаты исследования влияния виртуализации сетевой среды на время взаимодействия узлов вычислительного кластера. Существующая упрощенная модель выполнения параллельного алгоритма дополнена параметром длительности обмена данными между узлами кластера и установлены математические выражения для времени такого взаимодействия. Инструментальная составляющая математической модели определяется экспериментальным путем

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Research of the network virtualization effect on the operation of computing clusters

The paper presents the results of the research of the network environment virtualization effect on the interaction time of the computing cluster nodes. Existing simplified model of the parallel algorithm was supplemented by the parameter of duration of data exchange between the cluster nodes. To assess the resource virtualization effect, two approaches are used: formal evaluation of insertion loss by constructing a mathematical model and direct measurement.Possible options for interaction between the computing cluster nodes were consistently considered. The main components of the time of delay of interaction between computing nodes were determined. Further, the obtained formulas are detailed using the static-dynamic program analysis provisions.An instrumental component, which is determined by direct measurement of the packet passage time parameters is a part of the obtained mathematical expressions. It uses a ftrace tracing framework, which has allowed to measure the time of the packet passage between applications inside virtual machines of different physical computing nodes, and between applications that are inside the virtual machines, located on the same physical server.The above results allow to determine the time limits for performing a set of parallel processes in the virtualized environment. This in turn allows to estimate the appropriateness of transferring some computational problem in a cluster of virtual machines.

Текст научной работы на тему «ДОСЛіДЖЕННЯ ВПЛИВУ ВіРТУАЛіЗАЦії МЕРЕЖі НА ФУНКЦіЮВАННЯ ОБЧИСЛЮВАЛЬНИХ КЛАСТЕРіВ»

-:-п п-:-

У статтi представлено результати дослиджен-

ня впливу вiртуалiзацii мережного середовища на час взаемоди вузлiв обчислювального кластера. 1снуюча спрощена модель виконання паралельного алгоритму доповнена параметром тривалостi обмту даними мiж вузлами кластера i встановлеш математичш вирази для часу такоi взаемоди. 1нструментальна складова математичноi моделi визначаеться експерименталь-ним шляхом

Ключовi слова: вiртуальна машина, обчислювальний

кластер, мережна взаемодiя, трасувальник процеыв □-□

В статье представлены результаты исследования влияния виртуализации сетевой среды на время взаимодействия узлов вычислительного кластера. Существующая упрощенная модель выполнения параллельного алгоритма дополнена параметром длительности обмена данными между узлами кластера и установлены математические выражения для времени такого взаимодействия. Инструментальная составляющая математической модели определяется экспериментальным путем

Ключевые слова: виртуальная машина, вычислительный кластер, сетевое взаимодействие, трассировщик процессов

-□ □-

УДК 519.7:004.032.24

|DOI: 10.15587/1729-4061.2015.360711

ДОСЛ1ДЖЕННЯ ВПЛИВУ В1РТУАЛ1ЗАЦП МЕРЕЖ1 НА ФУНКЦ1ЮВАННЯ ОБЧИСЛЮВАЛЬНИХ КЛАСТЕР1В

В. В. Жк^тченко

Старший викладач, доцент Кафедра мереж зв'язку Одеська нацюнальна академiя зв'язку iM. О. С. Попова вул. Ковальська, 1, м. Одеса, УкраТна, 65029 E-mail: vncentaurus@gmail.com

1. Вступ

В сучасних умовах ycnix у виршенш складних наукових питань та промислових задач суттево за-лежить вщ рiвня розвитку обчислювально! техшки, яка е важливим компонентом процесу обчислень i обробки даних. Традицшно, збшьшення обчислювально! потужносп вщбувалось за екстенсивним шляхом, тобто через зб^ьшення тактово! частоти процесорних елеменпв, але даний шлях мае сyттевi недолжи, таю як фiзичнi обмеження на розмiр електронних компонент та висока варпсть виробництва. Тому в даний час поширена паралельна форма обчислень, основною характеристикою яко! е можлившть одночасного за-стосування для обробки шформацп декiлькох обчис-лювальних вyзлiв.

Одним з вiдгалyжень ввд загального напряму розвитку паралельних обчислень можна вважати хмарш обчислення. Паралельш та хмарнi обчислення подшя-ють спiльнi риси, такi як використання багатопроце-сорних i багатомашинних систем, однак присутня i суттева вщмшшсть мiж ними. Так, хмарнi обчислення спрямоваш на надання оренди самих рiзних послуг великому колу користyвачiв, а не пльки можливостi виконання паралельних програм.

Паралельнi та хмарш обчислення можна комбшу-вати, використовуючи обчислювальну хмару для ство-рення кластера типу HPC (High perfomance computing). Серед шшого це передбачае вiртyалiзацiю мережних зв'язкiв мiж вузлами такого кластера. Тому актуаль-ним е дослщження мережно! взаемодi'i вyзлiв вiртyа-лiзованого кластера, спрямоване на визначення скла-дових часу обмшу повiдомленнями, та !х математичне подання.

2. Аналiз лiтературних даних та постановка проблеми

Дослвдження в областi паралельних обчислень ве-дуться доволi штенсивно, внаслiдок чого констатуе-мо наявшсть значно! кiлькостi формальних моделей, покликаних вщобразити рiзнi аспекти цього процесу. Тому використаемо одну з уже наявних математичних моделей, корегуючи та доповнюючи и залежно вiд потреб конкретного завдання.

Наразi говоримо про обчислювальний кластер як такий, не уточнюючи наявшсть в ньому засобiв вiртуалiзацii обчислювальних ресурсiв. Враховуючи його конструктивнi особливосп, що визначають спо-сiб обмшу даними мiж виконуваними паралельно процесами чи потоками одного процесу, стверджуемо про вщповщшсть цiлому класу моделей паралельних обчислень, а саме моделям обмшу поввдомленнями. Типовими представниками таких моделей е мережi процеав Кана [1], потоковi моделi [2], моделi Карпа-Мiллера [3] i моделi Деншса [4].

Подальший розвиток математичних моделей паралельних обчислень призвiв до появи моделi графiв по-тоюв даних [5] та гiбридноi часово! хвильово! системи [6], а класична модель Хоара була доповнена параметром часу [7]. Дослвдження моделей паралельних обчислень може бути проведене методами алгебра!чно! топологи [8].

Можуть бути використаш й iншi математичш ш-струменти, що унiверсальнiсть дозволяе описувати паралельну взаемодш довiльноi структури. Тут вирiз-няеться група моделей на базi сггок Петрi [9], а також декшька рiзновидiв систем переходiв [10].

Обираючи помiж тако! велико! кiлькостi моделей, потрiбно врахувати особливостi поставлено! задачь

Так, засоби математичного апарату сггок Петрi дозво-ляють вiдобразити докладну картину мiжпроцесноi взаeмодii в багатьох аспектах, проте в нашому випадку це не е конче необхiдним. До того ж така модель вигля-дае досить складною i громiздкою. Ми не цiкавимось наявнiстю блокувань в робот паралельного алгоритму, алгоритм тут потрiбен лише як послщовшсть операцiй.

Таким особливостям вiдповiдае проста модель паралельного процесу або паралельноi системи у виглядi ациклiчного орiентованого графа G(V, Е) [11]. Опи-суючи паралельний алгоритм, iз вершинами графа ототожнюються його дп, а впорядкована послщов-нiсть таких дш поеднуеться дугами графа. У випадку дослщження паралельноi системи вершини графа позначають вiдповiднi пристрой а дуги вiдображають iснуючi зв'язки мiж апаратними пристроями.

При перемщенш обчислювального кластера у вiр-туальну площину отримуемо вiдображення вiртуаль-них машин на фiзичнi сервери, а також вiртуалiзацiю лiнiй, що поеднують такi вiртуальнi машини. Це обу-мовлюе необхiднiсть доопрацювання математичноi моделi традицiйного кластера, з метою врахувати в« особливостi та додатковi витрати, привнесет за раху-нок технологш вiртуалiзацii. Тобто важливо з прий-нятним ступенем вiрогiдностi визначити часовi межi виконання деякоi групи паралельних процеив для традицiйного кластера, що безпосередньо використо-вуе наявнi апаратш засоби, та аналогiчного кластера, оргашзованого в обчислювальнiй хмарi.

3. Мета i задачi дослщження

Метою дано! роботи було дослiдження особливос-тей мережно! взаемодп мiж вiртуальними машинами, створеними в XMapi типу IaaS (Infrastructure as a Service), i поеднаними в обчислювальний кластер.

Заявлена мета досягаеться ршенням наступних задач:

- врахування часу обмшу даними мiж обчислю-вальними вузлами в шнуючш спрощенiй моделi виконання паралельного алгоритму;

- детальне визначення математичних виразiв для часу мережно! взаемодп, в тому чи^ i3 застосуванням методу статико-динамiчного аналiзу;

- експериментальне визначення тривалостей рiз-них етапiв проходження мережного пакета мiж вузлами вiртуального кластера.

4. Математичне подання мережно! складово! часових характеристик роботи обчислювального кластера

В данш робоп встановлено часовi показники функ-цiювання обчислювального кластера, створеного у типон вих конфпуращях хмарного оточення. Одшею з визная чальних особливостей обчислювально'! хмари е вико-ристання технологiй апаратноi вiртуалiзацii, що вони призводять до зниження продуктивност обчислюваль-них операцiй. Вплив вiртуалiзацii на роботу обчислювального кластера позначаеться наступними проявами: - поява додаткового коду гiпервiзора, що повинен бути виконаний для безпосереднього здшснення ш-струкцш паралельного застосування;

- поява додаткового коду гiпервiзора, що повинен бути виконаний для обмшу мережними повщомлен-нями мiж рiзними компонентами паралельно! програ-ми, розпод^ено! на рiзнi обчислювальнi вузли.

Не акцентуемо увагу на особливостях виконання гiпервiзором шструкцш програм користувацького рiв-ня, натомiсть особливостi мережно! взаемодп будуть головним об'ектом дослщження. Тобто говоримо про шлях проходження окремого пакета вщ моменту його створення джерелом повщомлення, i до моменту отри-мання обчислювальним вузлом призначення.

Можливi кiлька варiантiв такого шляху. У випадку традицшного кластера вiн спiвпадае з трасою проходження пакета мережним стеком ядра операцшно! системи. Проте у випадку кластера в обчислювальнш хмарi з'являються додатковi етапи, котрi спричинеш мережним стеком гостьових операцiйних систем, i ме-режною частиною гiпервiзора.

Для вiдокремлено'! на фiзичному вузлi вiртуально'! машини пакет спочатку проходить через мережний стек гостьово! системи, поим вже готовий Ethernet-кадр потрапляе до гостьового паравiртуального драйвера virtio-net, звщки, через буфер TX Ring, вщправ-ляеться до хостового ядра, а саме до паравiртуального драйвера vhost-net. Далi завдяки вiртуальному штер-фейсу TUN/TAP кадр потрапляе на вiртуальний мiст, а через нього - на мережний штерфейс. При прийманш даних мережна карта отримуе iз фiзичного середовища кадр, вщправляе його до linux-мосту, котрий передае його до вщповщного TUN/TAP штерфейсу i потiм до драйвера vhost-net, що через буфер RX Ring доставляе кадр до мережного стеку гостьово! системи. Тут вш проходить стандартш етапи приймання пакепв у стеку TCP/IP ядра операцшно! системи.

Якщо пакети ввдправляються мiж двома вiртуаль-ними машинами, розташованими на одному фiзичному сервера то вiртуальний мiст, пiсля отримання пакета ввд TUN/TAP iнтерфейсу першо! вiртуально! машини, вiдправляе його ввдразу до iнтерфейсу TUN/TAP друго! вiртуально! машини, оминаючи мережну карту сервера.

Згщно з [12] можлива послщовшсть реалiзацi! крокiв паралельного алгоритму задаеться розкладом {(i, Pi, ti):ieV}, де i - поточна до виконання операщя, Pi - номер призначеного !й процесорного елемента, ti - час початку виконання. Коректшсть вилення алгоритму потребуе дотримання двох умов. Перша говорить про неможливiсть призначення процесорного елемента одночасно двом i б^ьше операцiям: Vi, j е V: t = tj ^ Pj Ф Pj , i залишаеться в оригiнальному формулюванш. 1нша вимога буде доповнена у вщпо-вiдностi до умов поточно! задачь

Переважна бiльшiсть джерел використовуе спро-щення моделi паралельного виконання алгоритму за рахунок iдеалiзацi! можливостей апаратних пристрой. Час виконання елементарно! дi! процесорним елементом приймаеться рiвним 1, тодi як обмш даними вважаеться миттевим. Створювана в данiй роботi модель потребуе врахування дшсних значень цих ком-понентiв. Насправдi обмiн даними мережею займае деякий промiжок часу, а час виконання елементарних операцш процесором не обов'язково дорiвнюе 1. Вра-ховуючи це, другу умову запишемо у виглядi:

Vi, j еЕ ^tj>t; +(tf + tn ),

(1)

де тР - загальнии час виконання однш1 елементарно1 дИ процесором; тк - загальниИ час передавання даних м1ж обчислювальними вузлами.

Складов1 тР 1 тк визначають залежно вщ типу кластера - апаратниИ або в хмарному середовищ! В

Для часу мережно'1 взаемодп можемо записати:

загальному вигляд1 для часу виконання записати:

■ ТРР + трн ,

тв можемо

ТN ТNLS + ТNHS + трНУ ,

Tp(G, 8р) = тах(^ + (тР + TN )),

де G - граф обчислювального алгоритму; 8р ниИ розклад виконання алгоритму.

Б1льш1сть стввщношень, визначених в [12, 13], та-кож мають м1сце 1 модифжуються лише з урахуванням складово'1 (тр + т1}).

Детально розглянемо складову мережно1 взаемо-д1'1 м1ж вузлами обчислювального кластера, котра в1др1зняеться для ф1зичних вузл1в та кластера у в1ртуальному середовищь Визначимо компоненти, як1 здатш чинити вплив на шукаш значення часу мережно'1 взаемодп, 1 додатково до параметр1в ви-разу (3) введемо час м1ж завершенням посилання останнього пакета з вщправного вузла, 1 завершен-ням приИмання останнього пакета отримувачем по-вщомлення [12].

Як приклад в1зьмемо дов1льну типову тополопю з'еднання ф1зичних вузл1в, 1 розглянемо конф1гурацп в1ртуального оточення. Стверджуемо про два вар1анти побудови:

- кластер 1з в1ртуальних вузл1в щлковито в межах одного ф1зичного комп'ютера;

- кластер 1з в1ртуальних вузл1в, що в1до-бражеш на р1зш ф1зичш машини.

В першому вар1ант1 можливо поеднати дв1 дов1льш в1ртуальш машини прямим з'ед-нанням, розд1леним навтл елементом в1рту-ального мосту. При цьому час обмшу дани-ми переважно буде визначатись тривал1стю службових операцш по формуванню мереж-них пакет1в на бощ передавача, та триваль стю розбирання пакет1в на бощ отримувача. Тобто, швидюстю в1ртуально1 мереж1 можна знехтувати.

Ц1

1=1 ' ц1

х т

1=1

Ц 2

Ъ т.,+тв

]=1

п, якщо

Ц 2

■ I т,

]=1

якщо

ц1

X т, 1=1

ц1

X т,

1=1

Ц2

<х V

]=1

Ц2

>х V

]=1

(2)

де

ц1

X т.,

1=1

- час для формування пакета вс1ма р1внями

де тРР - час виконання однш1 елементарно1 ди власне процесором; тРН - додатков1 витрати часу гшерв1зора в перерахунку на одну елементарну д1ю. Складова наяв-на лише для кластера в обчислювальнш хмар1 Аналопчно для часу мережно1 взаемодп тN :

(3)

де NLS - час проходження пакета стандартним ме-режним стеком ядра операцшно! системи; тот;5 -час проходження пакета через мережш конструкцп гшерв1зора. Складова наявна лише для кластера в обчислювальнш хмарг, трнУ - час проходження пакета дшсною мережею. Може бути зб1льшениИ при наяв-ност в1ртуально1 мереж1 в хмарному оточенш.

По аналоги з [12] та враховуючи введет уточнення, для часу виконання алгоритму як максимального значен-ня часу використовуваного у розклад1 можемо записати:

мережного стеку; ц1 - к1льк1сть р1вшв в напрям1 пе-

Ц2

редавання пакета; ^тг - час розбирання пакета на

]=1 1

приИмальному бощ; ц2 - юльюсть р1вшв в напрям1 приИмання; твк - час, за якиИ мае спрацювати в1рту-альниИ м1ст; п - к1льк1сть мережних пакет1в.

ДругиИ вар1ант ускладнюеться за рахунок появи ф1зичних вузл1в, поеднаних зв'язками 1з деякою топо-лопею. Вираз для часу мережно1 взаемодп:

ц1

|=Ът„

Ц2

"X т,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

]=1

(6)

(4)

вибра-

де D(G) - д1аметр топологп з'еднання ф1зичних вуз-л1в; тLINK - час проходження пакетом одше1 ланки мережного шляху.

Дамо юльюсне наповнення складовим, що в загальному вигляд1 присутш в формулах (5, 6), скорис-тавшись шнуючою методикою статико-динам1чного анал1зу [14]. Середнш час виконання д1лянки коду ХУр визначаеться формулою:

Т№ =

Х„

{XX р

р Г

d

V )

'К ( К

Г

d К d *-*--+ у-

К Г К

*с,

К . . _

Г-1|да

*с =

де XXр - ощнка середнього значення к1лькост1 ц1льо-вих процесорних цикл1в; d - юльюсть б1т для опра-цювання в буферному репстр1; К - юльюсть б1т, що вибираються з буфера за одне звернення; Г - розряд-н1сть процесорного елемента; да - середня к1льк1сть процесорних цикл1в, що витрачаеться на внутршш перетворення у випадку К Ф- Г; с - тривал1сть одного циклу процесора; у - коефщ1ент, що Иого величина залежить вщ того, обрано посл1довне або конвеерне опрацювання К -розрядного слова.

Поставивши значення ощнки тривалост1 окремих д1лянок коду в (5), та спрощуючи вирази отримаемо:

(ц1+п-ц2 + п)у Kd ^ КГ-1

Аа-

ц1 ц 2

Ъ ^^ ,+п-1 ^^ , 1=1 ^

+ п-Хи

ц1

якщо^т.. 1-1 1

ц2

< т, ]=1J

(ц2 + п-ц1 + п)у Kd ^ К-1 |Аа-

ц 2 ц1

Ъ хх г,+п-ъ хх ,1+пХХ в j-l J ¡-1

ц1

якщо^т, 1-1 1

ц2

> т, j-lj

Аналопчно тдставляючи значення оцiнки трива-лосп окремих дiлянок коду в (6), отримаемо:

(ц1 + ц2

-2), I ( K-1

Aâ-

IXX s,

ц2 ■ ^ ,

j=1 J

+ 2^ XX

-D(G))-

•Изичний сервер Лг 1

Таким чином ми конкретизуемо 3mîct загальних формул (5, 6), надаючи можливiсть визначення часу проходження пакета кожною з д^янок шляху мiж дво-ма обчислювальними вузлами.

5. Визначення мережно!' складово!' часових

характеристик роботи обчислювального кластера шляхом безпосереднiх вимiрювань

Частиною формул (7), (8) е шструментальна складова, що визначаеться експериментальним шляхом, через безпосередне вимiрювання часових параметрiв проходження пакетiв у дiйснiй система Вихiдними даними до експерименту слугуе тесто-вий стенд у складi двох однакових комп'ютерiв на базi процесора AMD Athlon X2, з'еднаних мережею Fast Ethernet. На кожному встановлено дистрибутив GNU/Linux з ядром 3.5.7, а середовищем вiртуалiза-цп е kvm версiï 1.2.0, що в ньому налаштована од-нопроцесорна вiртуальна машина. Гостьовою опе-рацшною системою виступае GNU/Linux з ядром 3.6.11, котре дозволяе виконувати трасування та проф^ювання не лише мережного стеку ядра, а i парав1ртуального драйвера virtio net. Поток пакет1в мiж вузлами створюеться за допомогою генератора трафiка iperf.

Класичною методикою вимiрювань е фрагментащя програмного коду на части-ни, i впровадження туди спецiальних лiчильникiв, котрi вимiрюють час вико-нання кожного фрагменту. При великш кiлькостi функ-цiй данi операцiï можуть бути доволi трудомiсткими, тому в якост iнструмента вимiрювання використаемо спецiальний за«б проф^ю-вання та трасування ftrace. Ftrace дозволяе проводити динамiчне та статичне тра-сування, а також виконува-ти проф^ювання функцш ядра операцiйноï системи з м^мальними накладними витратами, що досягаеться завдяки повнiй iнтеграцiï коду ftrace в ядро Linux.

В першому експеримент вимiрюемо час, за який окре-мий пакет перемщуеться мiж користувацькими до-датками двох вiртуальних

машин, розмiщених на рiзних фiзичних вузлах. Ввд-стежуемо шлях пакета, та тдраховуемо час, який ви-

трачаеться на його обробку рiзними рiвнями мереж. (8) ного стеку операцшно! системи кожно1 вiртуальноi машини, мережного стеку фiзичних вузлiв, та у середовишд передачi. Результаты вимiрювань, а саме тривалiсть проходження пакета через кожен окремий рiвень, такий як паравiртуаль-ний драйвер vhost_net, iнтерфейс TUN/TAP та iншi, представлен на рис. 1.

Пiд час другого експерименту обидвi вiртуаль-m машини розташованi на одному фiзичному вуз-лi. Спочатку пакет йде шляхом, аналопчним попе-редньому експерименту, до моменту потрапляння його на штерфейс TUN/TAP. Далi пакет проходить через вiртуальний мiст, i опиняеться на штерфейа TUN/TAP iншо'i вiртуально'i машини. Наступний вiдн тинок шляху також повторюе вiдповiдний фрагмент попереднього експерименту. Отримаш результати проходження пакета через ва дiлянки шляху представлеш на рис. 2.

У такому випадку з шляху пакета виключено зов-тшт лiнii передачу мережний комутатор та мережш штерфейси фiзичних комп'ютерiв. Швидкiсть пере-дачi мережних пакетiв при цьому обмежена лише швидюстю процесора, та ефектившстю програмно'1 реалiзацi'i паравiртуальних драйверiв i вiртуалiзова-них пристро'iв, таких як вiртуальний мiст i iнтерфейс TUN/TAP.

Ф^зичний сервер № 2

3,006-

МКС

4,373 -

мкс

5,163

МКС

4,3 S

МКС

7,96

МКС

2,184

МКС

2=634

МКС

3,611

МКС

2,24" мкс

PÎEËHb COBteTÍE 19,542 J мкс 1

Транспортний ревень

Мережний ревень Гостьове ядро

PiseHb мережних ¡нтерфейав . 24,882 / мкс

Паранртуальний драйвер virtio net

Парав1ртуальний драйвф vhost net Л 12,302 J

TUN'TAP ¡нтерфейс Ядро хоста мкс Л.

В1ртуальний MICT У 10,676 мкс

Дэайвф мережноГ карта

Комутатор

V

PiseHb coicerÍB

Транспортний piseHb

Гость ове ядро Мережний piseHb

Pisan. мережних |нтерф ейсав

TapasipiyajibHnñ драйвер virtio ne!

TapaBipiyajibHHñ драйвер vhost nef

Ядро хоста TUN'TAP ¡нтфф ейс

ЕНртуальний MÍCT

Драйв ф мережноГ карта

3,919 мкс

5,071

мкс

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3:901 мкс

3,069 мкс

3.522 мкс

4,81 мкс

1 ,S43 мкс

4,111 мкс

1,538 мкс

171 i

Рис. 1. Проходження пакета мiж двома вiртуальними машинами, розмщеними на

рiзних фiзичних вузлах

т

c

N

Bip-гуальна ыашина №

BipiyajibHa машина № 2

З.ООб-

PiseHb сокетгв

Транспортний piseHb

Мережний piseHb

PiseHb мережних мтерфейав

I арав1ртуаль ниЕ драйвер virtió net

Гостьове ядро

Л

19:54^

МКС

24:S82

( МКС

У

PiseHb сокегпв

Транспортний

р1вень

Гостьове Мережний

ядро р1вень

PiseHb

мережних

¡нтерфейав

Тарав1ртуальний

драйвер

virtió net

..................t........................

■ 3.979

3:901

МКС

1069

МКС

3:522

МКС

2,184-

МКС

2:634-мкс

Парав1рту ал ьний драйвер vho5t net ГТ apasi ртуаль ний драйвф vhost net

TUN-TAP ¡нтерфейс BipiyajibHirii míct TUN-TAP ¡нтерфейс

Ядро хоста

4,041 мкс

Рис. 2. Проходження пакета через вiртуалiзовану мережу у випадку, коли вiртуальнi машини знаходяться на одному фiзичному вузл1

Отриманi в двох експериментах даш можуть бути використанi для постановки у вирази (7, 8) в якоси часових параметрiв. KpiM того, щ значення можливо перерахувати для дов^ьно'! апаратно'! архiтектури, використовуючи вщповщш положення статико-дина-мiчного аналiзу.

6. Висновки

В данш роботi запропоновано тдхщ до визначен-ня часових характеристик роботи обчислювального кластера, створеного у вiртуальному оточеннi. Роз-глядаеться варiант розмiщення рiзних вiртуальних

машин в межах одного ф1зич-ного сревера, а також воображения р1зних в1ртуальних машин на р1зш ф1зичш вузли.

1снуюча спрощена модель виконання паралельного алгоритму доповнена параметром тривалост1 обмшу да-ними м1ж вузлами кластера. Також враховано д1йсний час виконання елементарних операгцй процесорним еле-ментом.

Визначено складов! часу затримки взаемодп м1ж об-числювальними вузлами, та в загальному вигляд1 отрима-но IX математичне подання. Змктовне наповнення компонент формул конкретизуеть-ся шляхом використання по-ложень статико-динам1чного аналiзу програм. Додатково це забезпечуе можливкть пе-рерахунку часу затримки для дов^ьно! апаратно! архиек-тури обчислювальних вузлiв.

Частиною отриманих математичних виразiв е ш-струментальна складова, котра визначаеться через безпосередне вимiрювання часових параметрiв проходження пакетiв у створеному макеп вiртуалiзова-ного кластера. Для двох варiантiв побудови макета встановлено тривалкть обробки пакета рiзними рiвня-ми мережного стеку операцшно! системи кожно! вiрту-ально! машини, мережного стеку фiзичних вузлiв, та час проходження пакета середовищем передач!

Результати дано! роботи можуть бути використаш для аргументованого прийняття ршення про перемь щення довiльно'i обчислювально! задачi у вiртуалiзо-ваний кластер.

Лiтература

1. Josephs, M. B. Models for Data-Flow Sequential Processes [Text] / M. B. Josephs. - Электрон. дан. - Lecture Notes in Computer Science, 2005. - P. 85-97. - Available at : http://www.bcim.lsbu.ac.uk/ccsv/josephmb/PreprintOfLNCS3525pp85-97.pdf doi: 10.1007/11423348_6

2. Kahn, G. The semantics of a simple language for parallel programming [Text] / G. Kahn. - Stockholm.:Proceedings of IFIP Congress 74, 1974. - P. 471-475. - Availablr at : http://www.cs.princeton.edu/courses/archive/fall07/cos595/kahn74.pdf

3. Алгоритмы, математическое обеспечение и архитектура многопроцессорных вычислительных систем / под ред. В. Е. Котова, Й. Миклошко. - М.: Наука, 1982. - 336 с.

4. Ключев, А. О. Программное обеспечение встроенных вычислительных систем [Текст] / А. О. Ключев, П. В. Кустарев, Д. Р. Ковязина, Е. В. Петров. - СПб.: СПбГУ ИТМО, 2009. - 212 с.

5. Сергиенко, А. М. Пространственный граф синхронных потоков данных [Текст] / А. М. Сергиенко // Вюник НТУУ «КП1» 1нформатика, управлшня та обчислювальна техшка. - 2009. - № 50. - С. 140-146.

6. Трещев, И. А. Математическая модель гибридной временной волновой системы [Текст] / И. А. Трещев // Системы управления и информационные технологии. - 2007. - № 4 (30). - С. 19-21.

7. Гайтан, Е. Н. О временном представлении теории взаимодействующих процессов Хоара [Текст] / Е. Н. Гайтан // Матема-тичш машини i системи. - 2011. - № 3. - С. 130-134.

8. Хусаинов, А. А. Исследование математической модели параллельных вычислительных процессов методами алгебраической топологии [Текст] / A. A. Хусаинов, В. Е. Лопаткин, И. А. Трещев // Сиб. журн. индустр. матем. - 2008. - Т. 11, № 1. -С. 141-151.

9. Murata, T. Petri Nets: Properties, Analysis and Applications [Text] / T. Murata // Proceedings of the IEEE. - 1989. - Vol. 77, Issue 4. - P. 541-580. - Available at: http://www.cs.unc.edu/~montek/teaching/spring-04/murata-petrinets.pdf doi: 10.1109/5.24143

10. Nielsen, M. Models for concurrency [Text] / M. Nielsen, G. Winskel. - Aarhus.: Preprint DAIMI PB-429, 1993. - 187 p.

11. Воеводин, В.В. Математические модели и методы в параллельных процессах [Текст] / В. В. Воеводин. - М.: Наука, 1986. -296 с.

12. Гергель, В. П. Основы параллельных вычислений для многопроцессорных вычислительных систем [Текст] : уч. пос. / В. П. Гергель, Р. Г. Стронгин. - Новгород.: ННГУ, 2001. - 184 с. - Режим доступа: http://hpc.icc.ru/documentation/unn/gergel.pdf

13. Bertsekas, D. P. Parallel and Distributed Computation: Numerical Methods [Text] / D. P. Bertsekas, J. N. Tsitsiklis. -Belmont:Athena Scientific, 2003. - 730 p.

14. Топорков, В. В. Модели распределенных вычислений [Текст] / В. В. Топорков. - М.: ФИЗМАТЛИТ, 2004. - 320 с.

Розглянуто задачу дослидження структур-них властивостей нестащонарних широкос-мугових сигналiв з метою отримання вимiрю-вальног тформацп про техшчний стан об'екту спостереження. Запропоновано узагальнений алгоритм реалiзацiг методу дослидження для iнформацiйно-вимiрювальних систем на при-кладi статистичног моделi вимiрювального сигналу. Проведено аналiз ефективностi застосу-вання методу дослидження

Ключовi слова: структурний аналiз, спек-тральний аналiз, вейвлет-перетворення, тфор-мацiйно-вимiрювальнi системи

Рассмотрена задача исследования структурных свойств нестационарных широкополосных сигналов с целью получения измерительной информации о техническом состоянии объекта наблюдения. Предложен обобщенный алгоритм реализации метода исследования для информационно-измерительных систем на примере статистической модели измерительного сигнала. Проведен анализ эффективности применения метода исследования

Ключевые слова: структурный анализ, спектральный анализ, вейвлет-преобразование,

информационно-измерительные системы

-□ □-

УДК 681.3

|POI: 10.15587/1729-4061.2015.37404|

МЕТОД ДОСЛ1ДЖЕННЯ СТРУКТУРНИХ ВЛАСТИВОСТЕЙ НЕСТАЦ1ОНАРНИХ СИГНАЛ1В У 1НФОРМАЦ1ЙНО-ВИМ1РЮВАЛЬНИХ СИСТЕМАХ

Д. С. Шантир

Кандидат техшчних наук Кафедра автоматизацп експериментальних дослщжень Нацюнальний техшчний ушверситет УкраТни «Кшвський пол^ехшчний шститут» пр. Перемоги, 37, м. КиТв, УкраТна, 03056 E-mail: shantyr@meta.ua

1. Вступ

Найбшьш цшною та повною шформащею про техшчний стан об'екту е шформащя, що характеризуе енергетичн джерела, тому в основi методiв отримання вимiрювальноi шформацп, що рекомендован нор-мативними документами, покладено вимiрювання та мониторинг енергетичних характеристик (наприклад, потужност енергетичного спектра). Практично ж за-стосувати щ методи до сигналу отриманого з складного об'екту неможливо, осюльки вони не дозволяють визначити характеристики окремих елеменпв, яю ма-ють вплив на техшчний стан. Однак структура вимь рювального сигналу мае жорсткий зв'язок з процесами у об'ект спостереження.

Шд техшчним станом об'екта маеться на увазi наявшсть чи вщсутшсть вщхилень вщ штатного режиму, ознаками якого е змши в структурi вимь

рювального сигналу. Вщповщно в основi отримання iнформацii про техшчний стан лежить виявлення, вимiрювання та визначення тенденцш розвитку цих змш у часi.

Сучасний рiвень розвитку теоретичноi бази в об-ластi обробки сигналiв та шформацшних технологiй дозволяе значно збiльшити об'ем шформацп, що отри-муеться шляхом аналiзу змiн структурних властивостей вимiрювального сигналу [1].

Слiд також зазначити, що новгтт технологii проек-тування, виробництва та експлуатацii складних об'ек-тiв мають тенденцiю до зменшення значень величин, що характеризують змiни '¿х технiчного стану вщносно штатного. Це спричинюе пiдвищення шформацшшл прихованостi, отже актуальною науковою проблемою залишаеться задача отримання кiлькiсноi шформацп про властивост об'ектiв дослiдження та процесах у них, методами чутливими до малих вщносних змш па-

i Надоели баннеры? Вы всегда можете отключить рекламу.