Научная статья на тему 'РОЗРОБКА МОДЕЛЕЙ і АЛГОРИТМіВ ОПТИМіЗАЦії СПОЖИВАННЯ РЕСУРСіВ В СХОВИЩі ДАНИХ НА БАЗі ХМАРНОї ПЛАТФОРМИ'

РОЗРОБКА МОДЕЛЕЙ і АЛГОРИТМіВ ОПТИМіЗАЦії СПОЖИВАННЯ РЕСУРСіВ В СХОВИЩі ДАНИХ НА БАЗі ХМАРНОї ПЛАТФОРМИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
73
7
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РОЗПОДіЛ НАВАНТАЖЕННЯ / ХМАРНі ОБЧИСЛЕННЯ / СЗД / МіГРАЦіЯ ДАНИХ / МОДЕЛЮВАННЯ / РАСПРЕДЕЛЕНИЕ НАГРУЗКИ / ОБЛАЧНЫЕ ВЫЧИСЛЕНИЯ / СХД / МИГРАЦИЯ ДАННЫХ / МОДЕЛИРОВАНИЯ / LOAD DISTRIBUTION / CLOUD COMPUTING / DSS / DATA MIGRATION / SIMULATION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Мацуєва К.А.

В рамках представленного исследования построена модель хранения и организации распределенного доступа к данным с использованием облачной платформы мультимедийных ресурсов, развернутых в информационной системе. При этом основной задачей исследования является разработка алгоритмов и методов управления производительностью и оптимизация использования программных и аппаратных ресурсов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Development of models and algorithms for optimization of resource consumption in the data storage based on cloud platform

The use of cloud computing technology to build information systems of research organization is discussed in this paper. The main purpose is to determine the key parameters that affect how each resource involved in the construction of systems and optimization of resource consumption taking into account solvable problem. The research results are based on queuing theory, methods of optimization and simulation. Mathematical models of service requests users to store data on a cloud platform. Also the algorithm of load balancing algorithm and intellectual migration data in cloud storage data is developed. The algorithms allow scale information system without lowering the volume of resources involved in the work. Performance evaluation showed decrease query processing time by increasing system capacity by using developed technology. The research results can be used to improve the efficiency of software and hardware resources, quality of services in information systems to the cloud platform, as well as to avoid overloading services.

Текст научной работы на тему «РОЗРОБКА МОДЕЛЕЙ і АЛГОРИТМіВ ОПТИМіЗАЦії СПОЖИВАННЯ РЕСУРСіВ В СХОВИЩі ДАНИХ НА БАЗі ХМАРНОї ПЛАТФОРМИ»

ДOCЛiДЖEHHЯ способу побудови ВЕКТОРНО-ПАРАМЕТРИЧНОГО бiCПЛAЙНA ЧЕТВЕРТого СТЕПЕНЯ

з керуючими точками, що лежать на поверхш

Дослiджено спосiб побудови бюплайна (векторно-парамет-рично! поверхнi) за допомогою сплайна четвертого степеня з керуючими точками, що шцидентш поверхнi. У результат була отримана гладкiсть аж до третього порядку включно. Отримано алгоритм розрахунку бiкубiчноi поверхнi з першим, а пойм другим i тре^м порядками гладкость Наведено тестовi приклади отриманих бiсплайнiв.

Ключовi слова: векторно-параметричний сплайн четвертого степеня, бюплайн, сплайн з керуючими точками, що шцидентш кривш, гладкють.

Ковтун Александр Михайлович, кандидат технических наук, доцент, кафедра общеинженерных дисциплин, Измаильский факультет Одесской национальной морской академии, Украина, e-mail: ikra55@list.ru.

Ковтун Олександр Михайлович, кандидат техтчних наук, доцент, кафедра загальнотженерних дисциплт, 1змагльський факультет Одеськог нащональног морськог академп, Украта.

Kovtun Alexander, Izmail Faculty of Odessa National Maritime Academy, Ukraine, e-mail: ikra55@list.ru

УДК 519.687

001: 10.15587/2312-8372.2015.51415

Мацусва к. а. РоЗРоБКА МоДЕЛЕЙ I АЛГоРИТМ1В

оПТИМ1ЗАЦН СПоЖИВАННЯ РЕСУРС1В В СХоВИЩ1 ДАНИХ НА БАЗ1 ХМАРНо! ПЛАТФоРМИ

В рамках представленого дослгдження побудована модель збериання та оргатзащ роз-подшеного доступу до даних з використанням хмарног платформи мультимедшних ресурсов, розгорнутих в ¡нформацшнш системг. При цьому основным завданням дослгдження е розробка алгоритмгв I методгв управлтня продуктивтстю та оптимгзацгя використання програмних I апаратних ресурсгв.

Ключов1 слова:розподгл навантаження, хмарнг обчислення, СЗД, мгграцгя даних, моделювання.

1. Вступ

На сьогодшшнш день одтею з основних проблем при оргашзацп мультимедшних ресурав е потреба в яюсному надант послуг кшцевим користувачам. Одним з найбшьш розвинених напрямюв, що використовують широкосму-говий доступ до мультимедшних послуг е оргатзащя дослвджень 1 обчислень в сфер1 наукових дослщжень. Ключовою особлив1стю застосовуваних технологш на вщмшу вщ традицшних мультимедшних серв1с1в е мож-лив1сть надавати р1зш серв1си, використовуючи единий комплекс, що забезпечуе штерактивний зв'язок з корис-тувачем за допомогою шформацшних канал1в зв'язку. Це дозволяе застосовувати ушфжоват ршення в плат побудови архггектури таких серв1с1в. Кр1м того, вщмггною особлив1стю послуг, що входять в таку шформацшну систему, е можлив1сть прогнозувати поведшку користу-вач1в. Це обумовлено специфжою процесу дослщжень, а також регламентом роботи таких систем. Щ та шш1 чинники дозволяють здшснити виб1р оптимального р1шен-ня, здатного забезпечити високу яюсть послуг, а також визначити основы мехашзми управлшня даними сервь сами, враховуючи специфжу предметно! область

2. Анал1з л1тературних даних

Розглянемо основш алгоритми планування, що мо-жуть бути використат для систем з архиектурою хмарних

обчислень. Одним з найпростших методiв планування, що застосовуються для складання розкладу, е алгоритм First Come First Served (FCFS) [1, 2]. У кожному цикт планування, з черги видшяються запити i призначаються на визначенi обчислювальнi вузли. При цьому запити в черзi впорядковаш згiдно часу ix надходження. Крiм описаного алгоритму застосовують i rnmi, що використовують список в якост основного елемента складання плану, включаючи Shortest Job First (найкоротша задача перша), Random Job First (випадкова задача перша) та ш. [2]. 1стотний недолiк спискових алгоритмiв — низька завантаженiсть обчислювальних вузлiв в силу наявностi великоi юлькосп вiкон у створюваних розкладах, що призводить до простоювання та неефективного використання обчислювальних ресурав.

Для виршення цих проблем Аргонською нащональ-ною лабораторiею запропонований агресивний варiант алгоритму Backfill (алгоритму зворотного заповнення). Вш переслщуе двi конфлiктуючi цт — пiдвищення ефек-тивностi використання обчислювальних ресурав шляхом заповнення порожшх вiкон у розкладi та запобкання утримання заявок у черзi на обслуговування обчислю-вальним вузлом за рахунок мехашзму резервування. При цьому запити, що очжують, зберiгаються в черзi i впорядкованi вiдповiдно до прюритепв. У кожному циклi планування обчислювальш ресурси видiляються згiдно встановленим прюритетам. Особливiстю алгоритму е те, що заявка, що надшшла на обслуговування, не

зможе отримати доступ до обчислювальних pecypciB, поки вони не вщведеш прiоритетним запитам. Таким чином, ресурси обчислювально! системи в першу чергу видшяються прiоритетним заявкам, а решта заповнюють вiкна, що утворилися в ходi резервування в розкладi в порядку, встановленому прiоритетами.

У дослщженнях Д. Фейтельсон i А. Вейл з бврейського yнiверситетy м. брусалиму запропонований консерватив-ний варiант алгоритму Backfill, вiдмiтною особливiстю якого е бiльш жорстка залежнiсть вщ прiоритетiв. Запити, що надходять, не обслуговуються, поки в розкладi не видшет ресурси для бiльш прюритетних заявок.

Дослiдження показали, що консервативний варiант алгоритму Backfill по завантаженост обчислювальних вyзлiв не поступаеться агресивному варiантy, i, на вщ-мшу вiд останнього, дозволяе робити точш припущен-ня про час запуску кожного завдання, що знаходиться в черзi [3]. 1нша не менш важлива перевага консервативного варiантy алгоритму Backfill — можливкть точного резервування ресурав для запиту вiдразy ж тсля надходження в чергу. Це дае можливкть застосовува-ти алгоритм Backfill в хмарних системах. Для роботи алгоритму Backfill суттевою е наявшсть ощнок часу виконання запитiв, що надходять в чергу. Однак при великш неточност в оцiнках ефектившсть роботи алгоритму падае, а також знижуеться середня завантаженiсть обчислювальних вyзлiв.

Бiльшiсть широко вiдомих методiв складання роз-кладiв i вибору заявок з черги запипв не враховують топологiю, використовувану в обчислювальнш системi.

Найбiльш перспективним напрямком на сьогодтшнш день е використання технологш хмарних обчислень для побудови масштабованих систем, таких як системи органiзацii дослiджень. На ринку хмарних обчислень присутш не тшьки пропрiетарнi рiшення, такi як VMware ESX, Xen та шш^ але i добре докyментованi комплекси з вщкритим вихiдним кодом, таю як OpenStack [4].

В даний час шнують рiшення, побyдованi на базi хмарних сервiсiв, що використовують утверсальний тд-хiд для оргашзацп доступу до розташовуваних в них ресурав. При цьому не враховуються особливост кожного сервiсy, що в свою чергу призводить до збшьшення споживаних ресурав i неефективного використання.

3. Постановка проблеми

У рамках дослiдження встановленi наступш особли-востi споживання програмно-апаратних ресурав, що використовуються для забезпечення роботи системи органiзацii дослiджень (СОД):

— навантаження на ключовi ресурси носить перю-дичний i нерiвномiрний характер;

— одночасно вщбуваються звернення до декшькох типiв ресyрсiв;

— штенсившсть звернення до кожного ресурсу може змшюватись в залежностi вiд зовшшшх умов;

— зважаючи на вщсутшсть розподiлy навантаження мiж ресурсами при тковому навантаженнi облад-нання не завжди дозволяе обслужити вс запити;

— до 90 % навантаження заздалепдь ввдомо, оскшь-ки для доступу до ресурав використовуеться по-передня реестрацiя.

Крiм того, варто ввдзначити, що 80 % ресурав за-требyванi лише в 20 % часу роботи сервгав.

Встановлено, що единою точкою агрегацп трафжу виступае система зберiгання даних (СЗД), що забезпечуе обробку потоку запипв, що надшшли вiд споживачiв мультимедшних послуг. Отже, ефективнiсть роботи вае1 системи, а так само яюсть надаваних послуг безпосеред-ньо залежить вщ продуктивностi сховища даних. Тому для ефективного управлшня потоком запипв розробле-на модель доступу до мультимедшних даних сховища хмарно! системи.

Ключовою вiдмiннiстю сховищ мультимедiйних даних е неоднорщшсть розмiщуваноi шформацп (текстовi, аудiо або вiдео даш) [5] i, як наслiдок, рiзнi пiдходи до органiзацii доступу до не!. Крiм методiв доступу до даних ктотною е iнтенсивнiсть звернення до тих чи шших елеменпв, яка може бути отримана з вико-ристанням внутрiшньосистемних алгоритмiв щентифь кацп користувачiв, що в свою чергу дозволяе ощнити затребуванiсть i спрогнозувати навантаження на при-стро! системи зберiгання. У зв'язку з цим важливим аспектом управлшня ресурсами системи, при значному збшьшенш юлькосп одночасних запипв, е правильна оргашзащя процесу розмiщення i розподiлу елеменпв даних по пристроях [6, 7].

Ввдмшною характеристикою хмарних сховищ е ре-конфiгурованiсть структури залежно вщ споживаних ресурсiв. Це в свою чергу дозволяе впроваджувати алго-ритми оптимiзацii в планi розмщення даних усерединi дискового простору, а також керувати змшою кшько-ст використовуваних системою пристро!в. При цьому процес оптшшзацп розмiщення не повинен призводити до зниження якост обслуговування клiентiв СЗД, для чого в алгоритмах необхвдно враховувати пропускну здатшсть мережi i максимальний обсяг даних, який можна передавати в один момент часу [8]. Крiм того необхщно враховувати поточне завантаження самих при-стро!в, а також розташування вiдносно один одного i клiентiв, що пiдключаються до них.

4. 06'ект, мета та задач1 дослщження

Об'ект до^дження — сервки iнформацiйноi системи органiзацii дослiджень, що ввдносяться до декiлькох рiвнiв додатюв i розмiщенi на базi хмарних систем.

Метою дослгдження е визначення ключових парамет-рiв, якi впливають на роботу кожного з ресурав, заддя-них при побудовi системи та оптимiзацiя '¿х споживання з урахуванням розв'язуваноi ними обчислювальноi задач!

Для досягнення поставленоi мети необхвдно розро-бити алгоритми i методи управлшня продуктившстю та оптимiзацiею використання програмних i апаратних ресурсiв. Поставлено наступш задач!

1. Побудувати модель обслуговування запипв ко-ристувачiв в хмарному сховишд даних.

2. Розробити алгоритм балансування навантаження в хмарному сховищд даних.

3. Розробити алгоритм iнтелектуальноi м^рацп даних.

5. Результаты дослщжень сервшв шформацмно! системи на баз1 хмарних обчислень

Для оптимiзацii механiзмiв доступу до даних по-будуемо загальну модель доступу до даних системи збертння.

ТЕХНОЛОГИЧЕСКИЙ АУДИТ И РЕЗЕРВЫ ПРОИЗВОДСТВА — № 5/7(25], 2015

Нехай:

R = (и, M ,Q),

де U = [щ, и2,...} — множина користувачiв; M = {ml, m2,...} — множина унiкальних елементiв даних, розташовуваних на пристроях зберкання. При цьому мiнiмальною оди-ницею даних mi вважатимемо файл, що мае обов'язкову властивiсть h — розмiр.

Для забезпечення безпечного зберкання даних i ба-лансування навантаження мiж пристроями зберiгання визначимо функщю розподiлу елементiв даних, для цього введемо множину Mc:

Mc = [т/1, т/2, т/3,..., т21, m22, т23,...},

де т(к — ¿-я котя елемента розмiщуваних даних (mi) на ]к-м пристро! зберiгання, за умови к > 3 (не менше трьох копiй мiнiмальноi одинищ зберiгання на рiзних пристроях).

Тодi функщя розподiлу елементiв даних по пристроях збертння приймае вигляд:

Р: Мс ^ D.

Виходячи з викладеного вище, отримаемо вимогу користувача до елеменпв даних Q:

Q: и ^ X с Мс,

де Х — множина даних запитаних множиною користу-вачiв и. Тодi сховище даних можна записати у виглядi кортежу:

5 = (Мс, D, Р, L,C,R,G),

де D = [¿1,d2,...} — множина пристро!в збертння; L = = [11, /2,...} — множина значень характеризуе завантаження кожного пристрою зберiгання (кiлькiсть одночасних звер-нень користувачiв до конкретного пристрою);С = [с1, с2,...} — множина значень, що характеризуе обсяг кожного з при-стро!в у сховищi; G е N — натуральний коефiцiент, що характеризуе географiчний (топологiчний) прiоритет ви-користання сховища.

Як правило, для великих хмарних структур вико-ристовуються консолiдованi сховища, що складаються з ферм, i поеднують кiлька сховищ в единий масив. Уявiмо його як = [51,52,...}.

Так як характеристики вимог користувачiв змшюють-ся в чаа, перетворимо кортеж вимог R(t) = (и, Мс, Q(t)). Тад Q(t): и ^ X с Мс — вимоги користувача до еле-ментiв даних, що змшюються в часi. Так як ^м ак-тивностi користувача змшюються властивост сховища, запишемо кортеж сховища в залежносп вiд часу 5(^):

5(t) = (Мс^), D(t), P(t), L(t), С, R(t), G),

де D(t) = [¿1,¿2,...} — множина пристро!в зберiгання, змiнних в час! таких що Vt, D(t)>0; P(t): Мс ^D —

функцiя розподшу елементiв даних мiж пристроями збе-рiгання, змiнних в 4aci.

При цьому для оптшшзацп витрат на апаратш ресур-си i скорочення одночасно використовуваних пристро1в введемо кортеж вщношень:

Scloud(t) = {S(t), D(t), Duse(t)},

де Vt, Duse(t) с D(t) — множина пристро1в зберiгання, що використовуються в масштабованому сховищi S в момент часу t.

Крим того, при масштабуваннi сховища i мкрацп даних мае виконуватись умова Vt, i, j i Ф- j ^ Di (t) n Dj (t) = 0, тобто при м^рацп даних сховища не повинн1 вико-ристовувати одн1 й т1 ж пристро! Це дозволить як гарантувати швидюсть обробки шформацп, так i за-безпечити прийнятний час реконфiгурацi'i.

Таким чином, для мш!шзацп к1лькост1 одночасно використовуваних пристро'iв зберiгання в рамках одного масштабованого сховища i максшшзацп к1лькост1 оброб-лених запитiв користувачiв в одиницю часу, введемо цшьову Функц1ю виду:

N

£ Pi (t) ^ min,

i=1

N

X LiPi (t )Ri (t) ^ max,

i=1

де N — загальна к1льк1сть заявок надшшли в систему на iнтервалi часу АГ.

На основ! моделi доступу до даних сховища розробле-но алгоритм балансування навантаження м1ж пристроями, реал1зований у вигляд! програмного модуля для компонента Swift хмарно1 системи OpenStack. Виб1р дано1 хмарно1 системи обумовлений в1дкрит1стю ii ар-х1тектури та можлив1стю ii модифжацп п1д поставлен! завдання. Основними недол1ками OpenStack е неефек-тивний алгоритм розпод1лу обчислювальних завдань м1ж вузлами збер1гання даних. Стандартний алгоритм, запропонований в систем!, не враховуе маршрутизащю вiртуальноi i тополог1ю локальноi мереж1, а також вщ-далешсть в1ртуальних машин, що виконують обробку запит1в користувач1в, i сховищ даних, що забезпечу-ють передачу даних. Все це негативно впливае на час в1дгуку, як самоi хмарноi системи, так i запущених в н1й прим1рник1в додатк1в. Кр1м того, сам1 алгоритми розпод1лу даних, застосовуваш в сховищ! хмарноi системи, не дозволяють ефективно здшснювати розмь щення шформацп i надавати доступ до затребуваних даних по мереж1 [9-11].

Для оцшки ефективност! розробленого алгоритму проведено моделювання роботи системи збер1гання з р1зними параметрами. При цьому отримано так1 зако-ном1рност1 при робот! стандартних алгоритм1в хмарноi системи.

При зб1льшенн1 к1лькост1 копш даних в1дбуваеться значне зниження навантаження на основних пристроях збер1гання. Однак, при цьому зростае кшьюсть зад1яних пристроiв, що не в1дпов1дае поставленому завданню.

При одночасному доступ! до декшькох пристроiв, що м1стить р1зний обсяг даних, виникае дисбаланс

с

МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ — ПРИКЛАДНЫЕ АСПЕКТЫ

ISSN 2226-3780

продуктивност сховища, що призводить до вiдмов в об-слуговуваннi запитiв користувача.

Основною причиною е нерiвномiрне розмiщення великих i малих за обсягом даних, що в свою чергу збiльшуе час зайнятост пристро'!в.

При багаторазовому зверненш до тих самих даних в сховишд, пристро'! не в змозi обслужити запи-ти, осюльки вiдсутнiй розподiл навантаження мiж вузлами. При цьому застосоваш в СЗД алгоритми кешування не можуть ефективно надати доступ до таких даних.

Розроблений алгоритм дозволяе врахувати перерахо-ваш недолши роботи системи управлшня зберiганням даних, що в свою чергу, з урахуванням алгоритму прь оритетного обслуговування [10] дае додатковий прирост продуктивност хмари i розв'язуваних в нш завдань на 5-9 % у порiвняннi зi стандартними засобами управлшня сховищем даних в OpenStack (рис. 1).

У загальному виглядi схема взаемоди ресурав у про-цесi мiграцii даних може бути представлена у вигляд1 наступно! схеми (рис. 2).

Шдсистема планування ГИдсистема м1грацП

Визначае оптимальне Визначае план

вщображення даних на перемщення в

пристро1 при поточних залежносп вщ графа

вимогах користувачт вимог С

-3 стандартшгм алгоритмом -»-3 розробленим алгоритмом

Рис. 1. Продуктившсть обслуговування заявок в сховищi даних iз ¡нтелектуального кешування

Крiм алгоритму розподiлу навантаження важливим фактором, що впливае на продуктившсть системи збе-рiгання даних, е процес м^рацп даних мiж пристроя-ми зберiгання. Дана операцiя робить ктотний вплив на час ввдгуку системи, так як данi в сховищд, як зазначалося ранiше, е неоднорвдними, а деякi з них е ще й залежними один ввд одного. Це особливо актуально при зверненш до потокових даних, наприклад при проведенш ввдео трансляцп. Крiм того, процес тиражування (процес розподшу даних мiж пристроя-ми), у тому числi для кешування найб^ьш затре-буваних даних так само безпосередньо залежить вщ ефективност алгоритмiв, застосовуваних при м^рацп даних. Для оптимiзацii даного процесу, використовуючи можливостi хмарно! системи OpenStack, розроблений алгоритм, що формуе план мкрацп даних, а також модуль, що здшснюе розподiлену обробку створених обчислювальних завдань.

При цьому вс операцп, що задаються тдсистемою планування можна описати як граф вимог G:

G(V, Е, Р ),

де V — напрямок перемщення (кшцевий пристрiй); E — елемент даних (файл), затребуваний на пристро!; P — прюритет виконання операцп в планi мiграцii.

застосуванням алгоритму

Рис. 2. Схема взаЕмодц гадсистеми планування i пiдсистеми мiграцii

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

При формуванш плану мiграцii однiею з основних особливостей е використання прюритетного тдходу при виборi операцп.

Крiм цього враховуються такi показники:

— поточна завантажешсть вузлiв;

— результати прогнозування навантажень, що спираються на юторт звернень користувачiв до тих чи шших елементiв даних, а також на алгоритми внутрiшньосистемноi авториза-цГ! користувачiв;

— розмiр i тип затребуваних елементiв даних;

— пропускна спроможнiсть ка-налiв зв'язку як зовшшшх, так i внутршшх (в залежностi вiд напрямку м^рацн даних);

— затребуванiсть активних да-них, використовуваних в поточ-ний момент (юльюсть корис-тувачiв звертаються до одного i того ж ресурсу в незалежност ввд його розташування в роз-

подшенш системi зберiгання).

Для складання обчислювальних завдань з мiграцii планувальником видшяються множини незалежних опе-рацiй DMj. Вибiр i об'еднання операцш в кожнiй мно-жинi визначаеться, по-перше, зв'язнiстю пристро'!в, що беруть участь в поточнш операцii, по-друге зв'язтстю напрямку мiграцii з шшими задачами. Кожнiй множи-нi DMj призначаеться прюритет, рiвний максимальному прюритету операцii, що входить в дану множину. Множини упорядковуються вщповвдно до розставлених прiоритетiв. У ранжованому списку обчислювальних завдань видшимо два ключовi множини i позначимо 1х як DMc i DMnc. У множину DMc вщнесемо найбшьш критичнi операцii в планi часу виконання, в DMnc всi ш-шi. Розроблений планувальник обчислювальних завдань спрямований на паралельну обробку двох тдмножин. При цьому, на кожному етат виконання обчислювальних задач проводиться аналiз зв'язюв операцiй кожного з множин, i складаеться оновлений ранжований список прiоритетiв мiграцii, з урахуванням показниюв наведе-них рашше. Таким чином, розроблена система реального часу, що ввдслщковуе стан пристро'!в, розмiщених на них даних, а також запити користувачiв.

Провiвши дослщну експлуатацiю системи, iз застосуванням алгоритмiв кешування i iнтелектуальнiсть мйра-цГ! даних, отримано сумарний приршт продуктивност хмари OpenStack на 15-19 % (рис. 3).

I 10

ТЕХНОЛОГИЧЕСКИЙ АУДИТ И РЕЗЕРВЫ ПРОИЗВОДСТВА — № 5/7(25], 2015

Рис. 3. Продуктившсть обслуговування заявок в сховищi даних i3 пршритетнш мiграцïí даних

6. Висновки

1. Розроблено модель доступу до мультимедшних даних сховища даних на 6a3i хмарно! платформи, що дозволяе мiнiмiзувати кiлькiсть одночасно використовуваних пристро!в зберiгання в рамках одного сховища i максимiзувати кiлькiсть оброблених запипв за оди-ницю часу.

2. На основi моделi доступу до даних сховища розроблено алгоритм балансування навантаження мiж пристроями, що дозволяе знизити час вщгуку, використовуючи iнформацiю про топологш i маршрутизацiю основних потокiв даних, а гнучке управлшня '¿х розмщенням дозволяе скоротити накладнi витрати обчислювальних потужностей при мiграцiï даних i вiртуальних машин.

3. Розроблено алгоритм, особливктю якого е вико-ристання прюрггетного пiдхiду при формуваннi плану мкрацп i врахування бiльш широкого списку показ-никiв порiвняно iз стандартним алгоритмом системи OpenStack.

Комплексне моделювання роботи хмарноï системи проводилося урахуванням особливостей компоненпв мультимедiйних ресурав системи органiзацiï дослiджень, при цьому використаш iнтелектуальнi алгоритми дозволили масштабувати хмару, не знижуючи при цьому обсяги задiяних в роботi ресурсiв. Розроблеш модулi хмарноï системи OpenStack показали свою ефектившсть в якостi балансувальника навантаження, що дозволило надати ефективний доступ до користувачiв рiзних титв даних.

Оцiнка продуктивностi показала зменшення часу обробки запитiв за рахунок збшьшення пропускноï здат-ност системи при використаннi розробленоï технологи.

Подальшi дослiдження будуть спрямованi на деталь-ну розробку методики ощнки необхiдного числа обчислювальних вузлiв, необхiдних для обслуговування запитiв користувачiв.

Лггература

1. Aida, K. Job Scheduling Scheme for Pure Space Sharing among Rigid Jobs [Text] / K. Aida, H. Kasahara, S. Narita // Lecture Notes In Computer Science, Proceedings of the Workshop on Job Scheduling Strategies for Parallel Processing. — London: Springer-Verlag, 1998. — P. 98-121. doi:10.1007/bfb0053983

2. Sinnen, O. Communication contention in task scheduling [Text] / O. Sinnen, L. A. Sousa // IEEE Transactions on Parallel and Distributed Systems. — 2005. — Vol. 16, № 6. — P. 503-515. doi:10.1109/tpds.2005.64

застосуванням алгоритму

3. Гергель, В. П. Исследование алгоритмов планирования параллельных задач для кластерных вычислительных систем с помощью симулятора [Текст] / В. П. Гергель, П. Н. Полежаев // Вестник Нижегородского университета имени Н. И. Лобачевского. — 2010. — № 5(1). — С. 201-208.

4. OpenStack Open Source Cloud Computing Software [Electronic resource]. — Available at: \www/ URL: http://www.openstack.org/

5. Мацуева, К. А. Методи управлшня ресурсами i додатками в обчислювальних системах на базi хмар-них технологий [Текст] / К. А. Ма-цуева // ScienceRise. — 2015. — № 7/2(12). — С. 33-38. doi:10.15587/ 2313-8416.2015.46591

6. Петров, Д. Л. Оптимальный алгоритм миграции данных в масштабируемых облачных хранилищах [Текст] / Д. Л. Петров // Управление большими системами. — 2010. — № 30. — С. 180-197.

7. Петров, Д. Л. Динамическая модель масштабируемого облачного хранилища данных хранилищах [Текст] / Д. Л. Петров // Известия ЛЭТИ. — 2010. — № 4. — С. 17-21.

8. Рогов, С. Тестирование производительности веб-серверов [Электронный ресурс] / С. Рогов, Д. Намиот // Открытые системы. — 2002. — № 12. — Режим доступа: \www/ URL: http://www.osp.ru/os/2002/12/055.htm

9. Ngenzi, A. Appling mathematical models in cloud computing: A survey [Text] / A. Ngenzi, R. Selvarani, Dr. Suchithrar // Jornal of Computer Engineering. — 2014. — Vol. 16, № 5. — P. 36-46. doi:10.9790/0661-16523646

10. Ruiz-Alvarez, A. A Model and Decision Procedure for Data Storage in Cloud Computing [Text] / A. Ruiz-Alvarez, M. Humphrey // Proceedings of the IEEE/ACM International Symposium on Cluster, Cloud, and Grid Computing (CCGrid'12). — Ottawa, 2012. — P. 572-579. doi:10.1109/ccgrid.2012.100

11. Мацуева, К. А. Моделювання динамiчного розподшення навантаження в шформацшнш системi на базi хмарних об-числень [Текст] / К. А. Мацуева // Вюник Национального техничного университету «ХП1». — 2015. — № 22(1131). — С. 28-31.

РАЗРАбОТКА МОДЕЛЕЙ И АЛГОРИТМОВ ОПТИМИЗАЦИИ ПОТРЕбЛЕНИЯ РЕСУРСОВ В ХРАНИЛИЩЕ ДАННЫХ НА бАЗЕ ОбЛАЧНОЙ ПЛАТФОРМЫ

В рамках представленного исследования построена модель хранения и организации распределенного доступа к данным с использованием облачной платформы мультимедийных ресурсов, развернутых в информационной системе. При этом основной задачей исследования является разработка алгоритмов и методов управления производительностью и оптимизация использования программных и аппаратных ресурсов.

Ключевые слова: распределение нагрузки, облачные вычисления, СХД, миграция данных, моделирования.

Мацуева Карина Андрпвна, асшрант, асистент, кафедра ком-п'ютеризованих систем управлшня, Нащональний авiацiйний утверситет, Kuïe, Украта, e-mail: karyna_matsueva@bigmir.net.

Мацуева Карина Андреевна, аспирант, ассистент, кафедра компьютеризованных систем управления, Национальный авиационный университет, Киев, Украина.

Matsuieva Karyna, National Aviation University, Kyiv, Ukraine, e-mail: karyna_matsueva@bigmir.net

i Надоели баннеры? Вы всегда можете отключить рекламу.