Научная статья на тему 'МЕТОДИ УПРАВЛіННЯ РЕСУРСАМИ і ДОДАТКАМИ В ОБЧИСЛЮВАЛЬНИХ СИСТЕМАХ НА БАЗі ХМАРНИХ ТЕХНОЛОГіЙ'

МЕТОДИ УПРАВЛіННЯ РЕСУРСАМИ і ДОДАТКАМИ В ОБЧИСЛЮВАЛЬНИХ СИСТЕМАХ НА БАЗі ХМАРНИХ ТЕХНОЛОГіЙ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
91
24
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
іНФОРМАЦіЙНА СИСТЕМА / ХМАРНі ОБЧИСЛЕННЯ / ВіРТУАЛЬНі РЕСУРСИ / РОЗПОДіЛ НАВАНТАЖЕННЯ / КЕРУВАННЯ РЕСУРСАМИ / INFORMATION SYSTEM / CLOUD COMPUTING / VIRTUAL RESOURCES / LOAD DISTRIBUTION / RESOURCE MANAGEMENT

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Мацуєва К.А.

В даній статті описано методи керування ресурсами і додатками, що знаходяться в складі інформаційної системи для наукових досліджень (ІСНД). Представлено модель керування потоками запитів в ІСНД і приведено результати досліджень реальної хмарної системи з використанням додаткового модуля розподілення навантаження, запрограмованого на мові

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PythonThis article describes the methods of resource management and applications that are parts of an information system for science research (ISSR). The control model of requests in ISSR is given and results of working real cloud system using the additional module of load distribution programmed in Python are presented

Текст научной работы на тему «МЕТОДИ УПРАВЛіННЯ РЕСУРСАМИ і ДОДАТКАМИ В ОБЧИСЛЮВАЛЬНИХ СИСТЕМАХ НА БАЗі ХМАРНИХ ТЕХНОЛОГіЙ»

УДК 519.687

DOI: 10.15587/2313-8416.2015.46591

МЕТОДИ УПРАВЛ1ННЯ РЕСУРСАМИ I ДОДАТКАМИ В ОБЧИСЛЮВАЛЬНИХ СИСТЕМАХ НА БАЗ1 ХМАРНИХ ТЕХНОЛОГ1Й

© К. А. Мацуева

В данш cmammi описано методи керування ресурсами i додатками, що знаходяться в CKnadi тформа-цшног системи для наукових до^джень (1СНД). Представлено модель керування потоками запитiв в 1СНД i приведено результати до^джень реально'1 хмарног системи з використанням додаткового модуля розподшення навантаження, запрограмованого на мовi Python

Ключовi слова: тформацшна система, хмарт обчислення, вiртуальнi ресурси, розподш навантаження, керування ресурсами

This article describes the methods of resource management and applications that are parts of an information system for science research (ISSR). The control model of requests in ISSR is given and results of working real cloud system using the additional module of load distribution programmed in Python are presented Keywords: information system, cloud computing, virtual resources, load distribution, resource management

1. Вступ

В даний час юнуе безлiч ршень, що дозволя-ють здшснювати управлшня розподшом навантаження м1ж обчислювальними ресурсами. Серед них най-бшьш перспективним е концепщя хмарних обчис-лень. Ця технолопя дозволяе ушфшувати доступ до ресурав, що дуже важливо для систем, що вимага-ють високо! якосп обслуговування i забезпечують доступшсть послуг в цшодобовому режимi [1]. Вико-ристання концепцп хмарних обчислень дозволяе за-безпечити збереження i обслуговування значних об'емiв даних, використовуваних системою [2, 3].

2. Постановка проблеми

Досить ефективним вважаеться прогнозування поведшки ктенлв використовуючи мехашзми попе-редньо! реестраци i статистику споживання ресурсiв для кожно! з тдсистем [4]. Таким чином, можна ви-значити об'ем потужностей для обслуговування потоку заявок, що надходять.

Потоки запитiв (трафш) до мультимедiйних додаткiв, як правило, вiдрiзняються вiд моделi простого пуассошвського потоку, що описуеться експо-ненцiйною функцiею розподiлу iнтервалу часу мiж моментами надходження заявок. При цьому кожен з джерел запипв, що бере участь у процеа створення потоку пакетiв, володiе власними значеннями пито-мо! iнтенсивностi навантаження. У кожний момент часу штенсившсть навантаження результуючого потоку запипв користувачiв залежить вiд того, до яких додатшв вони спрямованi, яким каналом (вiртуаль-ним ресурсом) вони обслуговуються, а також яке спiввiдношення !х чисельносп для рiзних додатк1в.

3. Огляд лiтератури

Як правило, завдання планування вирiшуються шляхом !х зведення до завдань комбшаторно! опти-мiзацil, зокрема, до завдань лшшного програмування, пошуку максимального потоку та iн. Також нерiдко застосовуеться динамiчне програмування або метод гшок i меж [5]. Слщ враховувати, що завдання скла-дання плану КР-повне, отже, складання оптимальних

за заданим критерieм розклащв вимагае експоненща-льного часу, що неприпустимо для використання в обчислювальних системах, так як кожен цикл планування займае значний пром1жок часу. Для виршення дано! задачi застосовують евристичнi алгоритми пла-нування, що будують субоптимальний розклад за прийнятний полiномiальний час.

Розглянемо алгоритми планування, що можуть бути використанi для систем з архитектурою хмарних обчислень. Одним з найпростших методiв планування, що застосовуються для складання розкладу, е алгоритм First Come First Served (FCFS) [6, 7]. У кожному цикт планування, з черги видiляються запити i призначаються на визначеш обчислювальш вузли. При цьому запити в черзi впорядкованi згiдно часу !х надходження. Крiм описаного алгоритму застосовують i iншi, що використовують список в якосл основного елемента складання плану, включаючи Shortest Job First (найкоротша задача перша), Random Job First (випадкова задача перша) та ш. [7]. 1стотний недолiк спискових алгоритмiв - низька завантажешсть обчислювальних вузлiв в силу наявносп велико! кiлькостi вжон у створюваних розкладах, що призводить до простоювання та неефективного використання обчислювальних ресурав.

Для виршення цих проблем Аргонською национальною лабораторiею запропонований агресивний варiант алгоритму Backfill (алгоритму зворотного заповнення). Вш переслiдуе двi конфлiктуючi цiлi -шдвищення ефективностi використання обчислювальних ресурав шляхом заповнення порожшх вшон у розкладi та запобiгання утримання заявок у черзi на обслуговування обчислювальним вузлом за рахунок мехашзму резервування. При цьому запити, що очь кують, зберiгаються в черзi i впорядкованi вiдповiдно до прюритепв. У кожному циклi планування обчислювальш ресурси видмються згiдно встановленим прiоритетам. Особливiстю алгоритму е те, що заявка, що надшшла на обслуговування, не зможе отримати доступ до обчислювальних ресурав, поки вони не вщведеш прiоритетним запитам. Таким чином, ресурси обчислювально! системи в першу чергу видшя-

ються прюритетним заявкам, а решта заповнюють вшна, що утворилися в ход1 резервування в розклад1 в порядку, встановленому прюритетами.

У дослвдженнях Д. Фейтельсон i А. Вейл з Св-рейського унiверситету м. Срусалиму запропонова-ний консервативний варiант алгоритму Backfill вщ-мiтною особливютю якого е бiльш жорстка залеж-нiсть ввд прiоритетiв. Запити, що надходять, не об-слуговуються, поки в розкладi не видiленi ресурси для бшьш прiоритетних заявок.

Дослщження показали, що консервативний ва-рiант алгоритму Backfill по завантаженостi обчислю-вальних вузлiв не поступаеться агресивному варiан-ту, i, на вадмшу вiд останнього, дозволяе робити точ-нi припущення про час запуску кожного завдання, що знаходиться в черзi [8]. 1нша не менш важлива перевага консервативного варiанту алгоритму Backfill -можливiсть точного резервування ресурав для запи-ту вiдразу ж пiсля надходження в чергу. Це дае мож-ливють застосовувати алгоритм Backfill в хмарних системах. Для роботи алгоритму Backfill суттевою е наявшсть оцiнок часу виконання запипв, що надходять в чергу. Однак при великiй неточностi в оцшках ефективнiсть роботи алгоритму падае, а також знижу-еться середня завантаженiсть обчислювальних вузлiв.

Бiльшiсть широко вадомих методiв складання розкладiв i вибору заявок з черги запипв не врахо-вують тополог1ю, використовувану в обчислювальнiй системi. Так, при робот алгоритму First Fit (перший, що надходить) вибираються першi пiдходящi вузли з першого кращого вiкна вiльних обчислювальних вуз-лiв. В алгоритм Best Fit (найкращий, що надходить) -спочатку проглядаються пiдходящi вiкна з кiнцевим часовим штервалом, i серед них вибираеться те, за-криття якого дасть найменшу залишкову площу. Як-що немае подходящих кiнцевих вiкон, то вибираеться вадповвдне нескiнченне вiкно, найбiльш близьке по необхiдним ресурсам для виконання запиту. Такий пiдхiд часто застосовують стльно з алгоритмом зво-ротного заповнення (Backfill). Вибiр згiдно з алгоритмом Fastest Node First (найшвидший вузол перший) здшснюеться з найбшьш продуктивних вузлiв у вад-повiдних вiкнах розкладу. Крiм перерахованих алго-ритмiв, так само застосовують пошук вузлiв згiдно з алгоритмом Least Utilized Node First (найменш заван-тажений вузол перший). Вш дозволяе вибрати найменш завантажет вiдповiднi вузли в доступному для вибору вгкт. Вщповвдний обчислювальний вузол для обслуговування запипв, що надходять може бути обра-ний випадковим чином з використанням алгоритму Random First (RF, випадковий вузол перший) [9, 10].

Розглянемо алгоритми планування для хмарних систем, яш е окремим випадком грвд-систем з рiзними схемами роботи. Бiльшiсть сучасних хмарних систем використовують централiзовану схему планування, яка передбачае застосування одного з двох титв алгоритмiв планування - «жадiбнi» або «лшит».

У випадку «жадабних» алгоритмiв глобальна черга задач не використовуеться. Для кожно! задачi, що формуеться контролером хмарно! системи на основi вхщних запипв користувачш, за деяким принципом

обираеться вщповщний обчислювальний вузол, куди передаешься задача. Вибiр вщповщного обчислювально-го ресурсу здшснюеться за допомогою шформацшно! бази, яка мiсгигь акгуальнi ввдомосп про погочний сган i конфцурацп обчислювальних ресурс1в. Збiр подiбних ведомостей здшснюеться спещалзованими розподше-ними системами мониторингу. При цьому вибираеться ресурс з мЫмальним значениям деяко! штегрально! характеристики, наприклад, коефiцiента використання, довжини черги завдань та iнших. Проте, використання подiбних алгоригмiв потеицiйио призводить до зави-сання завдань i неефективно1 та незбалансовашх заван-таженост обчислювальних ресурсiв.

У випадку «лшивих» алгоритмiв планування запити користувачiв помщаються в глобальну чергу. Локальний планувальник обчислювального ресурсу запитуе новi даш у контролера в певнi моменти часу, обумовлеш адмiнiстративною полiтикою. У цьому випадку також знижуеться ефектившсть роботи системи, тому локальш планувальники обчислювальних вузлiв не володшть достатньою iнформацiею для складання повних i ефективних розкладiв.

Таким чином, з викладеного вище випливае, що для розробки ефективних алгоритм1в керування ресурсами в хмарн1й системi необхщно отримати вщомосп про особливост роботи сервiсiв, що розмiщенi на обчислювальних вузлах. Це дозволить бшьш чгтко визначи-ти i локалiзувати потенцiйнi проблемнi дiлянки.

Завдання управлшня ресурсами виникае при конкуренци за ресурси, зокрема при одночасному використаннi вiртуальних машин на одному обчис-лювальному вузлi. Основним завданням при цьому е попередне планування видшення ресурсу i динамiч-ний перерозподш ресурсiв при iнтенсивному надхо-дженнi запитiв користувачiв. У технологи хмарних обчислень передбачеш механiзми для виршення перерахованих особливостей. Однак вони не врахову-ють рiзнорiднiсть використовуваних додаткiв i сервь ав, що достатньо критично для сучасних шформа-цiйних систем. Отже, потрiбна розробка нових алго-ритмiв планування для забезпечення якостi обслуговування користувачiв iнформацiйних систем.

4. Проведення експериментального дослЬ дження методiв керування вiртуальними ресурсами iдодатками

Використовуючи рiзнi оптимiзацiйнi алгоритми на кожному з етатв можна вплинути на структуру трафшу, забезпечивши тим самим якiсть обслуговування для видшеного сервiсу. При цьому вхвдш потоки зазнають значних змш i в пвдсумковому тра-фiку з'являються довгостроковi залежиостi в штенси-вностi запитiв, що дозволяе ввести зворотний зв'язок для компоненпв обслуговуючо! системи 11, 12]. Ввд-мiнною особливiстю iмiтацiйноl моделi, побудовано! для дослгдження процесу обслуговування запипв, е набiр ознак, що характеризують кожну з заявок [13]:

• ресурсомютюсть - оц1нюеться з використанням рейтингу затребуваиостi основних ресурсiв системи;

• передбачуваний час виконання - ощнюеться з використанням статистики обслуговування одноти-пних заявок в залежностц

• рейтинг кшцевого виконавця заявки - вико-ристовуеться як ваговий коефщент для рацюнально-го розпод^ ресурсiв в пiдсистемах.

Кожна з заявок у вхвдному потоцi даних отри-муе динамiчний прiоритет, залежно вiд представле-них набору ознак i поточного стану вае1 СМО в ць лому. Приймемо, що всi обчислювальнi вузли К, в рамках обраного класу завдання, щентичт i будь-яка заявка може бути обслужена будь-яким з них. При цьому на кожному обчислювальному вузлi для ефек-тивного обслуговування заявок застосовуються вщ-носш прiоритети.

Враховуючи особливостi кожного сервюу, фо-рмалiзуемо характеристики побудовано! моделг Кь льк1сть джерел I, i iнтенсивнiсть ¡п=1, ..., I безпосе-редньо залежить вщ кiлькостi користувачiв, що звер-таються в даний момент до хмари, при чому у разi одночасного звернення одного клiента до рiзних рiв-нiв шдсистем будемо вважати як заявки, що надшш-ли вщ двох незалежних один ввд одного джерел. Враховуючи це, штенсившсть надходження заявок в хмарну систему в цiлому буде нерiвномiрною не за-

лежно вiд обраного штервалу часу моделювання. KpiM цього, в СМО хмари можна видшити калька фаз F обслуговування заявок. Це обумовлено архитектурою техтчного рiшення, що дозволяе масштабувати потужносп залежно ввд поставлених завдань. Хмар-ний контролер, що керуе розмщенням обчислюваль-них задач на запущених додатках, а так само запуском i зупинкою обчислювальних вузлiв, здатний ви-значати класи завдань, що дае можливють викорис-товувати гнучке управлiння потоками запитiв.

Визначимо схему управлшня потоками запитiв (рис. 1) i видшимо три фази обслуговування заявок: накопичення заявок в контролерi хмарно! системи (фаза 1), приоргтетне обслуговування заявок на обра-ному обчислювальному вузлi (фаза 2), генеращя па-кетiв даних, запитаних користувачами (фаза 3).

В рамках дослвдження встановлено, що для потоку запипв до хмарно! iнформацiйноï системи характерна сильна нерiвномiрнiсть iнтенсивностi надходження заявок i пакепв. Заявки не рiвномiрно розподiленi на часовому штервалг i групуються в одних штервалах, i повнiстю вiдсутнi в шших.

Рис. 1 Схема управлшня потоками запипв в систем1 з хмарними обчисленнями

При цьому для кожного класу задач випадко-вий процес надходження в систему запипв характе-ризуеться законом розподшу, що встановлюе зв'язок м1ж значенням випадково! величини i ймов1рн1стю появи цього значення. Такий потiк може бути описаний ймовiрнiсною функцiею розподiлу iнтервалiв часу мiж сусiднiми запитами. На шдстаи статистич-них даних про шльшсть i розмiри запитiв, що надхо-дять а так само характеристики iнтервалiв часу мiж запитами отримано наступнi вiдповiдностi:

- для додатшв, що вiдносяться до першого класу i здiйснюють обробку потокових даних (передача ввдео трафшу) характерний розподiл Парето;

- для додатшв, що вщносяться до другого класу i здшснюють обробку статичних даних (передача бiнарного траф^) характерно розподiл Вейбулла м1ж надходять на обслуговування заявками;

- для додатшв, що вщносяться до третього класу i здiйснюють обробку статичних даних (передача траф^ даних Найбтшого розмiру) характерний Xi- квадрат-розподш.

Особливiстю арх1тектури вiртуалiзацiï е ïï ма-сштабованiсть i реконфцуровашсть. Тому основним завданням управлiння е вибiр необхiдноï кiлькостi

обчислювальних ресурав в кожен наступний момент часу роботи хмарно1 системи. При оргашзацп доступу до мультимедiйних ресурав це особливо актуально, так як створюване навантаження на сервюи може змiнюватися в досить коротк iнтервали часу [14, 15].

Для того, щоб запобiгти вичерпання ресурав у вже запущених додатках i тдготувати додатковi об-числювальнi потужносп потрiбно, динамiчно склада-ти план стану ресурав i застосовувати його для оп-тимiзацiï структури хмари.

Одним з процеав створення вiртуальноï ма-шини е планування. У результат обробки в системi задаеться передбачувана к1льк1сть користувачiв, а також може бути створений видiлений шаблон вiрту-альноï машини з необхвдними апаратними характеристиками i програмним забезпеченням для проведення мнрацп. На основi отриманого шаблону i даних про попередш аналогiчнi заходи сервером розкладiв здш-снюеться розрахунок конфцурацп для розгортання сервiсу. При цьому у разi iдентичностi вiртуальних машин з програмного забезпечення пропонуються варiанти вже створених ранше образiв, що зберта-ються в NAS. Для зручносп конфцурацп вiртуальноï машини пропонуеться три види.

Перша конф^ращя - забезпечить запас про-дуктивностi у разi непередбачуваного збiльшення кiлькостi користувачiв. Коефiцiент масштабування при цьому розраховуеться динамiчно. При цьому хмарна система виконуе масштабування в рамках вах доступних на поточний момент часу ресурав. Крiм того, системою надаеться можливiсть вибрати дiапазон кiлькостi примiрникiв вiртуальних машин, доступних для запуску.

Друга конфпура^ - забезпечить меншу про-дуктивнiсть вiртуальноl машини, у порiвняннi з зада-ною кiлькiстю користувачiв. Однак такий шаблон е найбшьш ефективним при використанш сервiсiв для вузькоспецiалiзованоl аудиторп користувачiв. Вiн дозволяе скоротити накладш витрати при порiвняно малiй кiлькостi користувачiв, щодо заявленого числа передплатнишв. Як i у випадку з першим варiаитом шаблону, можливо задати к1льк1сть примiрникiв вiр-туальних машин, що дозволяе забезпечити паралель-ний запуск на дешлькох обчислювальних вузлах в умовах нестачi ресурсiв у хмарнiй системi.

Третш варiаит конфпурацп - створюеться з ви-користання заданих користувачем характеристик, що включають в себе фасований коефiцiент масштабу-вання, i фшсовану к1льк1сть примiрникiв вiртуальних машин, як будуть запущенi незалежно вiд кшькосп користувачiв вiдразу пiсля початку процесу шграцц.

1ншим процесом е обслуговування запитiв ко-ристувачiв i масштабування ресурав в рамках роботи додатшв. Система враховуе загальну кiлькiсть запипв вш кожного з джерел, що дае можливiсть прогно-зування навантажения не тiльки на хмару i запущенi програми, але i на окремi сегменти ЛВС. На основi отриманих даних системою управлшня хмарою вш-повiдно до заданого планом здiйснюеться мiграцiя i масштабування обчислювальних ресурав.

1ншим процесом е обслуговування запипв ко-ристувачiв i масштабування ресурсiв в рамках роботи додатшв. Система враховуе загальну шльшсть запи-тiв вiд кожного з джерел, що дае можливють прогно-зування навантажения не тiльки на хмару i запущенi програми, але i на окремi сегменти ЛВС. На основi отриманих даних системою управлшня хмарою вш-повiдно до заданого планом здшснюеться миращя i масштабування обчислювальних ресурсiв.

Таким чином, запропоноваш методи доступу i керування хмарною системою дозволяють пiдвищити ефектившсть 11 використання в умовах обмеженосл ресурсiв, а також звести до максимуму кшьшсть ко-ристувачiв.

5. Результати дослщжень

У ход1 експерименту проводився анал1з сшль-hoï роботи Bcix запропонованих алгоршшв при об-робщ потокiв запитiв рiзноï штенсивносп до Bcix доступних додаткiв шформацшно1 системи. При цьому на кожному еташ експерименту встановлюва-лося обмеження на к1льк1сть видiлениx реcурciв не тшьки на кожну з шдсистем СДО, а i на обчислюва-льнi вузли в цiлому. Це дозволило визначити опти-мальну конф^рацш апаратного обладнання, необ-х1дного для щдтримки вcieï системи.

Експериментальна апробащя проводилася на реальнiй xмарноï cиcтемi OpenStack [16] з викорис-танням додаткового модуля розподiлу навантаження реалiзованого на мовi Python.

Для наближення результатiв до реальних да-них при проведенш представленних екcпериментiв створювався потж запитiв, аналогiчний знятому трафжу iнформацiйноï системи для наукових досль джень. При цьому кiлькicть одночасних запипв, що надiйшла в систему, склала 10000, що ввдповадае кшькосп активних кориcтувачiв в 1СНД (шформа-цiйнiй cиcтемi наукових доcлiджень), зпдно з про-веденим доcлiдженням. Вс запити клаcифiкованi на 6 груп, що характеризують типову поведiнку корис-тувачiв. Для кожно1' з групи кориcтувачiв по рiвне-во1' моделi реcурciв системи, згiдно отриманим законам розпод^ задана iнтенcивнicть використання кожного з компоненпв системи, а також обсяг за-требуваних даних. Експеримент проводився на ште-рвалi часу рiвному однiй годинi, що вадповвдае най-бiльш тривалому перюду часу пiкового навантаження системи, зафжсованому в реальному трафiку. У табл. 1 представлен оcновнi показники, отримаш в результатi експерименту для першо1' групи ко-риcтувачiв.

У xодi проведеного експерименту встановле-но, що використання розроблених методiв управлшня вiртуальними ресурсами, дозволяе знизити кшьшсть вадмов в обслуговуванш на 11-15 % при звер-неннi кориcтувачiв до системи. Додатково проведена оцшка методiв управлiння щодо балансування навантаження мгж вiртуальними обчислювальними вузла-ми. Оцiнка ефективносп балансування навантаження мiж вiртуальними ресурсами проводилася за наасту-пними критерiями: час ввдгуку сервера i шльшсть видiлениx вiртуальниx cерверiв для кожно1' з шдсис-тем. На рис. 2 представлений графш роботи системи балансування навантаження на обчислювальних ресурсах 1СНД.

Таблиця 1

Ефектившсть обслуговування запипв._

Шдсистеми 1СНД, тип даних текст файли ввдео- аудютрафк

Загальна кшьшсть запипв 8000 1000 1000

Об'ем даних 32658 9330 10340

Юльшсть запипв, що обслуговувались 5443 (4352) 622 (418) 517 (356)

Iнтенcивнicть обслуговування, запипв/с 90,71 (72,53) 10,36 (6,96) 8,61 (5,93)

4 5 e

Bipryanbm ву зли

-»-Стандарте —®-3 приор ¡летами Рис. 2. Балансування навантаження мвд в1ртуальними вузлами

Проведене дослщження показало, що при ви-користаннi розроблених методiв оптимiзацil для ви-дiлення ресурсiв для вах запущених екземплярiв додаткiв, що входять до 1СНД, можливо отримання до 20 % вшьних ресурсiв ^ртуальних серверiв) i гарантовано забезпечення спшьно! роботи, що задо-вольняе вимогам потенцiйних користувачiв.

6. Висновки

Запропоноваш в дослiдження методи керуван-ня хмарною системою дозволяють пiдвищити яшсть i ефективнiсть li використання при обмежених ресурсах, а також збшьшими кшьшсть користувачiв до максимуму.

Литература

1. Armbrust, M. Above the Clouds: A Berkeley view of cloud computing [Text] / M. Armbrust, A. Fox, R. Griffith // Science. - 2009. - P. 191-196.

2. Мацуева, К. А. Методи управлшня ресурсами i додатками в обчислювальних системах на базi хмарних обчислень [Текст]: тез. доп. / К. А. Мацуева // Десята мiж-народна науково-практична конференцiя "Математичне та iмiтацiйне моделювання систем. МОДС '2015". - Чернтв, 2015. - С. 89.

3. Buyya, R. Cloud Computing. Principles and Paradigms [Text] / R. Buyya, J. Broberg, A, Goscinski. - John Wiley, 2011. - 675 p. doi: 10.1002/9780470940105

4. Blazewicz, J. Eugene Levner Handbook on Scheduling. From Theory to Applications [Text] / J. Blazewicz. - Berlin : Springer, 2007. - 647 p.

5. Jones, W. M. Beowulf Mini-grid Scheduling [Electronic Resource]/ W. M. Jones, L. W. Pang. - CiteSeerX. - The Pennsylvania State University. - Available at: http://citeseer.ist.psu.edu/696342.html

6. Aida, K. Job Scheduling Scheme for Pure Space Sharing among Rigid Jobs [Text] / K. Aida, H. Kasahara, S. Narita // Lecture Notes In Computer Science, Proceedings of the Workshop on Job Scheduling Strategies for Parallel Processing. - London: Springer-Verlag, 1998. - P. 98-121. doi: 10.1007/bfb0053983

7. Sinnen, O. Communication contention in task scheduling [Text] / O. Sinnen, L. A. Sousa // IEEE Transactions on Parallel and Distributed Systems. - 2005. - Vol. 16, Issue 6. - P. 503-515. doi: 10.1109/tpds.2005.64

8. Гергель, В. П. Исследование алгоритмов планирования параллельных задач для кластерных вычислительных систем с помощью симулятора [Текст] / В. П. Гергель,

П. Н. Полежаев // Вестник Нижегородского университета им. Н. И. Лобачевского. - 2010. - № 5 (1). - С. 201-208.

9. Feitelson, D. Job Scheduling Strategies for Parallel Processing [Text] / Feitelson D., Rudolph L. Metrics and Benchmarking for Parallel Job Scheduling. - Orlando: Springer, 1998. - P. 1-24.

10. Brucker, P. Scheduling Algorithms [Text] / P. Brucker. - Berlin: Springer, 2007. - 371 p. doi: 10.1007/9783-662-03088-2

11. Bender, M. A. Communication-Aware Processor Allocation for Supercomputers [Text] / M. A. Bender, D. P. Bunde, E. D. Demaine, S. P. Fekete, V. J. Leung, H. Meijer, C. A. Phillips // Lecture Notes in Computer Science. - 2005. -Vol. 3608. - P. 169-181. doi: 10.1007/11534273_16

12. Pinedo, M. L. Planning and Scheduling in Manufacturing and Services [Text] / M. L. Pinedo. - LLC: Springer Science+Business Media, 2009. - 506 p. doi: 10.1007/978-1-4419-0910-7_14

13. Петров, Д. Л. Оптимальный алгоритм миграции данных в масштабируемых облачных хранилищах [Текст] / Д. Л. Петров // Управление большими системами. - 2010. -№ 30. - С. 180-197.

14. Borodin, A., El-Yaniv R. Online computation and competitive analysis [Text] / A. Borodin, R. El-Yaniv // Cambridge University Press, NewYork. - 1998. - Vol. 53.

15. Aspnes, J. Competitive analysis of distributed algorithms [Text] / J. Aspnes // Lecture Notes in Computer Science. - 1998. - P. 118-146. doi: 10.1007/BFb0029567

16. OpenStack Open Source Cloud Computing Software [Electronic Resource]. - Available at: http:// www.openstack.org/

References

1. Armbrust, M., Fox, A., Griffith, R. (2009). Above the Clouds: A Berkeley view of cloud computing, Science, 1, 191-196.

2. Matsueva, K. (2015). Methods of resource management and applications in computing systems based on cloud computing. Tenth International Scientific Conference Mathematical and simulation systems. MODS' 2015, 89-90.

3. Buyya, R. (2011). Cloud Computing. Principles and Paradigms. John Wiley, 675. doi: 10.1002/9780470940105

4. Blazewicz, J. (2007). Handbook on Scheduling. From Theory to Applications. Berlin: Springer, 647.

5. Jones, W. M. (2014). Beowulf Mini-grid Scheduling. The Pennsylvania State University. Available at: http:// citeseer.ist.psu.edu/696342.html

6. Aida, K., Kasahara, H., Narita, S. (1998). Job scheduling scheme for pure space sharing among rigid jobs. Lecture Notes in Computer Science, 98-121. doi: 10.1007/bfb0053983

7. Sinnen, O., Sousa, L. A. (2005). Communication contention in task scheduling. IEEE Transactions on Parallel and Distributed Systems, 16 (6), 503-515. doi: 10.1109/tpds.2005.64

8. Sinnen, O. (2005). Communication contention in task scheduling. IEEE Transactions on Parallel and Distributed Systems, 16 (6), 503-515.

9. Gergel, V. P. (2010). Research of scheduling algorithms of parallel tasks for cluster computing systems using the simulator. Bulletin of the Nizhny Novgorod University N. I. Lo-bachevskogo, 5 (1), 201-208.

10. Brucker, P. (2007). Scheduling Algorithms.Berlin. Springer, 371. doi: 10.1007/978-3-662-03088-2

11. Bender, M. A., Bunde, D. P., Demaine, E. D., Fe-kete, S. P., Leung, V. J., Meijer, H., Phillips, C. A. (2005). Communication-Aware Processor Allocation for Supercomput-

ers. Lecture Notes in Computer Science, 3608, 169-181. doi: 10.1007/11534273_16

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

12. Pinedo, M. L. (2009). Planning and Scheduling in Manufacturing and Services. LLC: Springer Science. Business Media, 509. doi: 10.1007/978-1-4419-0910-7_14

13. Petrov, D. (2010). Optimal algorithm of data migration in scalable cloud storages. System management, 30, 180-197.

14. Borodin, A., El-Yaniv, R. (1998). Online computation and competitive analysis. Cambridge University Press, NewYork, 53.

15. Aspnes, J. (1998). Competitive analysis of distributed algorithms. Lecture Notes in Computer Science, 118-146. doi: 10.1007/bfb0029567

16. OpenStack Open Source Cloud Computing Software. Available at: http://www.openstack.org/

Рекомендовано до публгкацИ д-р техн. наук Литвинов В. В.

Дата надходження рукопису 24.06.2015

Мацуева Карина Андрпвна, астрант, асистент, кафедра комп'ютеризованих систем управлшня, Нацю-нальний авiацiйний ушверситет, пр. Космонавта Комарова, 1, м. Ки!в, Укра!на, 03058 E-mail: karyna_matsueva@bigmir.net

УДК 534.8; 534.321.9; 621.8.034 DOI: 10.15587/2313-8416.2015.46987

ИНТЕНСИФИКАЦИЯ ТЕПЛОМАССООБМЕННЫХ ПРОЦЕССОВ В АППАРАТАХ ПОГРУЖНОГО ГОРЕНИЯ КОЛЕБАНИЯМИ КОНТАКТИРУЮЩИХ ФАЗ

© В. Е. Никольский

Исследован вопрос создания колебаний в контактирующих фазах (газ - жидкость) как средства интенсификации тепломассообменных процессов при барботажном режиме в аппаратах погружного горения (АПГ). Определены кинематические и силовые характеристики в волновом поле. Предложено размещать резонирующие барботажные устройства в зоне выхода продуктов сгорания из АПГ и входа их в жидкость. Исследования на лабораторных и действующих технологических установках подтвердили перспективность выбранного направления

Ключевые слова: аппарат погружного горения, тепломассообменные процессы, колебания, барботаж-ный режим

The problem of oscillation generation in contacted gas - liquid phases as the means of intensification of heat-mass exchange processes at bubbling of the gas - liquid system in the immersed burning apparatus (IBA) was studied. Kinematic and force characteristics in the wave field were determined. It was proposed to place the resonant bubbling devices in the outlet zone of burning products from IBA and at their entry to liquid. The experiments on laboratory-scale plants and technological plants show great potential ofproposed apparatus Keywords: immersed burning apparatus, heat-mass exchange processes, oscillation, bubbling

1. Введение

В статье рассмотрен аспект вопроса создания колебаний в контактирующих фазах газ - жидкость как средства интенсификации тепломассообменных процессов при прямоточном барботажном режиме взаимодействия фаз в газо-жидкостной системе в аппаратах погружного горения.

Аналитически определены кинематические и силовые характеристики в волновом поле, порождаемым взаимодействием фаз.

2. Постановка проблемы

Скорость технологических процессов, в том числе реакционно-разделительных, протекающих в

диффузионной области, определяется интенсивностью переноса вещества и энергии. Одним из путей интенсификации этих процессов является турбулиза-ция контактирующих фаз на поверхности их раздела. Известно, что в турбулентном потоке элементарные струи изменяют скорость и направление, в связи с чем в каждой точке объема происходит пульсация скорости. Наложение колебаний извне в некоторых областях частот, соответствующих собственной частоте колебаний элементов структуры, приводит к интенсификации процесса переноса. Однако, литературные данные по этому вопросу весьма противоречивы как в оценке причин этого эффекта, так и в части оценки результатов интенсификации.

i Надоели баннеры? Вы всегда можете отключить рекламу.