Научная статья на тему 'Разработка макета узла связи между системами ГридННС и СКИФ-ГРИД'

Разработка макета узла связи между системами ГридННС и СКИФ-ГРИД Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
166
36
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РАСПРЕДЕЛЕННЫЕ ВЫЧИСЛЕНИЯ / ГРИДННС / СКИФ-ГРИД / DISTRIBUTED COMPUTING / GRIDNNN / SKIF-GRID

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Бережной Александр Викторович, Еднерал Виктор Федорович, Крюков Александр Павлович, Шпиз Григорий Борисович

Проведено исследование возможности сопряжения вычислительных ресурсов Национальной нанотехнологической сети (ГридННС) с системой СКИФ-ГРИД на основе специальных транзитных узлов, предназначенных для передачи заданий пользователя в ГридННС и контроля за их исполнением. Разработано программное обеспечение макета узла связи (единого интерфейса пользователя и транзитного узла) СКИФ-ГРИД с вычислительными ресурсами ГридННС, которое позволяет эффективно управлять простыми и многошаговыми задачами СКИФ-ГРИД, использующими вычислительные ресурсы ГридННС. Работа является продолжением предыдущих исследований по сопряжению различных грид-систем.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Бережной Александр Викторович, Еднерал Виктор Федорович, Крюков Александр Павлович, Шпиз Григорий Борисович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROTOTYPE DEVELOPMENT FOR THE COMMUNICATION GATE BETWEEN THE GRIDNNN AND THE SKIF-GRID SYSTEMS

A research of possibility of coupling computing resources of National Nanotechnology Network (GRIDNNN) with the SKIF-GRID system on the basis of special transit sites intended for transfer of user tasks of the SKIF-GRID to the GRIDNNN and the control of their performance is carried out. The software of a breadboard model of a communication gate (of the uniform user interface and the transit site) the SKIF-GRID with computing resources GRIDNNN which the SKIF-GRID using computing resources GRIDNNN allows to operate effectively the simple and multistep tasks is developed. The paper is a continuation of the previous researches on interfaces between GRID-systems.

Текст научной работы на тему «Разработка макета узла связи между системами ГридННС и СКИФ-ГРИД»

УДК 004.75+004.722

РАЗРАБОТКА МАКЕТА УЗЛА СВЯЗИ МЕЖДУ СИСТЕМАМИ ГРИДННС И СКИФ-ГРИД

А.В. Бережной, В.Ф. Еднерал, А.П. Крюков, Г.Б. Шпиз

PROTOTYPE DEVELOPMENT FOR THE COMMUNICATION GATE BETWEEN THE GRIDNNN AND THE SKIF-GRID SYSTEMS

A.V. Berezhnoy, V.F. Edneral, A.P. Kryukov, G.B. Shpiz

Проведено исследование возможности сопряжения вычислительных ресурсов Национальной нанотехнологической сети (ГридННС) с системой СКИФ-ГРИД на основе специальных транзитных узлов, предназначенных для передачи заданий пользователя в ГридННС и контроля за их исполнением. Разработано программное обеспечение макета узла связи (единого интерфейса пользователя и транзитного узла) СКИФ-ГРИД с вычислительными ресурсами ГридННС, которое позволяет эффективно управлять простыми и многошаговыми задачами СКИФ-ГРИД, использующими вычислительные ресурсы ГридННС. Работа является продолжением предыдущих исследований по сопряжению различных грид-систем.

Ключевые слова: распределенные вычисления, ГридННС, СКИФ-ГРИД.

A research of possibility of coupling computing resources of National Nanotechnology Network (GRIDNNN) with the SKIF-GRID system on the basis of special transit sites intended for transfer of user tasks of the SKIF-GRID to the GRIDNNN and the control of their performance is carried out. The software of a breadboard model of a communication gate (of the uniform user interface and the transit site) the SKIF-GRID with computing resources GRIDNNN which the SKIF-GRID using computing resources GRIDNNN allows to operate effectively the simple and multistep tasks is developed. The paper is a continuation of the previous researches on interfaces between GRID-sy stems.

Keywords: distributed computing, GRIDNNN, SKIF-GRID.

Введение

Концепция грид-технологий появилась как ответ на возросшие потребности в крупных информационно-вычислительных ресурсах, динамически выделяемых для решения громоздких задач в научной, индустриальной, административной и коммерческой областях деятельности. Создание грид-среды подразумевает объединение вычислительных ресурсов географически разделенных ресурсных центров при помощи специализированного программного обеспечения (промежуточное программное обеспечение, далее ППО). Это программное обеспечение позволяет распределять задания по таким центрам, возвращать результаты пользователю, контролировать права пользователей на доступ к тем или иным ресурсам, осуществлять мониторинг ресурсов. Работа является продолжением предыдущих исследований по сопряжению различных грид-систем [1, 2, 3].

Ресурсы ГридННС

Рис. 1. Упрощенная схема узла связи СКИФ-ГРИД с ГридННС

Основной задачей настоящего исследования, проводимого в рамках проекта «Разработка технологии запуска заданий, подготовленных в среде ППО СКИФ-ГРИД, для запуска на вычислительных ресурсах Грид - Национальной нанотехнологической сети (ГридННС)», является экспериментальное изучение возможности эффективного использования ресурсов ГридННС [4] из среды СКИФ-ГРИД, основанной на иШССЖЕ-б [5]. С этой целью разработан макет узла связи (единого интерфейса пользователя) между СКИФ-ГРИД и ГридННС, а также разработано ПО и ППО для управления простыми и многошаговыми задачами СКИФ-ГРИД, использующими вычислительные ресурсы ГридННС. Тестовые испытания макета показали эффективность предложенного решения.

1. Описание макета узла связи

Макет узла связи (см. рис. 1) состоит из пользовательского интерфейса системы СКИФ-ГРИД и специального транзитного узла СКИФ-ГРИД, где установлено дополнительное ППО, обеспечивающее запуск задач СКИФ-ГРИД (в том числе и многошаговых) на ресурсах ГридННС. На обеих машинах установлена операционная система СепЮБ Ыпих.

На первой машине, представляющей собой модель единого пользовательского интерфейса, развернута клиентская часть системы !Ш1СОКЕ-6. В настоящей версии используется командный интерфейс (исс), но может использоваться и любой другой, например, графический, пользовательский интерфейс иШСОКЕ-б. Кроме того там развернуто ППО, для получения ргоху-сертификатов РДИГ-СА, пригодных для работы с ГридННС и клиент СпёРТР для обеспечения авторизованной связи с другими элементами системы.

На второй машине, являющейся моделью собственно «транзитного узла», развернуты сервер ТЖ1С011Е-6, командный интерфейс (РПоЮЫ) для запуска заданий системы ГридННС, сервер Спс1ЕТР, система авторизации ГридННС, обеспечивающая возможность взаимодействия сервера ОпёЕТР с ГридННС и специализированное ППО для реализации транзитного запуска заданий в ГридННС и контроля за их прохождением (мониторирова-ния). Установка сервера Спс1ЕТР и разработанное ППО, учитывают особенности технологии запуска заданий в настоящей версии системы ГридННС, в которой не предусмотрено работы с локальными файлами пользователя. Возможно только использование файлов, доступных Спс1ГТР серверам, сертифицированным для работы с ГридННС. На второй машине расположена также общая область хранения данных узла СКИФ-ННС.

Клиент исс из пакета иШСОКЕ-б, предназначенный для запуска заданий СКИФ-ГРИД, сконфигурирован на пользовательском интерфейсе так, чтобы обеспечить отправку заданий СКИФ-ГРИД, использующих ресурсы ГридННС, на транзитный узел. На пользовательском интерфейсе установлен скрипт ппв^гапв^, обеспечивающий запуск информационных запро-

сов клиента Pilot-CLI ГридННС, размещенного на транзитном узле, что дает пользователю возможность дополнительного управления заданиями, запущенными на ресурсы ГридННС. Взаимодействие между пользовательским интерфейсом и транзитным узлом может осуществляться как через локальную, так и через глобальную сеть. Никаких специфических требований к качеству соединения не предъявляется. На транзитном узле открыты порты, необходимые для работы серверов UNICORE и GridFTP (номера портов указаны в соответствующих инструкциях по установке).

2. Описание архитектуры ППО

Суть разработанной архитектуры состоит в использовании для запуска заданий на внешние ресурсы специальных «транзитных» узлов грид-системы. Эти узлы представляют собой специализированные вычислительные ресурсы грид-системы (компьютерные элементы и/или рабочие узлы) на которых устанавливается «транзитный сервис» - ПО, обеспечивающее передачу заданий ресурс-менеджеру внешнего ресурса, а также мониторинг заданий и доступ к информации о конфигурации ресурса. По-существу, «транзитный сервис» является оберткой над клиентской частью ресурс-менеджера, которая устанавливается и специальным образом конфигурируется на транзитном узле.

Для запуска задания или шага задания на внешнем ресурсе через транзитный узел, формируется специальное одношаговое «транзитное» задание грид-системы, направляемое на транзитный узел. «Транзитное» задание содержит обращение к «транзитному сервису» (то есть «транзитный сервис» описывается как исполнимая команда задания), а в качестве аргумента передается описание задачи, выполняемой на внешнем ресурсе, в форме соответствующей требованиям менеджера этого ресурса. Если внешний ресурс является внешней грид-системой, то описание делается на языке описания заданий этой системы. Необходимые файлы пользователя (Input Sandbox) передаются на транзитный узел средствами грид-системы, а затем ресурс-менеджеру внешнего ресурса средствами транзитного сервиса.

Для управления узлом связи заработаны следующие скрипты на BASH:

nns.sh для запуска информационных утилит Pilot-CLI из шага задания UNICORE (это служебный скрипт на транзитном узле, вызываемый из команды nns-transit)

Формат команды:

nns.sh <файл, содержащий ргоху-сертификат> Скоманда Pilot-CLI>;

nns-jobrun для запуска заданий на ресурсы ГридННС из шага задания UNICORE с пользовательского интерфейса.

Формат команды:

nns-jobrun <файл, содержащий задание ГридННС> <файл, содержащий ргоху-сертификат> CgridFTP-aflpec ^-файла> <периодичность опроса состояния запущенного задания в сек.>;

nns-transit для запуска информационных утилит Pilot-CLI на транзитном узле с пользовательского интерфейса.

Формат команды:

nns-transit <файл, содержащий ргоху-сертификат> <команда Pilot-CLI>;

Примеры информационных запросов к системе Pilot-CLI из шага задания UNICORE.

• Запрос версии сервера Pilot-CLI : nns-transit proxy pilot-server-version;

• Запрос списка заданий пользователя, запущенных в систему ГридННС: nns-transit proxy pilot-query-jobs;

• Запрос состояния задания пользователя, запущенного в систему ГридННС (<URI> берется из log-файла, заданного в команде nns-jobrun):

nns-transit proxy pilot-job-status <URI>;

• Запрос состояния шага задания пользователя, запущенного в систему ГридННС (<URI> берется из протокола предыдущей команды):

nns-transit proxy pilot-task-status <URI>.

Удаление всех заданий пользователя из системы ГридННС: nns-transit proxy pilot-cancel-my-jobs

Полный список информационных утилит PilotCLI см. в руководстве по системе PilotCLI

[6].

В ходе настоящего исследования было произведено тестирование разработанного ППО на развернутом макете узла связи. Тестирование показало, что выбранный подход позволил достигнуть поставленной задачи сравнительно простыми средствами без внесения изменений в ППО Unicore и ГридННС.

3. Заключение

Разработанное ППО позволяет использовать ресурсы ГридННС из среды СКИФ-ГРИД при исполнении как простых, так и многошаговых задач. Система мониторинга выполнения заданий обеспечивает пользователя и информационные системы двух грид инфраструктур (ГридННС и СКИФ-ГРИД) оперативной информацией в интерактивном режиме о ходе выполнения пересланных заданий и о конечных результатах их выполнения. В перспективе ГридННС будет предоставлять развитую инфраструктуру и программные средства для удаленного запуска заданий и централизованного мониторинга состояния заданий, что в сочетании с разработанным в настоящем исследовании ПО позволит обеспечить эффективный доступ пользователей СКИФ-ГРИД к вычислительным ресурсам ГридННС. Ограничением данного подхода является то, что пользователь должен заранее решить какие части его задания в какой грид-системе будут выполняться.

Благодарности

Настоящая работа выполнена в рамках контракта по теме «Исследование и разработка технологий распределенных вычислительных сред с эффективной поддержкой массового доступа к распределенным информационным и вычислительным ресурсам. Разработка технологий высокопроизводительных вычислений с использованием неоднородных территориально-распределенных вычислительных ресурсов» (Шифр 2009-СГ-06),

при частичной поддержке Грантами Президента РФ по поддержке научных школ НШ-3159.2010.2 и НШ-4Ц2.2010.2.

Авторы также благодарны Программному комитету Международной суперкомпью-терной конференции (<Научный сервис в сети Интернет: суперкомпъютерные центры и задачи»), рекомендовавшему настоящую работу к публикации в журнале <Вестник Южно-Уральского государственного университетам, серия «Математическое моделирование и программирование».

Литература

1. Implementation of job submission interface from EGEE/WLCG GRID infrastructure to SKIF sériés supercomputers / V.F. Edneral, V.A Ilyin, A.P. Kryukov et al. // Proceedings of Conférence GRID 2008 (Dubna, June 30 - July 4, 2008). - 2008. - C. 179 - 181.

2. Интерфейс между EGEE/LCG гридом и суперкомпьютерами серии СКИФ / А.В. Бережной, В.Ф. Еднерал, В.А. Ильин и др. // Препринт НИИЯФ МГУ No 2008-8/844. -2008. - 6 с.

3. Технология использования вычислительных ресурсов ГридННС пользователями системы СКИФ-ГРИД / А.В. Бережной, В.Ф. Еднерал, В.А. Ильин и др. // Препринт НИИЯФ МГУ No 2009-10/854. - 2009. - 9 с.

4. Новости ГридННС / Сетевой ресурс // https://ngrid.ru

5. Система UNICORE / Сетевой ресурс // http://www.unicore.eu

6. Руководстве по системе PilotCLI / Сетевой ресурс // http://www.ngrid.ru/trac/wiki/PilotCli

Александр Викторович Бережной, доктор физико-математических наук, старший научный сотрудник, Отдел экспериментальной физики высоких энергий, НИИ ядерной физики имени Д.В. Скобельцина Московского государственного университета имени М.В. Ломоносова, aber@trtk.ru.

Виктор Федорович Еднерал, кандидат физико-математических наук, старший научный сотрудник, Отдел теоретической физики высоких энергий, НИИ ядерной физики имени Д.В. Скобельцина Московского государственного университета имени М.В. Ломоносова, edneral@theory.sinp.msu.ru.

Александр Павлович Крюков, кандидат физико-математических наук, ведущий научный сотрудник, Отдел теоретической физики высоких энергий, НИИ ядерной физики имени Д.В. Скобельцина Московского государственного университета имени М.В. Ломоносова, kryukov@theory.sinp. msu .ru.

Григорий Борисович Шпиз, кандидат физико-математических наук, старший научный сотрудник, Отдел торетической физики высоких энергий, НИИ ядерной физики имени Д.В. Скобельцина Московского государственного университета имени М.В. Ломоносова, shpiz@theory.sinp.msu.ru.

Поступила в редакцию 28 ноября 2010 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.