Научная статья на тему 'Исследование показателей эффективности алгоритма Гаусса на вычислительном кластере'

Исследование показателей эффективности алгоритма Гаусса на вычислительном кластере Текст научной статьи по специальности «Математика»

CC BY
168
48
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
АЛГОРИТМ ГАУССА / КЛАСТЕРНЫЕ ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ (ВС) / MPI

Аннотация научной статьи по математике, автор научной работы — Поляков Г. А., Лысых К. В., Толстолужская Е. Г.

В статье описаны этапы и представлены результаты исследования показателей эффективности алгоритма Гаусса на кластере НИУ «БелГУ».

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Поляков Г. А., Лысых К. В., Толстолужская Е. Г.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Исследование показателей эффективности алгоритма Гаусса на вычислительном кластере»

Серия История. Политология. Экономика. Информатика. 2014 № 1 (172). Выпуск 29/1

УДК 680.3

ИССЛЕДОВАНИЕ ПОКАЗАТЕЛЕЙ ЭФФЕКТИВНОСТИ АЛГОРИТМА ГАУССА НА ВЫЧИСЛИТЕЛЬНОМ КЛАСТЕРЕ

Г. А. ПОЛЯКОВ1, К.В.ЛЫСЫХ1 Е. Г. ТОЛСТОЛУЖСКАЯ2

1 Белгородский государственный национальный исследовательский университет

2) Харьковский национальный университет имени В. Н. Каразина

e-mail:

tda_ua@pochtamt.ru

514453@bsu.edu.ru

В статье описаны этапы и представлены результаты исследования показателей эффективности алгоритма Гаусса на кластере НИУ «БелГУ».

Ключевые слова: MPI, алгоритм Гаусса, кластерные вычислительные системы (ВС).

Введение

Центральной проблемой вычислительной техники является повышение эффективности параллельного программного обеспечения суперЭВМ и Кластеров [1-3]. Проблема включает:

а) выбор и оценку показателей эффективности параллельного выполнения задач;

б) моделирование параллельного выполнения задач кластерами и оценку их показателей эффективности с учетом особенностей задач и конкретных требований/ограничений;

в) выработку рекомендаций по выбору конкретных конфигураций кластера,

ориентированных на конкретные задачи и требования/ограничения и

совершенствованию систем параллельного программирования, направленных на повышение эффективности параллельных программ.

Постановка задачи

Исходная информация:

- математическая модель и Си - программа задачи - алгоритма Гаусса;

- параллельная ВС - Кластер НИУ «БелГУ»: для исследования использовались 4 вычислительных узла (ВУ). В одном вычислительном узле содержатся 2 процессора Intel Xeon E5-2665 с тактовой частотой 2,4 ГГц, 8 ядер в каждом процессоре, 64 ГБ оперативной памяти DDR3-1600. Топология коммутационной среды - полный граф. Скорость передачи данных между узлами организована по технологии Infiniband и составляет 10 Гбит/с;

- состав поддерживаемых при оценке эффективности факторов: число

процессоров NM, значения t0 (typ) длительностей выполнения различных типов «typ»

операций в; время обмена одним сообщением t0 ; фактическая топология

коммутационной среды;

- состав показателей эффективности и поддерживаемых требований и ограничений.

Требуется получить для алгоритма Гаусса оценки зависимостей показателей эффективности параллельного решения задачи для различных значений характеристик конфигурации кластера и различных размеров матрицы системы линейных уравнений.

Математическая модель алгоритма Гаусса.

Система n линейных алгебраических уравнений:

НАУЧНЫЕ ВЕДОМОСТИ Серия История. Политология. Экономика. Информатика. Ю1

2014. №1 (172). Выпуск 29/1

аихх + аих2 +... + а1пхп = ах п+1

а2\х\ + а22Х2 + ... + а2пХп = а2 п+1

ап1Х1 + ап2 Х2 + - + аппХп = апп+1

Решение системы уравнений по компактной схеме заключается в

х ,х ,,...,х

последовательном определении и’ п—15 ’ 1 из системы уравнений:

Х1 + С12 Х2 + .... + С1пХп = С1 п+1 Х2 + .... + С2пХп = С2 п+1

Эта система получается как результат разложения исходной матрицы на треугольные матрицы в соответствии со следующими формулами:

] “1

Ъ=а, -£ ьк ■ ск], ^ ;'<п>

к=1

Ґ -1 \ /

/Ь, , 1</<п, 1</<п+1, і<.

аи -Л Ьк • СЪ

V к=1 Л

В результате вычислений получается матрица:

Л11С12С13-С1пС1 п+1 Ь21Ь22С23-”С2пС2 п+1

Ь Ь Ь _...Ь с ^ ■

п1 п2 п3 пп п п+1

Собственно вычисление значений хи / = п, п-1,...,1, выполняется по формуле

п—1

Х1 = С1 п+1 — ^ С1,п—к+1 ' Хп—к+1 к=1

Используемые показатели эффективности

Математическое ожидание времени реализации множества Р операторов произвольного алгоритма определяется выражением (1) [5,6]

Т(Р) = ^Р(Т( , (с), (1)

(=1

где ш - число ветвей в алгоритме, р^ - вероятность реализации (-й ветви; Т - время реализации ( -й ветви параллельного алгоритма, определяемое по формуле

Т( = тах (1 + г), (с),

( р,^р (() ] ]

Серия История. Политология. Экономика. Информатика.

2014 № 1 (172). Выпуск 29/1

где Р(£) - множество операторов £ -й ветви, tH и t. - момент начала и относительная

временная глубина оператора р е Р(£) • Уменьшение временных затрат («»ускорение»)

за счет параллельного решения задачи определяется выражением (2)

РТ = Тпос(Р) (раз). (2)

T (Р)

пар V '

В соотношении (2) Тпос(Р) и Тпар(Р) - среднее время соответственно последовательной и параллельной реализации задачи. Значение показателя эффективности распараллеливания рассчитывается на основе соотношения (3)

R(P) = Kt . DT(NM) + Ks * S(NM). (раз) (3)

NM

В соотношении (3) Kt и Ks являются весовыми коэффициентами, определяющими «пользовательскую» важность учета в эффективности распараллеливания величины сокращения времени реализации алгоритма (Kt < 1 ) и степени загрузки оборудования параллельным алгоритмом (Ks < 1 ).

Этапы и результаты исследования

Основными этапами исследования показателей эффективности параллельного решения задачи являлись:

a) выбор программистом «поддерживающей задачу» конкретной конфигурации кластера;

b) разработка текста параллельной MPI - программы исследуемой задачи;

c) прогон параллельной MPI - программы на «поддерживающей» конфигурации

d) кластера и оценка значений показателей эффективности;

e) оценка дифференциала требуемых и фактических значений показателей эффективности; стоп - при выполнении требований, иначе -переход к п.е; формальная спецификация MPI - программы с использованием структур

f) семантико - числовой спецификации (СЧС) [5,6];

g) синтез времяпараметризованной параллельной СЧС модели процесса, минимизирующей разности дифференциалов требуемых и фактических значений показателей эффективности [5,6];

h) определение из СЧС модели процесса состава и величин коррекции «поддерживающей задачу» конкретной конфигурации кластера; переход к п. b.

Результаты исследования зависимостей времени параллельной реализации алгоритма Гаусса от количества процессов и размеров матрицы системы уравнений представлены в табл. 1, табл. 2 и на рис. 2 и рис. 3.

Таблица 1

Время выполнения (сек.)______________________________

Размер матрицы Последова тельный Параллельн ый (np=2) Параллельн ый (np=4) Параллельн ый (np=8) Параллельны й (np=16) Параллельн ый (np=32)

2048x2048 13,86 7,33 3,56 1,95 1,85 1,38

4096x4096 112,38 56,08 28,8 15,45 13,6 7,74

8192x8192 885,81 445,5 227,21 121,38 106,8 55.1

16384x16384 7756,05 3522,51 1807,88 948,91 518,93 432,63

Таблица 2

Ускорение (разы)____________________________________

Размер матрицы Последова тельный Параллельн ый (np=2) Параллельн ый (np=4) Параллельн ый (np=8) Параллельны й (np=16) Параллельн ый (np=32)

2048x2048 - 1,89 3,89 7,10 7,49 10,04

4096x4096 - 2,003 3,9 7,27 8,26 14,51

8192x8192 - 1,98 3,89 7,29 8,29 16,08

16384x16384 - 2,201 4,29 8,17 14,95 17,92

102

НАУЧНЫЕ ВЕДОМОСТИ

Серия История. Политология. Экономика. Информатика. 2014. №1 (172). Выпуск 29/1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рис.2. Зависимости времени решения задачи (сек.) от размер матрицы и количества используемых процессов

Рис.3. Гистограмма временных затрат (сек.) на выполнение алгоритма Гаусса при варьировании размеров матрицы и количества процессов

Выводы

1. В настоящее время проблема разработки эффективного параллельного программного обеспечения для известных и будущих суперЭВМ стала центральной проблемой параллельной компьютерной техники.

2. Система MPI не содержит в своем составе средств разработки параллельных программ, обеспечивающих поддержку создания параллельных программ, удовлетворяющих требованиям пользователей к времени выполнения.

3. Предложенный аналитически - имитационный подход основан на сочетании методов формальной семантико - числовой спецификации и автоматического синтеза времяпараметризованных (временных) моделей процессов и использовании средств MPI для текстовой спецификации и кластерной реализации MPI-программ. Подход

Серия История. Политология. Экономика. Информатика. 2014 № 1 (172). Выпуск 29/1

поддерживает расширение состава учитываемых факторов эффективности, поддержку требований и ограничений пользователей, формализацию и автоматизацию трудоемких этапов синтеза временных моделей процессов и обеспечивает возможность разработки в сжатые сроки высокоэффективных параллельных программ.

1. Воеводин В.В., Воеводин Вл. В. Параллельные вычисления. - СПб.: БХВ-Петербург, 2002. - 608 с.

2. Немнюгин СА. Параллельное программирование для многопроцессорных вычислительных систем. / С.А. Немнюгин, О.Л. Стесик. . - СПб.: БХВ-Петербург, 2002. - 400 с.

3. Корнеев В.В. Параллельное программирование в MPI М. - Ижевск: Институт компьютерных исследований, 2003

4. Гергель В.П. Теория и практика параллельных вычислений БИНОМ. Лаборатория знаний, Интернет-университет информационных технологий - ИНТУИТ.ру, 2007

5. Поляков Г.А. Технология проектирования времяпараметризованных мультипараллельных

программ как стратегия развития систем параллельного проектирования. / Г.О. Поляков, Е.Г. Толстолужская. // Радіоелектронні і комп’ютерні системи - Х.: Національний аерокосмічний університет

ім. М.Є. Жуковського «Харківський авіаційний інститут», 2009. - Вип. 6(40). - С. 166-171.

6. Поляков Г.А. Синтез и анализ параллельных процессов в адаптивных времяпараметризованных вычислительных системах /Г.А.Поляков, С.И. Шматков, Е.Г. Толстолужская, Д.А. Толстолужский: монография. - Х.: ХНУ имени В.Н. Каразина, 2012. - 672 с.

7.Лысых К.В., Поляков Г.А. «Разработка фрагментированной временной параллельной модели

алгоритма гаусса на основе формальных полиномов и структур семантико-числовой спецификации»// Научные ведомости БелГУ: история, политология, экономика, информатика - Б.: Белгородский

государственный университет, 2012 г. № 19(138) 2012 - Вып. 24/1 - C. 133-136.

RESEARCH OF THE GAUSSIAN ALGORITHM PERFORMANCE INDICATORS ON A COMPUTING CLUSTER

Research University, Belgorod

2) Kharkov National University nm. Karazin, Kharkov

e-mail:

tda_ua@pochtamt.ru

514453@bsu.edu.ru

Список литературы

G.A. POLYAKOV1 K.V. LYSYKH1 E.G. mSTOLUZKA2

The paper presents the steps and results of the Gaussian algorithm performance indicators research on a cluster of Belgorod State National Research University

Keywords: MPI, Gaussian algorithm, cluster computing

1) Belgorod State National

systems.

i Надоели баннеры? Вы всегда можете отключить рекламу.