Научная статья на тему 'О построении параллельных многосеточных алгоритмов'

О построении параллельных многосеточных алгоритмов Текст научной статьи по специальности «Математика»

CC BY
170
34
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МНОГОСЕТОЧНЫЕ МЕТОДЫ / КРАЕВЫЕ ЗАДАЧИ / ПАРАЛЛЕЛИЗМ

Аннотация научной статьи по математике, автор научной работы — Мартыненко С.И.

Рассмотрены основные направления развития параллельных классических многосеточных алгоритмов и их характерные недостатки. На примере универсальной многосеточной технологии показана возможность эффективного распараллеливания сглаживающих итераций на уровнях с грубыми сетками; многосеточная структура использована для построения гибридного многосеточного метода. Приведены оценки ускорения и эффективности различных параллельных многосеточных алгоритмов, а также результаты вычислительных экспериментов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «О построении параллельных многосеточных алгоритмов»

УДК 519.63

О построении параллельных многосеточных алгоритмов

© С.И. Мартыненко

ФГУП «Центральный институт авиационного моторостроения имени П.И. Баранова», Москва, 111116, Россия

Рассмотрены основные направления развития параллельных классических многосеточных алгоритмов и их характерные недостатки. На примере универсальной многосеточной технологии показана возможность эффективного распараллеливания сглаживающих итераций на уровнях с грубыми сетками; многосеточная структура использована для построения гибридного многосеточного метода. Приведены оценки ускорения и эффективности различных параллельных многосеточных алгоритмов, а также результаты вычислительных экспериментов.

Ключевые слова: многосеточные методы, краевые задачи, параллелизм.

Введение. Краевые задачи для дифференциальных уравнений в частных производных являются составной частью многих математических моделей, поэтому проблема создания высокоэффективных методов численного решения краевых задач еще долго будет актуальна, несмотря на гигантский прогресс вычислительной техники [1, 2].

Многосеточные методы, берущие начало с работ выдающихся отечественных математиков Р.П. Федоренко и Н.С. Бахвалова, в настоящее время стали доминирующими алгоритмами для численного решения краевых задач и используются в подавляющем большинстве современных программных продуктов. Однако у классических многосеточных методов (КММ) есть определенные недостатки, связанные с необходимостью оптимального выбора отдельных компонент для конкретного приложения. Кроме того, до сих пор не удавалось построить высокоэффективный параллельный многосеточный алгоритм [3].

Инженерная практика зачастую связана с необходимостью рассмотрения различных вариантов конструкции или схем организации рабочего процесса. Для решения подобных задач была разработана универсальная многосеточная технология (УМТ) — вариант геометрических многосеточных методов с минимальным количеством проблемно-зависимых компонент [4-8]. Одной из особенностей УМТ является используемая иерархия сеток — так называемая многосеточная структура. Несмотря на то что УМТ несколько уступает КММ в вычислительной эффективности, общие затраты на адаптацию алгоритма к решаемой задаче и решение сеточных уравнений у УМТ оказываются ниже для отдельных приложений, в то время как КММ остаются лучшими методами решения крупных серий однотипных

задач. Поэтому УМТ и КММ, скорее, дополняют друг друга, нежели являются конкурентами.

В различных проблемных областях существует ряд задач, решение которых требует чрезмерного времени даже с привлечением самых совершенных процессоров и численных методов, поэтому неуклонно возрастает интерес к параллельным алгоритмам. Практически сразу были отмечены характерные трудности построения параллельного варианта КММ, связанные со снижением эффективности параллелизма на грубых сетках из-за уменьшения отношения объема вычислительной работы к объему пересылаемых данных. Выработано четыре направления повышения эффективности параллельных КММ, однако преодолеть «барьер грубых сеток» не удалось. Основная проблема состоит в равномерном распределении вычислительной работы между процессорами параллельного компьютера и минимизации числа обменов данными.

Совершенно иначе с точки зрения параллельных вычислений выглядит УМТ. Если внимательно присмотреться, то УМТ является од-носеточным алгоритмом, который позволяет использовать основополагающую идею Р.П. Федоренко для ускорения сходимости отдельных итерационных методов (сглаживателей). Фактически УМТ позволяет уменьшить объем вычислительной работы, требуемой для решения широкого класса линейных (нелинейных) краевых задач методом Зей-деля с блочным упорядочиванием неизвестных, до О(Лг01п N0) арифметических операций, где No количество узлов сетки. Причем столь радикальное уменьшение вычислений по сравнению с традиционным односеточным вариантом метода Зейделя не требует применения каких-либо проблемно-зависимых компонент в конструкции УМТ [8]. Естественно, что отсутствие грубых сеток в УМТ сразу сняло проблему снижения эффективности параллелизма. Данное обстоятельство было отмечено в работе [9], а соответствующие оценки ускорения и эффективности параллельной УМТ приведены в [10, 11].

Целью данной работы является получение оценок уменьшения времени решения краевых задач в сравнении не только с последовательной УМТ, как в [9-11], но и с последовательным F-циклом. Кроме того, предложен комбинированный подход к построению параллельных КММ, основанный на использовании многосеточной структуры для сглаживания на грубых сетках.

Для вычислительных экспериментов применена система с симметричной мультипроцессорной обработкой, или SMP-система (Symmetric Multiprocessors). В этой архитектуре все процессоры имеют равноправный доступ ко всему пространству оперативной памяти и ввода-вывода, поэтому SMP-архитектура называется симметричной. Ее интерфейсы доступа к пространству ввода-вывода и опе-

ративнои памяти, система управления кэш-памятью, системное программное обеспечение и т. п. построены таким образом, чтобы обеспечить согласованный доступ к разделяемым ресурсам. Память обеспечивает передачу сообщений между процессорами, при этом все вычислительные устройства при обращении к ней имеют равные права и одну и ту же адресацию для всех ячеек памяти. Последнее обстоятельство позволяет очень эффективно обмениваться данными с другими вычислительными устройствами [12-14].

Параллельные классические многосеточные алгоритмы. Традиционно попытки построить параллельный многосеточный алгоритм основаны на распараллеливании отдельных компонент (операторы переходов и сглаживающая процедура). Положим, что в качестве сглаживающей процедуры выбран метод Якоби с блочным упорядочиванием неизвестных. Для реализации метода Якоби исходную сетку декомпозируют с «перехлестом» на блоки, с каждым блоком сетки ассоциирован блок неизвестных. Далее с помощью некоторого (внутреннего) итерационного метода независимо вычисляют новые значения неизвестных, образующих блок. Как правило, сетку декомпозируют на блоки приблизительно одинаковой величины, чтобы добиться сбалансированной загрузки процессоров, после чего осуществляют обмен данными между процессорами, т. е. обмен значениями искомых сеточных функций в узлах на границах блоков. Принципиальным и неустранимым недостатком данного подхода является уменьшение отношения объема вычислительной работы, выполненной каждым процессором, к объему пересылаемых данных при уменьшении количества узлов сетки. Более того, возможен случай, когда количество узлов самых грубых сеток будет меньше количества процессоров, т. е. часть процессоров будет простаивать при выполнении сглаживающих итераций.

Сначала рассмотрим влияние потерь, связанных с обменом данными и возможным простоем процессоров, на эффективность параллельного многосеточного алгоритма. Введем следующие количественные характеристики параллельных алгоритмов [15].

Определение 1. Ускорением S и эффективностью £ параллельного алгоритма называют величину

S = p£ = (1)

T (Р )

где T(1) — время выполнения алгоритма на одном процессоре; T(p) — время выполнения параллельного алгоритма на системе из Р процессоров.

Определение 2. Ускорением S и эффективностью £ параллельного алгоритма по отношению к наилучшему последовательному алгоритму называют величину

8 = р?=(2) Т(р)

где Т(1) — время выполнения быстрейшего последовательного алгоритма на одном процессоре; Т (р) — время выполнения параллельного алгоритма на системе из р процессоров.

Определение 3. Ускорением 81 и эффективностью £ параллельного сглаживания на сетках уровня I по отношению к последовательному сглаживанию на тех же сетках называют величину

81 = Р£1 = Ш (3)

Т (р)

где Т (1) — время выполнения последовательного сглаживания (и оператора перехода) на одном процессоре; Т1 (р) — время выполнения параллельного сглаживания (и оператора перехода) на системе из р процессоров.

Ускорение 8 и эффективность £ (1) представляют теоретический интерес и характеризуют параллелизм конкретного алгоритма. Например, метод Якоби обладает почти полным параллелизмом, т. е. ожидается, что 8 ^ р и £ ^ 1 [15].

Ускорение 8? и эффективность £ (2) представляют практический интерес и характеризуют уменьшение времени решения задачи по сравнению со временем расчета с использованием наиболее быстрого последовательного алгоритма. Например, метод Якоби обладает очень медленной скоростью сходимости, поэтому ожидается, что в сравнении с К-циклом 8? ^ 0 и £ ^ 0 при использовании достаточно мелких сеток. Подобные методы распараллеливать не имеет смысла, поскольку они даже в параллельном исполнении уступают наилучшим последовательным алгоритмам.

Ускорение 81 и эффективность £ (3) представляют интерес для оценки параллелизма многосеточных алгоритмов. Выполняя серию вычислительных экспериментов, нетрудно для каждого сглаживателя эмпирически установить зависимость 81 и £ от числа узлов сетки

Ы1 и используемых процессоров р. Тогда ускорение и эффективность параллельного многосеточного алгоритма однозначно определяются значениями 81 (Ы1, р) и £ (Ы1, р).

*

Предположим, что начиная с уровня I резко возрастают потери, связанные с обменами данных между процессорами. Простейший выход состоит в последовательном выполнении сглаживающих ите-

раций на грубых сетках уровней I > I . Получим оценки ускорения и

эффективности параллельных многосеточных итераций К-цикла при

*

условии, что на сетках уровней I < I вычисления проводят на р

*

процессорах, на сетках I > I - только на одном, а остальные р -1 процессоров простаивают.

Оценки ускорения и эффективности параллельных классических многосеточных алгоритмов получены при следующих предположениях: 1) число узлов самой мелкой сетки задано в виде

_ (¿+;+1)

N _ 2

где ё _ 2, 3 — размерность задачи; 1+ — номер уровня с самыми грубыми сетками, построенными посредством удвоения шага. Тогда количество узлов сеток уровня I

К1 _ Ы02~а, I _ 0,1,...,¿+;

2) поскольку вычисления проводят по одним и тем же формулам, то время выполнения сглаживающих итераций считаем пропорциональным числу узлов сетки:

Т(1) _ СК1 ^ Т(1) _ 7о(1)2"ё/,

где С — некоторая константа, зависящая от сглаживателя. Здесь предполагается, что на всех сетках выполнено одинаковое количество сглаживающих итераций, а объем вычислений, необходимый для операторов переходов, включен в вычислительную работу сглаживающей итерации;

3) обмен данными между процессорами приведет к тому, что

> £/+1 и £1 > £1+1 так как N > Ы1+\ I _ 0,1,...,Ь+ -1, где Ь+ —

номер уровня с самыми грубыми сетками. Время выполнения последовательной многосеточной итерации К-цикла

т (1) т1 (1) _ т>(1)1;2-1_0 1_0 Время выполнения параллельной многосеточной итерации К-цикла

2 2 Т)(1)

' 1 - 2-ё

г-1 ¿2 т (р) Т (р) + £ т (1),

1_0 1_1*

где первая сумма есть время выполнения параллельных сглаживающих итераций на р процессорах, а вторая сумма — время выполнения

* +

последовательных сглаживающих итераций на уровнях I < I < ¿2 . Из определения 3 (3) следует, что

Т, . 1 Т(1) 1 2 а

Т р =--— =--— T0(1),

Р Р $

тогда время выполнения параллельной многосеточной итерации можно оценить как

Т (Р) = Т0(1)

^ 1 '* -1 2^'* ^

Р1=0 £1 1 - 2

-с1

Согласно (2), ускорение и эффективность параллельного К-цикла

Т(1) 1

Б = рЕ =

т 1 - 2-^2- а +

Р 1=0

Более грубая оценка может быть получена в предположении, что

£1 <

$ = Р <Л-Т, (4)

Р$0

1 *

1 + 2-л

*

откуда следует Б = р$ < 2 при р ^ , т. е. последовательное

* + ~

сглаживание на уровнях I < I < приводит к тому, что ускорение Б

перестает зависеть от количества процессоров при достаточно большом р. Хотя объем вычислительной работы, необходимой для выполнения сглаживающих итераций на уровнях с грубыми сетками, невелик по сравнению с аналогичным объемом на самой мелкой сетке, последовательное сглаживание не позволит построить высокоэффективные параллельные многосеточные алгоритмы.

*

Иногда поступают следующим образом: сетку уровня I -1 считают самой грубой, хотя возможно построение более грубых сеток.

*

На сетке уровня I -1 в качестве сглаживателя используют некоторый итерационный метод, обладающий достаточно высокой скоростью сходимости на достаточно мелких сетках и высоким параллелизмом. В работе [16] использованы явные чебышевские итерации для построения сглаживающей процедуры. Построение сглаживателя с указанными свойствами возможно лишь с привлечением дополнительный информации о решаемой задаче, т. е. высокий параллелизм достигается за счет снижения универсальности.

Таким образом, попытка построить параллельный многосеточный алгоритм только на основе распараллеливания компонент обречена на неудачу из-за уменьшения отношения объема вычислитель-

ной работы к объему пересылаемых данных и возможному простою процессоров на грубых сетках. Поэтому многосеточные итерации W-цикла, связанные с большим объемом вычислений на грубых сетках, будут менее эффективны в параллельном исполнении, чем многосеточные итерации F-цикла. Очевидно, что необходим новый «источник параллелизма», не связанный со сглаживающей процедурой.

Параллельная универсальная многосеточная технология. С точки зрения распараллеливания вычислений УМТ обладает следующими привлекательными свойствами:

1) грубые сетки каждого уровня не имеют общих точек, т. е.

Gln П Glm = 0. n Ф m. I = 1.2..... L+.

поэтому сглаживающие итерации на этих сетках можно проводить параллельно, независимо от используемой сглаживающей процедуры;

2) отсутствие общих узлов и граней уменьшает обмен данными между процессорами;

3) фиксированное число сеток на каждом уровне позволяет заранее предсказать необходимое число процессоров для распараллеливания УМТ;

4) почти одинаковое число точек на каждой сетке уровня l позволяет добиться равномерной загрузки процессоров.

Каждый уровень I состоит из 3dl сеток (d = 2.3.1 = 0.1. ...L+).

поэтому число процессоров должно составить p = 3dK (к = 1.....L+) для их равномерной загрузки. В дальнейшем величину к будем называть глубиной распараллеливания УМТ. Значение к = 0 ( ^ p = 1) соответствует последовательной УМТ.

Рассмотрим простейший случай, когда к = 1. Тогда число процессоров p, необходимых для реализации параллельной УМТ, составит p = 3d. d = 2.3. Распределение сеток уровней I (I > 1) между процессорами при к = 1 показано на рис. 1. Вычисление поправки на каждой сетке первого уровня и ее подсетках осуществляется независимо на отдельном процессоре. Нетрудно видеть, что УМТ на уровнях с грубыми сетками (I > 1) обладает почти полным параллелизмом независимо от используемой сглаживающей процедуры. Сглаживающие итерации на самой мелкой сетке (I = 0) распараллеливают традиционным образом.

Предположим, что на всех уровнях выполнено одинаковое количество одних и тех же сглаживающих итераций. Поскольку общее число узлов на всех сетках одного уровня равно числу узлов на самой мелкой сетке, то время, необходимое для выполнения сглаживающих итераций, будет одинаковым:

T(1) = const. I = 0.1.....L+ .

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Самая мелкая сетка

Рис. 1. Распределение грубых сеток между процессорами при к = 1

На уровнях с грубыми сетками (I > к ) возможно выполнение дополнительных многосеточных итераций q , чтобы увеличить отношение объема вычислительной работы к объему пересылаемых дан*

ных. Схема многосеточной итерации при q = 2 показана на рис. 2.

Самая мелкая сетка

Рис. 2. Сглаживание на грубых сетках при к = 1 и q* = 2

Время выполнения последовательной многосеточной итерации УМТ

Ц3

Т(1) = То(1) + д 2Т(1) = То(1)(1 + дЦ ) .

I=1

Время выполнения параллельной многосеточной итерации УМТ

/3

Т (р) = То(р) + Т (р).

I=1

С учетом определения 3 (3) получим

То(р) = ^ и 2 Т (р) = Ш ¿3,

р£о 1=1 ри

где £* — эффективность параллельного сглаживания на сетках уровней I > к по отношению к последовательному сглаживанию. Тогда выражение для ускорения и эффективности параллельной УМТ примет вид

- 1 + д*Ц Я = Р£ = р-. (5)

1+ £ £*

Поскольку УМТ на уровнях I > к обладает почти полным параллелизмом, то величина £* будет близка к единице. Полагая £* = 1,

с учетом р = 3 получим следующую оценку:

* +

Я = 3£ <3 1 + дЦ , (6)

1 . * т+

£о

+дЦ

т. е. эффективность параллелизма первой глубины критически зависит от эффективности параллельного сглаживания на самой мелкой сетке £о. При этом эффективность параллельной УМТ ожидается выше эффективности параллельных сглаживающих итераций на самой мелкой сетке: £ > £о. Кроме того, увеличение количества узлов самой мелкой сетки приводит к повышению эффективности параллелизма: Ц ^ ^ £ ^ 1 .

Аналогично могут быть получены оценки ускорения Я? и эффективности £ параллельной УМТ по отношению к К-циклу:

3d 1

1 - 2 1+¿1+

Поскольку УМТ в отличие от КММ не обладает оптимальной скоростью сходимости [8], то ускорение £ сравнительно невелико, причём О ^

1п-1 N°

при достаточно больших значениях Г+ . Следует

заметить, что полученная оценка достаточно груба, поскольку получена в предположении, что выполнено одинаковое количество многосеточных итераций К-цикла и УМТ. На самом деле для получения численного решения краевых задач при помощи УМТ требуется меньше многосеточных итераций, чем классических, особенно при

* 1 q > 1 •

Согласно оценкам (6) и (7), запишем максимальные значения ускорения и эффективности параллелизма в виде

о = зЫ с = зЫ 1 +q ¿+ и о = с = Э 1

ma^ max i ma^ max r.-d i

1 * t + 1 - 2 d 1 * r+

—+—+q£+

-0 -0

Зависимость максимального ускорения и эффективности параллелизма от количества сеточных уровней показана на рис. 3.

Рис. 3. Зависимость максимального ускорения и эффективности параллелизма от количества сеточных уровней:

-•- О0 = 0,8, q* = 1; -А- О0 = 0,8, q* = 2; + С0 = 0,9, q* = 1; О0 = 0,9, q* = 2; -О- 00 = 0,8, q* = 1; -Д- С = 0,8, q* = 2; ^ С = 0,9, q* = 1; -О- 00 = 0,9, q* = 2

Для вычислительного эксперимента воспользуемся первой краевой задачей для трехмерного уравнения Пуассона

д 2 и д 2 и д 2 и

ТГ + ТГ + ТГ = -/ (x, 7) дх ду дг

в единичном кубе, которая имеет точное решение ехр (х + у + г). Точное решение однозначно определяет правую часть и граничные условия. Вычислительная сетка состоит из 2453 = 14 706 125 узлов ( Ц = 4).

Распараллеливание многосеточных итераций УМТ осуществлено с помощью технологии ОрепМР при использовании 27 процессоров

(к = 1, ё = 2, 3, р = 3ка = 27) [17]. На каждой сетке выполнено четыре сглаживающие итерации, на сетках уровней / (к < /< Ц+) — две

*

многосеточные итерации: д = 2. Согласно результатам вычислительного эксперимента, эффективность распараллеливания сглаживающей процедуры на самой мелкой сетке и на сетках уровней / (к</< 1+) — £о = о,89 и £* = о,95 соответственно. Эффективность параллельной УМТ составила 0,92, в то время как, согласно оценке (6), Я = 26,6 и £ = Я • 3~а = о,98. Если сравнивать с последовательным К-циклом при одинаковом количестве многосеточных итераций, то эффективность параллельной УМТ составит 0,112, в то время как, согласно оценке (7), £ = о,125. Таким образом, время решения модельной краевой задачи для уравнения Пуассона с помощью параллельной УМТ при использовании 27 процессоров оказывается в 3 раза меньше, чем с помощью последовательного К-цикла.

Оценки (4) и (5) показывают, что при достаточно большом числе

*

процессоров р ускорение параллельных КММ составит Я < 2Л , а ускорение параллельной УМТ - Я ^ р, причем независимо от используемой сглаживающей процедуры. Поэтому именно многосеточная структура является тем новым источником параллелизма, который должен быть задействован при распараллеливании сглаживающих итераций на грубых сетках.

Параллельный комбинированный многосеточный алгоритм.

Основная идея комбинированного подхода состоит в следующем: от

*

самой мелкой сетки (/ = о ) до сетки уровня / -1 основным источником параллелизма многосеточного алгоритма является сглаживаю* +

щая процедура (как в КММ), а на уровнях / < Ц* - многосеточная структура (как в УМТ). Используемая иерархия сеток и ее распределение по процессорам в одномерном случае (ё = 1) приведены на рис. 4.

Самая мелкая сетка

Рис. 4. Комбинированная иерархия сеток и распределение грубых сеток среди процессоров в одномерном случае

Номер уровня с самыми грубыми сетками

д = I* + 4 = с +

d (L+ -1 * + 2) ^ -1

1§3

где квадратные скобки означают целую часть числа. Аналогично оценивая время решения задачи, нетрудно получить следующую оценку ускорения и эффективности параллелизма:

S = p£ < p

(1 - 2 - d)-1

l -1 2~dl

(8)

^ £

l=0 £l

+ q ■ 2

-d(l -1), r+

(L+-1 +1)

Число процессоров для достижения наилучшей балансировки нагрузки следует выбирать как в УМТ, т. е. р = 3К^ . Очевидно, что при

I = 1 (т. е. = Г3 ) полученная оценка совпадает с (7). Для практического применения оценки (8) необходимо предварительно эмпирически определить эффективность параллельных сглаживающих итераций £1.

Заключение. Традиционный способ построения параллельных многосеточных алгоритмов, основанный на распараллеливании сглаживающей процедуры и операторов переходов, не позволяет достичь

высокой эффективности параллелизма из-за уменьшения отношения объема вычислительной работы к объему пересылаемых данных и возможного простоя процессоров на уровнях с грубыми сетками.

Многосеточная структура позволяет выполнять сглаживание на уровнях с грубыми сетками параллельно, причем независимо от выбора сглаживающей процедуры.

Высокоэффективный параллельный многосеточный алгоритм может быть построен только с использованием искусственного параллелизма его компонент и естественного параллелизма многосеточной структуры.

Полученные оценки ускорения и эффективности параллелизма (7) и (8) являются достаточно грубыми, поскольку в последовательных и параллельных многосеточных алгоритмах используют многосеточные циклы, которые различаются по количеству многосеточных итераций, необходимых для достижения критерия останова. Тем не менее применение многосеточной структуры для сглаживающих итераций на грубых сетках позволяет получить линейную зависимость ускорения от числа используемых процессоров независимо от вида сглаживателя.

Работа выполнена при финансовой поддержке РФФИ (проект № 12-0100109).

Автор признателен профессору М.П. Галанину за критическое обсуждение полученных результатов.

ЛИТЕРАТУРА

[1] Власова Е.А., Зарубин В.С., Кувыркин Г.Н. Приближенные методы математической физики. Зарубин В.С., Крищенко А.П., ред. Москва, Изд-во МГТУ им. Н.Э. Баумана, 2001, 700 с.

[2] Галанин М.П., Савенков Е.Б. Методы численного анализа математических моделей. Москва, Изд-во МГТУ им. Н.Э. Баумана, 2010, 591 с.

[3] Trottenberg U., Oosterlee C.W., Schüller A. Multigrid. Academic Press, London, 2001.

[4] Мартыненко С.И. Универсальная многосеточная технология для численного решения краевых задач на структурированных сетках. Вычислительные методы и программирование, 2000, т. 1, разд. 1, с. 85-104.

[5] Martynenko S.I. Robust multigrid technique for black box software. Comp. Meth. in Appl. Math., 2006, vol. 6, no. 4, pp. 413-435.

[6] Мартыненко С.И. Универсальная многосеточная технология. Математическое моделирование, 2009, т. 21, № 9, с. 66-79.

[7] Martynenko S.I. Formalisation of the multigrid computations. Int. J. of Comp. Science and Math., 2013, vol. 4, no. 4, pp. 309-320.

[8] Мартыненко С.И. Универсальная многосеточная технология. Москва, ИПМ им. М.В. Келдыша, 2013, 244 с. URL: http://Hbrary.keldysh.ru/prep\_vw.asp?pid=3715

[9] Мартыненко С.И. Распараллеливание универсальной многосеточной технологии. Вычислительные методы и программирование, 2003, т. 4, разд. 1, с. 45-51.

[10] Martynenko S.I. Potentialities of the Robust Multigrid Technique. Comp. Meth. in Appl. Math, 2010, vol. 10, no. 1, pp. 87-94.

[11] Мартыненко С.И. Оценки эффективности распараллеливания универсальной многосеточной технологии. Вестник МГТУ им. Н.Э. Баумана. Сер. Естественные науки, 2011, № 4, с. 63-80.

[12] Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. Санкт-Петербург, БХВ-Петербург, 2002, 608 с.

[13] Немнюгин С.А., Стесик О.Л. Параллельное программирование для многопроцессорных вычислительных систем. Санкт-Петербург, БХВ-Петербург, 2002, 400 с.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

[14] Копысов С.П., Новиков А.К. Промежуточное программное обеспечение параллельных вычислений. Ижевск, Изд-во Удмуртского университета, 2012, 140 с.

[15] Ортега Дж. Введение в параллельные и векторные методы решения линейных систем. Москва, Мир, 1991, 367 с.

[16] Жуков В.Т., Новикова Н.Д., Феодоритова О.Б. Параллельный многосеточный метод для разностных эллиптических уравнений. Ч. I: Основные элементы алгоритма. ИПМ им. М.В. Келдыша РАН, Препринт, 2012, № 30, 32 с.

URL: http://library.keldysh.ru/preprint.asp?id=2012-30

[17] Антонов А.С. Параллельное программирование с использованием технологии OpenMP. Москва, Изд-во МГУ, 2009, 77 с.

Статья поступила в редакцию 05.11.2014

Ссылку на эту статью просим оформлять следующим образом:

Мартыненко С.И. О построении параллельных многосеточных алгоритмов.

Математическое моделирование и численные методы, 2015, № 2(6), с. 105-120.

Мартыненко Сергей Иванович родился в 1965 г., окончил МВТУ им. Н.Э. Баумана в 1988 г., специальное вечернее отделение механико-математического факультета МГУ в 1990 г. Д-р физ.-мат. наук, научный сотрудник отдела «Спецдвигатели и химмотология» ЦИАМ им. П.И. Баранова. Автор более 50 работ в области многосеточных методов, вычислительной гидродинамики и конвективного теплообмена. e-mail: Martynenko@ciam.ru

Parallel multigrid algorithms

© S.I. Martynenko

Baranov Central Institute of Aviation Motor Development, Moscow, 111116, Russia

The paper represents the main directions of development of the parallel classic multigrid algorithms and discusses their disadvantages. The possibility of efficient parallelization of smoothing iterations at the levels of coarse grids is shown using the Robust Multigrid Technique. Then multigrid structure is used for developing hybrid multigrid method. The paper describes estimations of speed-up and efficiency of different parallel multigrid algorithms as well as the results of numerical experiments.

Keywords: multigrid technique, boundary value problems, parallelism.

REFERENCES

[1] Vlasova E.A., Zarubin V.S., Kuvyrkin G.N. Priblizhennye metody matemati-cheskoi fiziki [Approximate methods in mathematical physics]. Zarubin V.S., Krischenko A.P., eds. Moscow, BMSTU Publ., 2001, 700 p.

[2] Galanin M.P., Savenkov E.V. Metody chislennogo analiza matematicheskikh modelei [Methods of numerical analysis of mathematical models]. Moscow, BMSTU Publ., 2010, 592 p.

[3] Trottenberg U., Oosterlee C.W., Schüller A. Multigrid. Academic Press, London, 2001.

[4] Martynenko S.I. Universalnaya mnogosetochnaya tehnologiya dlya chislennogo resheniya kraevyh zadach na strukturirovannyh setkah [Robust multigrid technique for solving boundary value problems on the structured grids].

Vychislitelnye metody i programmirovanie [Numerical methods and programming], 2000, vol. 1, section 1, pp. 85-104.

[5] Martynenko S.I. Computational Methods in Applied Mathematics, 2006, vol. 6, no. 4, pp. 413-435.

[6] Martynenko S.I. Matematicheskoe modelirovanie - Mathematical Modeling, 2009, vol. 21, no. 9, pp. 66-79.

[7] Martynenko S.I. International Journal of Computer Science and Mathematics, 2013, vol. 4, no. 4, pp. 309-320.

[8] Martynenko S.I. Universalnaya mnogosetochnaya tekhnologiya [Robust multigrid technique]. Moscow, Keldysh Institute of Applied Mathematic of RAS Publ., 2013, 244 p. Available at: http://library.keldysh.ru/prep\_vw.asp?pid=3715

[9] Martynenko S.I. Rasparallelivanie universalnoy mnogosetochnoy tehnologii [Deparallelization of the robust multigrid technique]. Vychislitelnye metody i programmirovanie [Numerical methods and programming], 2003, vol. 4, section 1, pp. 45-51.

[10] Martynenko S.I. Computational Methods in Applied Mathematics, 2010, vol. 10, no. 1, pp. 87-94.

[11] Martynenko S.I. Vestnic MGTU im. N.E. Baumana. Seria Estestvennye nauki -Herald of the Bauman Moscow State Technical University. Series: Natural Sciences, 2011, no. 4, pp. 63-80.

[12] Voevodin V.V., Voevodin Vl.V. Parallelnye vychisleniya [Parallel computing]. St. Petersburg, BHV-Petersburg Publ., 2002, 608 p.

[13] Nemnyugin S.A., Stesik O.L. Parallelnoe programmirovanie dlya mnogo-protsessornyh vychislitelnyh sistem [Parallel programming for the multiprocessor computing systems]. St. Petersburg, BHV-Petersburg Publ., 2002, 400 p.

[14] Kopysov S.P., Novikov A.K. Promezhutochnoe programmnoe obespechenie parallelnyh vychisleniy [Intermediate software for the parallel computing]. Izhevsk, Udmurtia University Publ., 2012, 140 p.

[15] Ortega J.M. Introduction to parallel and vector solution of linear systems. Plenum Press, New York, 1988. [Russian edition: Ortega Dzh. Vvedenie v parallelnye i vektornye metody resheniya lineinykh sistem. Moscow, Mir Publ., 1991, 367 p.].

[16] Zhukov V.T., Novikova N.D., Feodoritova O.B. Parallelnyi mnogosetochnyi metod dlya raznostnykh ellipticheskikh uravneniy [A parallel multigrid method for the elliptic difference equations]. Part I: Osnovnye komponenty algoritma [Basic components of the algorithm]. Preprint of Keldysh Institute of Applied Mathematic of RAS, 2012, no. 30, 32 p. Available at: http://library.keldysh.ru/preprint.asp?id=2012-30

[17] Antonov A.S. Parallelnoe programmirovanie s ispolzovaniem tehnologii OpenMP [Parallel programming using technology OpenMP]. Moscow, MSU Publ., 2009, 77 p.

Martynenko S.I. (b. 1965) graduated from Bauman Moscow Higher Technical School in 1988, from Moscow State University (Mechanical and Mathematical Department) in 1990. Dr. Sci. (Phys. & Math.), researcher of Engines and Chemmotology Department of the State Research Center at Baranov Central Institute of Aviation Motor Development (CIAM). Author of more than 50 publications in the fields of multigrid methods, CFD and convective heat transfer. e-mail: Martynenko@ciam.ru.

i Надоели баннеры? Вы всегда можете отключить рекламу.