Научная статья на тему 'К вопросу об эффективности 3Б-декомпозиции при численном решении уравнения переноса с использованием МВС с распределенной памятью'

К вопросу об эффективности 3Б-декомпозиции при численном решении уравнения переноса с использованием МВС с распределенной памятью Текст научной статьи по специальности «Математика»

CC BY
163
33
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ГЕОМЕТРИЧЕСКАЯ ДЕКОМПОЗИЦИЯ / МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ / ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ / GEOMETRIC DECOMPOSITION / MATHEMATICAL MODELLING / PARALLEL COMPUTATIONS

Аннотация научной статьи по математике, автор научной работы — Данилкин Евгений Александрович

В статье сравниваются различные способы декомпозиции сеточной области при численном решении уравнения переноса методом конечного объема. Проведен предварительный теоретический анализ затрат на пересылку данных, а также выполнен вычислительный эксперимент на кластере ТГУ СКИФ Cyberia, показавший, что 3D-декомпозиция не дает выигрыша во времени по сравнению с 2D-декомпозицией, по крайней мере, для количества процессоров, не превышающего 250.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Данилкин Евгений Александрович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

On the Question of 3d Decomposition Efficiency for the Numerical Solution of Transport Equation with the Use of Multiprocessor Computer with Distributed Memory

This paper is devoted to comparison of various ways of decomposition for the numerical solution of transport equation by finite volume method. The preliminary theoretical analysis of transfer costs of a data and numerical experiment with the use of multiprocessor computer TGU SKIF Cyberia were conducted. The investigation has shown that 3D decomposition does not give a gain in time in comparison with 2D decomposition, at least, for the quantity of processors which is not exceeding 250.

Текст научной работы на тему «К вопросу об эффективности 3Б-декомпозиции при численном решении уравнения переноса с использованием МВС с распределенной памятью»

ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА

2008 Математика и механика № 2(3)

УДК 519.684

Е.А. Данилкин К ВОПРОСУ ОБ ЭФФЕКТИВНОСТИ ЗБ-ДЕКОМПОЗИЦИИ ПРИ ЧИСЛЕННОМ РЕШЕНИИ УРАВНЕНИЯ ПЕРЕНОСА С ИСПОЛЬЗОВАНИЕМ МВС С РАСПРЕДЕЛЕННОЙ ПАМЯТЬЮ1

В статье сравниваются различные способы декомпозиции сеточной области при численном решении уравнения переноса методом конечного объема. Проведен предварительный теоретический анализ затрат на пересылку данных, а также выполнен вычислительный эксперимент на кластере ТГУ СКИФ Cyberia, показавший, что SD-декомпозиция не дает выигрыша во времени по сравнению с 2D-декомпозицией, по крайней мере, для количества процессоров, не превышающего 250.

Ключевые слова: геометрическая декомпозиция, математическое моделирование, параллельные вычисления.

Математическое моделирование и численный эксперимент широко распространены в научных и прикладных исследованиях. В последнее время появились и широко используются разнообразные программные продукты для математического моделирования, например для изучения процессов гидродинамики и тепломассообмена (FLUENT, ANSYS CFX, OpenFOAM). В институтах и университетах для подобных целей разрабатываются свои математические модели и вычислительные приложения, но уже более узконаправленные. При этом основная идея математического моделирования - это описание исследуемого процесса с помощью системы дифференциальных уравнений. От модели к модели меняются лишь коэффициенты в уравнениях и способы их аппроксимации, при этом сами уравнения остаются неизменными.

Ни одна математическая модель гидро- или газодинамики не обходится без уравнения переноса, будь это перенос примеси или уравнение движения для одной из компонент скорости. Поэтому в данной статье сравнение различных способов декомпозиции будет осуществляться на примере уравнения переноса.

Задачи математического моделирования требуют большого количества компьютерного времени. Одним из способов преодоления этой проблемы является использование многопроцессорных вычислительных систем (МВС). В данной работе будут рассматриваться МВС с распределенной памятью, так как в настоящее время большинство супер-ЭВМ, которыми мы располагаем, построены именно по такому принципу. Наиболее общим подходом равномерного распределения вычислительной нагрузки между узлами МВС при решении сеточных уравнений является разделение вычислительной области на подобласти, количество которых совпадает с числом используемых процессов, т.е. использование принципа геометрической декомпозиции [1]. Причем самым простым способом решения этих разделенных на подобласти конечно-разностных задач является применение явных разностных схем, которые и будут рассматриваться здесь для численного ре-

1 Работа выполнена при финансовой поддержке РФФИ, грант № 07-05-01126 и программы СКИФ-ГРИД.

шения поставленной задачи. Такие схемы отличаются относительно небольшим шагом интегрирования по времени для нестационарных задач, ограничение на который накладывает условие устойчивости.

Математическая постановка

Требуется решить трехмерное уравнение переноса в единичном кубе (X, у, z) е (0,1) X (0,1) X (0,1):

ЭФ д (иФ) д (уФ ) д (мФ)

дг

д г— д гЭф" д _1 гдФ"

дх _ дх _ ду _ ду _ дг _ дг _

+ ^, I > 0, (1)

дх ду дг

с граничными условиями второго рода и заданными начальными условиями

=0; ф1 ,=о =0;

ЭФ — 0; дФ — 0; дФ

дх х=0 ду ^=о д2

дФ — о; дФ — 0- дФ

дх - 0; х=1 ду — 0; >=1 д2

(2)

= 0.

2=1

Функции и, V, •№, Г > 0 и 5 определены в рассматриваемой области.

Аппроксимация и численное решение

Аппроксимация дифференциальной задачи осуществляется на основе метода конечного объема [2]. Основная идея этого метода заключается в разбиении расчетной области на непересекающиеся, граничащие друг с другом конечные объемы так, чтобы один узел расчетной сетки содержался только в своем конечном объеме. Разбив таким образом расчетную область, интегрируем уравнение по каждому конечному объему. При вычислении интегралов используются кусочнополиномиальные приближения для зависимых величин. Аппроксимация конвективных членов уравнений переноса выполняется с использованием противопото-ковой схемы. Для расчета применялась явная схема, поэтому результатом приближенного интегрирования по одному конечному объему является готовая для вычислений формула:

ар0ф"£к = ар{, Л(1 ф" Л(1 + ав;, ф”+и ,к + ап{, ф" у+1Д + ,к ф"у ,к+1 + (^)

+ аК1,],к Ф”-1,у,к + ],к Ф”у-1,к + ^1,],к ф” 1 ,к-1 + Ь1,],к ■

Полученная разностная схема имеет первый порядок аппроксимации по времени и по пространству и является условно устойчивой и монотонной.

Распараллеливание

В рассматриваемом примере возможны три различных способа разделения значений сеточной функции по вычислительным узлам - одномерная, или ленточная, схема, двухмерное, или блочное, разбиение или трехмерное разбиение узлов вычислительной сетки.

Каждому процессорному элементу вместе с выделенной сеточной подобластью распределяются все значения сеточной функции из этой подобласти, в том

числе и Ф” у к .

После этапа декомпозиции, когда производится разделение данных на блоки для построения параллельного алгоритма, переходим к этапу установления связей между блоками, вычисления в которых будут выполняться параллельно, - планированию коммуникаций. Из-за используемого шаблона явной разностной схемы для вычисления очередного приближения в приграничных узлах каждой подобласти необходимо знать значения сеточной функции с соседнего граничащего процессорного элемента. Для этого на каждом вычислительном узле создаются фиктивные ячейки для хранения данных с соседнего вычислительного узла и организуются пересылки этих граничных значений, необходимых для обеспечения однородности вычислений по явным формулам (3) [3] (рис. 1). Пересылка данных осуществляется с использованием процедур библиотеки МР1 [4].

1 Б-декомпозиция

2Б-декомпозиция

Организация обменов на примере Ш-декомпозиции 2 ПЭ

3В-декомпозиция

Рис. 1. Различные способы декомпозиции. Схема организации обменов для Ш-декомпозиции

Обратимся к предварительному теоретическому анализу эффективности различных способов декомпозиции расчетной области для рассматриваемого случая. Будем оценивать время работы параллельной программы как время работы последовательной программы Тса1с, деленное на количество используемых процессоров, плюс время пересылок: Тр = Тса1с/р + Тсош. Время пересылок для различных способов декомпозиции можно приблизительно выразить через количество пересылаемых данных:

ТтсоШ = 4еПа^2х2; Г2Псот = (^2М/рш; Г3°сот = (^2х6/рт; (4)

где N - размерность задачи, р - количество вычислительных узлов, 4епа - время пересылки одного числа.

Из формулы (4) видно, что для разных способов декомпозиции затраты на пересылку данных можно представить в виде Тсот = 4епё'^2х£(р), где коэффициент пропорциональности к(р) зависит от способа декомпозиции и числа используемых процессорных элементов.

В табл. 1 представлены числовые значения к(р). Видно, что при р > 5 более эффективными будут 2D- и 3D-декомпозиции, а при р > 11 в случае 3D-декомпо-зиции потребуется пересылать между процессорными элементами меньшее количество сеточных значений функции Ф и можно ожидать, что в этом случае затрачиваемое на пересылку время будет минимально.

Таблица 1

Зависимость коэффициента пропорциональности к(р) от числа вычислительных узлов и способа декомпозиции

Число процессов 3 4 5 6 10 11 12 16 60 120 250

Ш-декомпозиция 2 2 2 2 2 2 2 2 2 2 2

2Б-декомпозиция 2,31 2,00 1,79 1,63 1,26 1,20 1,15 1,00 0,51 0,36 0,25

3Б-декомпозиция 2,88 2,38 2,05 1,82 1,29 1,21 1,14 0,94 0,39 0,24 0,15

Результаты

Расчеты производились на кластерной системе ТГУ СКИФ СуЪепа на сетках 240 х 240 х 240 и 360 х 360 х 360 при использовании до 144 процессоров. Результаты вычислительного эксперимента показали наличие хорошего ускорения при решении задач данного класса. Основное внимание уделялось сравнению времени пересылок и времени вычислений при различных способах декомпозиции.

На первом этапе использовалась одна общая программа, размеры массивов от запуска к запуску не менялись, на каждом процессорном элементе нумерация элементов массивов начиналась с нуля. Несмотря на то, что в соответствии с теоретическим анализом 3D-декомпозиция является оптимальным вариантом распараллеливания, вычислительные эксперименты показали, что лучших результатов можно достичь, используя 2D-декомпозицию при числе используемых процессов от 25 до 144 (рис. 2).

Число процессоров Число процессоров

Рис. 2. Ускорение для различных способов декомпозиции расчетной области

50Г | \\

1 —*-т

Сетка 240x240х240 500 ■

300

400

100

J____________I____________I____________I___________?

0 25 50 75 100 125

0 25 50 75 100 125

Число процессоров

Число процессоров

Рис. 3. Время вычислений для различных способов декомпозиции сеточной области

Исходя из предварительного теоретического анализа, на графиках должны присутствовать следующие закономерности. Время вычислений без учета межпроцессорных коммуникационных затрат при разных способах декомпозиции должно примерно совпадать для одинакового числа процессоров и уменьшаться как Гса1с/р. В реальности же расчетные данные (рис. 3) указывают на то, что использование 2D-декомпозиции на различных сетках дает минимальные затраты на проведение вычислений и расчетные графики зависимости времени вычислений от числа используемых процессоров размещаются существенно выше, чем Гса1с/р.

Для объяснения полученных результатов необходимо обратить внимание на допущения, которые были сделаны при предварительном теоретическом анализе поставленной задачи. Во-первых, предполагалось, что независимо от способа распределения данных на одном процессорном элементе выполняется одинаковый объем вычислительной работы, который должен приводить к идентичным временным затратам. Во-вторых, принималось, что время, затраченное на межпроцессорную пересылку любой последовательности одинакового количества данных, не зависит от способа их выборки из оперативной памяти.

Для того чтобы разобраться, что происходит в реальности, был проведен следующий набор тестовых расчетов. Для оценки состоятельности первого допущения был рассмотрен случай, когда программа запускалась в однопроцессорном варианте и при этом имитировались различные способы геометрической декомпозиции данных при одинаковом объеме вычислений, выполняемом каждым процессором. Было реализовано две версии программы: в первой использовались статические массивы размером Ыъ, во второй - «динамические», когда размеры массивов специально подбирались в соответствии со способом декомпозиции для того, чтобы минимизировать временные затраты, связанные с выборкой данных из оперативной памяти.

В табл. 2 представлено время в секундах, которое требуется процессору для проведения вычислений в своей сеточной подобласти при моделировании различных способов геометрической декомпозиции. От расчета к расчету объем вычислительной работы сохраняется, меняется лишь характер расположения обрабатываемых данных в оперативной памяти.

Таблица 2

Влияние способа декомпозиции сеточной области и размерности используемых массивов на время вычислений на одном вычислительном узле

-5 Размерность задачи 360

Без учета размерности массивов С учетом размерности массивов

Р Р

1Б Ш

2Б 2Б

3Б 3Б

8 8

9,3 8,8

8,1 7,5

10,4 7,3

24 24

3,1 3,0

2,6 2,5

3,7 2,5

60 60

1,2 1,2

1,0 0,9

1,6 1,0

Проанализировав представленные результаты, можно сделать вывод, что при написании параллельной программы целесообразно использовать «динамические» массивы с подстраиваемыми под выделенное число процессоров размерами. В большей степени это существенно для 3D-декомпозиции. Преимущества использования «динамических» массивов, на наш взгляд, определяется меньшими временными затратами на выборку обрабатываемых данных из оперативной памяти и их передачу через КЭШ-память.

Для оценки реализуемости второго допущения (Гсош = 4епё'^2х£(р)) был рассмотрен тест, в котором измерялось время МР1-пересылки различных сечений массива с размерностью 3. Заметим, что решение этой задачи (пересылки, скажем, I -}-, I - к-, у - к-сечений массива, элементы которого имеют индексы I, у, к) в стандарте МР1 может осуществляться различными способами в зависимости от того, какие сечения массивов рассматриваются.

Вычислительный эксперимент был организован следующим образом. В параллельной программе многократно выполнялась пересылка сечения массива одного типа между двумя процессорными элементами и фиксировалась продолжительность этого процесса. Использовались функции MPI_SEND и MPI_RECV и процедуры создания производных типов MPI_TYPE_VECTOR и MPI_TYPE_INDEXED [5]. В тестовых расчетах рассматривались массивы с количеством элементов 303, 603, 1203. Полученные результаты показали, что и при организации межпроцессорной передачи данных также решительное преимущество имеет использование «динамических» массивов, поскольку в этом случае допускается использование производного типа MPI_TYPE_VECTOR, который для пересылки сечения у - к в несколько раз по времени предпочтительней, чем более универсальный тип MPI_TYPE_INDEXED.

В табл. 3 представлено время, затрачиваемое на 100-кратную пересылку данных из разных сечений массива, осуществляемую с помощью производного типа MPI_TYPE_VECTOR. Анализируя данные, можно отметить, что время пересылки сечений массивов в MPI-FORTRAN-программе зависит от их типа. Поэтому наименьшие затраты на передачу данных дает Ш-декомпозиция, наибольшие -3D-декомпозиция, причем это отличие становится более существенным при увеличении размера сечения от 30 х 30 до 120 х 120. Последнее связанно с увеличением времени на выборку передаваемых данных из оперативной памяти. Таким образом, в формулах (4) необходимо вводить дополнительные коэффициенты, которые бы учитывали тип пересылаемых сечений массивов сеточных функций.

Таблица 3

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Время на пересылку различных сечений трехмерного массива (с)

Количество элементов в массиве Сечение

г -} г - к } - к

303 0,00189 0,00192 0,00265

603 0,00402 0,00556 0,00884

1203 0,01601 0,02151 0,03563

На рис. 4 представлен график ускорения параллельной программы, использующей «динамические» массивы, для различных способов декомпозиции. Здесь, также как и на рис. 2, наилучшие показатели демонстрирует 2D-декомпозиция, причем имеет место прирост ускорения. Незначительно ей уступает 3D-декомпо-зиция, проблемы которой в маштабируемости параллельной программы связаны, главным образом, с большими, чем в Ш- и 2D-случаях, затратами на выборку, обработку и пересылку данных из оперативной памяти.

Число процессоров

Рис. 4. График ускорения при использовании «динамических» массивов

Заключение

Для явных разностных методов решения уравнения переноса возможно применение одномерной, двумерной и трехмерной декомпозиции, однако результаты тестирования программ показали, что 3D-декомпозиция не дает выигрыша во времени по сравнению с 2D-декомпозицией, по крайней мере, для количества процессоров, не превышающего 250, при этом 3D-декомпозиция отличается более трудоемкой программной реализацией.

ЛИТЕРАТУРА

1. Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. СПб.: БХВ-Петербург, 2002.

2. Патанкар С. Численные методы решения задач теплообмена и динамики жидкости: Пер. с англ. М.: Энергоатомиздат, 1984. 149 с.

3. Данилкин Е.А. К выбору способа декомпозиции при численном решении систем связанных дифференциальных уравнений на многопроцессорной технике с распределенной памятью // Третья Сибирская школа-семинар по параллельным вычислениям / Под ред. проф. А.В. Старченко. Томск: Изд-во Том. ун-та, 2006. С. 95 - 101.

4. Старченко А.В., Есаулов А.О. Параллельные вычисления на многопроцессорных вычислительных системах. Томск: Изд-во Том. ун-та, 2002. - 56 с.

5. Букатов А.А., Дацюк В.Н., Жегуло А.И. Программирование многопроцессорных вычислительных систем. Ростов н/Д: Изд-во ООО «ЦВВР», 2003. 208 с.

Статья принята в печать 19.07.2008 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.