Научная статья на тему 'Параллельное решение обратной задачи диффузии-конвекции на гибридных системах'

Параллельное решение обратной задачи диффузии-конвекции на гибридных системах Текст научной статьи по специальности «Математика»

CC BY
139
36
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОБРАТНАЯ ЭВОЛЮЦИОННАЯ ЗАДАЧА / ПАРАЛЛЕЛЬНОЕ РЕШЕНИЕ / ОБРАТНАЯ ЗАДАЧА ДИФФУЗИИ-КОНВЕКЦИИ / INVERSE EVOLUTIONARY PROBLEM / PARALLEL SOLVER / INVERSE DIFFUSION-CONVECTION PROBLEM

Аннотация научной статьи по математике, автор научной работы — Сухинов Александр Иванович, Лапин Дмитрий Вадимович

В работе рассмотрены двухмерные обратные задачи диффузии-конвекции, необходимость быстрого решения которых возникает при ретроспективном анализе техногенных катастроф. Описан способ решения обратных задач, основанный на методе квазиобращения и последующего итерационного уточнения начального условия. Приводится описание параллельных алгоритмов и теоретические оценки ускорения эффективности и масштабируемости.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Сухинов Александр Иванович, Лапин Дмитрий Вадимович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE INVERSE DIFFUSION-CONVECTION PROBLEM PARALLEL SOLVER USING HYBRID SCHEMES

This paper considers two-dimensional inverse diffusion-convection problem. The need for a quick solution of such problem occurs every time during retrospective analysis of anthropogenic disasters. A method based on generalized inverse method with subsequent iterative refinement of initial conditions is described concerning to inverse problem solution. Parallel algorithm description and theoretical estimates of parallel speedup, efficiency and scalability are given.

Текст научной работы на тему «Параллельное решение обратной задачи диффузии-конвекции на гибридных системах»

44, Nekrasovskiy, Taganrog, 347928, Russia.

Phone: 8(8634) 310-599; 7(928)102-11-06.

Chief of TIT SFedU; professor.

Бутенков Сергей Андреевич

Технологический институт федерального государственного образовательного учреждения высшего профессионального образования «Южный федеральный университет» в г. Таганроге.

E-mail: saab@tsure.ru.

347928, г. Таганрог, пер. Некрасовский, 44.

.: 8(8634)371-668.

, .

Butenkov Sergey Andreevich

Taganrog Institute of Technology - Federal State-Owned Educational Establishment of Higher Vocational Education “Southern Federal University”.

E-mail: saab@tsure.ru.

44, Nekrasovskiy, Taganrog, 347928, Russia.

Phone: 8(8634)371-668.

Assistant Professor, Head of Research Laboratory,

Жуков Анзор Людинович

НИИ прикладной механики и автоматики КБЦ РАН в г. Нальчике.

E-mail: lamark-21@yandex.ru.

Россия, Кабардино-Балкарская республика, г. Нальчик.

.: 8(8662)426-661.

Младший научный сотрудник.

Zhukov Anzor Ludinovich

Scientific Research Institute of Applied Mathematics and Automation, Kabardino-Balkar Scientific Centre of the Russian Academy of Sciences, Nalchik.

E-mail: lamark-21@yandex.ru.

Nalchik, Kabardino-Balkar Scientific, Russia.

Phone: 8(8662)426-661.

Equation Chapter 1 Section 1.

УДК 519.6

АЛ. Сухинов, Д.В. Лапин ПАРАЛЛЕЛЬНОЕ РЕШЕНИЕ ОБРАТНОЙ ЗАДАЧИ

-

В работе рассмотрены двухмерные обратные задачи диффузии-конвекции, необходимость быстрого решения которых возникает при ретроспективном анализе техногенных катастроф. Описан способ решения обратных задач, основанный на методе квазиобращения и последующего итерационного уточнения начального условия. Приводится описание параллельных алгоритмов и теоретические оценки ускорения эффективности и .

Обратная эволюционная задача; параллельное решение; обратная задача диффузии.

A.I. Sukhinov, D.V. Lapin

THE INVERSE DIFFUSION-CONVECTION PROBLEM PARALLEL SOLVER

USING HYBRID SCHEMES

This paper considers two-dimensional inverse diffusion-convection problem. The need for a quick solution of such problem occurs every time during retrospective analysis of anthropogenic disasters. A method based on generalized inverse method with subsequent iterative refinement of initial conditions is described concerning to inverse problem solution. Parallel algorithm description and theoretical estimates of parallel speedup, efficiency and scalability are given.

Inverse evolutionary problem; parallel solver; inverse diffusion-convection problem.

При ретроспективном анализе техногенных катастроф и их воздействия на экологические системы, возникает необходимость решать обратные эволюционные задачи распространения и переноса вещества, для определения места и параметров воздействия на экосистему, времени происхождения выброса. Причем, возникающие в процессе решения системы, часто имеют слишком большую размерность, для решения на одном вычислительном узле. Более того, если ретроспективный анализ производится с целью принять решения для выполнения действий по минимизации ущерба экосистеме, время выполнения анализа играет ключевую роль. Этим и определяется необходимость разработки параллельных алгоритмов для решения обратных задач диффузии-конвекции.

Постановка задачи

Будем рассматривать некорректную эволюционную задачу с обратным вре-

менем:

= 0

(1)

-----У va — + У — k (х)—

дt ^ а дг ^дг дг

д а=1 дХа а=1 дХа \ дХ а )

u(x,t) = 0, xе дО., 0 < t < T

и(x, 0) = и0 (x), x е О,

0 = {х | x = ( x1, x2),0 <xа <1а,а = 1,2}

получаемую из соответствующей прямой задачи заменой t на — t (т.е. переходом к обратному времени).

Выполним расщепление некорректной задачи по физическим процессам

^ — уу ^ = 0; (2)

дt у1 а дЛа

Ґ -ч \

dt a=1 dxa ^ dxa J

du

= 0. (3)

Задача, получаемая на первом шаге расщепления (2), уже корректна и может решаться обычным способом.

Для приближенного решения некорректной задачи (3) будем использовать разностную схему

,Уп+1 Уп — Луп + аЛ2 (ауп+1 + (1 — &) уп) = 0, (4)

т

получаемую из разностного аналога основного варианта метода квазиобращения (двухпараметрическая схема) [1,2], выбором значений параметров

(Г1 = 0, (Г2 = Г. Схема (4) будет р -устойчива при & >1 [3].

2

Прямое использование разностной схемы (4) связано с решением сеточного эллиптического уравнения четвертого порядка, что достаточно сложно с вычислительной точки зрения. Поэтому целесообразно выполнить переход к аддитивной схеме расщепления по пространственным переменным [3]:

Уп+ Уп + Е (+атЛв)1 )аЛв —Лв)Уп=°. (5)

т в=\

т

Эта схема р-устойчива с р = 1 +--------, в Н , при любых т> 0, если

г> 1 [3].

(5) :

У (в) — У 2 —1

+ Е(Е+агЛв) (в—Лв)Уп=0,

2т в=1

после этого переход на новый временной слой выполняется согласно

2

1 2

Уп+1 = - X уПв. 2 в=1

Помимо уменьшения вычислительной сложности, переход к усреднено-аддитивной схеме позволяет организовать параллельные вычисления, так как в таком случае требуется решать серию локально-одномерных, независимых по дан. -дитивно-усредненная схема.

Параметр регуляризации а выбирается итерационным способом, с использованием последовательности ак = а0цк, д > 0 [4,5]. Для расчета невязки после

решения обратной задачи, рассчитывается прямая задача, в качестве начального условия для которой выступает решение обратной задачи.

После нахождения приближенного решения обратной задачи, решение уточняется итерационным способом, состоящем в решении ряда обычных прямых .

выбирается рассчитанное приближенное решение обратной задачи. Итерационный процесс организуется следующим образом:

¥к+1 =¥к — *к+1( У(к) —Ф)>

где у/ - начальное условие для прямой задачи (т.е. уточняемое решение обратной

(к)

задачи), у - решение прямой задачи на конечный момент времени, (р - на-

чальное условие обратной задачи. Итерационный параметр выбирается в соответствии с итерационным методом минимальных невязок [6]:

(Ark, rk )

■■•■(А) • 5 ■ М

Описание параллельного алгоритма

Параллельный алгоритм описан с учетом особенностей имеющегося в ТТИ ЮФУ HPC-кластера, представляющего собой систему с распределенной памятью [7], из 128 узлов, объединенных сетью InfiniBand, с пропускной способностью 20 Гбит/c., каждый узел в свою очередь является SMP-системой с 16-ю вычислителями и объемом ОЗУ - 32 Гбайт.

Параллельная реализация основана на том факте, что при выборе аддитивно-усредненной схемы расщепления по пространственным переменным, получаемые локально-одномерные задачи не зависят по данным и могут решаться одновременно. В нашем случае (двухмерном) шагов расщепления будет два, и после первого шага будет необходимо выполнить транспонирование матрицы на решающем поле (рис. 1).

Рис. 1. Распределение неизвестных по узлам, транспонирование

Решение прямых и обратных задач распараллеливается одинаково, с той , -, - .

( , ).

Для оценки характеристик параллельного алгоритма нам понадобятся некоторые фактические данные о производительности вычислительной системе. Данные получены в результате тестирования пакетами Linpack и Pallas MPI benchmark. Фактическая пропускная способность и латентность сети Infiniband, для узлов в разных корзинах (худший случай):

♦ Лате нтность: 1,82 мкс.

♦ Пропускная способность: 1224,38 Гбайт/с.

♦ Пиковая производительность одного вычислительного ядра узла кластера;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

♦ 9.2 GFlops.

Вычислительная сложность реализации алгоритма трехточечной прогонки составляет ~ 7N, для пятиточечной прогонки вычислительная сложность реализации составляет ~ 23N , где N - размерность СЛАУ, оценки получены в без учета операций присваивания и с тем упрощением, что все арифметические операции выполняются одинаковое время.

Между шагами расщепления по пространственным переменным необходимо передать ^• м • I 1 — — I еДиниЧ данных с плавающей точкой двойной точности,

р)

т'е' N ■ M ■( 1 - -

байт, где N,M - размеры вычислительной области,

р - количество вычислителей. Эти данные передаются за р операций передачи, т.е. время, затрачиваемое на передачу этих данных составляет,

p ■ tj + N ■ M ■

затрачиваемое

'і - Г

p

1b

Для оценки параллельных характеристик алгоритма нам понадобится знать какую часть параллельной программы составляют действия, выполняемые последовательно. К выполняемым последовательно действиям относятся операции передачи. Для перехода к следующему шагу по времени для прямой задачи затрачи-

(7-Ы - М + 7 - М - К) ,

вается время Л_______________________¿Л. на арифметические операции и

p ■ t, + N ■ M ■

1-

P)

на операции обмена, для обратной задачи время

обмена такое же, время выполнения арифметических операций составляет (N • M + 23 • M • N )t „ г

v_____________________La.. После выполнения K шагов по времени, для каждой

Р

из задач, выполняется расчет невязки, требующий времени 5 • N • M • ta для выполнения арифметических операций и tl + p • 8 • tlb - на выполнения операций

обмена. С учетом особенностей вычислительной системы ТТИ ЮФУ, а именно того факта что каждый узел кластера является SMP системой с 16-ю вычислителя,

уменьшены в 16 раз, использованием конструкций OpenMP [8], так как итерации , , образом, соответственно (7 •N •M + 7 •M •N и

таким

16 ■ p

(23 • N ■ M + 23 ■ M ■ N )

16 ■ p

a для прямой и обратной задачи.

Масштабируемость предложенного параллельного алгоритма может выполняться до тех пор, пока тт(М, N) > 16 • р. Ускорение для параллельной задачи, с обозначением Ь = М • N - характерный размер задачи:

60 ■ L ■ t ■ K + 5 ■ L ■ t„

5 ■ L ■ t + K ■

4 ■ p ■ tl + L ■

V

■ t1b + ■

E,

S.

60 ■ L ■ ta 16 ■ p

+t, + p ■ 8 ■ tu

16 ■ p

Выражение для эффективности написано с учетом того, что каждый узел кластера имеет 16 вычислительных ядер.

Вычислительная система ТТИ ЮФУ обладает следующими характеристиками:

= 1.82 • 10—6 с, = 8.16 • 10—13 с, ^а = 1.09 • 10—10 с. Подставляя эти данные,

построим следующие графики для теоретических эффективности и ускорения (рис. 2, рис. 3).

3 Ю11 4 ю" но11 * »” 1# ив" «ю" 6 ian t lOr** 140й

Рис. 2. Эффективность алгоритма на 1, 4, 8, и 16узлах (каждыйузел 16ядер)

М0И НО11 610“ M0U 1 I0IJ М0И 4-М11 *Ю11 но" 110й

Рис. 3 Ускорение алгоритма на 1, 4, 8, и 16узлах (каждыйузел 16ядер)

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Glasko V.B., Inverse problems of mathematical physics - Moscow University publishing, 1984. - C. 59-80.

2. Латтес P., Лионе Ж.-Л. Метод квазиобращения и его приложения. - М.: Мир, 1970.

- С. 13-80.

3. Самарский А.А., Вабищевич П.Н. Численные методы решения обратных задач математической физики - М.: Эдиториал УРСС, 2004. - С. 289-318

4. Тихо нов AM., Арсенин В.Я., Методы решения некорректных задач. - М.: Наука, 1979.

- . 71-80.

5. . ., . . . -

жения. - М.: Изд-во Моск. ун-та, 1989. - С. 111-139.

6. Самарский А.А., Николаев КС. Методы решения сеточных уравнений. - М.: Наука, 1978. - . 482-490, 342.

7. . ., . ., . - .: - ,

2004. - С. 134-154.

8. . ., . . . - .: - , 2004. - . 219-300.

Сухинов Александр Иванович

Технологический институт федерального государственного образовательного учреждения высшего профессионального образования «Южный федеральный университет» в г. Таганроге.

E-mail: rector@tsure.ru.

347928, г. Таганрог, пер. Некрасовский, 44.

Тел.: 8(8634)315-638; 7(928)102-11-06.

Руководитель ТТИ ЮФУ; профессор.

Sukhinov Alexander Ivanovich

Taganrog Institute of Technology - Federal State-Owned Educational Establishment of Higher Vocational Education “Southern Federal University”.

E-mail: rector@tsure.ru.

44, Nekrasovskiy, Taganrog, 347928, Russia.

Phone: 8(8634)315-638; 7(928)102-11-06.

Chief of TIT SFedU; professor.

Лапин Дмитрий Вадимович

Технологический институт федерального государственного образовательного учреждения высшего профессионального образования «Южный федеральный университет» в г. Таганроге.

E-mail: dmitri.lapin@gmail.com

347928, г. Таганрог, пер. Некрасовский, 44.

.: 8(8634)371-606.

Кафедра высшей математики; аспирант.

Lapin Dmitriy Vladimirovich

Taganrog Institute of Technology - Federal State-Owned Educational Establishment of Higher Vocational Education “Southern Federal University”.

E-mail: dmitri.lapin@gmail.com

44, Nekrasovskiy, Taganrog, 347928, Russia.

Phone: 8(8634)315-638; 7(928)102-11-06.

The Department of Higher Mathematics; post-graduate student and assistant.

i Надоели баннеры? Вы всегда можете отключить рекламу.