44, Nekrasovskiy, Taganrog, 347928, Russia.
Phone: 8(8634) 310-599; 7(928)102-11-06.
Chief of TIT SFedU; professor.
Бутенков Сергей Андреевич
Технологический институт федерального государственного образовательного учреждения высшего профессионального образования «Южный федеральный университет» в г. Таганроге.
E-mail: [email protected].
347928, г. Таганрог, пер. Некрасовский, 44.
.: 8(8634)371-668.
, .
Butenkov Sergey Andreevich
Taganrog Institute of Technology - Federal State-Owned Educational Establishment of Higher Vocational Education “Southern Federal University”.
E-mail: [email protected].
44, Nekrasovskiy, Taganrog, 347928, Russia.
Phone: 8(8634)371-668.
Assistant Professor, Head of Research Laboratory,
Жуков Анзор Людинович
НИИ прикладной механики и автоматики КБЦ РАН в г. Нальчике.
E-mail: [email protected].
Россия, Кабардино-Балкарская республика, г. Нальчик.
.: 8(8662)426-661.
Младший научный сотрудник.
Zhukov Anzor Ludinovich
Scientific Research Institute of Applied Mathematics and Automation, Kabardino-Balkar Scientific Centre of the Russian Academy of Sciences, Nalchik.
E-mail: [email protected].
Nalchik, Kabardino-Balkar Scientific, Russia.
Phone: 8(8662)426-661.
Equation Chapter 1 Section 1.
УДК 519.6
АЛ. Сухинов, Д.В. Лапин ПАРАЛЛЕЛЬНОЕ РЕШЕНИЕ ОБРАТНОЙ ЗАДАЧИ
-
В работе рассмотрены двухмерные обратные задачи диффузии-конвекции, необходимость быстрого решения которых возникает при ретроспективном анализе техногенных катастроф. Описан способ решения обратных задач, основанный на методе квазиобращения и последующего итерационного уточнения начального условия. Приводится описание параллельных алгоритмов и теоретические оценки ускорения эффективности и .
Обратная эволюционная задача; параллельное решение; обратная задача диффузии.
A.I. Sukhinov, D.V. Lapin
THE INVERSE DIFFUSION-CONVECTION PROBLEM PARALLEL SOLVER
USING HYBRID SCHEMES
This paper considers two-dimensional inverse diffusion-convection problem. The need for a quick solution of such problem occurs every time during retrospective analysis of anthropogenic disasters. A method based on generalized inverse method with subsequent iterative refinement of initial conditions is described concerning to inverse problem solution. Parallel algorithm description and theoretical estimates of parallel speedup, efficiency and scalability are given.
Inverse evolutionary problem; parallel solver; inverse diffusion-convection problem.
При ретроспективном анализе техногенных катастроф и их воздействия на экологические системы, возникает необходимость решать обратные эволюционные задачи распространения и переноса вещества, для определения места и параметров воздействия на экосистему, времени происхождения выброса. Причем, возникающие в процессе решения системы, часто имеют слишком большую размерность, для решения на одном вычислительном узле. Более того, если ретроспективный анализ производится с целью принять решения для выполнения действий по минимизации ущерба экосистеме, время выполнения анализа играет ключевую роль. Этим и определяется необходимость разработки параллельных алгоритмов для решения обратных задач диффузии-конвекции.
Постановка задачи
Будем рассматривать некорректную эволюционную задачу с обратным вре-
менем:
= 0
(1)
-----У va — + У — k (х)—
дt ^ а дг ^дг дг
д а=1 дХа а=1 дХа \ дХ а )
u(x,t) = 0, xе дО., 0 < t < T
и(x, 0) = и0 (x), x е О,
0 = {х | x = ( x1, x2),0 <xа <1а,а = 1,2}
получаемую из соответствующей прямой задачи заменой t на — t (т.е. переходом к обратному времени).
Выполним расщепление некорректной задачи по физическим процессам
^ — уу ^ = 0; (2)
дt у1 а дЛа
Ґ -ч \
dt a=1 dxa ^ dxa J
du
= 0. (3)
Задача, получаемая на первом шаге расщепления (2), уже корректна и может решаться обычным способом.
Для приближенного решения некорректной задачи (3) будем использовать разностную схему
,Уп+1 Уп — Луп + аЛ2 (ауп+1 + (1 — &) уп) = 0, (4)
т
получаемую из разностного аналога основного варианта метода квазиобращения (двухпараметрическая схема) [1,2], выбором значений параметров
(Г1 = 0, (Г2 = Г. Схема (4) будет р -устойчива при & >1 [3].
2
Прямое использование разностной схемы (4) связано с решением сеточного эллиптического уравнения четвертого порядка, что достаточно сложно с вычислительной точки зрения. Поэтому целесообразно выполнить переход к аддитивной схеме расщепления по пространственным переменным [3]:
Уп+ Уп + Е (+атЛв)1 )аЛв —Лв)Уп=°. (5)
т в=\
т
Эта схема р-устойчива с р = 1 +--------, в Н , при любых т> 0, если
2а
г> 1 [3].
(5) :
У (в) — У 2 —1
+ Е(Е+агЛв) (в—Лв)Уп=0,
2т в=1
после этого переход на новый временной слой выполняется согласно
2
1 2
Уп+1 = - X уПв. 2 в=1
Помимо уменьшения вычислительной сложности, переход к усреднено-аддитивной схеме позволяет организовать параллельные вычисления, так как в таком случае требуется решать серию локально-одномерных, независимых по дан. -дитивно-усредненная схема.
Параметр регуляризации а выбирается итерационным способом, с использованием последовательности ак = а0цк, д > 0 [4,5]. Для расчета невязки после
решения обратной задачи, рассчитывается прямая задача, в качестве начального условия для которой выступает решение обратной задачи.
После нахождения приближенного решения обратной задачи, решение уточняется итерационным способом, состоящем в решении ряда обычных прямых .
выбирается рассчитанное приближенное решение обратной задачи. Итерационный процесс организуется следующим образом:
¥к+1 =¥к — *к+1( У(к) —Ф)>
где у/ - начальное условие для прямой задачи (т.е. уточняемое решение обратной
(к)
задачи), у - решение прямой задачи на конечный момент времени, (р - на-
чальное условие обратной задачи. Итерационный параметр выбирается в соответствии с итерационным методом минимальных невязок [6]:
(Ark, rk )
■■•■(А) • 5 ■ М
Описание параллельного алгоритма
Параллельный алгоритм описан с учетом особенностей имеющегося в ТТИ ЮФУ HPC-кластера, представляющего собой систему с распределенной памятью [7], из 128 узлов, объединенных сетью InfiniBand, с пропускной способностью 20 Гбит/c., каждый узел в свою очередь является SMP-системой с 16-ю вычислителями и объемом ОЗУ - 32 Гбайт.
Параллельная реализация основана на том факте, что при выборе аддитивно-усредненной схемы расщепления по пространственным переменным, получаемые локально-одномерные задачи не зависят по данным и могут решаться одновременно. В нашем случае (двухмерном) шагов расщепления будет два, и после первого шага будет необходимо выполнить транспонирование матрицы на решающем поле (рис. 1).
Рис. 1. Распределение неизвестных по узлам, транспонирование
Решение прямых и обратных задач распараллеливается одинаково, с той , -, - .
( , ).
Для оценки характеристик параллельного алгоритма нам понадобятся некоторые фактические данные о производительности вычислительной системе. Данные получены в результате тестирования пакетами Linpack и Pallas MPI benchmark. Фактическая пропускная способность и латентность сети Infiniband, для узлов в разных корзинах (худший случай):
♦ Лате нтность: 1,82 мкс.
♦ Пропускная способность: 1224,38 Гбайт/с.
♦ Пиковая производительность одного вычислительного ядра узла кластера;
♦ 9.2 GFlops.
Вычислительная сложность реализации алгоритма трехточечной прогонки составляет ~ 7N, для пятиточечной прогонки вычислительная сложность реализации составляет ~ 23N , где N - размерность СЛАУ, оценки получены в без учета операций присваивания и с тем упрощением, что все арифметические операции выполняются одинаковое время.
Между шагами расщепления по пространственным переменным необходимо передать ^• м • I 1 — — I еДиниЧ данных с плавающей точкой двойной точности,
р)
т'е' N ■ M ■( 1 - -
байт, где N,M - размеры вычислительной области,
р - количество вычислителей. Эти данные передаются за р операций передачи, т.е. время, затрачиваемое на передачу этих данных составляет,
p ■ tj + N ■ M ■
затрачиваемое
'і - Г
p
1b
Для оценки параллельных характеристик алгоритма нам понадобится знать какую часть параллельной программы составляют действия, выполняемые последовательно. К выполняемым последовательно действиям относятся операции передачи. Для перехода к следующему шагу по времени для прямой задачи затрачи-
(7-Ы - М + 7 - М - К) ,
вается время Л_______________________¿Л. на арифметические операции и
p ■ t, + N ■ M ■
1-
P)
на операции обмена, для обратной задачи время
обмена такое же, время выполнения арифметических операций составляет (N • M + 23 • M • N )t „ г
v_____________________La.. После выполнения K шагов по времени, для каждой
Р
из задач, выполняется расчет невязки, требующий времени 5 • N • M • ta для выполнения арифметических операций и tl + p • 8 • tlb - на выполнения операций
обмена. С учетом особенностей вычислительной системы ТТИ ЮФУ, а именно того факта что каждый узел кластера является SMP системой с 16-ю вычислителя,
уменьшены в 16 раз, использованием конструкций OpenMP [8], так как итерации , , образом, соответственно (7 •N •M + 7 •M •N и
таким
16 ■ p
(23 • N ■ M + 23 ■ M ■ N )
16 ■ p
a для прямой и обратной задачи.
Масштабируемость предложенного параллельного алгоритма может выполняться до тех пор, пока тт(М, N) > 16 • р. Ускорение для параллельной задачи, с обозначением Ь = М • N - характерный размер задачи:
60 ■ L ■ t ■ K + 5 ■ L ■ t„
5 ■ L ■ t + K ■
4 ■ p ■ tl + L ■
V
■ t1b + ■
E,
S.
60 ■ L ■ ta 16 ■ p
+t, + p ■ 8 ■ tu
16 ■ p
Выражение для эффективности написано с учетом того, что каждый узел кластера имеет 16 вычислительных ядер.
Вычислительная система ТТИ ЮФУ обладает следующими характеристиками:
= 1.82 • 10—6 с, = 8.16 • 10—13 с, ^а = 1.09 • 10—10 с. Подставляя эти данные,
построим следующие графики для теоретических эффективности и ускорения (рис. 2, рис. 3).
3 Ю11 4 ю" но11 * »” 1# ив" «ю" 6 ian t lOr** 140й
Рис. 2. Эффективность алгоритма на 1, 4, 8, и 16узлах (каждыйузел 16ядер)
М0И НО11 610“ M0U 1 I0IJ М0И 4-М11 *Ю11 но" 110й
Рис. 3 Ускорение алгоритма на 1, 4, 8, и 16узлах (каждыйузел 16ядер)
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Glasko V.B., Inverse problems of mathematical physics - Moscow University publishing, 1984. - C. 59-80.
2. Латтес P., Лионе Ж.-Л. Метод квазиобращения и его приложения. - М.: Мир, 1970.
- С. 13-80.
3. Самарский А.А., Вабищевич П.Н. Численные методы решения обратных задач математической физики - М.: Эдиториал УРСС, 2004. - С. 289-318
4. Тихо нов AM., Арсенин В.Я., Методы решения некорректных задач. - М.: Наука, 1979.
- . 71-80.
5. . ., . . . -
жения. - М.: Изд-во Моск. ун-та, 1989. - С. 111-139.
6. Самарский А.А., Николаев КС. Методы решения сеточных уравнений. - М.: Наука, 1978. - . 482-490, 342.
7. . ., . ., . - .: - ,
2004. - С. 134-154.
8. . ., . . . - .: - , 2004. - . 219-300.
Сухинов Александр Иванович
Технологический институт федерального государственного образовательного учреждения высшего профессионального образования «Южный федеральный университет» в г. Таганроге.
E-mail: [email protected].
347928, г. Таганрог, пер. Некрасовский, 44.
Тел.: 8(8634)315-638; 7(928)102-11-06.
Руководитель ТТИ ЮФУ; профессор.
Sukhinov Alexander Ivanovich
Taganrog Institute of Technology - Federal State-Owned Educational Establishment of Higher Vocational Education “Southern Federal University”.
E-mail: [email protected].
44, Nekrasovskiy, Taganrog, 347928, Russia.
Phone: 8(8634)315-638; 7(928)102-11-06.
Chief of TIT SFedU; professor.
Лапин Дмитрий Вадимович
Технологический институт федерального государственного образовательного учреждения высшего профессионального образования «Южный федеральный университет» в г. Таганроге.
E-mail: [email protected]
347928, г. Таганрог, пер. Некрасовский, 44.
.: 8(8634)371-606.
Кафедра высшей математики; аспирант.
Lapin Dmitriy Vladimirovich
Taganrog Institute of Technology - Federal State-Owned Educational Establishment of Higher Vocational Education “Southern Federal University”.
E-mail: [email protected]
44, Nekrasovskiy, Taganrog, 347928, Russia.
Phone: 8(8634)315-638; 7(928)102-11-06.
The Department of Higher Mathematics; post-graduate student and assistant.