Информационные технологии Вестник Нижегородского университета им. Н.И. Лобачевского, 2009, № 4, с. 181-189
УДК 517.968:519.612:004.021
ПАРАЛЛЕЛЬНЫЕ АЛГОРИТМЫ РЕШЕНИЯ ОБРАТНЫХ ЗАДАЧ ГРАВИМЕТРИИ И МАГНИТОМЕТРИИ НА МВС-1000*
© 2009 г. Е.Н. Акимова
Институт математики и механики УрО РАН, г. Екатеринбург [email protected]
Поступила в редакцию 27.02.2009
Для решения линейной обратной задачи гравиметрии о восстановлении переменной плотности в слое и нелинейных обратных задач гравиметрии и магнитометрии о восстановлении поверхности раздела между средами по реальным гравитационным и магнитным данным предложены и численно реализованы на многопроцессорном вычислительном комплексе МВС-1000 параллельные прямые и итерационные алгоритмы. Решены задачи с реальными данными и проведен анализ эффективности и ускорения параллельных алгоритмов.
Ключевые слова: параллельные алгоритмы, обратные задачи гравиметрии и магнитометрии, эффективность и ускорение.
Введение
Рассматривается линейная обратная задача гравиметрии о восстановлении переменной плотности в горизонтальном или криволинейном слое. Решение задачи разбивается на два этапа. На первом этапе необходимо выделение из измеренного гравитационного поля аномального поля от исследуемого слоя. Выделенное аномальное поле служит правой частью базового интегрального уравнения первого рода относительно искомой плотности. Методика предварительной обработки гравитационных данных предложена П.С. Мартышко и И.Л. Пруткиным в работе [1]. Второй этап связан непосредственно с решением линейного двумерного интегрального уравнения Фредгольма первого рода для нахождения переменной плотности в слое.
Рассматриваются нелинейные структурные обратные задачи гравиметрии и магнитометрии о восстановлении поверхности раздела между средами (геологической границы) на основе данных о гравитационном или магнитном поле, измеренном на некоторой площади земной поверхности. Структурные обратные задачи гравиметрии и магнитометрии сводятся к решению нелинейных двумерных интегральных уравнений Фредгольма первого рода. Уравнения гравиметрии и магнитометрии являются существенно некорректными задачами, решения кото-
* Статья рекомендована к печати программным комитетом Международной научной конференции «Параллельные вычислительные технологии 2009» (http:// agora.guru.ru/pavt).
рых обладает сильной чувствительностью к погрешностям правых частей, полученных в результате измерений и предварительной обработки геофизических данных. При разработке методов решения задач используются идеи итеративной регуляризации [2].
Для решения линейной обратной задачи гравиметрии и нелинейных обратных задач гравиметрии и магнитометрии предложены и численно реализованы на многопроцессорном вычислительном комплексе МВС-1000 параллельные прямые и итерационные алгоритмы. Решены задачи с реальными данными и проведен анализ эффективности и ускорения параллельных алгоритмов.
Параллельные алгоритмы решения линейной обратной задачи гравиметрии о восстановлении плотности в слое
Рассматривается задача о нахождении переменной плотности с = с(х, у) в горизон-
3
тальном слое П = {(х,у, z) е R :(х,у) е D, Н1 ^ z ^ Н2} , где Н1, Н2 константы, либо криволинейном слое П = {(х, у, z) е
е R 3:( х, у) е D, Н Д х, у) < z < Н 2( х, у)} по гравитационным данным, измеренным на площади D = {(х, у) е R : а < х < Ь, с < у < d} земной поверхности. Используется априорная информация об отсутствии аномалий плотности вне слоя с криволинейными границами Н1 = Н1 (х, у) и Н2 = Н2 (х, у) такими, что Н1 < Н2 V (х, у) и
выполняется условие Hi (X, у) ^ h = const. При этом предполагается, что распределение плотности с(X, у) внутри слоя не зависит от z (ось z направлена вниз).
Задача нахождения неизвестной плотности сводится к решению линейного двумерного интегрального уравнения Фредгольма первого рода [3]
bd
A° =f я
1
( X - х) + ( у - у) + H1 ( х, y ')
F2
[(х - х ')2 + ( у - у')2 + H 2(х ', у ' )]12 ,
(1)
х с(х', у')dx' dy' = Ag(х, у) , где /- гравитационая постоянная, Ag (х, у) -гравитационный эффект, порождаемый источниками в горизонтальном или криволинейном слое.
После дискретизации уравнения на сетке, где задана Ag(х,у), и аппроксимации интегрального оператора по квадратурным формулам задача (1) сводится к решению системы линейных алгебраических уравнений (СЛАУ) либо с симметричной положительно определенной матрицей (горизонтальный слой), либо с несимметричной матрицей (криволинейный слой). Так как уравнение (1) относится к классу некорректно поставленных задач, то СЛАУ, возникающая в результате дискретизации уравнения, является плохо обусловленной и преобразуется к виду
(А + аЕ) z = Ь , (2)
где а - параметр регуляризации.
В случае криволинейного слоя исходная матрица СЛАУ несимметрична, поэтому эта система предварительно преобразуется к виду
(АТА + а'Е)z = АТЬ , (3)
где АТ - транспонированная матрица, а' - параметр регуляризации.
Для решения уравнений (2) и (3) используются итерационные методы градиентного типа: метод минимальных невязок, метод наискорейшего спуска, метод минимальной ошибки и метод простой итерации (МПИ) в виде
zk+1 = zk ~y~ [(A + aE)
zk - b
(4)
где X тах - максимальное собственное значение матрицы А + аЕ (симметричный случай).
Условием останова итерационных процессов
является следующее:
Azk - b
< 8
Кроме итерационных методов, для решения СЛАУ (3) с симметричной положительно определенной матрицей используется прямой метод квадратного корня (МКК).
Численная реализация и распараллеливание итерационных методов и МКК для решения линейной обратной задачи гравиметрии (1) выполнены на многопроцессорном вычислительном комплексе МВС-1000 с помощью библиотеки MPI [4] на языке Фортран.
Распараллеливание итерационных методов градиентного типа [5] основано на разбиении матрицы A горизонтальными полосами на m блоков, а вектора решения z и вектора правой части Ъ СЛАУ на m частей так, что n = m х L, где n - размерность системы уравнений, m -число процессоров, L - число строк матрицы в блоке. На каждой итерации каждый из m процессоров вычисляет свою часть вектора решения. В случае умножения матрицы A на вектор z каждый из m процессоров умножает свою часть строк матрицы A на вектор z. В случае матричного умножения AT A каждый из m процессоров умножает свою часть строк транспонированной матрицы AT на всю матрицу A. Host-процессор отвечает за пересылки данных и также вычисляет свою часть вектора решения.
Для метода простой итерации (4) максимальное собственное значение Xmax матрицы A + aE находится с помощью степенного метода с использованием параллельного алгоритма умножения матрицы на вектор.
Распараллеливание метода квадратного корня предложено в работе [6]. Матрица A разбивается вертикальными линиями на m блоков. Диагональные элементы треугольной матрицы
S ( A = ST S ) вычисляются на одном процессоре
и рассылаются каждому процессору. Затем каждый из m процессоров вычисляет свою часть недиагональных элементов матрицы S. Обратный ход метода квадратного корня (нахождение решения СЛАУ) по рекуррентным формулам также выполняется на одном процессоре.
Предварительная обработка гравитационных данных, связанная с выделением аномального поля (т.е. получение правой части уравнения (1)), выполняется по методике, разработанной в [1]. Подробное описание методики изложено в работе [7].
Существенный вклад в гравитационное поле слоя оказывают источники, залегающие вне
a с
1
X
b
слоя. Для решения задачи об определении плотности в слое необходимо выделить поле от этого слоя путем исключения боковых источников поля и источников, залегающих выше и ниже рассматриваемого слоя.
В соответствии с методикой задача предварительной обработки гравитационных данных сводится к последовательному решению трех задач:
1) решению задачи Дирихле для уравнения Лапласа Аи(х,у) = 0, и(х,у)\ю = ф(х,у) на
всей или части границы исследуемой области для исключения боковых источников поля; здесь ф(х, у) = и(х, у,0), т.е. искомая функция принимает на границе области D те же значения, что и измеренное на земной поверхности гравитационное поле и (х, у, z)| z ;
2) вычислению интегрального оператора для пересчета поля вверх;
3) решению двумерного интегрального уравнения первого рода для пересчета поля вниз.
Для решения задачи Дирихле используется метод разделения переменных (МРП) в сеточной прямоугольной области. Предварительно задача Дирихле для уравнения Лапласа в прямоугольной области Б путем изменения правой части уравнения в приграничных узлах сводится к задаче Дирихле для уравнения Пуассона с однородными граничными условиями и новой правой частью ф(х, у).
МРП для задачи Дирихле для уравнения Пуассона с однородными граничными условиями в области Б имеет вид [8]
N ~1 кп 1
Фк (О =Е ф(7', Л8™—, к,1 = 1,...,н -1; (5) 1=1
N
- vk(i -1) +(2 + h2Xk )vk(i) - vk(i +1) =
= h 2ф k (i), vk(0) = vk(N) = °, Xk = T2sin2 ~k~N '■
h 2N
i, k = 1,..., N -1;
2
N-1
knj
тах, отличающихся распределением исходных данных вертикальными либо горизонтальными полосами по процессорам (рис. 1).
(6)
uk (i, j) = TfZ vk sin— , i, j = 1, N -1.(7) N k=i N
Численная реализация и распараллеливание алгоритмов для решения задачи предварительной обработки гравитационных данных выполнены на МВС-1000 с помощью библиотеки MPI на языке Фортран.
Распараллеливание метода разделения переменных для решения задачи Дирихле в прямоугольной области реализовано в двух вариан-
Рис. 1. Разбиение области на подобласти
В случае горизонтального разбиения исходной области на L подобластей (горизонтального распределения исходных данных по процессорам) суммы в (5) и (7) разбиваются на L частей и каждый из процессоров вычисляет свою часть функций фк (і) и ик (і, у), где к, у = 1,..., N -1.
Краевые задачи (6) решаются методом обычной прогонки.
В случае вертикального разбиения исходной области на L подобластей (вертикального распределения исходных данных по процессорам) функции фк (і) и ик (і, у) для к, у = 1,..., N -1 вычисляются на процессорах независимо. Краевые задачи вида (6) решаются с помощью алгоритма распараллеливания прогонки, предложенного в работе [9] для решения краевой задачи для трехточечного разностного уравнения на отрезке.
В соответствии с методикой предварительной обработки гравитационных данных на этапе пересчета поля вверх при вычислении интегрального оператора используется параллельный алгоритм умножения матрицы на вектор, на этапе пересчета поля вниз при решении интегрального уравнения используются параллельные итерационные методы градиентного типа.
Параллельные алгоритмы решения нелинейных обратных задач гравиметрии и магнитометрии о нахождении поверхности раздела между средами
Рассматривается трехмерная структурная обратная задача гравиметрии о восстановлении поверхности раздела между средами (геологической границы) по известному скачку плотности и гравитационному полю, измеренному на некоторой площади земной поверхности. Пред-
1
2
L
х
полагается, что нижнее полупространство состоит из двух или трех слоев постоянной плотности, разделенных искомыми поверхностями Sl и S2.
В предположении, что гравитационная аномалия создана отклонением искомой поверхности S от горизонтальной плоскости г = Н, в декартовой системе координат функция г = г(х, у), описывающая искомую поверхность раздела, удовлетворяет нелинейному двумерному интегральному уравнению Фред-гольма первого рода
Ь о I
А[ г] = /АстЦ]
[(х - х')2 +(у - у')2 + г 2(х', у')^2 (8)
Ох йу' = Р (х, у),
|(х - х')2 +(у - у')2 + Н 2
У.
ЬО I
В[ г] = А/ Щ
г( х', у')
[(х - х')2 +(у - у ')2 + г 2( х', у ' )]/2
Н
[(х - X)2 + (у - у ')2 + Н 2 ]/2
^оХ ' йу' = G(x, у),
После дискретизации уравнений (8) и (9) на сетке п = М х N, где заданы правые части Р(х, у) и G(х, у), и аппроксимации интегральных операторов А и В по квадратурным формулам имеем системы нелинейных уравнений
Ап [г] = Рп . (10)
Для решения систем уравнений вида (10) используется итеративно-регуляризованный метод Ньютона, успешно применяемый при решении обратных задач гравиметрии и магнитометрии с реальными данными [10]
АП (гк) + а к1 ]"1
к+1 к
г = г -
Ап(гк) + акгк -Рп].
(11)
где /— гравитационная постоянная, Ас - скачок плотности на границе раздела сред, Р(х, у) -аномальное гравитационное поле, г = Н -асимптотическая плоскость для данной геологической границы.
Рассматривается трехмерная структурная обратная задача магнитометрии по численному восстановлению разделяющей поверхности сред (геологической границы) на основе данных
о магнитном поле, измеренном на некоторой площади земной поверхности, и скачке вектора намагниченности.
Функция г = г(х, у), описывающая искомую поверхность раздела, удовлетворяет нелинейному двумерному интегральному уравнению Фредгольма первого рода
Здесь Ап (г ) и Fn - конечномерные аппроксимации интегральных операторов и правых частей в уравнениях (8), (9), А'п (гк) - производная Фреше оператора А либо В в точке гк,
I - единичный оператор, а к - последовательность положительных параметров регуляризации. Нахождение очередного приближения
к+1 к
г по найденному г сводится к решению
СЛАУ
Ак _к+1 = рк
пп
(9)
где AJ - скачок вертикальной компоненты вектора намагниченности, G(х, у) - аномальное магнитное поле, обусловленное отклонением искомой поверхности от асимптотической плоскости г = — Н .
Предварительная обработка гравитационных либо магнитных данных, связанная с выделением аномального поля (т.е. получение правых частей уравнений (8) и (9)), выполняется по методике, разработанной в [1].
(12)
где АП = А'п (гк) + ак1 - плохо обусловленная несимметричная заполненная (п х п )-матрица,
К = Акпгк ~ Ап (^ ) + а кгк ~ ^ . - вектор
размерности п.
Таким образом, для нахождения очередного
приближения гк+1 метода Ньютона (11) необходимо решать СЛАУ (12) с несимметричной полностью заполненной (п х п )-матрицей.
Замечание. Проведены численно-аналитическое исследование и доказательные вычисления сходимости метода Ньютона при решении обратной задачи гравиметрии [11]. Как показал тщательный анализ, при подходящем выборе
начального приближения г0 и параметров регуляризации а к при решении задачи гравиметрии на некотором шаге к фактически выполняются (в итерационных точках) условия сходимости одного из вариантов теоремы Ньютона -Канторовича [12, с. 412], что влечет практическую сходимость метода Ньютона.
Для решения СЛАУ (12) на каждом шаге метода Ньютона используются параллельные прямые методы Г аусса или Г аусса - Жордана либо итерационные методы простой итерации (4) и
1
х
а с
а с
сопряженных градиентов (МСГ) для решения СЛАУ с симметричной матрицей
гк+1 = гк — ук (Вкгк — Ь) + рк (гк — гк—1) ,(13)
где у к и Р к вычисляются по известным формулам [13].
В случае применения итерационных методов система уравнений (12) предварительно приводится к виду
тук к+1 I/ лк\Т лк . f ті
Bz = К An ) Ап +a к1 F
к+1
= ( АПк ŸF^ - b ,
(14)
где (Ап )Т - транспонированная матрица, а к -параметры регуляризации.
Условием останова итерационных процессов
является следующее:
Bzk - b
b
< 8 .
Численная реализация и распараллеливание алгоритмов для решения нелинейных обратных задач гравиметрии и магнитометрии о нахождении поверхности раздела между средами выполнены на МВС-1000 с помощью библиотеки MPI на языке Фортран.
Распараллеливание метода сопряженных градиентов проводится по описанному выше принципу распараллеливания итерационных методов.
Распараллеливание методов типа Гаусса основано на том, что на каждом шаге каждый из m процессоров исключает неизвестные из своей части L уравнений. Host-процессор выбирает ведущий элемент среди элементов строки, модифицирует строку и рассылает ее остальным процессорам. При реализации процесса исключения Гаусса (матрица СЛАУ приводится к верхнетреугольной) все большее число процессоров постепенно начинает простаивать, т.к. с каждым шагом число уравнений СЛАУ уменьшается на единицу. Это уменьшает эффективность распараллеливания. Host-процессор работает до конца, так как он отвечает за передачу модифицированных строк и выбор ведущего элемента на каждом шаге. Чтобы сократить время простоев, Host-процессор рассылает модифицированные строки другим процессорам сразу же после их получения и, одновременно, проводит вычисления со своей частью уравнений. При реализации метода Г аусса - Жордана (матрица СЛАУ приводится к диагональной) все процессоры выполняют вычисления со своей частью уравнений до конца. Время простоев уменьшается, и эффективность распараллеливания увеличивается.
Результаты численных экспериментов и эффективность распараллеливания
Задача 1. На многопроцессорном вычислительном комплексе МВС-1000 решена задача (совместно с Д.В. Гемайдиновым) предварительной обработки гравитационных данных, измеренных на площади одного из районов Среднего Урала, в горизонтальном слое между глубинами Н = 20 км и Н2 = 40 км и задача о восстановлении плотности в этом слое для области S, имеющей размеры 779*918 км2. Шаги сетки: Ах « /.9 км, Ау « 4.6 км. Гравитационная постоянная / = 6.67-10-8 см3/г-с2.
На рис. 2 изображено исходное гравитационное поле.
g, мгал
Рис. 2. Исходное гравитационное поле g(х, у) для области S
После дискретизации исходного уравнения на сетке, где задана функция Дg(х,у), и аппроксимации интегрального оператора по квадратурным формулам задача (1) сводится к системе линейных алгебраических уравнений с симметричной матрицей 40000*40000.
На этапе решения задачи предварительной обработки гравитационных данных при решении задачи Дирихле использовался параллельный метод разделения переменных (5)-(7).
Для решения интегрального уравнения использовался параллельный итеративно-регуля-ризованный метод простой итерации (4) с параметром регуляризации а= 0.01. Для решения задачи о восстановлении плотности в слое использовался параллельный итеративно-регу-ляризованный МПИ с параметром регуляризации а = 0.01.
На рис. 3 изображены линии уровня и распределение аномального поля, выделенного из исходного поля по методике предварительной обработки гравитационных данных.
10000000 10200000 10400000 10600000
Рис. 3. Линии уровня и распределение аномального поля Дg (х, у)
68000006700000- 1
10000000 10200000 10400000 10600000
р, г/см3
Рис. 4. Линии уровня и распределение восстановленной плотности в слое 20-40 км
х, м
На рис. 4 изображены линии уровня и распределение плотности в слое, восстановленной по выделенному аномальному полю.
Результаты решения задачи переданы специалистам в Институт геофизики УрО РАН для геофизической интерпретации.
Для решения задачи предварительной обработки данных и задачи о восстановлении плотности в слое с использованием параллельных алгоритмов МРП и МПИ проведено сравнение коэффициентов ускорения и эффективности
8т = Т1/ Тт, Ет = 8т / т , где Тт - время выполнения параллельного алгоритма на МВС-1000 с числом процессоров т (т > 1), Т1 - время выполнения последовательного алгоритма на одном процессоре. Время Тт представляет собой совокупность чистого времени счета и накладных расходов на межпроцессорные обмены Тт = Тс + Т0 . Число
процессоров т соответствует упомянутому разбиению векторов на т частей и разбиению исходной области на т подобластей.
В табл. 1 приведены времена счета и коэффициенты ускорения и эффективности решения задачи предварительной обработки гравитационных данных с использованием параллельных алгоритмов МРП и МПИ на МВС-1000/64 для сетки 200*200 точек.
В табл. 2 приведены времена счета и коэффициенты ускорения и эффективности решения задачи о восстановлении плотности в слое с использованием параллельного алгоритма МПИ на МВС-1000/64 для сетки 200*200 точек.
В общем случае эффективность распараллеливания меняется в пределах 0 < Ет < 1. В идеальном случае при равномерной и сбалансированной загрузке процессоров и минимальном времени обменов между ними значение Ет близко к единице, но при решении практи-
Таблица 1
Решение задачи предварительной обработки данных
т (число процессоров) Тт (время, мин) Sm (ускорение) Ет (эффективность)
1 243.80 — —
2 135.51 1.80 0.90
8 30.28 8.05 1.01
10 18.90 12.9 1.29
20 8.82 27.6 1.38
25 5.72 42.6 1.70
35 3.99 61.2 1.75
40 2.89 84.5 2.11
50 2.25 108.1 2.16
Таблица 2
Решение задачи о восстановлении плотности в слое
т (число процессоров) Тт (время, мин) Sm (ускорение) Ет (эффективность)
1 269.61 — —
2 147.87 1.82 0.91
8 34.41 7.84 0.98
10 23.97 11.24 1.12
15 15.53 17.91 1.19
20 9.63 28.0 1.40
25 5.71 47.2 1.89
40 3.21 84.0 2.10
50 2.22 121.4 2.43
ческих задач она уменьшается за счет накладных расходов. Для повышения эффективности и ускорения параллельных алгоритмов можно использовать идею фрагментации входных данных. Вычисления производятся с фрагментами данных [14], которые помещаются частично или полностью в кэш-память, что дает дополнительное ускорение и Ет > 1. При решении задачи о восстановлении плотности в слое с помощью параллельных алгоритмов матрица СЛАУ формируется и хранится в памяти каждого процессора по частям, что повышает эффективность распараллеливания (см. табл. 1, 2).
Задача 2. На многопроцессорном комплексе МВС-1000 решена задача магнитометрии о восстановлении поверхности раздела с реальными данными. Для одного рудного объекта был обработан массив магнитных данных Оренбургской аномалии, измеренный на площади ^ ', имеющей размеры 125*147.4 км2. Шаги сетки: Ах =1.25 км и Ду =2.2 км. Гравитационная постоянная / = 6.67-10-8 см3/г-с2.
Измерения магнитного поля для исследуемого района были выполнены сотрудником Института геофизики УрО РАН В.А. Пьянковым. Расстояние до асимптотической плоскости со-
ставляло Н =6 км. Скачок намагниченности принимался равным Д/ = 2 А/м. После дискретизации исходного уравнения на сетке задача сводится к СЛАУ с несимметричной матрицей порядка 6700*6700. Задача решалась итератив-но-регуляризованным методом Ньютона с числом итераций Ын = 7 и параметром регуляризации а = 0.5. На каждом шаге метода Ньютона использовались параллельные метод простой итерации (N= 5000) либо метод сопряженных градиентов ( = 5). В ходе решения
задачи (нахождения функции z(х, у)) относительная норма невязки уменьшилась в 70 раз. Заметим, что оба итерационных метода (МПИ и МСГ) при подходящем выборе параметров регуляризации дают близкие результаты, что говорит о хорошем качестве решения.
На рис. 5 показана восстановленная поверхность раздела.
Результаты решения задачи переданы специалистам в Институт геофизики УрО РАН для геофизической интерпретации.
В табл. 3 приведены времена счета и коэффициенты ускорения и эффективности решения задачи магнитометрии о восстановлении поверхности раздела между средами итеративно-регуляризованным методом Ньютона с исполь-
Рис. 5. Восстановленная поверхность раздела (Оренбург)
Таблица 3
Решение задачи о восстановлении поверхности раздела (данные для методов МСГ/МПИ)
m (число процессоров) Tm (время, мин) Sm (ускорение) Em (эффективность)
1 103.15 / 174.86 — —
2 73.06 / 117.42 1.41 / 1.49 0.71 / 0.74
4 41.40 / 63.76 2.49 / 2.74 0.62 / 0.69
5 35.22 / 52.83 2.93 / 3.31 0.59 / 0.66
10 22.91 / 31.51 4.50 / 5.55 0.45 / 0.55
зованием на каждом шаге метода параллельного и последовательного алгоритмов МСГ и МПИ на МВС-1000/32.
Результаты вычислений показывают, что решение задачи гравиметрии о нахождении плотности в слое и задачи магнитометрии о восстановлении поверхности раздела между средами с использованием параллельных алгоритмов существенно уменьшает время счета.
Заключение
Для решения линейной обратной задачи гравиметрии о восстановлении переменной плотности в слое и нелинейных обратных задач гравиметрии и магнитометрии о восстановлении поверхности раздела между средами по реальным гравитационным и магнитным данным предложены и численно реализованы на многопроцессорном вычислительном комплексе МВС-1000 параллельные прямые и итерационные алгоритмы.
Решены задачи с реальными данными и проведен анализ эффективности и ускорения параллельных алгоритмов.
Комплекс параллельных алгоритмов решения задачи гравиметрии о восстановлении плотности в слое размещен на разработанном специализированном Web-сервере [15], который может быть использован для обработки реальных гравитационных данных.
Автор выражает признательность за поддержку и внимание к работе члену-коррес-понденту РАН П.С. Мартышко.
Работа выполнена при поддержке РФФИ (код проекта № 06-01-00116).
Список литературы
1. Мартышко П.С., Пруткин И.Л. Технология разделения источников гравитационного поля по глубине // Геофизический журн. 2003. Т. 25. № 3. С. 159-168.
2. Васин В.В., Агеев А.Л. Некорректные задачи с априорной информацией. Екатеринбург: Наука, 1993. 262 с.
3. Martyshko P.S., Koksharov D.E. On the construction of the density sections using gravity data // Extended Abstracts of 66th EAGE Conference and Exhibition. Paris, 7-12 June 2004. P. 143.
4. Baranov A.V., Latsis A.O., Sazhin C.V., Khramt-sov M.Yu. The MVS-1000 System User's Guide. URL: http://parallel.ru/mvs/user.html.
5. Акимова Е.Н., Гемайдинов Д.В. Параллельные алгоритмы решения задачи гравиметрии о восстановлении плотности в слое // Труды Института математики и механики. Екатеринбург: УрО РАН, 2007. Т. 13. № 3. С. 3-21.
6. Акимова Е.Н., Белоусов Д.В. Решение обратной задачи гравиметрии с помощью параллельного алгоритма квадратного корня // Вестник УГТУ-УПИ. Екатеринбург: УГТУ-УПИ, 2005. № 17 (69). C. 230-239.
7. Акимова Е.Н., Васин В.В., Пересторонина Г.Я. и др. О регулярных методах решения обратных задач гравиметрии на многопроцессорном вычислительном комплексе // Вычислительные методы и программирование. М.: МГУ, 2007. Т. 8. № 1. С. 107-116.
8. Самарский А.А., Николаев Е.С. Методы решения сеточных уравнений. М.: Наука, 1978. 590 с.
9. Яненко Н.Н., Коновалов А.Н., Бугров А.Н., Шустов Г.В. Об организации параллельных вычислений и распараллеливании прогонки // Численные методы механики сплошной среды. Новосибирск: ВЦ и ИТиПМ СО АН СССР, 1978. Т. 9. № 7. C. 139-146.
10. Akimova E.N., Vasin V.V. Stable parallel algorithms for solving the inverse gravimetry and magne-tometry problems // International Journal Engineering Modelling. University of Split, Croatia, 2004. V. 17. № 1-2. P. 13-19.
11. Акимова Е.Н. О сходимости метода Ньютона при решении обратной задачи гравиметрии // Тезисы докладов Международной конференции «Алгоритмический анализ неустойчивых задач». Екатеринбург: УрГУ, 2008. С. 112-113.
12. Бахвалов Н.С. Численные методы. М.: Наука, 1973.
13. Фаддеева В.Н., Фаддеев Д.К. Вычислительные методы линейной алгебры. М.: Гос. издат. физ.-мат. литературы, 1963. 734 с.
14. Малышкин В.Э. Фрагментированное программирование // Тезисы четвертой Сибирской школы-семинара по параллельным и высокопроизводительным вычислениям. Томск: ТГУ, 2007. С. 9-11.
15. Акимова Е.Н., Гемайдинов Д.В. Параллель-
ные алгоритмы решения обратной задачи гравиметрии и организация удаленного взаимодействия между МВС-1000 и пользователем // Труды Международной научной конференции «Параллельные вычислительные технологии». Челябинск: ЮУрГУ,
2008. С. 5-19.
PARALLEL SOLUTION ALGORITHMS OF GRAVIMETRY AND MAGNETOMETRY INVERSE PROBLEMS ON MVS-1000
E.N. Akimova
Parallel direct and iterative algorithms to solve a linear inverse gravimetry problem on restoration of variable density in a layer and nonlinear inverse gravimetry and magnetometry problems on restoration of the interface between media using the real gravitational and magnetic data have been proposed and numerically realized using MVS-1000 supercomputer. The problems have been solved using real data and the analysis has been carried out on the acceleration and efficiency of parallel algorithms.
Keywords: parallel algorithms, inverse gravimetry and magnetometry problems, efficiency and acceleration.