Научная статья на тему 'Использование графических процессоров для решения разреженных СЛАУ итерационными методами подпространств Крылова с предобусловливанием на примере задач теории фильтрации*'

Использование графических процессоров для решения разреженных СЛАУ итерационными методами подпространств Крылова с предобусловливанием на примере задач теории фильтрации* Текст научной статьи по специальности «Математика»

CC BY
551
146
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ / ИТЕРАЦИОННЫЕ МЕТОДЫ ПОДПРОСТРАНСТВ КРЫЛОВА / ГРАФИЧЕСКИЕ ПРОЦЕССОРЫ / МЕТОД КОНТРОЛЬНЫХ ОБЪЕМОВ / PARALLEL COMPUTING / KRYLOV SUBSPACE ITERATIVE METHODS / GRAPHICS PROCESSORS / CONTROL VOLUME METHOD / SYSTEMS OF LINEAR ALGEBRAIC EQUATIONS

Аннотация научной статьи по математике, автор научной работы — Губайдуллин Дамир Анварович, Никифоров Анатолий Иванович, Садовников Роман Валерьевич

Представлена реализация на современных графических процессорах NVIDIA библиотеки итерационных методов подпространств Крылова с предобусловливанием для решения больших разреженных систем линейных алгебраических уравнений (СЛАУ). Библиотека предназначена для пользователей, которым приходится иметь дело с большими разреженными СЛАУ и необходимо использовать эффективность параллельной архитектуры графических процессоров.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Губайдуллин Дамир Анварович, Никифоров Анатолий Иванович, Садовников Роман Валерьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

USING GRAPHICS PROCESSORS TO SOLVE SPARSE SLAE BY PRECONDITIONED KRYLOV SUBSPACE ITERATIVE METHODS AS SHOWN BY THE EX

The library implementation of preconditioned Krylov subspace iterative methods on modern NVIDIA GPUs to solve large sparse systems of linear algebraic equations (SLAE) is presented. The library is intended for users who want to avoid the difficulties and details of parallel programming on GPUs, but who have to deal with large sparse SLAE and who need to use the performance of GPU parallel architecture.

Текст научной работы на тему «Использование графических процессоров для решения разреженных СЛАУ итерационными методами подпространств Крылова с предобусловливанием на примере задач теории фильтрации*»

Информационные технологии Вестник Нижегородского университета им. Н.И. Лобачевского, 2011, № 1, с. 205-212

УДК 517.958:532

ИСПОЛЬЗОВАНИЕ ГРАФИЧЕСКИХ ПРОЦЕССОРОВ ДЛЯ РЕШЕНИЯ РАЗРЕЖЕННЫХ СЛАУ ИТЕРАЦИОННЫМИ МЕТОДАМИ ПОДПРОСТРАНСТВ КРЫЛОВА С ПРЕДОБУСЛОВЛИВАНИЕМ НА ПРИМЕРЕ ЗАДАЧ ТЕОРИИ ФИЛЬТРАЦИИ*

© 2011 г. Д.А. Губайдуллин, А.И. Никифоров, Р.В. Садовников

Институт механики и машиностроения КазНЦ РАН, Казань

sadovnikov@mail. knc. т

Поступила в редакцию 27.04.2010

Представлена реализация на современных графических процессорах №УГО1А библиотеки итерационных методов подпространств Крылова с предобусловливанием для решения больших разреженных систем линейных алгебраических уравнений (СЛАУ). Библиотека предназначена для пользователей, которым приходится иметь дело с большими разреженными СЛАУ и необходимо использовать эффективность параллельной архитектуры графических процессоров.

Ключевые слова: параллельные вычисления, итерационные методы подпространств Крылова, графические процессоры, метод контрольных объемов.

Введение

Наряду с темой высокопроизводительных вычислений и суперкомпьютеров сегодня все шире обсуждается новое направление в ускорении расчетов - использование графических процессорных устройств (ГПУ). Изначально графические процессоры не предназначались для высокопроизводительных вычислений, а разрабатывались для воспроизведения трехмерных изображений в реальном времени. Применение ГПУ для математических расчетов затруднялось не только сложностью архитектуры, но и отсутствием удобного программного интерфейса. Программистам приходилось использовать ГПУ через стандартный графический интерфейс — OpenGL или DirectX, когда данные к видеочипу передавались в виде текстур, а расчетные программы загружались в виде шейдеров.

Начиная с 2006 г., когда ведущие производители процессоров AMD и NVIDIA выпустили программные средства для взаимодействия с графическими процессорами в обход интерфейсов для работы с графикой, появилась возможность для написания программ, выполняемых на графических устройствах. Наибольшую популярность для расчётов на ГПУ приобрела представленная компанией NVIDIA унифици-

* Статья рекомендована к публикации программным комитетом Международной научной конференции «Параллельные вычислительные технологии 2010».

рованная архитектура компьютерных вычислений CUDA (Compute Unified Device Architecture), которая хорошо подходит для решения широкого круга задач с высоким параллелизмом. Технология NVIDIA CUDA [1], основанная на расширении языка C, даёт возможность организации доступа к набору инструкций ГПУ и управления его памятью при организации параллельных вычислений.

При программировании с использованием ГПУ последнее рассматривается как вычислительное устройство, способное выполнять большое число одинаковых вычислений параллельно. Это особенно удобно для применения в задачах линейной алгебры в операциях над матрицами и векторами, и к сегодняшнему дню уже разработаны алгоритмы для расчетов на ГПУ, позволяющие ускорить расчеты с плотными матрицами в десятки, а иногда и в сотни раз [2].

В настоящее время рядом авторов [3, 4] разрабатываются алгоритмы для расчетов с разреженными матрицами на ГПУ, которые играют важную роль в итерационных методах решения разреженных СЛАУ. Такие системы уравнений возникают при численном решении широкого класса задач математической физики, описываемых дифференциальными уравнениями в частных производных [5]. Как правило, матрицы этих систем имеют большую размерность. Одной из самых критичных, относительно времени выполнения, операций в итерационных методах решения разреженных СЛАУ является операция

умножения матрицы на вектор. Из-за непредсказуемого шаблона доступа к памяти и более сложной структуры данных для представления разреженных матриц построение эффективных алгоритмов для этих операций затруднено. В работах [3, 4] рассмотрены различные варианты форматов представления разреженных матриц и способы параллельной реализации операции умножения матрицы на вектор на ГПУ, а также вопросы их оптимизации.

Одной из первых работ, посвященных реализации алгоритмов решения СЛАУ с разреженной матрицей на ГПУ, является работа [6], в которой предложена реализация метода сопряженных градиентов. И хотя метод нельзя назвать универсальным, так как он ограничен использованием только симметричных матриц, тем не менее в работе была предложена концепция использования итерационных методов на ГПУ. В работе [7], на основе [6], предложена реализация стабилизированного метода бисо-пряженных градиентов на ГПУ, который позволяет работать с несимметричными разреженными матрицами. Однако очевидно, что не существует одного метода, подходящего для любого класса задач, поскольку один и тот же метод может сходиться или не сходиться к решению в зависимости от типа разреженной матрицы и предобусловливателя. Поэтому необходимо иметь коллекцию итерационных методов, работающих с различными типами матриц и предобусловливателей.

В данной работе представлена библиотека итерационных методов подпространств Крылова с предобусловливанием для решения разреженных СЛАУ с нерегулярной структурой на ГПУ. Представленные в библиотеке методы протестированы на примере численного решения задачи фильтрации методом контрольных объемов. Проведенные тесты показали, что использование ГПУ позволяет значительно ускорить расчеты.

1. Методы подпространств Крылова с предобусловливанием и их реализация на ГПУ

Основное преимущество итерационных методов перед прямыми методами решения разреженных СЛАУ заключается в минимальных требованиях к памяти для хранения матриц, а также в том, что итерационные методы вместо матрично-матричных операций умножения используют матрично-векторные и работают с результирующими векторами. Другое важное преимущество итерационных методов заключа-

ется в том, что эти методы хорошо распараллеливаются [8]. Наиболее эффективной группой итерационных методов, применяемой в настоящее время в линейной алгебре для решения разреженных СЛАУ, являются методы подпространств Крылова с предобусловливанием. К этой группе принадлежат следующие методы: CG - метод сопряженных градиентов, CGS -квадратичный метод сопряженных градиентов, BiCGSTAB - стабилизированный метод бисо-пряженных градиентов, GMRES - обобщенный метод минимальных невязок и др.

Итерационные методы решения разреженных СЛАУ обычно включают следующие основные операции линейной алгебры: умножение матрицы на вектор, линейные комбинации векторов (операции сложения, вычитания, умножения векторов на скаляр), скалярное произведение векторов, вычисление норм векторов и матриц, вычисление предобусловливателей, операции с предобусловливателями. Производительность этих операций может быть значительно повышена применением высокопроизводительных вычислений, и массовый параллелизм, которым обладают ГПУ, предоставляет возможность их использования для решения задач линейной алгебры.

1.1. Реализация операции матрично-векторного произведения на ГПУ

Наиболее критичной, с точки зрения времени выполнения, операцией в итерационных методах решения разреженных СЛАУ является операция умножения разреженной матрицы на вектор. Способ вычисления этой операции на любой архитектуре вычислителя, в том числе на ГПУ, зависит от формата представления разреженной матрицы, который, в свою очередь, связан со спецификой рассматриваемой задачи, с типом используемой сетки (количество ненулевых элементов матрицы определяется связями узлов сетки) и способом аппроксимации. Известно довольно много схем хранения разреженных матриц, которые встречаются в расчетах. Цель каждой из схем заключается в увеличении эффективности как в использовании памяти, так и в уменьшении количества арифметических операций [5, 8].

Для матриц с произвольной нерегулярной структурой ненулевых элементов одним из самых распространенных форматов хранения разреженной матрицы является формат CSR (CSC) - формат сжатой разреженной строки (столбца). Другой формат MSR (MSC) - модифицированный формат разреженной строки (столбца) отличается от CSR (CSC) тем, что главная диаго-

for i=1, n

start = bindx[i] stop = bindx[i+1]-1 dot = A[i]*x[i] for j=start, stop dot += A[j]*x[bindx[j]] end

y[i] = dot end

Рис. 1. Псевдокод умножения матрицы в MSR-формате на вектор на ЦПУ

наль матрицы хранится отдельно от недиагональных членов в каждой строке (столбце). В нашей библиотеке реализованы эти, наиболее общие и часто используемые, форматы представления матриц. Выбор этих форматов для использования мотивирован несколькими факторами: их простотой, общностью представления, широким использованием и довольно легкой параллельной реализацией. В дальнейшем можно распространить этот подход и на другие форматы матриц.

Не останавливаясь на способе реализации операции умножения матрицы в формате CSR (CSC) на вектор на ЦПУ и ГПУ, который подробно изложен в работах [3, 4], рассмотрим реализацию этой операции для матрицы в формате MSR (MSC). Структура данных для хранения матрицы в формате MSR (MSC) представляет собой два массива (размером nnz+1): вещественный массив, содержащий ненулевые значения матрицы, которые хранятся строка за строкой (столбец за столбцом), и один целочисленный массив, первые n позиций которого содержат значения главной диагонали, а последующие позиции содержат индексы столбцов (строк) элементов и указатели на начало каждой строки (столбца) в матрице.

Версия последовательного алгоритма умножения разреженной матрицы A в формате MSR (MSC) на вектор x на ЦПУ представлена на рис. 1. Для реализации матрично-векторного произведения у = Ax параллельно на ГПУ заметим, что каждая компонента результирующего вектора у может быть вычислена независимо, как скалярное произведение i -й строки матрицы на вектор x . Факт, что внешний цикл может быть выполнен параллельно, используется многими параллельными платформами. Для параллельного выполнения операции умножения разреженной матрицы в MSR-формате (MSC-формате) на вектор на ГПУ каждый из двух массивов просто копируется из памяти

index = get_thread_index(); if ( index < n )

start = bindx[index] stop = bindx[index+1]-1 dot = A[index]*x[index] for j=start, stop

dot += A[j]*x[bindx[j]] end

y[index] = dot end

Рис. 2. Псевдокод умножения матрицы в MSR-формате на вектор на ГПУ

ЦПУ в память ГПУ, а далее каждая строка матрицы обрабатывается отдельным потоком. Псевдокод для выполнения умножения матрицы на вектор на ГПУ представлен на рис. 2.

Конечно, представленные форматы матриц обладают тем недостатком, что количество ненулевых элементов и их положение в каждой строке (столбце) может значительно отличаться, что будет сказываться на производительности матрично-векторного произведения, так как потоки для строк (столбцов) с меньшим количеством ненулевых элементов будут выполняться быстрее, по сравнению с потоками для строк (столбцов) с большим их количеством. Однако этот недостаток компенсируется общим временем вычислений, которое уменьшается вследствие выполнения одних и тех же вычислений над разными данными одновременно большим количеством потоков.

for i=1, n

start = bindx[i] stop = bindx[i+1]-1 y[i] = A[i]*x[i] for j=start, stop

y[bindx[j]] += A[j]*x[i] end end

Рис. 3. Псевдокод умножения транспонированной матрицы в MSR-формате на вектор на ЦПУ

Другая операция, которая часто встречается в итерационных методах решения разреженных СЛАУ, - операция умножения транспонированной матрицы на вектор y = ATx . Как видно на рис. 3, в алгоритме последовательной реализации этой операции вместо явного транспонирования матрицы используется косвенная адресация. Сложность параллельной реализации этой операции на ГПУ заключается в том, что разные потоки могут одновременно модифицировать один и тот же элемент вектора у и результаты могут быть непредсказуемыми. Способы реализации этой операции с помощью атомар-

ных функций и разделения массива y на множество массивов ythId без наложения элементов оказались неэффективными. Непосредственное вычисление транспонированной разреженной матрицы также требует значительных затрат времени. Поэтому вопрос с умножением транспонированной матрицы на вектор остается пока открытым, по крайней мере для тех форматов хранения разреженных матриц, которые рассмотрены в этой статье. Это, конечно, ограничивает возможности применения итерационных методов, которые используют такое произведение.

1.2. Предобусловливание

Скорость сходимости итерационных методов зависит от спектральных характеристик матрицы [5, 8]. Для улучшения спектральных свойств исходная матрица умножается на матрицу предобусловливания, которая улучшает спектр, что увеличивает скорость сходимости. Поэтому помимо самого итерационного метода важной частью вычислительной методики является предобусловливание матрицы. Использование предобусловливателя вносит дополнительные вычисления на этапе его построения и применения на каждой итерации. Однако и выигрыш в скорости сходимости может быть значительным. Некоторые предобусловливатели практически не требуют никаких вычислительных затрат на этапе построения, а другие, наоборот (например, неполная факторизация), требуют значительных затрат на вычисления и трудно распараллеливаются.

Сейчас в библиотеке реализован к -шаговый диагональный предобусловливатель Якоби (где к >0 - показатель степени), а также предобусловливание полиномами Неймана и полиномами наименьших квадратов [8].

1.3. Реализация операций с векторами на ГПУ

Для операций модификации векторов, вычисления скалярных произведений векторов CUDA предоставляет реализацию процедур библиотеки BLAS (Basic Linear Algebra Subprograms) для векторов и плотных матриц, которая подробно описана в руководстве по программированию [1]. Поэтому для операций с векторами мы воспользовались CUDA BLAS.

1.4. Схема реализации методов на ГПУ

В реализации на ГПУ итерационных методов Крылова с предобусловливанием мы ограничились рассмотрением только тех методов,

которые допускают использование самой матрицы без операции транспонирования, в силу указанных выше сложностей вычислений с транспонированной матрицей. Поэтому в составе библиотеки были реализованы следующие итерационные методы: IR - метод Ричардсона, CHEBY - метод Чебышева, CG - метод сопряженных градиентов, CGS - квадратичный метод сопряженных градиентов, BiCGSTAB - стабилизированный метод бисопряженных градиентов, GMRES - обобщенный метод минимальных невязок, TFQMR - метод квазиминималь-ных невязок без транспонирования. Все эти методы спроектированы с использованием предобусловливания как полиномами Неймана и полиномами наименьших квадратов, так и к-шагового диагонального предобусловливателя Якоби. Все методы записаны в виде функций в формате шаблона, так что они могут использоваться с любой матрицей и вектором, обеспечивая необходимый уровень функциональности. Детали реализации структуры данных отделены от математического алгоритма с помощью объектно-ориентированного программирования на языке C++. Основные этапы реализации методов на ГПУ следующие: 1) загрузить векторы и матрицу (в одном из форматов) с ЦПУ на ГПУ; 2) произвести операции умножения, сложения, вычитания с векторами, матрицами и предобу-словливателями; 3) загрузить результат с ГПУ на ЦПУ.

2. Численные результаты

В данном разделе представлены результаты тестирования описанной выше библиотеки итерационных методов подпространств Крылова с предобусловливанием на примере численного решения задачи фильтрации жидкости к скважинам в двумерной области произвольной формы. Тестирование проводилось на трех видеокартах семейства NVIDIA GeForce: 9600M GT (32 ядра с частотой 500 МГц, 4 потоковых мультипроцессора, 512 МБ DRAM DDR3), 9600 GT (64 ядра с частотой 650 МГц, 8 потоковых мультипроцессоров, 512 МБ DRAM DDR3 с полосой пропускания

57.4 ГБ/с), GTS 250 (128 ядер с частотой 745 МГц, 16 потоковых мультипроцессоров, 1 ГБ DRAM DDR3 с полосой пропускания

70.4 ГБ/с), а также на вычислительном модуле NVIDIA Tesla C1060 (240 ядер с частотой 1296 МГц, 4 ГБ DRAM DDR3 с полосой пропускания 102 ГБ/с). Время решения на ГПУ сравнивалось с временем решения задачи на ЦПУ настольного компьютера (Intel Core 2 Duo

E6600 2.4 ГГц, 2 ГБ DRAM, 4 ГБ L2, Windows Vista Business 64 bit). Все вычисления на видеокартах проводились с одинарной точностью, поскольку только вычислительный модуль Tesla поддерживает вычисления с двойной точностью.

2.1. Постановка задачи

Рассматривается однофазная установившаяся фильтрация несжимаемой жидкости к скважинам в двумерной области произвольной формы (рис. 4). Уравнение фильтрации жидкости в пористой среде имеет вид:

v[ k Vp j = q(8 Mw )), (x, y)eQ, (1)

с граничными условиями

p(xy) = Pr, (Xy)erD , (2)

op = 4r, (x,y)eriV, (3)

on

p(x y) -

где

давление в жидкости,

k =

' kxx

, kyx

kxy ^

kyy J

баланса потоков через грани контрольного объема сеточного блока и имеет вид:

I

j=i

nsc nsc,n \

I lTklPl

k=1 11=1 ) _

= 0,

(4)

вязкость, Мк - точка, в которой расположен центр скважины, О - область с границей Г = дО = ГП и Гм .

На скважине может задаваться как условие забойного давления, так и дебита. Когда на скважине задано условие забойного давления, дебит скважины является неизвестным, и наоборот, когда на скважине задан дебит, неизвестным является забойное давление. Для определения этих значений используется модель точечного источника-стока, которая широко применяется в задачах такого типа [9].

2.2. Аппроксимация задачи методом контрольных объемов

Для решения поставленной задачи методом контрольных объемов область сначала покрывается нерегулярной сеткой треугольников Делоне. Затем строятся контрольные объемы, в качестве вершин которых выбираются центры тяжести треугольников, лежащие на пересечении медиан. Полученный таким образом контрольный объем представляет собой, в общем случае, невыпуклый (звездчатый) полигон (рис. 5). Для выполнения условия непрерывности скорости и потенциалов давления на границах контрольного объема должны выполняться условия равенства скоростей и потенциалов в серединах ребер треугольников (рис. 6). Уравнение метода контрольных объемов получается из условия

где Ты - среднегармоническое значение проводимости в узлах сетки, Р{ - значение потенциала давления в узлах сетки.

Так как размеры сеточного блока значительно больше диаметра скважины, то давление в сеточном блоке (в котором закончена скважина) не может полагаться равным забойному давлению р^. На самом деле, это давление равно давлению на расстоянии г0 от сеточного узла для радиального потока [9], т.е.

q = 2%

kh Pwf - Ро

(5)

ln

где

k = y[kXXkyy

Н - толщина пласта.

Уравнение (5), которое дает соотношение между давлением сеточного блока р0, забойным давлением р^ и дебитом д,

называется моделью скважины. Для расчета забойного давления и фиктивного радиуса скважины г0 с помощью уравнения (5)

используются следующие допущения: ось

скважины параллельна одной из координатных осей; скважина полностью вскрывает пласт. Тогда, рассматривая баланс жидкости в окрестности скважины, можно получить следующее выражение для фиктивного радиуса скважины [9]:

ITu ln ru - 2%kh

ln Го = ^-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(6)

0

u

Рис. 5. Построение конечно-элементной сетки контрольных объёмов

р*

/■ \

Рис. 6. Положение вершин контрольного объёма на рёбрах треугольника

Рис. 7. Граница расчетной области и положение скважин

Модель скважины, заданная уравнением (6), действительна только при соблюдении перечисленных выше допущений. Результирующая матрица системы уравнений (4) имеет разреженную структуру, в которой количество ненулевых позиций в каждой строке определяется количеством связей данного узла с другими узлами сетки.

2.3. Результаты расчетов

В примере рассматривалась двумерная область фильтрации, представленная на рис.7, с количеством скважин 64. Размеры области по простиранию 3500^3500 м2. Значения компонент тензора коэффициентов фильтрации принимались постоянными во всей области фильтрации и равными кхх = 0.125 мкм , кху = 0.023 мкм ,

кух = 0.105 мкм2, куу = 0.325 мкм2. На скважинах задавались объемные дебиты, значения которых варьировались в пределах от 7.6 до

67.5 м3/сут. Триангуляция области пред-

Рис. 8. Триангуляция области

ставлена на рис. 8. Расчеты проводились на сетках с различным количеством узлов, представленным в таблице.

На рис. 9-16 приведены результаты параллельного решения систем уравнений итерационными методами подпространств Крылова с диагональным предобусловливанием на ГПУ и ЦПУ. На всех диаграммах ось ординат -количество точек сетки. На рис. 9-12 представлено время (в секундах), за которое невязка

решения сходится к заданной точности 10 6 или, в случае отсутствия сходимости, выполняется максимальное количество итераций, равное 2500. На рис. 13-16 представлено ускорение вычислений на ГПУ по сравнению с ЦПУ. Ускорение подсчитывалось делением времени решения задачи на ЦПУ на время решения на ГПУ.

Из представленных результатов видно, что с увеличением количества неизвестных эффективность расчетов на ГПУ повышается. Ускорение расчетов на стандартных видео-

Таблица

Данные для сеток с различным количеством узлов

Количество Количество

узлов сетки ребер треугольников ненулевых элементов

178060 532562 354503 1243370

356341 1066784 710444 2490095

888616 2662294 1773679 6213390

1776694 5324793 3548162 12426404

Рис. 9. Метод CG

Рис. 10. Метод Ш.

Рис. 11. Метод CHEBY

Рис. 12. Метод ОМЯЕБ

5 10 15 20

ускорение

Рис. 13. Ускорение расчетов по методу СО

5 10 15

ускорение

Рис. 14. Ускорение расчетов по методу ГЯ

5 10 15 20

ускорение

Рис. 15. Ускорение расчетов по методу СЫЕБУ

0 2 4 6 8 10 12 14

ускорение

Рис. 16. Ускорение расчетов по методу GMRES

картах NVIDIA GeForce варьируется в пределах 3-12 раз в зависимости от метода, количества точек и типа видеокарты. На вычислительном модуле NVIDIA Tesla C1060 ускорение достигает 19 раз по сравнению с расчетами на ЦПУ.

Таким образом, мы продемонстрировали некоторые эффективные применения итерационных методов подпространств Крылова с предобусловливанием на графических процессорах NVIDIA с помощью CUDA.

Заключение

В работе представлена библиотека итерационных методов подпространств Крылова с предобусловливанием для решения на современных графических процессорах NVIDIA разреженных СЛАУ общего вида с нерегулярной структурой, как симметричных, так и несимметричных. Библиотека итерационных методов предназначена для пользователей, которые хотят избежать трудностей и деталей параллельного программирования на графических процессорах, но которым приходится иметь дело с большими разреженными СЛАУ и необходимо использовать эффективность параллельной архитектуры графических процессоров. Использование графических процессоров, а также построенных на их основе решений для высокопроизводительных вычислений позволяет значительно повысить производительность расчетов при низкой себестоимости и низком энергопотреблении.

Работа выполнена в рамках Программы № 14 Президиума РАН «Интеллектуальные информационные технологии, математическое моделирование, системный анализ и автоматизация».

Список литературы

1. NVIDIA Corporation. NVIDIA CUDA Programming Guide, June 2008. Version 2.0.

2. Volkov V. and Demmel J. W. Benchmarking GPUs to tune dense linear algebra // Proc. 2008 ACM/IEEE Conference on Supercomputing, November 2008.

3. Bell N., Garland M. Efficient Sparse Matrix Vector Multiplication on Cuda, NVIDIA Technical Report NVR-2008-004, December 11, 2008.

4. Baskaran M., Bordawekar R. Optimising sparse matrix-vector multiplication on GPUs. IBM Tech. Rep. 2009.

5. Barret R. et al. Temlates for the solution of linear

systems: building blocks for iterative methods.

Philadelphia: SIAM, 1994.

6. Buatois L., Cauman G., Levy B. Concurrent Number Cruncher: An Efficient Sparse Linear Solver on GPU // High Performance Computation Conference (HPCC), Springer Lecture Notes in Computer Sciences, 2008.

7. Чадов С.Н. Реализация алгоритма решения несимметричных систем линейных уравнений на графических процессорах // Вычислительные методы и программирование. 2009. Т.10. С. 321-326.

8. Saad Y. Iterative methods for sparse linear systems. NY: PWS Publish, 1996.

9. Verma S., Aziz Kh. A control volume scheme for flexible grids in reservoir simulation // Paper SPE 37999 presented at Reservoir Simulation Symposium, Dallas, Texas, 8-11 June, 1997. P. 215-227.

USING GRAPHICS PROCESSORS TO SOLVE SPARSE SLAE BY PRECONDITIONED KRYLOV SUBSPACE ITERATIVE METHODS AS SHOWN BY THE EXAMPLE OF SUBSURFACE FLOW THEORY PROBLEMS

D.A. Gubaidullin, A.I. Nikiforov, R. V. Sadovnikov

The library implementation of preconditioned Krylov subspace iterative methods on modem NVIDIA GPUs to solve large sparse systems of linear algebraic equations (SLAE) is presented. The library is intended for users who want to avoid the difficulties and details of parallel programming on GPUs, but who have to deal with large sparse SLAE and who need to use the performance of GPU parallel architecture.

Keywords: parallel computing, Krylov subspace iterative methods, graphics processors, control volume method, systems of linear algebraic equations.

i Надоели баннеры? Вы всегда можете отключить рекламу.