Екатерина Александровна Гринина —
Олег Анатольевич Золотарев —
Илья Андреевич Пименов —
Александр Валерьевич Бухановский —
Сведения об авторах
канд. физ.-мат. наук; ООО „Технологии процессинга", Санкт-Петербург, руководитель научного отдела; E-mail: [email protected] ООО „Технологии процессинга", Санкт-Петербург, генеральный директор; E-mail: [email protected]
студент; Санкт-Петербургский государственный университет информационных технологий, механики и оптики, кафедра компьютерных технологий; E-mail: [email protected]
д-р техн. наук, профессор; НИИ Наукоемких компьютерных технологий Санкт-Петербургского государственного университета информационных технологий, механики и оптики; директор; E-mail: [email protected]
Рекомендована институтом
Поступила в редакцию 10.03.09 г.
УДК 519.85
А. В. Гергель
АДАПТИВНЫЕ ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ ДЛЯ МНОГОМЕРНОЙ МНОГОЭКСТРЕМАЛЬНОЙ ОПТИМИЗАЦИИ
Рассматриваются методы решения многомерных многоэкстремальных задач, использующие многошаговую схему редукции размерности. Предложена новая схема параллельного глобального поиска на основе адаптивной многошаговой схемы редукции размерности.
Ключевые слова: многомерная многоэкстремальная оптимизация, алгоритмы параллельного глобального поиска, адаптивная многошаговая схема редукции размерности.
Задачи многомерной многоэкстремальной оптимизации обладают вычислительной сложностью, что определяется, прежде всего, экспоненциальным ростом объема вычислений при увеличении размерности (числа варьируемых параметров). Кроме того, во многих случаях расчет значений функционалов оптимизационной задачи (целевой функции и ограничений) требует существенного объема вычислений, поскольку зачастую связан с проведением вычислительного эксперимента с той или иной математической моделью исследуемого объекта, системы или явления. Именно на такие вычислительно-трудоемкие задачи ориентирована разработка параллельных методов многомерной многоэкстремальной оптимизации в настоящей работе.
Задачи многомерной многоэкстремальной оптимизации и многошаговая схема редукции размерности. Задача многомерной многоэкстремальной оптимизации может быть
представлена как проблема поиска наименьшего значения действительной функции ф(у)
*
ф(у ) = тт{ф(у): уеБ}, (1)
где Б есть область поиска, представляющая собой некоторый гиперпараллелепипед М-мерного евклидова пространства.
Многие методы решения многомерных многоэкстремальных оптимизационных задач используют многошаговую схему редукции размерности, согласно которой решение задачи (1) может быть получено посредством решения последовательности „вложенных" одномерных задач (см., например, [1—3]):
т1п Ф(У) = тп ... тп ф(у^.^ ум). (2)
уеБ У^ИА] Ум Чам АN ]
Адаптивные параллельные вычисления для многомерной многоэкстремальной оптимизации 77
Согласно выражению (2), решение многомерной многоэкстремальной задачи оптимизации сводится к решению одномерной задачи:
*
Ф = т1п Ф (У) = тт Ф1(У1), (3)
уеБ У^ИЛ]
где
ф (Уг ) = Фг Уг)= ™п Фг+1(У1,--, Уг, Уг+1), ^ г < К , (4)
Уг+1е[аг+1 ,Ьг+1 \
Фк УК ) = Ф (У1,-> УК )- (5)
Правила (3)—(5) определяют множество задач
¥/ ={Фг (у ),1< г < /}, (6)
порождаемых в соответствии с многошаговой схемой редукции. Количество задач в множестве ¥/ в процессе поиска может изменяться: увеличиваться при переходе к следующей переменной и уменьшаться по завершении решения какой-либо из задач (можно отметить, что при этом количество задач не превышает размерности решаемой задачи К). При этом активной — решаемой — в множестве ¥/ является только одна задача — с максимальным номером варьируемой переменной.
Многошаговой схеме редукции размерности присущи определенные недостатки — так, например, вычисления являются избыточными, поскольку решение исходной задачи оптимизации сводится к минимизации одномерных функций в раздельных подобластях области поиска.
Для повышения эффективности глобального поиска может быть предложена обобщенная (адаптивная) многошаговая схема редукции размерности, в которой осуществляется одновременное решение всех задач множества ¥/ из (6). В этом случае при решении каждой задачи множества ¥/ могут быть использованы результаты решения всех других задач семейства и, кроме того, решение задач может осуществляться параллельно с использованием многопроцессорных многоядерных вычислительных систем [4]. Применение высокопроизводительных компьютеров позволит существенно повысить сложность решаемых задач глобальной оптимизации.
Выполнение итерации глобального поиска для любой задачи множества ¥/ с номером переменной, меньшим, чем N (К есть размерность решаемой задачи), будет порождать новую одномерную задачу вида (4), и, тем самым, количество задач в семействе ¥/ может оказаться значительным (десятки и сотни тысяч).
Вычислительная схема параллельного глобального поиска для адаптивной многошаговой схемы редукции размерности. Введем множество номеров задач семейства ¥/ из множества (6):
Ь = {1, 2, ... , /}
и пусть для проведения вычислений имеется р>1 процессоров. Распределим имеющиеся задачи между процессорами — данное распределение можно зафиксировать при помощи соответствующего разделения множества Ь на подмножества:
П = {П1, П2, ... , Пр}, (7)
П = {¡ц :еЬ, 1<^< /г}, 1 < г <р,
V геЬ 3] : гек^, V у ^ пгпп/ ={0}, где Пг (1 < г < р) есть множество задач, распределенных для решения на процессоре г.
Построенная схема является децентрализованной — все процессоры работают параллельно и самостоятельно генерируют точки проведения испытаний. С другой стороны, между процессорами существует информационное взаимодействие — при получении в какой-то задаче новой улучшенной оценки минимального значения оптимизируемой функции эта оценка должна передаваться задаче-родителю. Поскольку решаемые задачи теперь распределены
между процессорами, то передача получаемых оценок может приводить к сложным информационным зависимостям между процессорами. Для минимизации числа таких зависимостей распределение решаемых оптимизационных задач между процессорами должно быть согласовано со структурой задач.
Для решения проблемы распределения задач между процессорами может быть предложена простая и эффективная децентрализованная схема вычислений, в которой в достаточной степени учитывается иерархическая структура зависимости решаемых задач оптимизации.
Пусть номера терминальных задач (задач, в которых номер варьируемой переменной равен п) образуют множество
Г = {/- : /- еГ, 1 <- < Г).
Распределим терминальные задачи между процессорами и представим применяемое распределение по аналогии с (7) при помощи множества:
П" = {по, пь к2, ... , яр), (8)
По= Г \ Г", П = : , е Г", 1 < я < I), 1 < i < р, V iеL 3- : /ел, V у ^ л п л- ={0).
В (8) каждое подмножество л определяет список терминальных задач, распределенных для решения на процессоре '. Подмножество по содержит номера всех структурных задач (задач с уровнем, меньшим "). Вопрос распределения задач подмножества по по процессорам необходимо разрешить дополнительно; в наиболее простом случае для задач данного подмножества можно выделить дополнительный процессор. Новая схема (8) отличается систематическим характером информационных взаимодействий между процессорами. Процессоры с терминальными задачи пересылают получаемые оценки минимальных значений исходной оптимизируемой задачи только управляющему процессору. Управляющий процессор занимается обработкой только структурных задач без выполнения трудоемких вычислений значений функционалов исходной решаемой задачи. При этом управляющий процессор может порождать терминальные задачи и в этом случае задачи должны переправляться для выполнения на те или иные процессоры с терминальными задачами.
Работа выполнена при поддержке РФФИ (грант № 07-01-00467-а) и Совета по грантам Президента Российской Федерации по государственной поддержке ведущих научных школ Российской Федерации (грант № НШ-4694.2008.9).
список литературы
1. Стронгин Р. Г. Численные методы в многоэкстремальных задачах. М.: Наука, 1978.
2. Strongin R. G., Sergeyev Ya. D. Global Optimization with non-convex constraints: Sequential and parallel algorithms. Dordrecht: Kluwer Academic Publishers, 2000.
3. Городецкий С. Ю., Гришагин В. А. Нелинейное программирование и многоэкстремальная оптимизация. Н. Новгород: Изд-во ННГУ, 2007.
4. Гергель В. П. Теория и практика параллельных вычислений. М.: Интернет-Университет Информационных Технологий; БИНОМ. Лаборатория знаний, 2007.
Сведения об авторе
Александр Викторович Гергель — Нижегородский государственный университет им Н. И. Лобачевского,
кафедра математического обеспечения ЭВМ; программист 1 категории; E-mail: [email protected]
Рекомендована институтом Поступила в редакцию
10.03.09 г.