Серия «Математика»
Том 2 (2009), №1, С. 269-282
Онлайн-доступ к журналу: http://isu.ru/izvestia
УДК 517.977
Многометодные алгоритмы для решения задач оптимального управления *
А. И. Тятюшкин
Институт динамики систем и теории управления (ИДСТУ) СО РАН
Аннотация. В статье предложены алгоритмы реализации многометодного подхода к решению задач оптимального программного управления с организацией параллельных вычислений. Изложенные алгоритмы являются важной составляющей аппарата для выполнения «элементарных операций» в рамках алгоритмов по аппроксимации множеств достижимости (разрешимости) и численной оптимизации позиционных управлений.
Ключевые слова: оптимальное управление, численные методы оптимизации, параллельные и многометодные алгоритмы.
Требования к эффективности расчета оптимального программного управления в настоящее время существенно возросли в связи с разработкой систем управления реального времен, использующих управление в форме обратной связи и, следовательно, требующих решения задачи приближенного синтеза. Для нелинейных управляемых систем основным методом решения этой задачи является метод динамического программирования [1] , применение которого к системам небольшой размерности в связи с возросшими возможностями вычислительной техники, становится вполне реальным [2-6]. Эффективность расчета управления с обратной связью во многом определяется скоростью вычисления условно оптимальных программных управлений, осуществляющих перевод системы из узлов одной решетки в фазовом пространстве в узлы соседней решетки. Кроме того, применение метода динамического программирования требует предварительного получения оценок или
* Работа выполнена при частичной финансовой поддержке программы Президента РФ «Государственная поддержка ведущих научных школ» (НШ-1676.2008.1).
Введение
аппроксимаций множеств достижимости - ограничений на фазовые координаты в заданные моменты времени, для чего также решается серия задач программного управления при различных краевых условиях [7] [4, 5].
Таким образом, чтобы обеспечить эффективный расчет управления с обратной связью, необходимо иметь достаточно надежное программное обеспечение для расчета оптимального программного управления [8]. Из практики известно, что одним из способов повышения надежности итерационных методов оптимизации является применение многоме-тодной технологии [9 - 11], когда в итерационный процесс улучшения управления включается несколько методов и, процесс оптимизации продолжается до тех пор, пока будет иметься возможность хотя бы одним из них увеличить значение максимизируемого функционала. Группа методов, одновременно участвующая в параллельном процессе [12] оптимизации, будет определять уровень надежности и эффективность расчета оптимального управления. Следовательно, в эту группу необходимо включить методы разного типа, каждый из которых достаточно эффективно будет преодолевать некоторые выявленные особенности решаемой задачи. Например, наряду с методами, основанными на принципе максимума [13], которые эффективно работают в задачах с ограничениями на управление, необходимо включить и методы градиентного типа, позволяющие получить более точную аппроксимацию управления, принимающего внутренние относительно допустимого множества значения.
В данной статье рассматриваются группы методов для численного решения наиболее часто встречающихся на практике классов задач оптимального управления. Показано применение этих методов к поиску оптимального управления в некоторых тестовых задачах, например, [14]. Предлагаемая многометодная технология легла в основу программного обеспечения, которое применяется для численного исследования модельной задачи динамики ракет класса «воздух-воздух» [15] и получения управления в форме обратной связи для обеспечения эффективного маневра преследуемой цели при защите от атакующей ракеты [6] в рамках этой модели.
1. Параллельные вычисления в методах первого порядка
В методах градиентного типа трудоемкую операцию расчета градиента, требующую интегрирования сопряженной системы, следует выполнить только один раз, а затем использовать найденный градиент в итерационных формулах всех методов. Вычислительные затраты на выполнение одного шага многометодного алгоритма в этом случае значительно сократятся. Кроме того, реализация шага каждым из методов будет
выполнена с использованием одних и тех же приближенно найденных величин.
Приведем общую постановку задачи оптимального управления. Пусть управляемый процесс описывается системой
х = /(х,и,Ь), х(Ь0) = х0, Ь € Т = [^о,^1], х(Ь) € Кп, и(Ь) € Кг (1.1)
с терминальными условиями
I] (и) = (х,Ь) = 0, 3 = 1,т, (1.2)
и фазовыми ограничениями
<1^и,Ь) = дг(х,Ь)=0, г = 1,8, Ь € Т. (1.3)
Управление стеснено следующими ограничениями:
и(Ь) € и, (1.4)
где и - ограниченное замкнутое множество из ЯТ. Вектор-функция
/(х, и, Ь) непрерывно дифференцируема по х и и и непрерывна по Ь;
V(х), 3 = 1,ш, — непрерывно дифференцируемые функции.
Пусть на правых концах траекторий системы (1) определена непрерывно дифференцируемая выпуклая скалярная функция
1о(и) = (р0(х(Ь{)), (1.5)
которую требуется минимизировать.
Градиенты функционалов I](и), з = 0, т, с помощью Н3(ф],х, и, Ь) = Ф] (Ь)/(х,и,Ь) и сопряженной системы
ф3 = -/х(х,и,Ь)'ф3 (t), фз (Ь1) = -фХ (х(Ь1)) (1.6)
вычисляются по формулам
VI] (и) = —Ни (фр ,х,и,Ь), з = 1,т. (1.7)
Для каждого Ь € Т можно аналогично вычислить градиенты ,1] (и, Ь), 3 =18: _
VJj(и,Ь) = —Н3и(Фз,х,и,Ь,т), Ь0 < т < Ь < Ь1, (1.8)
где Н3и(Ф],х,и,Ь,т) = Ф](Ь,т)/(х,и,т), Ф](Ь,т), з = 1,8, - решения
сопряженных систем
д Ф] (Ь,т) д/(х,и,т) ^ дд] (х(Ь)) —
= — -Нт1ф]&т)’ т € Т ф]М = — -Цхт11, 3 = 1-8-
1.1. Решение задач при отсутствии ограничений на управление
Решение задачи с терминальными условиями (1.2) при отсутствии других ограничений можно найти методом линеаризации [9, 11]. Применение многометодной технологии упрощает итерацию этого метода:
1) при заданном ик(Ь), Ь € Т, интегрируется система (1.1) и в узлах интегрирования запоминаются фазовые координаты траектории хк (Ь);
2) организуется т + 1 потоков для параллельного интегрирования сопряженной системы при разных начальных условиях ф^ (Ь\) =
—ф3х(х(£ 1)), 3 = 0, т. В процессе интегрирования решения ф^(Ь) используются для построения алгебраической системы
£ П(ЩУКси\ хг = 13 (ик) — I(ЩЖ<и, з = 1т-,
1=1 Чо / *о
3) решив полученную систему, найдем значения Аг, г = 1,т;
4) построим новое приближение для управления: ик+ = ик + ак6и,
т
5и = И0 +5^ Аг И^, где параметр ак удовлетворяет неравенству
г=1
*1
10(ик + ак5и) + в!]0(ик + ак5и) < 10(ик) + @13о(ик) — ^ ёи'ёийЬ,
*0
0 < е < 1, з'о = ащ тах \13(ик)|, в = V |Аг|.
1<?'<т
г=1
Отметим, что метод требует настройки параметров для улучшения сходимости.
1.2. Решение задач с ограничениями на управление
Перейдем теперь к рассмотрению алгоритмов для решения задач с ограничениями на управление (1.4), но без ограничений (1.2) - (1.3). Предположим, что при некотором ик(Ь) € и, Ь € Т, найдено решение системы
(1.1) хк(Ь), Ь € Т. Полагая 3 = 0, проинтегрируем сопряженную систему от Ь = Ь1 до Ь = Ь0 при и = ик (Ь), х = хк (Ь). На ее решении фк = фк (Ь) вычислим управление из принципа максимума:
ик (Ь) = а^ тах И (фк ,хк ,и,Ь), Ь € Т,
и найдем значения скалярной функции т(й(Ь),Ь) = И(фк,хк,и,Ь) — И(фк,хк,ик,Ь), Ь € Т. Если для заданного ик и найденных хк, фк, ик
принцип максимума нарушается: Шк(ик(тк),Тк) > 0, то можно реализо-
вать одну итерацию метода [13] для улучшения ик.
Множество точек, в которых нарушается принцип максимума, обо-
Тк - точка максимума этой функции на Те. Варьируя е, можно найти его оптимальное значение ек, при котором управление
доставит наименьшее значение целевому функционалу. При поиске ек можно использовать несколько потоков для одновременного интегрирования системы (1.1) с управлениями (1.9), соответствующими разным значениям ек.
В силу структуры управлений, генерируемых итерационной формулой (1.9), релаксационность алгоритма может ухудшиться еще до получения управления, удовлетворяющего принципу максимума. Тогда для продолжения процесса оптимизации необходимо применить другой алгоритм, на итерациях которого конструируются управления не только с граничными, но и с внутренними относительно множества допустимых управлений значениями. Так, например, восстановить сходимость обычно удается с помощью построения выпуклой комбинации двух управлений:
Вычисления по формулам (1.9), (1.10) можно вести параллельно,
ствует меньшее значение функционала. Если значения функционала будут сравниваться через несколько итераций, то в качестве критерия для сравнения эффективности методов (1.9) и (1.10) следует использовать значения приращений функционала, полученные на соседних итерациях каждого из методов. На практике установлено, что применение вариаций двух типов: «горизонтальной» (1.9) и «вертикальной»
(1.10) позволяет избежать проявления эффекта «прилипания управления к границам», свойственного алгоритмам, основанным на принципе максимума.
Если в итерационной формуле (1.10) управление ик(Ь) будет вычисляться из линеаризованного принципа максимума:
то получим итерации метода условного градиента. Очевидно, для систем, линейных по управлению, это управление будет совпадать с управлением, найденным из принципа максимума.
значим через Т£ = |і Є Т : шк(пк(і), і) > єшк(пк(тк),тк)}, є Є [0,1], где
(1.9)
ик+1 = ик(і)+ а(ик(і) - ик(і)), а Є [0,1]. (1.10)
выбирая из полученных приближений такое ик+, которому соответ-
ик(і) = а^ тах Ии(-фк,хк,и,і)'и(і), і Є Т,
пей
Наиболее трудоемкой операцией, выполняемой на каждом шаге всех алгоритмов первого порядка, является численное интегрирование исходной и сопряженной систем дифференциальных уравнений при некотором заданном управлении. Решение сопряженной системы на итерациях этих методов используется либо для вычисления значений гамильтониана, либо для расчета градиентов функционалов, поэтому численное интегрирование этой системы производится на каждом шаге любого из методов первого порядка. Поскольку многометодная технология предполагает параллельное выполнение шагов всеми методами, то полученное одним интегрированием решение сопряженной системы будет использовано во всех итерационных формулах методов одновременно.
1.3. Метод линеаризации для задач с фазовыми ограничениями
Идея излагаемого ниже алгоритма [9, 11] состоит в том, что на каждой его итерации решается вспомогательная задача минимизации модифицированной функции Лагранжа при линеаризованных ограничениях
(1.2), (1.3). Якобиан линеаризованных ограничений строится из градиентов (1.7), (1.8), для расчета которых можно так же использовать параллельные вычисления. Значения двойственных переменных, полученные в результате решения вспомогательной задачи на каждой итерации, являются новым приближением для этих переменных на следующей итерации.
Пусть Пк (Ь) - текущее приближение управления, а Хк(Ь) - фазовая траектория, соответствующая ик(Ь), Ь € Т. Используя градиенты (1.7), (1.8), линеаризуем условия (1.2), (1.3) в окрестности ик(Ь):
*1
1гь(ик,и) = 1г(ик) + J (ик,Ь)'(и(Ь) — ик(Ь))М = 0, г = 1,ш, (1.11)
*0
3^(ик ,и,т) = (ик ,т)+ (1.12)
Т
+ 1 (ик,Ь)'(и(Ь) — ик(Ь))М = 0, з = 1,8, т € Т.
*0
Построим модифицированную функцию Лагранжа для задачи (1.1)-
(1.5) в следующем виде:
Ь(и, ик, \к, рк) = 1о(и) — (\к )'(1 (и) — 1ь(ик ,и)) —
*1
— / цк (Ь)'(,1 (и, Ь) — <1 ь(ик ,и, Ь))М+
+2(1 (и) — I ь(ик ,и))'(1 (и) — I ь(ик ,и))+ (1Л3)
+р /(^(и, Ь) — Зъ(и, и, Ь)У^(и, Ь) — ,1Ь(ик, и, Ь))М,
2 *0
где 1, 1Ь — т - векторы, .], .1Ь - в-векторы, \к, ^к - т- и в -мерные
множители Лагранжа; р > 0 - коэффициент штрафа.
На (к + 1)-й итерации рассматриваемого метода решается задача минимизации функционала (1.13) на решениях системы (1.1) при линейных ограничениях (1.11), (1.12), (1.4). При этом для численного решения формируется задача математического программирования с линейными ограничениями специальной структуры. Решение этой задачи удобнее всего ищется методом приведенного градиента, так как он использует технологию симплекс-метода для учета большого числа линейных ограничений [9, 11]. Кроме базисных переменных, этот метод выделяет супербазисные переменные, которые не достигают граничных значений в силу нелинейности целевой функции, но не являются базисными. Метод достаточно эффективен, так как применяет современные способы обработки и хранения обратной базисной матрицы и получает решение за конечное число шагов. Наибольших вычислительных затрат требует расчет якобиана линейной системы, поэтому здесь целесообразно применить параллельные вычисления для сокращения расчетов.
2. Многометодные алгоритмы для решения краевой задачи оптимального управления
Рассмотрим применение многометодной технологии к поиску решения наиболее важной в технических приложениях задаче перевода нелинейного объекта из одного состояния в другое по некоторому заданному критерию качества:
*1
I(и) = ! Е(х,и,Ь)в;Ь ^ шш, (2.1)
*0
Х = /(х,и,Ь), х(Ь) € Еп, и(Ь) € ЕТ, Ь € [^0,^1], (2.2)
х(Ь0) = х0, х(Ь1) = х1. (2.3)
2.1. Построение начального приближения для метода линеаризации
Из принципа максимума найдем выражение для управления и(Ь) через ф(Ь), х(Ь), Ь и подставим это выражение в систему (2.2) и в сопряженную систему ф = —Нх(ф, х, и, Ь), где функция И(ф, х, и, Ь) следующего вида: И(ф,х,и,Ь) = ф(Ь)'/(х,и,Ь) — Е(х,и,Ь); в результате получим краевую задачу:
х = X (х,ф,Ь), ф = Ф(х,ф,Ь), х(Ь0) = х0, х(Ь1 )= х1. (2.4)
Для решения краевой задачи (2.4) методом квазилинеаризации, обеспечивающим высокую точность выполнения краевых условий, необходимо иметь достаточно близкое к оптимальному начальное приближение для ф(Ь0).
Построим градиентную процедуру для улучшения заданного приближения, которая не требует хорошего начального приближения.
Введем функционал Ь(у) = ^\\х(Ь1,у) — х1^2, который является мерой уклонения решения системы (2.4) с начальными условиями х(^) = х0, ф(Ь0) = V от заданного состояния х1 и поставим задачу поиска V* = ащ шш ^(и). Поскольку теперь будет решаться задача со свободным правым концом, то решение сопряженной системы должно удовлетворять условию трансверсальности:
ф(Ь1) = х1 — х(Ь, V).
Построим функционал невязок
I (V) = 11^) + 2\\ф(Ь1) + х(ь^) — х1\2 (2.5)
и будем рассматривать задачу минимизации функционала (2.5) на решениях системы (2.4) с начальными условиями х(Ь0) = х0, ф(Ь0) = V.
Построим сопряженную к (2.4) систему, введя п-мерные вектор-функции {(ь) С(Ь):
{(Ь) = —Х'х(х ф, Ь){ — K(x, ф, t)(, С = —Х'Ф(х ф, Ь){ — %(х ф, i)(, {(Ь) = 2(х1 — х(Ь1,и)) — ф(ь), ((ь) = х1 — х(ь,и) — ф(ь).
(2.6)
Тогда градиент функционала (2.5) выражается через решение сопряженной системы (3.6):
VI (V) = —С (Ь0). (2.7)
Следовательно, для улучшения вектора ик начальных условий для функции ф в системе (2.4) можно применить градиентную процедуру, не требующую точного начального приближения для сходимости к локальному минимуму функционала (2.5):
1) при х(Ь0) = х0, ф(Ь0) = vk интегрируется система (2.4) и в узлах интегрирования запоминается ее решение хк(Ь), фк(Ь), Ь € [^0,Ь1];
2) в обратном времени интегрируется система линейных дифференциальных уравнений (2.6), матрица коэффициентов которой вычисляется на решениях хк(Ь), фк(Ь), Ь € [^0,Ь1]; при Ь = Ь0 будем иметь градиент (2.7);
3) процедурой одномерного поиска выбирается параметр ак = = а^шшI(Vк + а((Ь)), где при выборе ак система (2.4) несколько раз
интегрируется с разными начальными условиями: х(Ь0) = х0, ф(Ь0) = vk + а((Ь0), а > 0;
4) строится новое приближение vk+1 = vk + акС(^);
5) если I(Vк) — I^к+1) > е, то повторяются пункты 1) - 4), в противном случае итерации градиентного метода прекращаются и найденный вектор vk берется в качестве начальных условий для сопряженной системы в (2.4).
Градиентная процедура, как правило, не обеспечивает требуемую точность нахождения оптимального решения, поэтому для уточнения найденного приближенного значения вектора vk необходимо использовать более точный метод, например, метод квазилинеаризации. Однако, сходимость этого метода обеспечивается хорошим начальным приближением, которое найдено градиентным методом.
2.2. Уточнение решения краевой задачи методом квазилинеаризации
Метод линеаризации обеспечивают высокую точность выполнения краевых условий в задаче (2.4), что является основным требованием, например, в задачах управления маневром и стабилизацией космических аппаратов [9, 11]. Отличие этого метода от классического метода линеаризации состоит в том, что линеаризованная система, применяемая в методе квазилинеаризации, учитывает отклонения правых частей линеаризованной системы от правых частей нелинейной системы [16]. На итерациях метода квазилинеаризации рассматривается следующая линейная система:
(2.8)
хк+1 = Хх(хк, фк, Ь)хк+1 + Хф(хк, фк, Ь)фк+1 + рк(Ь), ф = Фх(хк, фк, Ь)хк+1 + Фф (хк, фк ,Ь)фк+1 + пк (Ь),
где
рк (Ь) = X (хк ,фк ,Ь) — Хх(хк ,фк ,Ь)хк — Хф (хк ,фк ,Ь)фк, Пк (Ь) = Ф(хк, фк, Ь) — Фх(хк, фк, Ь)хк — Фф (хк, фк ,Ь)фк,
к - номер итерации.
Фундаментальная матрица линейной системы (2.7)
ф = (ф11(Ь) ф12 Щ \ф21(Ь) ф22 (Ь))
удовлетворяет уравнению
1 *«>= {Х$$$ ™ *<*) = Е (29)
Пусть [хк+1,фк+1] - решение линейной системы (2.8), полученное при нулевых начальных условиях. Тогда решение системы (2.8) при произвольных начальных условиях с помощью фундаментальной матрицы запишется в следующем виде:
хк+1(г) = фп (г)хк+1(Ь0) + Фи(Ь)фк+1(Ь0) + хк+1(Ь),
фк+1(Ь) = Ф21 (Ь)хк+1(Ь0) + Ф22(Ь)фк+1Ы+ фк+1(Ь). ( . )
Подставим в (2.10) заданные краевые условия (2.3):
Фц(Ь1)х0 + Фп(Ь1)фк+1(Ь0) + хк+1(и) = х1.
Из полученного равенства найдем новое приближение для вектора начальных условий сопряженной системы:
фк+1(Ь0) = Ф^Шх1 — Фц(Ь1)х0 — хк+1(11)]. (2.11)
Проинтегрировав систему (2.4) при начальных условиях х(Ь0) = х0,
ф(Ь0) = фк+1(^0), получим точку хк+1(Ь1), более близкую к заданной 1
точке х
х
к+1
(Ь1) — х1\\ < \\хк(Ь1) — х1\\ — е.
Если это неравенство не выполняется, то необходимо продолжить работу градиентного метода для получения нового приближения , более близкого к заданной точке х1 .
Таким образом, для выполнения шага метода квазилинеаризации необходимо:
1) решить матричное уравнение (2.9) на решении системы (3.4): хк(Ь), фк(Ь) и найти Ф(Ь1);
2) по формуле (2.11) найти вектор фк+1(Ь0);
3) проинтегрировать систему (2.4) при начальных условиях: х(^) =
х0, ф(Ь0) = фк+1(Ь0) и найти в результате хк+1(Ь), фк+1(Ь), Ь € [Ь^^], которые заменяют хк(Ь), фк(Ь).
Итерации метода (пункты 1)-3)) повторяются до выполнения заданной точности для краевых условий: ||хк+1 (Ь1) — х1\\ < е.
После решения краевой задачи при найденных начальных условиях для сопряженной системы проинтегрируем систему (2.4), найдем ее решение [х(Ь),ф(Ь)] и из принципа максимума вычислим оптимальное управление, переводящее систему из состояния х0 в состояние х1 по минимуму функционала (2.1).
2.3. Оптимальное управление положением космического аппарата
Для иллюстрации предложенной технологии решения нелинейной краевой задачи рассмотрим простую модель, описывающую вращательную
динамику космического аппарата, которая рассматривалась в статье
[14]:
100
J(u) = 2 J u1(t) + u2(t) + u3(t) dt ^ min,
0
во = k(—Ui@i — Ш2Р2 — ^2@з),
/31 = k(ui@0 — U2P3 + U3@2),
132 = k(Ui@3 + Ш2@0 — UsPi),
$3 = k(—Ui^2 + U2@i + U3P0), k = 0.5,
U i = —I 1U2U3 + ui/Ii,
U 2 = —12U1U3 + U2/I2,
U 3 = —13UiU2 + U3/13,
где 11 = (I3 — I2)/Ii, I2 = (Ii — I3)/I2, Is = (I — Ii)/Is, (Ii,l2,Is)
- моменты инерции космического аппарата; (ui,U2,U3) - компоненты управляющего вектора (вращающего момента); (@0, @1, @2, @3) - параметры Эйлера, (ci,U2,U3) - компоненты угловой скорости. Вектор в удовлетворяет условию ||в(t)||2 = const. Выбором начальных условий обеспечивается равенство ||/0(t)|| = 1.
Требуется найти управление, обеспечивающее минимум функционалу J(u) и переводящее космический аппарат из заданного начального положения в конечное состояние.
В статье [14] заданы следующие начальное и конечное состояния:
х0 = (1, 0, 0, 0, 0.01, 0.005, 0.001),
xi = (0.43047, 0.70106, 0.09230, 0.56098, 0, 0, 0),
моменты инерции задавались следующими: Ii = 106, I2 = 833333, I3 = 916667, а начальное приближение для управления, с которого метод квазилинеаризации начинал сходится к оптимальному, в статье [14] находилось аналитически из механических свойств системы.
Управление, на котором достигается максимум функции Понтрягина H(ф, х, u, t) = ф5u1/I1 + фвщ/h + фт^/^ — u2 — u2 — u2, определяется по формулам: ui = ф5/(2Ii), u2 = фб/(2I2), u3 = фт/(2I3).
Краевая задача (2.4) для данной системы принимает следующий вид:
X i = k(—x5x2 — хбх3 — хтх4),
X 2 = ^х5х1 + хт х3 — хбх4), х 3 = ^хбх1 — хт х2 + х5х4), х 4 = k(хтх1 + хб х2 — х5х3),
х 5 = —0.08333х6х7 + ф5/(21%), х 6 = —0.1Х5Х7 + фб/(21%), х 7 = 0.18182х5х6 + ф7/(21%), ф\ = к(ф%х5 + фзхб + ф4х7), ф2 = к(ф\х5 + фзх7 — фАхб), фз = к(ф\хб — ф%х7 + фАх5), ф4 = к(ф\х7 + ф%хб — фзх5), ф5 = к(ф\х2 — ф2х\ — ф3х4 + ф4х3) + 0.1ф6х7 — 0.18182ф7х6, ф6 = к(ф\х3 + ф2х4 — ф3х\ — ф4х2) + 0.08333ф5х7 — 0.18182ф7х5, ф7 = к(ф\х4 — ф2х3 + ф3х2 — ф4х\) + 0.08333ф5х6 + 0.1ф6х5.
Краевые условия были заданы такими же, как и в статье [14]. Максимальное нарушение краевого условия на правом конце при нулевом управлении было равно 0.41622. Метод квазилинеаризации с этого управления не сходился. Градиентный метод, описанный в п. 2, начиная
с V0, соответствующего нулевому управлению, сократил невязку вы-
к
полнения краевых условий на порядок, после чего с полученного V метод квазилинеаризации стал сходиться и нарушение краевых условий уменьшилось до 10-9. Полученное при этом управление практически совпадает с управлением, найденным в [14].
Таким образом, многометодная схема в данной задаче состоит из двух методов, которые обеспечивают вычисление оптимального управления с заданной точностью.
Заключение
В рамках алгоритмов аппроксимации множеств разрешимости и оптимизации позиционных управлений изложенный в настоящей статье аппарат применяется для выполнения «элементарных операций» (решения задач оптимального программного управления) в автоматизированном режиме.
Для модельной задачи «Возможности защиты цели от преследователя с помощью оптимального маневра» [15] проведено большое число вычислительных экспериментов [15], [6], которые позволяют утверждать о целесообразности применения данного подхода при реализации указанных алгоритмов.
Поскольку действия по аппроксимации множеств разрешимости для одного момента времени совершенно независимы от исследования такого же множества для другого момента времени, то эти операции могут
выполняться параллельно. Сказанное относится и к решению серии задач оптимального программного управления при поиске оптимальных процессов управления по переводу системы из узлов, введенных на одном множестве разрешимости, в узлы последующего по времени множества разрешимости системы.
Список литературы
1. Беллман Р. Динамическое программирование и современные проблемы управления / Р. Беллман, Р. Калаба. — М.: Наука, 1968.
2. Тятюшкин А. И. Алгоритм численного синтеза оптимального управления / А. И. Тятюшкин, О. В. Моржин // Автоматика и телемеханика. — 2008. — Т. 59. — № 4. — С. 645-653.
3. Тятюшкин А. И. Конструктивные методы оптимизации управлений в нелинейных системах / А. И. Тятюшкин, О. В. Моржин // Автоматика и телемехани-
ка. — 2009. — № 5 (в печати).
4. Моржин О. В. Нелокальная оптимизация позиционных управлений для дифференциальных систем в границах трубок достижимости и разрешимости / О. В. Моржин // Программные системы: теория и приложения (РЯТЛ’09): Матер. междунар. конф. Переславль-Залесский: Институт программных систем РАН. — 2009 (в печати).
5. Моржин О. В. Вычислительная технология оптимизации позиционных управлений в дифференциальных системах / О. В. Моржин, А. И. Тятюшкин // Программные продукты и системы. — 2009 (в печати).
6. Моржин О. В. Оптимизация позиционного управления в одной задаче преследования / О. В. Моржин, А. И. Тятюшкин // Обобщенные решения в задачах управления (СЯСР’08): Матер. IV междунар. симп., посвященного 80-летию акад. РАН В. А. Ильина. — Улан-Удэ: Изд-во Бурятск. гос. ун-та, 2008. — С. 77-85.
7. Моржин О. В. Алгоритмы метода сечений и программные средства для построения множеств достижимости / О. В. Моржин, А. И. Тятюшкин // Изв. РАН. Теория и системы управления. — 2008. — № 1. — С. 5-11.
8. Тятюшкин А. И. Методы оптимизации и программная система для решения прикладных задач оптимального управления / А. И. Тятюшкин, О. В. Мор-жин // Современные технологии. Системный анализ. Моделирование. — 2009 (в печати).
9. Тятюшкин А. И. Численные методы и программные средства оптимизации управляемых систем / А. И. Тятюшкин. — Новосибирск: Наука, 1992.
10. Горнов А. Ю. Программная реализация мультиметодной технологии для задач оптимального управления / А. Ю. Горнов, А. И. Тятюшкин // Проблемы управления и моделирования в сложных системах: Труды III Международной конференции. — Самара: ИПУСС РАН, 2001. — С. 301-307.
11. Тятюшкин А. И. Многометодная технология оптимизации управляемых систем / А. И. Тятюшкин. — Новосибирск: Наука, 2006. — 343 с.
12. Тятюшкин А. И. Параллельные вычисления в задачах оптимального управления / А. И. Тятюшкин // Сиб. журн. выч. матем. — Т. 3. — № 2. — 2000. — С. 181-190.
13. Васильев О. В. Об одном методе решения задач оптимального управления, основанном на принципе максимума / О. В. Васильев, А. И. Тятюшкин // Журн. вычисл. матем. и матем. физ. — Т. 21, № 6. — 1981. — С. 1376-1384.
14. Junkins J. L. Optimal continuous torgue attitude manouvers У J. L. Junkins, J. D. Turner AIAAZAAS Astrodynamics conference. — Palo Alto, Calif., 1978.
15. Тятюшкин А. И. Возможности защиты от атакующей ракеты задней полусферы самолета вертикальным маневром У А. И. Тятюшкин, Б. Е. Федунов УУ Изв. РАН. Теория и системы управления. — 2006. — № 1. — С. 125-132.
16. Сейдж Э. П. Оптимальное управление системами У Э. П. Сейдж, Ч. С. Уайт. — М.: Радио и связь, 1982.
A. I. Tyatyushkin
Parallel and multi-method algorithms for optimal control computation
Abstract. The article is devoted to algorithms for realization of multi-method approach in optimal control problems with organization of parallel computations. These algorithms are an important component of the technology, which is used for carrying out of «elementary operations» in the framework of the algorithms for approximation of reachable (solvability) sets and numerical optimization of positional controls.
Keywords: optimal control, numerical optimization methods, parallel and multimethod algorithm.
Тятюшкин Александр Иванович, доктор технических наук, профессор, Институт динамики систем и теории управления СО РАН, 664000, Иркутск, ул. Лермонтова, 134, (tjat@icc.ru)
Tyatyushkin Alexander, Institute of System Dynamics and Control Theory, Siberian Division of RAS, 134, Lermontova Str., Irkutsk, 664000,
(tj at@icc.ru)