Научная статья на тему 'Численные методы расчета оптимального по быстродействию управления'

Численные методы расчета оптимального по быстродействию управления Текст научной статьи по специальности «Математика»

CC BY
378
50
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МЕТОД ВЫПУКЛЫХ ОБОЛОЧЕК / CONVEX HULL METHOD / МНОЖЕСТВО ДОСТИЖИМОСТИ / ЗАДАЧА БЫСТРОДЕЙСТВИЯ / МИНИМАКСНЫЙ АЛГОРИТМ / MINIMAX ALGORITHM / ЛИНЕЙНАЯ УПРАВЛЯЕМАЯ СИСТЕМА / LINEAR CONTROLLED SYSTEM / ATTAINABILITY SET / TIME-OPTIMAL PROBLEM

Аннотация научной статьи по математике, автор научной работы — Тятюшкин Александр Иванович

В статье предложены алгоритмы для численного решения задачи оптимального быстродействия в линейных системах. Предлагаемый набор алгоритмов позволяет организовать многометодную технологию для расчета оптимального по быстродействию управления в задачах с различными особенностями. В соответствии с этой технологией решение задачи находится многометодным алгоритмом, состоящим из последовательности шагов разных методов, подключаемых к процессу оптимизации с целью его ускорения. Такая технология позволяет учитывать особенности решаемой задачи на всех стадиях ее решения и повышает эффективность поиска оптимального управления

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Numerical Methods for Calculation of Time-Optimal Control

The article is devoted to algorithms for calculation of time-optimal control in the linear systems. Proposed set of algorithms make possible apply multi-method technique to solving time-optimal control problems with different singularity. Corresponding to this technology the solution is found by a multimethods algorithm consisting of a sequence of steps of different methods applied to the optimization process in order to accelerate it. Such a technology allows to consider some particularities of the problem of interest at all stages of its solution and to improve the efficiency of optimal control search.

Текст научной работы на тему «Численные методы расчета оптимального по быстродействию управления»



Серия «Математика»

2014. Т. 8. С. 164—177

Онлайн-доступ к журналу: http://isu.ru/izvestia

УДК 517.977

Численные методы расчета оптимального по быстродействию управления *

А. И. Тятюшкин

Институт динамики систем и теории управления СО РАН

Аннотация. В статье предложены алгоритмы для численного решения задачи оптимального быстродействия в линейных системах. Предлагаемый набор алгоритмов позволяет организовать многометодную технологию для расчета оптимального по быстродействию управления в задачах с различными особенностями. В соответствии с этой технологией решение задачи находится многометодным алгоритмом, состоящим из последовательности шагов разных методов, подключаемых к процессу оптимизации с целью его ускорения. Такая технология позволяет учитывать особенности решаемой задачи на всех стадиях ее решения и повышает эффективность поиска оптимального управления.

Ключевые слова: метод выпуклых оболочек, множество достижимости, задача быстродействия, минимаксный алгоритм, линейная управляемая система.

Задачи оптимального быстродействия составляют важный класс прикладных задач оптимального управления. К ним относятся, например, следующие задачи из динамики полета: приведение движущихся объектов в заданное положение, ориентация и стабилизация летательных аппаратов, подъем ракеты на максимальную высоту и другие задачи управления движением. Наряду с нелинейной моделью объекта управления на стадии проектирования или на малом временном отрезке нередко используется линейная модель. При этом многие задачи терминального управления формируются в виде задачи минимизации квадратичной функции, которая служит мерой уклонения конечного

* Работа выполнена при частичной финансовой поддержке Совета по грантам Президента Российской Федерации для государственной поддержки ведущих научных школ (НШ-5007.2014.9).

Введение

состояния от некоторого заданного состояния. Последовательность таких задач возникает и при решении задачи быстродействия прямыми методами. Поэтому построению эффективных вычислительных алгоритмов для решения этой задачи уделяется большое внимание.

Для численного решения задачи быстродействия при наличии ограничений только на управляющие функции здесь описывается алгоритмическое обеспечение, основанное на математических методах [1; 2; 5; 6; 10] и позволяющее реализовать многометодную технологию [7; 12] поиска оптимального по быстродействию управления. Задачи с ограничениями на фазовые координаты обычно решаются посредством дискретизации системы с формированием задачи линейного программирования, для решения которой затем используются специальные методы, учитывающие структуру матрицы основных ограничений [4].

1. Минимизация выпуклой функции конечного состояния

Будем рассматривать задачи оптимального управления в линейных системах

х = л(г)х + в(г)и(г) + /(г), х(г°) = х°, (1.1)

где х(г) е Еп, и(г) е Ет , Л(г), в (г), / (г) — п х п, п х г, п х 1-матрицы с кусочно-непрерывными элементами.

В теории линейных управляемых систем значительную роль играет переходная матрица [1] Ф(г,т), называемая также матрицей Грина. Она удовлетворяет следующему матричному дифференциальному уравнению:

й

— Ф(*, г) = -Ф(*, т)А(т), Ф(*, I) = Е. (1.2)

С помощью этой матрицы решение (1.1) записывается по формуле Ко-ши

г

о

х(г) = Ф(Мо)х0 + У Ф(г,т) [в(т)и(т) + /(т)] йт.

го

Введя обозначение с = Ф(г1,г°)х° + / Ф(г1,т)/(т) йт, вектор состоя-

го

ния в момент г = ¿1 представим в виде

ч

х(Ь) = с + ! Ф(и,т)в(т)и(т) йт. (1.3)

го

Из (1.3) следует, что вектор с является состоянием системы (1.1) в момент г = г1, в которое она переводится с помощью нулевого управления (и(г) = 0).

Множество конечных состояний x(t\), соответствующее заданному классу допустимых управлений, называется множеством достижимости системы (1.1).

Важнейшим свойством линейных систем, которое позволяет добиться существенного ускорения численных методов оптимизации, является выпуклость множества достижимости. С использованием этого свойства многие алгоритмы дают возможность найти новое приближение для управления с помощью решения простой задачи выпуклого программирования. В отличие от нелинейных систем алгоритмы решения данной задачи не требуют дополнительных интегрирований системы (1.1).

Пусть на правых концах траекторий системы (1.1) определена непрерывно дифференцируемая выпуклая скалярная функция p(x(t1)) и поставлена задача

p(x(t1)) — min . (1.4)

Наиболее распространенный подход к решению задачи (1.1), (1.4) состоит в применении градиентных методов

uk+1(t) = uk(t) + akB'(г)фк(t), к = 0,1,...,

где ф(t) — решение задачи Коши

т = -A'(t)№, Ф(ti) = -Vp(x(ti)), (1.5)

ak находится, например, из условия наискорейшего спуска.

Опишем вычислительную технологию решения задачи (1.1), (1.4) с ограничениями на управление

aj(t) < Uj(t) < ßj(f), i = T~F, t £ [i0,ii], (1-6)

методом условного градиента. В отличие от традиционной схемы метода, в которой точки множества достижимости получаются интегрированием системы (1.1), построим алгоритм, в котором эти точки генерируются с помощью базисных решений сопряженной системы.

Решением линейной вспомогательной задачи Vp (xk(ti)) x — min, определяемой на каждом шаге метода, будет управление

r,km - / если ftiC0VfcСО < о, п 7]

j Xßj(t), если b,-(i)Vfc(i) > о, j = l,r, 1 j

где фк(t) — решение задачи Коши (1.5) при ф(t1) = -Vp(xk(t1)). Итерация метода условного градиента описывается формулами

uk+1(t) = uk(t) + ak \uk(t) - uk(t)l , ak = arg mm Ф {xk(t1) + a xk(t1) - xk(t1) ) . (1.8)

Для получения точек xk(t\) и xk(t\) необходимо интегрировать систему (1.1) при управлениях uk (t) и uk (t). Используя покоординатное представление точки x(ti):

ti

Xi{ti) = d + Jipl(t)'B(t)u(t) dt, i = l~n,

to

можно исключить операцию интегрирования системы (1.1), заменив ее интегрированием более простой системы. Для этого необходимо предварительно найти решения (1.5) фl(t), при начальных условиях — единичных векторах ортонормированного базиса: ipl(ti) = ег, г = 1,п; с помощью этих решений посчитать и запомнить в узлах интегрирования строки nxr-матрицы M(i), равные ф1^)1 B(t), г = 1, п. Проинтегрировав систему (1.1) при u(t) = 0, вычислить вектор с.

Пусть теперь задано допустимое управление uk (t). Тогда итерация (1.8) состоит из следующих операций:

1) решается задача Коши Xk = M(t)uk(t), xk(t0) = с, в результате чего найдется вектор xk (t1);

2) решается задача Коши (1.5), и по формулам (1.7) вычисляется управление uk (t);

3) решается задача Коши xk = M(t) uk(t), xk(t0) = с, после чего будем иметь xk (t1);

4) решается задача одномерного поиска

ю (xk (t1) + а \xk(t1) - xk (t1 )Л ^ min ;

V L J) o<«<1

5) по формуле (1.8) строится новое приближение.

Начиная со второй итерации операцию 1) можно не выполнять, так как значение xk+1(t1) будет найдено при выполнении операции 4). Однако в целях сохранения устойчивости процесса вектор xk+1(t1) через определенное число итераций следует получить с помощью операции 1). Итерационный процесс (1.8) прекращается при выполнении неравенства

p(xk(h)^j - ю (xk(t{) + ak [xk(t{) - xk (t1) или необходимого условия оптимальности ti

< £

- J B'(t^k (t) \uk (t) - uk (t)

dt < £1,

to

где фк ф — решение задачи Коши (1.5). Значение левой части второго неравенства удобно находить при выполнении операции 2). Значения е и

е\ определяют точность решения задачи (1.1), (1.5), (1.6) и должны задаваться с учетом погрешностей счета величин, стоящих в левых частях неравенств. Поскольку на практике задать "достижимое" значение £\ не всегда удается, во избежание зацикливания обычно применяется первое неравенство, выполнение которого свидетельствует о прекращении сходимости релаксационного процесса.

Недостаток данного алгоритма состоит в том, что его реализация требует получения и хранения базисного набора решений сопряженной системы, составляющего фундаментальную матрицу. Однако если размерность задачи такова, что имеющийся объем памяти позволяет реализовать описанный алгоритм, то такой подход будет вполне оправданным, поскольку задачи Коши, решаемые в п. 1) и 3), значительно проще, чем задачи Коши (1.1), а число итераций, выполняемых методом условного градиента для получения решения с заданной точностью, обычно бывает достаточно большим. Если необходимый объем памяти гиИ + ии > V, где V — допустимый объем, V > 2, то можно реализовать традиционный вариант метода условного градиента, в котором вместо операций 1) и 3) будет интегрироваться система (1.1) при управлениях пкф и йк(£) соответственно. Тогда потребуется всего гИ + vи слов памяти. Трудоемкость итерации эквивалентна интегрированию 2и скалярных уравнений.

1.1. МИНИМИЗАЦИЯ нормы УКЛОНЕНИЯ от ЗАДАННОГО состояния

Рассмотрим задачу, в которой вместо (1.4) будет минимизироваться функция, измеряющая уклонение конечного состояния системы от заданного состояния xT:

\\x(t1) — xT || — min, (1.9)

где x(t1) — решение системы (1.1) при t = t1, соответствующее управлению из класса допустимых (1.6). Решение этой задачи, очевидно, можно получить, применяя в приведенном выше алгоритме вместо операции одномерного поиска 4) следующую формулу:

( (xT-xk(t1))'(xk(t1)-xk(t1))

а =-5-, если а < 1

ak = < \\xk (t1) — xk (t1)\\2 ~ (1.10)

[ 1, если a* > 1.

Известно, что метод условного градиента обладает медленной сходимостью, поэтому в его развитие предложены алгоритмы квадратичного программирования [9, 11], которые позволяют получить решение задачи (1.9) за существенно меньшее число итераций.

1.2. Метод выпуклых оболочек

Основная идея рассматриваемого алгоритма состоит в том, что для уменьшения целевой функции (1.9) максимально используются результаты наиболее трудоемкой операции — решения задачи Коши, полученные на нескольких итерациях. Вместо выпуклой оболочки двух точек хк и Хк, на которой отыскивается новое приближение в методе условного градиента, здесь применяется выпуклая оболочка в, 2 < в < п + 1, точек множества достижимости. Для поиска минимума функции (1.9) на выпуклой оболочке в точек решается простейшая задача квадратичного программирования. Приближение, полученное в результате решения этой задачи, значительно лучше приближения, полученного на отрезке методом условного градиента.

Алгоритм начинает работу с допустимого управления и1, и на его первой итерации, как и в методе условного градиента, новое приближение строится в виде выпуклой комбинации и1 и управления (1.7), вычисленного на решении системы (1.5) при

Ш) = 91 = (х1^) — хт) / \\x\ti) — хт 1

Параметр вычисляется по формуле (1.10).

Если 0 < < 1, то управления и1 и и2 = и1, а также соответствующие им точки х1 = х^1) и х2 = Х1 дополняются управлением (1.7), найденным при

Ф(Ь)= д2 =

х

1 + (х2 — х1) — хт

\х1 + (х2 — х1) — хт \

и соответствующей ему точкой х3 = х^1). Следующее приближение отыскивается на выпуклой оболочке трех точек, содержащей отрезок, на котором ищется новое приближение методом условного градиента. Следовательно, приращение целевой функции (1.9) по модулю будет не меньше чем приращение, достигаемое методом условного градиента. Практика показывает, что метод выпуклых оболочек позволяет найти решение задачи (1.9) за существенно меньшее машинное время.

Опишем и-ю итерацию алгоритма. Пусть на его итерациях получены управления и1, и2,..., ик, к < п + 1, и им соответствующие точки хг, г = 1,к, с помощью которых представляется приближение

иг и хУ = 2^ вгхг

г=1 г=1

_ к

где > 0, г = 1 ,к, Рг = 1- Тогда шаг алгоритма состоит из следую-

г=1

щих операций:

ии =

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1) на плоскости, проходящей через точки хг, г = 1 ,к, отыскивается ближайшая к хт точка у. Для этого решается задача безусловной минимизации

1

xk + а (х% - хк)

T

— xT

—> min,

г=1

решение которой удовлетворяет линейной системе алгебраических уравнений 1

2J aj(xг - xy(xJ - х+ (хг - хк)\хк -х2)=0, i = l,k-l. (1.11) j=i

k

С помощью решения данной системы и ак = 1 — ^ аг легко строится

i=l

k

искомая точка на плоскости: y = ^ aixi;

__г=1

2) если среди щ, г = 1, к, имеются отрицательные и, следовательно, точка у не принадлежит выпуклой оболочке точек хг, г = 1 ,к, то на отрезке, содержащем точки y и xv, отыскивается точка пересечения отрезка с гранью выпуклой оболочки: z = y + a(xv — y), где

к

а = max {ai / (ai — ßi) } = ai0 / (ai0 — ßi0)), или z = ^ jixi, Yi =

ai<0 i=i

ai + a(ßi — ai). Очевидно, jiQ = 0, поэтому точка xi0 и управление ui0 исключаются из дальнейшего рассмотрения;

3) если число оставшихся точек s < 2, то k = k — 1 и повторяется операция 1), а при наличии ai < 0 — операция 2). При s = 1 выполняется операция 5);

4) если после выполнения операции 1) имеем щ > 0, г = 1, s, s < к, то точка у — решение задачи на выпуклой оболочке точек хг, г = 1 ,к, а управление, приводящее в эту точку, найдется по формуле

s

u(t) = J2 ai ui(t), t e [to,ti]] (1.12)

i=l

5) оставшиеся точки хг, г = l,s, дополняются новой точкой xs+l = x(ti), соответствующей управлению (1.7), посчитанному на решении задачи Коши (1.5) при tl) = (y — xT) / ||y — xT||, и повторяются операции 1)—5) при k = s + 1. Процесс прекращается при выполнении неравенства

||y — xT||2 — (gs+l)' (x(ti) — xT) < e,

которое следует проверять после окончания операции 5) (e — заданная точность решения задачи (1.9)). Найденная при этом точка y является проекцией xT на множество достижимости: y = arg min Hx — xTУ.

Управление (1.12), приводящее систему (1.1) в точку у, будет оптимальным для задачи (1.9).

Трудоемкость итерации описанного алгоритма незначительно больше, чем у метода условного градиента, поскольку вычисление проекции точки хт на выпуклую оболочку заданных точек не содержит трудоемких операций интегрирования систем. Между тем число внешних итераций, выполняющих интегрирование прямой и сопряженной систем, существенно сокращается, и, следовательно, алгоритм требует значительно меньше времени центрального процессора для решения задачи (1.9) с заданной точностью.

Требования алгоритма к памяти определяются в основном числом управлений иг, г = 1,5, и их размерностью г. Учитывая релейную структуру управлений (1.7), для хранения их в памяти достаточно запомнить лишь точки переключения каждой управляющей функции и ее начальных значений: -и*(¿о), .] = 1, г*, г = 1,«, что требует (п + 2) слов памяти. Кроме того, необходим объем памяти для хранения управления (1.12), точек хг, г = 1, в, в < п+1, а также векторов, с помощью которых реализуются решения линейной системы алгебраических уравнений и численное интегрирование. Таким образом, необходимый объем памяти составляет тМ + /п + (п + 1)п + (п + 2)г, / > 5, слов.

1.3. Алгоритм, основанный на теореме о минимаксе

Для решения задачи (1.9) с ограничениями на управление (1.6) построим алгоритм, основанный на теоремах об отделимости и о минимаксе [3]. Если множество достижимости X(I) строго выпукло и содержит точку хт, то данный алгоритм позволяет получить управление, которое с минимальной интенсивностью I* < I переводит систему (1.1) в точку хт, и следовательно, на этом управлении функционал (1.9) достигает абсолютного минимума. В случае, когда хт / X(I), данный алгоритм найдет управление, которое переводит систему (1.1) из х° в точку множества X(I), ближайшую к точке хт.

Пусть при и(^ = 0 решена задача Коши (1.1), найден вектор с = х^1) и задано первое приближение

д1 = (х(^) — хт) / \\х(^) — хт\\ .

Тогда Л(0,д1) = д1 (х^{)—хт) > 0 и итерация алгоритма будет состоять из следующих операций:

1) при заданном I вычисляется значение функции

Л(1,д1 )= д1' (х(д1) — хт);

2) если Л(1,д1) < 0, то находится 11 < I, при котором Л(11,д1) = 0:

1 Л(0,51)-Л(/,51)'

полагаем к = 1;

3) Выполнив операцию максимизации, найдем вектор дк+ = д(ак) такой, что Л(1к,дк+1) > 0;

4) находится новое значение

_ дк'(с-хт) 1к+1~ 9к'(с-хТ)-\(1к,дк) 1к'

для которого Л(1к+1,дк+1) = 0;

5) если 1к+1 < I и 1к+1 — ¡к > £ь, то повторяются операции 3) и 4). При ¡к+1 — ¡к < £ь решение задачи прекращается, и минимальная интенсивность управления полагается равной ¡к+1;

6) если ¡к+1 > I и, следовательно, Л(1,дк) > 0, то процесс расширения множества достижимости X(¡) прекращается и в дальнейшем при заданном ¡ повторяются итерации основного алгоритма до выполнения неравенства

\ х(дк) — хт — Л(1,дк) < е. (1.13)

Управление, с которым на последней итерации найдена точка х(дк), будет оптимальным.

Сходимость данного алгоритма имеет место лишь в случае строго выпуклого множества X(¡). Поэтому в общем случае возможно зацикливание итерационного процесса. Чтобы избежать зацикливания, следует ввести дополнительное условие прекращения процесса

Л(1,дк+) — Л(1,дк) < ех,

где ед — оценка погрешностей вычисления функции Л(1,д). Если это условие выполняется при нарушении неравенства (1.13), то данный алгоритм не может обеспечить решение задачи (1.9) и для дальнейшего поиска оптимального управления необходимо использовать изложенные выше алгоритмы.

2. Алгоритмы решения задачи быстродействия

Рассмотрим задачу линейного быстродействия: перевод системы (1.1) из точки х0 в точку хт при ограничениях на управление (1.6) за наименьшее время.

2.1. Минимаксный алгоритм

Один из первых алгоритмов [10], предложенных для решения задачи линейного быстродействия, основан на теореме об отделимости выпуклых множеств. По своей конструкции он близок к методу минимизации

интенсивности управления [2; 6]. Вместо наименьшего значения параметра l = l* алгоритмы быстродействия отыскивают минимальный отрезок времени t* — to, за который переводима система (1.1) из x° в xT при заданных ограничениях на управление. Предполагая управляемость системы (1.1), построим алгоритм, который генерирует сходящуюся возрастающую последовательность моментов времени ti,t2,... с двумя основными свойствами:

1) вдоль последовательности {tk} множество достижимости

tk

X(tk) = {x е Rn : x = c + J Ф(tk,t)B(t)u(t)dt,

to

\uj(t)| <1, j = T~r, te [to,tk]}

расширяется (X(tk) С X(tk+i)),

2) в момент t* = lim tk происходит первое касание точки xT.

k—^^o

Для определения значений tk, к = 1, 2,..., будем применять следующее условие:

Ф(tkУ (x(tk) — xT) = 0,

проверка которого требует одновременного интегрирования систем (1.1) и (1.5) в прямом времени.

При каждом фиксированном значении tk корректировка вектора g — нормали опорной плоскости — осуществляется посредством решения задачи X(g,tk) ^ max. Иными словами, полагается

gk+1 = arg max X(g,tk). g g \\g\\<i (g, k)

Введем множества

G+ = {g е Rn : X(g,tk) > 0, \\g\\ = 1} ,

Gk = {g е Rn : X(g,tk) = 0, \\g\\ = 1}.

Пусть g0 е G+. Тогда k-й шаг минимаксного алгоритма состоит из следующих операций:

1) при управлении (1.7) в прямом времени интегрируется система

r

x = A(t)x + bj (t)uj (t) + f (t), x(tk) = x(tk) = x(gk ,tk), j=i

ф = —А(Ь)'ф, ф(tk)= gk, t > tk, (2.1)

до первого корня tk+l функции ф(t)'(x(t) — xT):

ф(tk+i)'(x(tk+i) — xT ) = 0;

2) при фиксированном tk+i, начиная с g = ф(Ьк+1) выполняется несколько шагов градиентного метода. В результате находится gk+i £ G++1.

Операции 1), 2) повторяются, пока градиентный метод обеспечивает выполнение неравенства X(gk+i ,tk+i) > 0, а интегрирование системы (2.1) позволяет получить tk+i > tk. Для управляемой системы данный итерационный процесс сходится к (g*,t*):

X(g*,t*) = min \\x(t*) - xT II = 0, X(g* ,t*) = max X(g,t*). x(t*)ex(t*) geG+

При этом управление (1.7), посчитанное на решении системы (1.5) при Ф(.ti) = g, будет оптимальным по быстродействию.

Недостатками минимаксного алгоритма являются, с одной стороны, необходимость интегрирования сопряженной системы в прямом времени и, с другой — гарантированная вычислительная устойчивость только для строго выпуклых множеств достижимости.

Трудоемкость итерации алгоритма оценивается трудоемкостью интегрирования 2n(v + 1) скалярных уравнений на отрезке [t0,tk], где v — число пересчетов X(g,tk), при вычислении параметра ak. Требуемый объем памяти — jn слов, y < 5.

2.2. Алгоритм выпуклых оболочек

Рассмотрим алгоритм, в котором вместо градиентных процедур для попадания в область G+ применяется итерационная процедура из раздела 1. Тогда в качестве вектора g берется приближенное решение задачи (1.9):

gk = (xk(tk) - xT) /\xk(tk) - xTI . (2.2)

Поскольку max X(g,tk) = min \\x — xT\\, при xk(tk) = xT найдется \\g\\<i xex (tk)

такой номер k, для которого gk вида (2.2) будет принадлежать G+. В

противном случае xT £ X (tk) и при gk £ G^ вычисляется оптимальное

управление (1.7).

Пусть g° = (x0 — xT) / \\x0 — xT \\, k = 0. Тогда итерация алгоритма состоит из следующих операций:

1) начиная с x(tk) = x(tk), ф(tk) = gk интегрируется 2п-мерная система (2.1) от tk до ближайшего к нему корня tk+i уравнения

ф(t)'(x(t) - xT) = 0;

2) задается входная информация для алгоритма выпуклых оболочек из разд. 1.2: xl = x(tk), ui = u(t) — управление (1.7), приводящее (1.1) в x(tk).

Затем при ф(Ьк) = (х1 — хт) / ||х1 — хт || интегрируется система (1.5) и по формуле (1.7) считается управление и2 = и(Ь). Решение системы, соответствующее и2(Ь), при Ь = 11 берется в качестве х2;

3) начиная с к = 2 реализуются итерации алгоритма выпуклых оболочек из разд. 1.2, пока не выполнится неравенство

(У+1)' №) — хт) = \(дк+ ,1к) > 0,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где дк+1 = (уи — хт) / ||у^ — хт||, уи — полученное приближение для задачи (1.9). Затем к меняется на к + 1 и повторяются операции 1)—3).

Сходимость этого процесса следует из сходимости метода условного градиента и имеет место для произвольного выпуклого множества.

Итерационный процесс прекращается при выполнении неравенства ||у^(£к) — хт|| < е. Тогда оптимальное управление считается по формуле (1.12).

Решение практических задач показывает также, что данный алгоритм требует меньше времени для получения оптимального по быстродействию управления, переводящего систему (1.1) из х° в хт с заданной точностью. Одним из недостатков алгоритма является неустойчивость операции прямого интегрирования сопряженной системы при получении значений Ьк, к = 1,2,.... Для некоторых систем этот недостаток может оказаться существенным и требует специальных способов интегрирования системы (2.1).

Заключение

Получение численного решения задачи оптимального управления при наименьших затратах вычислительных ресурсов особенно актуально в управляемых системах реального времени, например в бортовых системах управления летательными аппаратами. Путем многократного решения задачи оптимального программного управления в некоторых случаях можно получить решение задачи синтеза оптимального управления. Так, с помощью оптимальных по быстродействию программных управлений, полученных для разных начальных состояний, в одной задаче преследования [8] построена линия переключения управления в фазовом пространстве.

Список литературы

1. Андреев Ю. Н. Управление конечномерными линейными объектами / Ю. Н. Андреев. - М. : Наука, 1976. - 424 с.

2. Васильев О.В. К численному решению задач линейного быстродействия / О. В. Васильев, А. И. Тятюшкин // Дифференц. и интегр. уравнения. — Иркутск : Изд-во Иркут. ун-та, 1973. - Вып. 2. - С. 57-69.

3. Габасов Р. Качественная теория оптимальных процессов / Р. Габасов, Ф. М. Кириллова. - М. : Наука, 1971. - 508 с.

4. Габасов Р. Конструктивные методы оптимизации. Ч. 1. Линейные задачи / Р. Габасов, Ф. М. Кириллова, А. И. Тятюшкин. - Минск : Университетское, 1984. - 214 с.

5. Калман Р. Очерки по математической теории систем / Р. Калман, П. Фалб, М. Арбиб. - М.: Мир, 1971. - 400 с.

6. Красовский Н. Н. Теория управления движением / Н. Н. Красовский. - М. : Наука, 1968. - 476 с.

7. Тятюшкин А. И. Многометодная технология оптимизации управляемых систем / А. И. Тятюшкин. - Новосибирск : Наука, 2006. - 343 с.

8. Тятюшкин А. И. Численное исследование свойств оптимального управления в одной задаче преследования / А. И. Тятюшкин, Б. Е. Федунов // Изв. РАН, ТиСУ. - 2005. - № 3. - С. 104-113.

9. Barr R. O. An efficient computational procedure for a generalized quadratic programming problem //J. SIAM Control. — 1969. — Vol. 7, N 3. — P. 415-429.

10. Eaton J. H. An iterative solution to time-optimal control //J. Math. Anal. and Appl. - 1962. - Vol. 5, N 2. - P. 329-344.

11. Gibert E. G. An iterative procedure for computing the minimum of a quadratic from on a convex set // J. SIAM Control. - 1966. - Vol. 4, N 1. - P. 61-80.

12. Tyatyushkin A. I. A multimethod technique for solving optimal control problem // Optimization Letters. - 2012. - N 7. - P. 1335-1347.

A. I. Tyatyushkin

Numerical Methods for Calculation of Time-Optimal Control

Abstract. The article is devoted to algorithms for calculation of time-optimal control in the linear systems. Proposed set of algorithms make possible apply multi-method technique to solving time-optimal control problems with different singularity. Corresponding to this technology the solution is found by a multimethods' algorithm consisting of a sequence of steps of different methods applied to the optimization process in order to accelerate it. Such a technology allows to consider some particularities of the problem of interest at all stages of its solution and to improve the efficiency of optimal control search.

Keywords: convex hull method, attainability set, time-optimal problem, minimax algorithm, linear controlled system.

References

1. Andreev N. Manage finite linear objects (in Russian). Moscow, Nauka 1976, 424 p.

2. Vasil'ev O.V., Tyatyushkin A.I. On the numerical solution of linear time-optimal control (in Russian). Differential and Integral Equations. Irkutsk, University Press, 1973, issue 2, pp. 57-69.

3. Gabasov R., Kirillova F.M. Qualitative theory of optimal processes (in Russian). Moscow, Nauka, 1971, 508 p.

4. Gabasov R., Kirillova F.M., Tyatyushkin A.I. Constructive Optimization Methods. Part 1: Linear problems (in Russian). Minsk, 1984, 214 p.

5. Kalman R., Falb P., Arbib M. Essays on mathematical systems theory. New York, Wiley, 1971 . 400 p.

6. Krasovskii N.N. Theory of motion control (in Russian). Moscow, Nauka, 1968, 476 p.

7. Tyatyushkin A.I., Fedunov B.E. Numerical study of the properties of optimal control in a pursuit problem (in Russian). Math. RAS, Tisza. 2005, no. 3, pp. 104-113.

8. Tyatyushkin A.I. Multimethod optimization technology controlled systems (in Russian). Novosibirsk, Nauka, 2006, 343 p.

9. Barr R.O. An efficient computational procedure for a generalized quadratic programming problem. J.SIAM Control, 1969, vol. 7, no. 3, pp. 415-429.

10. Eaton J.H. An iterative solution to time-optimal control. J. Math. Anal. and Appl., 1962, vol. 5, no. 2, p. 329-344.

11. Gibert E.G. An iterative procedure for computing the minimum of a quadratic from on a convex set. J. SIAM Control, 1966, vol. 4, no. 1, pp. 61-80.

12. Tyatyushkin A.I. A multimethod technique for solving optimal control problem. Optimization Letters, 2012, vol. 7, pp. 1335-1347.

Tyatyushkin Alexander Ivanovich, Doctor of Sciences (Physics and Mathematics), Professor, Institute for System Dynamics and Control Theory of Siberian Branch of Russian Academy of Sciences (ISDCT SB RAS), 134, Lermontov st., Irkutsk, 664033, (e-mail: tjat@icc.ru)

i Надоели баннеры? Вы всегда можете отключить рекламу.