Научная статья на тему 'Преобразования дифференциальных управляемых систем для поиска приближенно-оптимального управления'

Преобразования дифференциальных управляемых систем для поиска приближенно-оптимального управления Текст научной статьи по специальности «Математика»

CC BY
70
17
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ATTENUATED PROBLEMS / ВЫРОЖДЕННЫЕ ЗАДАЧИ / DEGENERATE PROBLEMS / МАГИСТРАЛЬНЫЕ РЕШЕНИЯ / TURNPIKE SOLUTIONS / ОПТИМАЛЬНОЕ УПРАВЛЕНИЕ / ОСЛАБЛЕННЫЕ ЗАДАЧИ / ПРИБЛИЖЕННЫЕ МЕТОДЫ

Аннотация научной статьи по математике, автор научной работы — Гурман Владимир Иосифович, Расина Ирина Викторовна, Гусева Ирина Сергеевна

Показано, что управляемая дифференциальная система общего вида может быть преобразована к эквивалентным системам с линейными управлениями, к которым применимы преобразования к производным задачам меньшего порядка, известные из теории вырожденных задач, доставляющие идеальные магистральные решения исходной задаче. Предлагаются процедуры аппроксимации идеального магистрального решения решениями исходной системы, как при неограниченных линейных управлениях, так и при условии их ограниченности для получения допустимых начальных приближений, и алгоритмы их итерационного улучшения, апробированные на прикладных задачах.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Гурман Владимир Иосифович, Расина Ирина Викторовна, Гусева Ирина Сергеевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Differential Control Systems Transformations to Approximate Optimal Control Search

It is shown that general differential control system may be transformed to equivalent systems with linear control variables. Transformations to derived systems of lesser order known in the theory of degenerate problems are applicable to these systems. Derived problems deliver ideal turnpike solutions to the original problem. There are proposed procedures of ideal turnpike solution approximations by the admissible original problem solutions for both unbounded and bounded linear controls, and algorithms of their subsequent iterative improvements, applied to some practical problems (in Russian)

Текст научной работы на тему «Преобразования дифференциальных управляемых систем для поиска приближенно-оптимального управления»

ISSN 2079-3316 ПРОГРАММНЫЕ СИСТЕМЫ: ТЕОРИЯ И ПРИЛОЖЕНИЯ № 4(22), 2014, с. 123-157

УДК 517.977

В. И. Гурман, И. В. Расина, И. С. Гусева

Преобразования дифференциальных управляемых систем для поиска приближенно-оптимального

управления

Аннотация. Показано, что управляемая дифференциальная система общего вида может быть преобразована к эквивалентным системам с линейными управлениями, к которым применимы преобразования к производным задачам меньшего порядка, известные из теории вырожденных задач, доставляющие идеальные магистральные решения исходной задаче.

Предлагаются процедуры аппроксимации идеального магистрального решения решениями исходной системы, как при неограниченных линейных управлениях, так и при условии их ограниченности для получения допустимых начальных приближений, и алгоритмы их итерационного улучшения, апробированные на прикладных задачах.

Ключевые слова и фразы: оптимальное управление, приближенные методы, вырожденные задачи, магистральные решения, ослабленные задачи.

Введение

Опыт исследования прикладных задач оптимального управления из различных областей (см., например, [1-6]) показывает, что для них типично свойство вырожденности. Под этим понимается наличие в постановке задачи пассивных дифференциальных связей или дискретных цепочек (как правило, скрытых), исключение которых не меняет искомого решения. С одной стороны, это свойство препятствует эффективному применению общих методов, но с другой — открывает возможности упрощений, подчас радикальных, за

Работа выполнена при финансовой поддержке Российского Фонда Фундаментальных Исследований: проекты 12-01-00256-а «Исследование импульсных и гибридных управляемых систем на основе дискретно-непрерывных моделей», 14-31-50879 мол_нр «Модели управляемых систем для поиска приближенно-оптимальных магистральных решений».

© В. И. Гурман, И. В. Расина, И. С. Гусева, 2014

© УГП имени А. К. Айламазяна, 2014

© Институт программных систем имени А. К. Айламазяна РАН, 2014

© Программные системы: теория и приложения, 2014

счет применения специальных методов теории вырожденных задач [7], которые, по существу сводятся к поиску и исключению пассивных связей. При этом исходная задача, нерегулярная с точки зрения общих методов, заменяется точно или приближенно регулярной производной задачей, имеющей меньший порядок, что означает упрощение. В [8] предложена общая схема, использующая этот эффект упрощения для исследования современных сложных задач приближенными методами, в частности, для задания эффективных начальных приближений в итерационных процедурах оптимизации. Для дифференциальных управляемых систем характерным внешним признаком вырожденности является линейная зависимость их стандартных описаний от тех или иных управляющих переменных. Задачи для такого класса систем, с одной стороны, распространены на практике как самостоятельные, а с другой — могут получаться в результате перехода к эквивалентным ослабленным системам путем овыпукления множества скоростей исходной системы [9]. Поскольку такое преобразование универсально, то оно означает, что управляемая дифференциальная система общего вида может быть преобразована к эквивалентной системе с линейными управлениями, причем неединственной. Цель данной работы — предложить конструктивные процедуры таких преобразований, максимально расширить этот класс и, тем самым, возможности дальнейшего применения методов теории вырожденных задач.

1. Преобразование дифференциальной управляемой системы общего вида к эквивалентным системам с линейными управлениями

Рассматривается дифференциальная управляемая система

(1) х = / (Ь,х,и), Ь € Т = [¿/,гР], ж € М", и € и С Мр.

В работах прикладного направления, как правило, рассматриваются множества допустимых решений указанных систем (1), где функции х(€) (траектории) — кусочно-гладкие, а и(€) (программы управлений) — кусочно-непрерывные. Для этой системы ставится задача оптимального управления управления в стандартной форме

ж е х(г) с М", ) = х/, х(ьР) е г, I = ^(х(гР)) ^ м

на множестве О допустимых пар функций (х(Ь), «(¿)), удовлетворяющих перечисленным условиям.

Наряду с исходной системой (1) рассматриваются следующие системы, называемые ослабленными:

т

(2) x = f(t,х,ио)+ ^2ai(f(t,x,ui) - f(t,x,u0)), m < n;

i=1

xd(q + 1) = x(t f (q)), x(t i (q + 1)) = xd(q + 1),

т

(3) x = f(t,x,uo)+ ^2ai(f(t,x,ui) - f(t,x,uo)), m < n,

1=1

q = 0, 1,..., qF, xd(0)=xI;

т

ai < 1, ui e U, ai > 0;

1=1

(4) x = g(t,x) + h(t,x)w, w e W(t, x) С Rfc, к < n.

Правые части (2) представляют собой выпуклые комбинации правых частей исходной при различных значениях u e U.

Система (3) дискретно-непрерывная (ДНС) [10], на каждом дискретном шаге которой действует система (2). При этом исходная задача переписывается как задача верхнего уровня:

x e X(t) С R", x(tI(0)) = xI, xd(0) = xI,

x(tF(qF)) e Г, I = F(xd(qF)) ^ inf .

Правая часть (4) представляет собой параметрическое описание выпуклой оболочки множества скоростей (скоростного годографа) системы (1): V(t,x) = f(t,x, U), W(t,x) — выпуклое множество в пространстве (w).

Множество решений каждой из этих ослабленных систем шире (не уже), чем множество решений исходной системы, поскольку все они содержат дополнительные управления (ui, ai). При ai = 0 любая из ослабленных систем переходит в исходную. Справедливо утверждение:

Теорема 1. При перечисленных выше предположениях любая из систем (2), (3), (4) эквивалентна исходной (1) в следующем смысле: пусть x(t) — непрерывная траектория любой из систем (2), (3), (4) на ограниченном отрезке T, тогда существует последовательность jxs(t)} кусочно-гладких траекторий системы (1), сходящаяся на T равномерно к x( ) .

Доказательство. Доказательство этой теоремы конструктивное, аналогичное доказательству теоремы 2.1 из [7], состоит из двух частей: 1) построение указанной аппроксимирующей последовательности, 2) доказательства ее сходимости к решению системы (2). Здесь приведем первую часть, важную для практической реализации. Вторая часть приводится в разделе «Приложение. Доказательство теоремы 1».

Для системы (2) при любом т последовательность {жя(£)} построим следующим образом. Разобьем отрезок Т на в частей Тр = \ьр-1, 1Р] точками р = 1, 2,..., в, ¿о = , = Ьр, включающими все точки разрыва х(Ь). В каждой точке Ьр-1 имеем х +0) — правый предел ¿(¿) и некоторое представление

т

х (гр-1 + 0) = а1 (¿р-1) I (¿р-1,х (¿р-1), и1 (^р-1)), 1 = 0

поскольку

х (гр-1 +0) € Ус (гр-1, х (ьр-1)).

Далее, каждый отрезок Тр разобьем на т + 1 отрезков: Тр1 =

\^р1,^р(1+1)}, Тр = и ТР1, Ьро = Ьр-1, ЬРт = Ър, длиной а.1 (Ьр-1) АЪр, I

где АЬр = Ьр — Ьр-1. Зададим функцию ха(Ь) как непрерывную ломаную, составленную из решений уравнения х = /(Ь, х, и) на отрезках Тр1 при и = щ(1р-1), начинающуюся из точки (Ьх,х (Ьх)), так что х8 ) = х ). Схема построения последовательностей приведена на рис. 9 в разделе «Приложение. Доказательство теоремы 1». Далее практически дословно повторяется доказательство теоремы 2.1 из [7].

Система (3) является дискретно-непрерывным представлением системы (2). Переписав ее в непрерывном виде, получим непосредственно (2), для которой эквивалентность уже доказана.

Из системы (2) в случае т = п получается система с выпуклым множеством скоростей (4), которая может быть представлена как аффинная относительно управляющих переменных. □

Пример 1. Рассматривается следующая система

(5) х1 = х2 — и, х2 = х3и, х3 = х1(и)2, и € [0, 10].

Рис. 1. Множество скоростей

На рис. 1 представлено ее множество скоростей в нескольких фиксированных точках х (в данном примере оно не зависит от £).

Для системы (5) представление (2) записывается в виде:

х1 = х2 — ио — а1(и1 — ио), х2 = х3щ + х3а1(и1 — ио), х3 = х1(ио)2 + х1а1((и1)2 — (ио)2), при т = 1 с одним линейным а1 и двумя нелинейными управлениями ио, и,1\

х1 = х2 — ио — а1(и1 — ио) — а2(и,2 — ио), х2 = х3ио + х3а.1(и,1 — ио) + х3а.2(и,2 — ио), х3 = х1(ио)2 + х1а1((щ)2 — (ио)2) + х1а2((и2)2 — (ио)2), при т = 2 с двумя линейными а1, а2 и тремя нелинейными управлениями ио, щ, и,2. При т = п (п = 3) система (2) имеет вид:

3

х1 = х2 — ио + аь(ио — щ), 1=1 3

< х2 = х3ио + х3 (щ — ио), 1=1

3

X3 = х1(ио)2 + х1^ а1((и1)2 — (ио)2), 1=1

где а1, а2, &3 — линейные, а ио, и1, щ, щ —нелинейные управления, и сводится к представлению (4):

только с двумя линейными управлениями и>2, где и^ принадлежат выпуклой области W, показанной на рис. 2.

^ X

Рис. 2. Выпуклое множество W

Обратим внимание, что в общем случае множество W зависит от t, х как параметров. В примере 1 оно постоянно — это свойство любых автономных систем линейных относительно состояния, что подтверждается следующей теоремой.

Теорема 2. Пусть система (2) имеет вид

х = A(t, и) + B(t, и)х.

Тогда множество управлений W для системы вида (4) не зависит от переменных состояния х.

Доказательство. Следует из тождества

m

A(t,uo) + B(t, ио)х+ J2 ai(A(t,ui) + B(t, ui)x-i=i

-A(t, uo) — B(t, uo)x) = (g(t) + h(t)w)x.

Отсюда

{m

A(t, uo) + E at(A(t, ui) — A(t, uo)) = 0,

i=i m

В (t, uo) + J2 ai(B(t, щ) — В (t, uo)) = g(t) + h(t)w. i=i

Эти соотношения от x, как видно, не зависят.

В частности, если А и В не зависят от t, то и множество W не будет зависеть от t. □

2. Преобразование систем с линейными управлениями

к производным системам. Поиск магистральных решений

Для модели (4) при естественных предположениях возможно непосредственное преобразование к производной системе ([9], гл. 2):

(6) у = Vx9(t,x) + '4t, х е Q(t,y) = [х : у = ф,х)}, и, соответственно исходной задачи — к производной задаче

y(ti) = У1, у е Y(t) с Шп-к, y(tF) = ур,

J = Fу(y(tF)) ^ inf, Fу(у) = minF(x(tF)).

Q

Здесь у = 'q(t,x) (у е Шп-1, I > к) —интеграл (инвариант) предельной системы

(7) ^ = h(t,x)w, w е R. ат

Пусть z — вектор криволинейных координат на интегральном многообразии. Это означает, что существуют взаимно однозначные отображения у = r/(t,x), z = £(t,x) и х = £(t,y,z) при каждом t. Выполняя переход к новым переменным у, z, систему (4) можно представить в виде [11]:

(8) у = ду (t,y,z),

(9) i = gz (t, у, z) + hz (t, y, z)w, w е Rk.

Если исключить уравнение (9), получим непосредственно производную систему. Очевидно, множество решений производной системы получается шире, чем исходной, т.е. любое решение исходной системы (кусочно-гладкое) x(t) удовлетворяет производной, но не наоборот, причем производная система допускает разрывы траектории, как на границах временного интервала, так и внутри него, реализуемые скачком во времени.

Однако, в случае неограниченного управления w исходная и производная системы эквивалентны, в том смысле, что любая траектория производной системы в пространстве (t, х) может быть аппроксимирована последовательностью траекторий xs (t) исходной системы с любой степенью точности при достаточно большом управлении w [9,12]. В представлении (8) разрывным оказывается только функция z(t), которая играет роль управления. Эта функция аппроксимируется последовательностью кусочно-гладких функций zs(t) с растущими

производными г3 в окрестностях точек разрыва, при этом управление и) находится из условия выполнения исходной дифференциальной связи:

та(1) = (к)-1(1,уа$), га(1))(¿а(г) — с/(г, уа(1), га(Щ .

Производная задача для (8)-(9) описывается следующим образом:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

у(*I) = У I, у е Y(í) С Шп-к, у(Ьр) = уР,

3 = ^У(у(Ьр)) ^ , ^(у) = шш ^(Ф, у, г)).

Как видно, эта задача имеет порядок (п — к) ив этом смысле проще исходной.

В ряде задач инвариант предельной системы удобно задавать в параметрическом виде [13]. Формально такое представление получается, если присоединить к системе (4) уравнения д,г/д,т = и>. Такое представление симметрично, однако оно не дает эффекта понижения порядка, хотя и приводит к регуляризации вырожденных задач.

Траектория решения производной задачи, называемого идеальным магистральным, кусочно-непрерывна в пространстве ^,х) [11]. В [9] показано, что если множество W не ограничено и предельная система вполне управляема на инварианте, то она может быть аппроксимирована траекториями исходной системы (4) с любой точностью при достаточно большом управлении и>. В [12] доказана соответствующая теорема.

Как видно, производная задача аналогична исходной и может быть преобразована также к производной задаче следующей ступени и т.д., т.е. такое преобразование рекурсивно, что позволяет многократно понижать порядок производной системы.

В общем случае ослабленной системы (2) фиксируются некоторые кусочно-постоянные программы щ*(Ь) = Щд, ц е ^ч, и на каждом таком интервале делается переход к производной системе (6) с параметрами щч:

у = 11х ,х,иод) + гц, х е , у) = {х : у = ф ,х)},

х

где у — интеграл предельной системы — = п(1, х, щч)а, а — вектор-столбец линейных управлений (а1,..., ат), а матрица

к(г,х,щч) = (¡(г,х,и1Я) — ¡(г,х,и0с1),...,/(г,х,и„щ) — /(г,х,и0с1)).

В случае ослабленной системы (3):

xd(q + 1) = x(tF (q)), x(h (q + 1)) = xd(q + 1),

m

X = f (t,X,U0q ) + (f (t,X,Ulq ) - f (t,X,U0q )), TO < П.

1 = 1

Поскольку в этом представлении дискретная система верхнего уровня не содержит линейных управлений, то производная система для нее не выписывается, а на каждом интервале постоянства q € [tq,tq+i) производная система на нижнем уровне имеет свое магистральное решение, которое может быть аппроксимировано траекториями исходной системы по схеме, предложенной в теореме, излагаемой в разделе 4.3. Такая дискретно-непрерывная модель аппроксимирует с любой точностью непрерывную дифференциальную систему, называемую сопровождающей [14], которая также ведет к идеальному решению:

у = r¡x(t,x, [ui])f (t,x,uo) + r¡t(t, x, {«,}).

При ограниченных управлениях магистральные решения аппроксимируются решениями исходной задачи (рассматривается в разделе 4.3), как и в предыдущем случае, но не с любой точностью (эта точность может быть ограничена). Для улучшения построенного приближенного магистрального решения строится внешняя оценка допустимой области достижимости [7, 9]. Это позволяет косвенно учесть отброшенные ограничения на линейные управления при поиске идеального магистрального решения путем их замены подходящими фазовыми ограничениями.

ПРИМЕР 2.

х1 = cos х2 — (и)2, х2 = и, |w| < 1,

t € [0, 2-kI ж1(0) = х2(0) = х2(2п)=0, I = х1(2-к) ^ min.

Для заданного отрезка времени эта задача невырожденная, т.е. имеет допустимое решение, хотя найти его непросто, поскольку оно содержится, как нетрудно проверить, в континуальном множестве экстремалей Понтрягина. Действительно, выпишем условия принципа максимума Понтрягина:

Н = ф1(cos X2 — (и)2) + ф2и, ф1 = —Hxi =0, ф2 = —Hx2 = ф1 sin X2,

ф1 (2тг) = — 1, ф2(2тг) = 0, ф1 = — 1, Н ^ max .

|и|<1

Меняя ф2(0) от —2 до 2 получим семейство экстремалей вида (см. рис. 3б), «прижимающихся» к оси t : x2(t) = 0.

Заменим исходную систему системой с овыпукленным множеством скоростей (рис. 3а):

х1 = cos х2 — w1, х2 = w2, (w2)2 < W1 < 1, |w2| < 1.

Построим внешнюю оценку области достижимости (рис. 3в), границы которой совпадают с точными и описываются уравнениями:

Xi,u = cos (x2)u,t — (w1)u,h x2u l = ±1, |w2| < 1,

при указанных выше граничных условиях. Снимем ограничения

скоростей экстремалей достижимости

Рис. 3.

на управления w1, w2. Множество скоростей расширяется до всей плоскости. Ему соответствует также вся плоскость (х1, х2) в качестве интегрального многообразия, т.е. производная задача — это задача о минимуме I = х1(2эт) без дифференциальных связей. При построенных границах множества достижимости решением служит, например, (х2)и(t), w1(t) = 1, w2 = ±1, которая при наложении связей задает решение исходной задачи, соответствующее верхней границе (x2)u(t). Аналогично получается симметричное решение, соответствующее нижней границе.

ПРИМЕР 3.

X1 = (х2)2 + (и)2, X2 = и, |и| < 1, te [0,1], х1(0) = 0, ж2(1) = ж2(1) = 1, I = x1(1) ^ min.

Система с овыпукленным множеством скоростей:

х1 = (ж2)2 + ад1, х2 = ад2, (ад2)2 < ад1 < 1, |ад2|< 1.

Выполняя преобразования как и в примере 2, получаем задачу о минимуме ж1(1) с учетом построенных границ:

х1 = (х2)2 + ад1, х2 > х2(г), ад1 > 0.

Граница для ж2(£) строится аналогично предыдущему примеру, а решением служит пара ж2(£), ад1^) = 0, которая, в отличие от примера 2, исходным связям не удовлетворяет. В качестве начального приближения управления в исходной задаче можно взять и(Ь) = 0, либо и = х^(Ь). При и(Ь) = 0 значение I меньше, так что целесообразно выбрать и(Ь) = 0, что в данном случае отвечает здравому смыслу.

Рис. 4.

3. Общая схема приближенного исследования исходной задачи

Предлагается следующая схема исследования исходной задачи.

1. Строится внешняя оценка области в пространстве (£, х), заполняемой допустимыми траекториями.

2. Выполняется преобразование исходной задачи к задачам с линейными управлениями.

3. Выбирается одна из эквивалентных задач и находится ее идеальное магистральное решение.

4. Производится аппроксимация идеального магистрального решения допустимым решением эквивалентной задачи.

5. Полученное магистральное решение принимается в качестве начального приближения и уточняется некоторым итерационным методом.

6. Уточненное решение эквивалентной задачи реализуется как скользящий режим исходной системы общего вида, в частности оказывается ее допустимым решением.

Поиск идеальной магистрали может проводиться итерационными методами применительно к производной задаче.

Рассмотренная схема, как видно, многовариантна: на всех этапах появляются различные варианты, которые могут быть применены в конкретных случаях.

4. Реализация этапов общей схемы

В этой части исследование проводилось для ослабленной системы с выпуклым скоростным годографом, при предположении о коммутативности некоторого набора столбцов матрицы , х) для ослабленной системы (4). Коммутативность, как известно [9,15], выражается условием

(10) к1 £ - ^=0,

где кт, Ъ,1 — то- и /-столбцы матрицы , х) соответственно, дкт/дх, дЬ,1 /дх — матрицы частных производных кт, ^ по компонентам х. Выполнение этого условия означает, что инвариант предельной системы имеет ту же размерность к, что и вектор управления и>. Для скалярного управления и> это условие выполняется тривиально.

Обратим внимание, что рассмотренная схема не требует построения множества W, что в общем случае является трудоемкой процедурой. Достаточно построить аффинную оболочку исходного множества скоростей, поскольку идеальное магистральное решение ищется при предположении о неограниченности этого множества W, иными словами, о том, что овыпукленное множество скоростей совпадает со своей аффинной оболочкой.

4.1. Построение оценок границ допустимой области

На этапе 1 строятся простые (параллелепипедные) оценки границ допустимой области по методике ([7], С. 59) на основе оценок множеств достижимости (МД), порождаемых некоторыми начальными условиями. Построению множеств достижимости аналитическому и численному, исследованию их свойств и оценкам (внешним и внутренним) посвящена обширная литература, например [9,16-22]. Применяемая здесь процедура построения оценок МД разработана в ([9], гл. 5) с помощью семейств функций типа Кротова. Среди них особое место занимают простые оценки, когда оценочные функции совпадают с фазовыми координатами. На их основании в [7] предложена следующая методика построения параллелепипедных оценок границ допустимой области для общей задачи оптимального управления, поставленной в разделе 1.

Значения всевозможных функций x(t), соответствующих классу D, при данном t, образуют некоторое множество X(D)(t), называемое условно допустимой областью достижимости. Очевидно, задача не исказится, если в постановке или на любом этапе исследования заменить множество X(t) множеством или любым другим

промежуточным между X(t) и X(D)(t) множеством X(*)(t), т.е. таким, что X(D)(t) С X(*^(t) С X(t).

Для построения множества X(D)(t), образуем из исходной системы (1) х = f (t,x,u) следующую систему 2п дифференциальных уравнений:

х\и = (inf, sup)f1 (t,x,u), и € U, х € Kl(t,xlu), Ki(t,x\^u) = [x : x\ < xj < x{, j = i} П X(t), i,j = l~n.

Решим задачу Коши для этой системы при начальных условиях х\ u(tj) = х\, где Гхг(T) — проекция множества Г(Т) на ось хг.

Аналогичное построение проведем, интегрируя справа налево систему, отличающуюся от (11) только тем, что операции (inf, sup)f1 заменены на противоположные (sup, inf)/г. Начальные условия задаются следующим образом: xll u(tp) = inf, sup(r.^ П X(tp)). Тогда в качестве X(D)(t) может быть принято следующее множество:

X(D)(t) = [х : х\ < xi < xi,i = !,..., п}П X(t).

(11)

Эта оценка получается из общей процедуры оценивания множеств достижимости [9] с помощью оценочного семейства функций типа Кротова, если в качестве такового принять простейший набор

{рг^, х) = ±хг, г = 1,...,п}.

4.2. Алгоритмы построения аффинной оболочки

На этапе 2 предлагается два достаточно простых алгоритма построения аффинной оболочки, основанных на дискретной аппроксимации исходного множества и конечным набором из т точек, каждой из которых соответствует некоторый вектор скорости V¡{Ъ,х) =

, х,щ), I = 1,... ,т.

Алгоритм 1.

1. Для любых двух точек из выбранных (для удобства ,х) и ,х)) строится аффинная оболочка наименьшей размерности — прямая: ,х) = а^^,х) + а^^,х), иначе, ,х) = ,х) + (, х) - У!^,х))а2.

2. Далее последовательно проверяются точки г^(1, х) (к = 3,..., т) на принадлежность построенной аффинной оболочке с заданной точностью . В случае принадлежности точка исключается, иначе — строится новая аффинная оболочка большей размерности вида

Более конкретно: минимизируется по ai квадрат нормы невязки к к Ivk+i — J2 viai|2, и проверяется результат max |vk+1 — ^ viai\ < е.

i=i xex(°)(t) i=i

При выполнении этого неравенства соответствующая точка из набора исключается.

3. На выходе алгоритма получается уравнение гиперплоскости

где д(Ь,х) = ,х), Ъ,(Ь,х) — матрица столбцов вида (у^Ь,х) — ,х)), и € W(t, х) — вектор управления размерности аффинной оболочки.

На этапе 3 алгоритма, по существу, применяется известный метод наименьших квадратов, который сводится к решению невырожденной системы линейных алгебраических уравнений.

(12)

v(t, х) = g(t, х) + h(t, x)w,

Алгоритм 2.

1. Выписывается аффинная комбинация всех выбранных точек

т

(13) v(t, х) — V\(t, х) ^ Vi(t, х) — V\(t, x))ai,

i=2

т. е. v = g(t,х) + h(t,х)а.

2. Далее определяется носитель ранга матрицы h(t, х), остальные слагаемые в (13) исключаются (эта стандартная операция, содержащаяся, например, в пакете MAPLE).

3. Получается уравнение гиперплоскости (12), где w — вектор управления, состоящий из ai, удовлетворяющих базисным столбцам. Размерность вектора управления равна размерности аффинной оболочки.

Предполагается, что ранг при различных значениях и х не изменяется. Если это условие не выполняется для всех t, х, целесообразно применять дискретно-непрерывное представление.

Пример 4. Рассматривается следующая система

х — х ^

+ (х3)2(и)3,

х2 — х3и + х1(х2)2,

х3 — х —и + х1(и)

•4 3,2

х4 — х3и + х2,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

и € [—5, 5].

В результате работы обоих алгоритмов получается:

g(t,х) = (—5х2 — 125(х3)2, х1(х2)2 — 5х3, 625х1 + х2 +5, х2 — 5х3)Т,

h( , х) —

( х2 + 61(х3)2 2х2 + 98(х3)2 3х2 + И7(х3)2 ^ х3 2х3 3х3

х 2х 3х

\

— 1 — ЗбЪх1 —2 — 544х1

х3 2 х3

—3 — Шх1 3х3

а w — вектор-столбец (w1 ,w ,w ).

4.3. Поиск идеального магистрального решения и его аппроксимация допустимыми

На этапе 3 рассматриваются всевозможные сочетания коммутирующих столбцов матрицы h(t,х) (удовлетворяющих условию (10), которое заведомо выполняется для п х 1-матрицы) и для каждого сочетания строится производная система для системы вида

х — g(t, х) + h1(t, х)л1 + h2(t, х)л2,

4

где , х) — подматрица с коммутирующими столбцами, ,х) — подматрица с остальными столбцами. Производная система получается с инвариантом у = г/^, х) предельной системы ],х/],т = , х)ад2:

(14) у = г/х(д(г,х) + к1(Ь, х)ад\), у = Г)(Ъ,х).

Существование взаимно однозначных при каждом отображений у = г!(Ь, х),х = С,^, х) и ж = , у, г) позволяет привести систему (14) и остальные атрибуты задачи оптимального управления к виду

(15) у = ду(г,у, г) + к(Ь,у, г)ад1,

у(*1) = У1 ,у е У(*) с Шп-к, у(ь р) е гу (г), Г> = Ру (у(Ь р)) ^ , Ру (у) = шт^ (Ф р ,у, г)).

Замена скоростного годографа (15) его аффинной оболочкой приводит к системе вида (4), что позволяет перейти рекурсивно к производной системе следующей ступени, и т.д. Для этого достаточно построить аффинную оболочку множества скоростей системы (15) с учетом априорной оценки множества Х( полученной на этапе 1 общей процедуры.

На этапе 4 идеальное магистральное решение в окрестностях точек разрыва траектории заменяется допустимым решением с достаточно большим управлением ад2 е W2. При неограниченном W2 это обеспечивает приближение к идеальному с любой точностью, иначе — с ограниченной точностью. Применяется метод экстремального прицеливания Н.Н. Красовского, который сводит поиск аппроксимирующего управления ад2 к конечномерной оптимизации при каждом . При больших ад2 используется замена времени по правилу Л/]т = 1/|ад2|:

],х 1 ад2 Л 1

(16) Тт = Щ(а(г ,х) + к1(г ,х)ад1) + к2(г ,х) ы, Тт = ы.

Очевидно, при |ад2| ^ то (16) переходит в предельную систему (7). Будем искать ад2 из условия

^ шт ,

Ш2 ËW2

(],Т (],Т

иначе, после подстановки правой части (16),

1 ад2

--А д(г,х) + к1(г,х)ад1) + ,х)~-г - —

|ад21 |ад2|

^ шт

Ш2ËW2

Отсюда видно, что решение сводится к конечномерной операции минимизации, которой замыкается система (16). Поскольку предельная система и система (16) начинаются из некоторой общей точки (t',х'), их траектории в пространстве (t,х) будут при естественных теоретико-функциональных предположениях сколь угодно близки. Этим и оправдывается применение данного способа. Аппроксимирующая траектория продолжается до точки (t", х'') на минимальном расстоянии от целевой магистрали, т.е. удовлетворяющей условию l(t(r), х(т)) — (t,X(t))l ^ min. От этой точки интегрируется система

т

(16) при магистральном w2 до начала следующего переходного участка (например, до следующей точки разрыва), и т.д. Таким образом, получается приближенное магистральное решение.

Верхняя оценка приближения определяется следующими неравенствами:

I('ñn) — inf I < А = I('ñn) — I(m),

где ñh € D — допустимое решение исходной задачи, m — идеальное магистральное решение.

Пример 5. (Управление линейным осциллятором).

, . X1 = х2 и, X2 = —1 — х1и, [и\ < a, t € [0, tp], tp = 3, х(0) = х0, 1 = сх2(Ьp) ^ inf, с = ±1.

Система в (17) относится к типу (4). Идеальное магистральное решение при = —1 показано на рис. 5 и получается переходом к производной системе. Для этого записывается предельная система и находится ее интеграл

dх1 / dr = х2и, d^2/dr = —х1и, у = 1х1.

После удобной замены переменных х1 = у cos в, х2 = у sin в получается производная задача (1-го порядка)

у= — sin в, уо = |хо|, 1 = cy(tp)sin6(tp) ^ inf.

Решение (почти очевидное): sin в = —1, sin Q(tp) = — с. Его траектория имеет единственный разрыв в точке p = 3.

Рассматриваются ограничения вида |и| < a, a = 1;2; 5; 10. Результаты представлены на рис. 5. Видно, что с увеличением a приближенное магистральное решение аппроксимирует идеальное с возрастающей точностью.

Рис. 5. Результаты аппроксимации

Основанием для предлагаемых построений служат конструкции членов аппроксимирующей последовательности при неограниченном управлении, а также следующая теорема о точном магистральном решении представительной задачи со скалярным линейным управлением.

Теорема 3. Пусть y(t), z(t) — идеальное магистральное 'решение для следующей задачи:

(18) у = g(t,y,z), y(tj) = У1, J = Fy(y(tF),z(tF)) ^ inf,

Z = U, и e [Wmin,Wmax], z(tl) = Zi,

(со свободным правым концом) с единственной магистралью y(t), z(t) на отрезке [ti,tp], где на интервале (ti,tp) z(t) дифференцируема и z e [umin,umax\. Функция Беллмана B(t,y) соответствующей производной задачи (18) при любом фиксированном z(tF) = zp гладкая, ее производная в силу системы Вуg(t, у, z) + Bt строго выпукла по z при любых t и у в рассматриваемой области. Тогда точное решение этой задачи получается в общем случае как решение производной системы при непрерывном z*(t), состоящим из трех участков: начального и конечного, получаемых при граничных управлениях и, и среднего участка, на котором z*(t) = z(t).

Доказательство. Зафиксируем z(tp) = zp как параметр и построим границы решений уравнения z = и при заданных z(t[), z(tF) как решения этого уравнения при и = {umin, umax}, проходящие через фиксированные точки (ti,z(ti)), (tF,z(tF)) (рис. 6).

Рассмотрим обобщенный лагранжиан задачи с функцией Кротова заданной как функция Беллмана производной задачи с обратным

Рис. 6. Идеальная магистраль и допустимая область

знаком p = —B(t,у):

ftp

L = G(ур, zp) — R(t,у, z)dt,

J11

G(у, z) = Fy (у, z) + p(tp, у) — p(ti, уi), R(t, У, z) = ф1^g(t, у, z) + pt.

Поскольку G(ур, zp) = const = —p(ti, у1), то минимум L соответствует максимуму функции R(t, у, z) при каждом t (поскольку граничная точка (tр, z(tр)) фиксирована) и достигается на магистрали z(t), если при данном t z(t) лежит в пределах построенных границ и на одной из этих границ, если магистраль выходит за эти границы. Это как раз соответствует аппроксимации, построенной по указанному правилу. Варьируя z(tр) как параметр, получим семейство границ и зависимость функционала L(z(tр)), совпадающего с I на этом семействе, которую и следует минимизировать. Тем самым определяется точка z(tр) и магистральное решение, которое оказывается точным, поскольку выполняются достаточные условия оптимальности. Отсюда следует утверждение теоремы. □

Отметим, что фигурирующая в теореме задача представляет собой обобщение вырожденной задачи о минимуме простейшего функционала вариационного исчисления, для которой впервые был предложен так называемый «другой формализм» [23], как специальный способ задания разрешающей функции Кротова для такой задачи.

z

t

t

F

4.4. Исследование задачи Фуллера третьего порядка

В целом, в результате многоступенчатой аппроксимации соответствующая программа адэ^) приобретает выраженный переключательный характер, причем число переключений растет с увеличением числа ступеней. Об этом дает представление приложение данного подхода к известной задаче Фуллера третьего порядка [24]:

= (х1)2,

4 е [0,1],

и г

I = х°{1) ^ М, ж°(0) = 0, жх(0) = х2(0) = 1.

Здесь производные задачи различных ступеней получаются простым исключением дифференциальных связей, а магистрали обеих ступеней — нулевые.

Эксперимент состоит в том, что на каждой ступени этой задачи производится аппроксимация в классе кусочно-непрерывных управлений и дается ее сравнение с аппроксимацией в классе кусочно-гладких управлений.

Вначале рассматривается идеальное магистральное решение второй ступени: ж1(0) = 1, х1(г) =0, 4 е (0,1]. Она аппроксимируется решением производной системы первой ступени. Для этого строится кусочно-гладкая функция х1^) = — в4+1 при 4 = [0,4*), х1(г) = 0 при 4 = [4*, 1], где 4* = 1/8 (рис. 7). Отсюда из уравнения х1 = х2, х2(г) = —в при 4 = [0,4*), х2(г)

гг г

Рис. 7. Аппроксимация

0 при 4 = 1]. Как видно,

х (€) претерпевает разрывы в точках 4 = 0 и 4 = 4*. Это идеальное магистральное решение исходной системы. Оно в свою очередь

2

аппроксимируется кусочно-гладкой траекторией:

—д г+1, — я,

ф — д/8, 0,

^ [0, г 1 ,),

£ € вд, £зд), t€ [г2д,Í**), ^**, 1];

,

0,

^ [0, * 1 д ),

^ € №эд, ¿зд),

^ [г2д,г**), *€ ^**, 1];

где t2 д = (в + 1)/д, Ь2 д = (д/в — в )/д. В результате получается допустимая двухиндексная последовательность {т2д} = {х2д(¿),ияд} и соответствующая последовательность д. Из нее выбирается одно-индексная последовательность {т2} = {т2ф)}, где д(в) задается по правилу 118 — М Ц « 1— 12дI, индексы вид целые.

Это решение сравнивается с гладкой траекторией выхода в точку , где X(1) задавалось в виде многочлена X(1) = (1 —Ьв)2(1 + 2£в + £) при Ь € [0, Ь 2) и X (г) =0 при í € [г2, 1] (В.В. Трушков [25]).

Результаты сравнения представлены на рис. 8 (при в = 2) и в табл. 1. Как видно, первый способ, хотя и более сложный дает меньшее значение функционала, т.е. в этом смысле он более эффективен.

2

х

и

Таблица 1.

в 2 3 5

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ь 0.2294 0.1421 0.0791

12 0.2708 0.1759 0.1033

4.5. Итерационное улучшение приближенного магистрального решения

На этапе 5 строится алгоритм итерационного улучшения приближенного магистрального решения как начального приближения, применимый на различных этапах общей схемы. В основу положен известный метод Кротова глобального улучшения управления [26]. Предлагается модификация метода, которая состоит в замене исходного множества скоростей его выпуклой оболочкой. Это повышает его эффективность, поскольку сводит основную операцию к максимизации линейной формы относительно управления на выпуклом множестве, которое может быть существенно шире исходного скоростного годографа.

О 0,2 0,4 0,6 0,8 1 0 0,2 0,4 0,6 0,8 1

I /

Рис. 8. Результаты сравнения способов аппроксимации

Напомним вкратце идею метода применительно к управляемой системе общего вида (1). Задача улучшения состоит в том, чтобы для заданного процесса т1 € О найти другой (лучший) процесс т11 € О, на котором значение функционала меньше: 1(ти) < I(т1). Рекурсивное повторение операции улучшения приводит к итерационной процедуре, порождающей улучшающую, в частности минимизирующую, последовательность.

Эта задача решается по принципу расширения [2] заменой исходной задачи (~О,1) на ее расширение (Е, V), где Е получается исключением дифференциальной связи, а Ь — обобщенный лагранжиан Кротова

ь = с(х(гР)) - ! к(г, х(г), и(г))<и,

с(х) = Р(х) + <р(гР, х) - <р(г/, х(гТ)), К(1, х, и) = (I, х)!(I, х, и) + Фь^, х),

х) — гладкая функция, которая в общем случае задается как решение задачи Коши для линейного уравнения в частных производных [27]

(19) } (г,х,и1(г)) + щ = 0, ^ (х) + <р(ъР ,х) = 0.

Процедура решения состоит из следующих шагов.

1. Для некоторой заданной программы управления и1 (1) слева направо интегрируется система (1). Получается пара т1 = (х(Ь),и(Ь)У.

2. Справа налево интегрируется уравнение в частных производных (19). Получается некоторое решение (р(1й,х).

3. Слева направо интегрируется система (1), при этом управление получается из условия максимума соответствующей функции

, х, и):

ии ,х)=arg тах Ни ,х,и).

«еи(4 ,х1(г))

В результате получается пара т11^) = (хп(£), и11(1) = й(Ь,х11(1))), такая что 1(т11(1)) < 1(т1(1)).

Эта процедура генерирует итерационный процесс и соответствующую улучшающую последовательность элементов {т2} € О, сходящуюся по функционалу, если он ограничен снизу. Для линейных относительно состояния задач

, х, и) = А(Ь, и)х + В(1, и), Р(х) = стх,

уравнениям (19) удовлетворяет линейная по х функция р вида ,х) = 1/(1) + фт(1)х, и (19) сводятся к задаче Коши для системы п +1 обыкновенных дифференциальных уравнений

ф(г) = —Ат(г, и\г))ф(г), ф(г р) = — с,

1>(г) = —вт(г, и1(г))ф(г), ^(г р) = 0.

Для линейно-квадратических относительно переменных состояния задач

х = А(Ь, и)х(Ь) + В^, и), х0 = хта(£, и)х,

I = х0(г р) + г]тх( гр) + хт (г р )рх(г р), уравнениям (19) удовлетворяют линейно-квадратическая р

^(г ,х,х0) = и(г) — х0 + ф(г)х + 1/2хта(г)х, коэффициенты которой получаются ее подстановкой в (19).

В общем случае нелинейных систем операторы улучшения могут строиться путем задания функции в форме многомерных степенных полиномов и такой же полиномиальной аппроксимации в заданной области соотношений (19) на некоторой сетке узлов в окрестности текущего приближения. Размеры окрестности могут регулироваться по принципу локализации во взаимосвязи с порядком аппроксимирующих полиномов. Это дает возможность строить разнообразные итерационные процедуры различных порядков, в том числе — много-методные [28, 29], с учетом специфики конкретных задач и с ориентацией на параллельные вычисления.

В [30] была проведена серия вычислительных экспериментов с алгоритмами, реализующими метод глобального улучшения и его локализованные версии с целью изучения возможности улучшения неподвижных элементов. Для рассматриваемого алгоритма глобального улучшения и его модификаций любая экстремаль Понтряги-на (решение уравнений принципа максимума Понтрягина) является неподвижным элементом соответствующего оператора улучшения. Однако неподвижность элемента не означает, что он не улучшаем тем же самым итерационным алгоритмом. Как наглядно демонстрируют проведенные вычислительные эксперименты, малое возмущение не оптимального (хотя бы локально) неподвижного элемента активизирует итерационный процесс улучшения до достижения локального оптимума. С другой стороны, попытка улучшить оптимальный элемент за счет его малого возмущения возвращает к исходному. Иными словами, оптимальность в терминах алгоритмов улучшения непосредственно связана с устойчивостью итерационного процесса. Это относится и к таким специфическим элементам как особые режимы экстремалей Понтрягина, где соответствующее управление в результате операции улучшения определяется неоднозначно.

Как отмечалось в [31], для нелинейных относительно управлений моделей применение операции овыпукления множества скоростей позволяет расширить — подчас весьма существенно — область поиска улучшенных режимов управления и направлений улучшения, и в приложении к тому или иному методу улучшения создает потенциальную возможность повысить его эффективность. Это обстоятельство мотивирует следующую модификацию представленного выше метода глобального улучшения, вполне естественную в контексте данной работы, где с самого начала рассматривается система

(4) с овыпукленным множеством скоростей, эквивалентная исходной. Укажем изменения в описанном выше алгоритме, связанные с этой модификацией:

R(t, x, w) = tpT(t, x)g(t, x) + tpT(t, x)h(t, x)w + <pt(t, x),

<plg(t, x) + <plh(t, x)w1(t) = 0,

W(t ,x) = arg max (<pT(t ,x)h(t ,x)w). wew(t,xl(t))

Видно, что основная операция метода — поиск максимума функции R по w сводится к хорошо изученной задаче выпуклого программирования, более точно, к задаче о максимуме линейной формы на выпуклом множестве.

Для сложных систем эта задача может решаться итерационными методами, в частности, градиентными. Выпишем конструкции, необходимые для применения градиентных процедур:

Н(t, x, w) = фT(g(t, x) + h(t, x)w),

ф = -фтхд - фтgx + + фThx)w1, ф(ЬF) = -Fx(x(tf)).

Ограничения множества W могут учитывается посредством экспоненциальных штрафов либо иным известным способом, например, методом внутренних точек. Поскольку в общем случае описание множества W в явном виде может быть достаточно сложным, то возможно применение этого метода в терминах системы (2):

m

x = f(t,x,uo) + ^2ai(f(t,x,ui) - f(t,xx,uo)), m > n, 1=1

где ui (I = 0,...,m) — дискретный набор точек из множества U. Здесь управлениями служат «весовые коэффициенты» ai.

5. Приложение ДНС к аппроксимации кусочно-непрерывной идеальной магистрали

Концепцию ДНС и итерационные алгоритмы из [32] удобно применять при практической реализации магистральных решений, характерных для задач вида

x = g(t,:c,u1) + h(t,x)u2, te [t/,tF], I = F(x(tF)) ^ inf,

где u2 e U2 С Kp, т.е. в общем случае может быть ограниченным. Последнее получается как решение производной задачи

У = Vxg (t ,x,u1) + щ, x = £(t ,y, т) = г-1(t ,y, t),

1 = РУ (у(1 р)) ^ , РУ (у) = ттР (ф ,у, т)),

т

где г/^, х, т) — интеграл соответствующей предельной системы

],х/],т = ,х)и, и € Кр,

как обращение ее общего решения в пространстве (х, т) [13].

При реализации магистрального решения (аппроксимации соответствующей разрывной траектории большими либо ограниченными управляющими воздействиями) приходится иметь дело с неоднородными процессами, состоящими из участков, описываемых исходной и производной системами, что и мотивирует приложение модели ДНС.

Запишем исходную систему в новых переменных (у, т). Для этого достаточно дополнить уравнение производной системы уравнением т = и. Решение производной системы в этих терминах, (у^), т(1)) разрывно только в части ( ) как программа управления в производной задаче. Для простоты предположим, что р = 1, и2 = [итп, итах].

Аппроксимируем магистраль в окрестностях точек разрыва решением уравнения т = и при и = итах или и = ит^п. Для последовательного улучшения этого приближенного магистрального решения построим дискретно-непрерывный процесс. Разобьем заданный отрезок на К этапов к = 1, 2,... ,К = кр — 1 соответственно точкам разрыва. Этапы имеют следующее содержание:

Этап к = 0. Выход из начальной точки на магистраль. Этап к = К. Сход с магистрали в конечную точку. Остальные четные к — переходы между магистралями. Нечетные к — движения по магистралям.

Обозначим векторы состояния верхнего (дискретного) уровня через (у0й, уй, тй), а нижнего (непрерывного) уровня — через (у, т). Их размерности будут меняться по этапам.

Изменение переменных описывается следующими уравнениями (по шагам)

у0а(к +1) = у0а(к) + иы, у™(к) <иы <иатах, к = 0,1,. .. ,К. Для четных к:

(20) у = /(1 ,у, т), -г = и, 1€ [у Ш(к),иы],

У1 (к) = ул (к), ул(к +1)= ур (к), п (к)=т\к). Для нечетных к:

у = /(г,у,и), (и = т), 1€ [ум (к),и%

У1 (к)=у'(к), у'(к + 1)= ур (к), тл(к +1)=и'. Здесь управление иы определяет моменты окончания этапов, а переменная у0/ играет роль времени. Дифференциальное уравнение

= и, и < а

действует на переходных (четных) этапах, а на нечетных (магистральных) исключается.

В этой формализации рассматривается задача о минимуме функционала I = Р(у'(кр),и2') при заданном у'(к1) = у/, та(0) = г/. Для ее решения может быть применен итерационный алгоритм глобального улучшения типа Кротова [26].

6. Прикладные задачи

Приведенная выше общая схема применялась для решения ряда прикладных задач. Одна из них — оптимизация процесса передачи возбуждения в спиновой цепочке [33], как наискорейший перевод квантового состояния из начального в заданное конечное состояние спиновой цепочки, описываемой уравнением Шредингера [34]. Находилось только идеальное магистральное решение (при неограниченном и), поскольку оно отвечает представлениям физиков об импульсном характере управляющих воздействий, а реальные ограничения пока неизвестны. В соответствии с предложенной общей схемой исходная система, описываемая уравнением Шредингера, заменялась эквивалентной ослабленной системой с выпуклым множеством скоростей (совпадающим в данном случае с аффинной оболочкой). Были проведены вычислительные эксперименты с применением метода Кротова глобального улучшения для случаев спиновой цепочки длины п = 3, 4 и 5 системы для различных Ьр с нахождением наименьшего времени перехода в заданное состояние. Результаты расчетов для 3-х спинов в сравнении с расчетом по методу из статьи [35] демонстрируют выигрыш во времени перехода примерно 25%.

Кроме того, исследование проводилось на эколого-экономических задачах. Рассматривалась агрегированная версия модели региона [8], описывающая взаимную динамику экономической и природной составляющих с учетом инноваций. В качестве критерия оптимальности рассматривался максимум функционала благосостояния — конечное значение накопленного дохода за вычетом штрафа за нарушение экологических ограничений. На этой модели исследовались

три задачи оптимального управления. Первая — оптимизация чисто экономического роста как модификация известной классической задачи, учитывающая управление инновациями. Вторая задача — оптимизация стратегий устойчивого развития региона при идеализированных допущениях с целью оценки предельно допустимых затрат на инновационную деятельность в условиях дефицита реальных статистических данных. Третья задача — более детальное изучение одного из допустимых вариантов решений второй задачи с учетом реалистических ограничений модели. Это вырожденные задачи, где классические методы напрямую не применимы. Однако подход, основанный на магистральных решениях, высоко эффективен. В первой и третьей задачах учитываются ограничения на инновационные и природо-восстановительные мощности, в результате чего получается магистраль второй ступени, требующая более сложной реализации.

Наиболее сложной и представительной является третья задача, решаемая в два этапа. На первом выполняется двукратное преобразование к производным задачам. Найденное магистральное решение (второй ступени) разрывно. Его траектория, представляет собой чередование нескольких непрерывных магистралей. Для реализации магистрального решения в исходном классе допустимых процессов применяелся алгоритм с минимальным числом переключений исходных [36]. Расчеты проводились по данным, характерным для Байкальского региона. Полученное решение уточнялось затем в итерационной процедуре на полной исходной модели в более сложном программном комплексе [37].

Заключение

Предложена многоэтапная процедура приближенной оптимизации управлений с итерационными процессами с использованием в качестве начальных приближений магистральных решений, известных из теории вырожденных задач. Хотя магистральные решения характерны для систем с линейными управлениями, предложенная процедура является достаточно общей, поскольку показано, что управляемая дифференциальная система общего вида преобразуема к эквивалентным системам с линейными управлениями. Разработаны алгоритмы, реализующие эту процедуру и апробированные на модельных примерах и сложных прикладных задачах из различных

областей. Показано, что в ряде случаев при реализации целесообразно представлять исходную систему в форме дискретно-непрерывной, где на различных дискретных шагах действуют различные эквивалентные системы с линейными управлениями.

Приложение. Доказательство теоремы 1

Покажем, что построенная в первой части доказательства последовательность |хз(£)} равномерно стремится к х(Ъ) на промежутке Т. Сделаем следующие вспомогательные построения (рис. 9). В каждой

Рис. 9. Конструкция аппроксимирующей последовательности

точке имеем х (1 р-1), х3 (1 р-1), щ (1 р-1), X (1 р-1 + 0). На каждом отрезке Тр построим прямую

х3(г) = х3 (гр-!) + х (гр-1) (г - Ьр-1)

и ломаную, составленную из прямолинейных отрезков

х3(ь) = х3 (г р,,) + VI (г р-!) (г - Ьр,), I = 0,1,...,т,

хз (^р-1) х3 (^р-1) ,

начинающиеся из одной и той же точки (1 р-1 ,х3 (1 р-1)), где VI(1) = , х(Ь), щ(Ь)). Из этих построений нетрудно видеть, что

I

хз (гр(+1)) = хз (гр1) + ь1а1 Агр = Хз(гро) + Агр^агЮг,

г=0

так что

т

хз (¿р) = хз (гр_1) + Агр^агЮг = Хз(гр_1) + Агрх(гр-1) = Хз(гр),

г=0

т.е. концы прямой ха(1) и ломаной ха^) на Тр совпадают. Очевидно также, что разность ха(1) — ха^) стремится к нулю при ДЬр ^ 0. Отклонение интересующей нас функции ха(Ь) от х(Ь), — х(Ь),

удобно оценивать, сравнивая ха(Ь) с соответствующей ломаной ха^):

(21) Ах,(г) = ха(г) — х(г) = (ха(г) — ха(г)) + (ха(г) — х(г)).

Оценим отдельно каждое из двух слагаемых в (21), начиная со второго:

ха(г) — х(ъ) = (ха(ъ) — ха(г)) + (ха(г) — х(г)) =

= (Ха(г) — ха(Ь)) + ха(Ь р_1) — х(Ь р_1) +

+{х(ър-1 + 0)(г — гр_1) — (х(г) — х{ър_1))).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Величина в последней скобке есть, по-существу, разность между дифференциалом функции х(Ь) и ее приращением в точке tр_l, т.е. малая высшего порядка по сравнению с (Ь — Ьр_1), так что

(22) ха (г) — х(Ъ) = (ха (г) — Ха(Ъ)) + (ха(Ър_1) — х(Ър_1)) + О (Ъ — Ьр_1)

при 4 € Тр. Здесь и всюду далее символом о(К) обозначается бесконечно малая высшего порядка по сравнению с к, т.е. такая функция к, что ^ ^ 0 при |к| ^ 0.

Оценим теперь первое слагаемое в правой части (21):

ха(г) — ха = (ха(г р1) — ха(г р()) + (ха(г) — ха(Ь р) —

— р_1)(г — Ьр^) = (ха(г р1) — ха(Ь р1)) + (ха(Ь р1) +

+К* р1, х а (4 р1), и( р1 ))(г — Ьр1) + о(г — Ьр1 ))— р,) — ¡(г р_1 ,х(г р_1 ),щ (г р_1))(г — ) =

= (ха(£ р1) — Ха(г р1)) + (Ь — Ьр1 )(/(г р1 ,ха(Ь р1 ),щ(Ь р1 )) —

—К* р_1, х(г р_1), и( р_1))) + о(г — Ьр1).

Но ха(Ьр1) —х(Ьр_1) = (х а (1) —х(1р_1)) + (ха(Ьр1) — ха(Ьр_1)) ^ 0 при Д/р ^ 0, Дха(1 р_1) ^ 0, так как Ьр_1 < Ьр[ < Ьр и ха(Ь) непрерывна. Поэтому, в силу непрерывности /(•),

¡(гр1 ,ха(гр,,),щ(гр_1)) ^ ¡(гр_их(гр_1),щ(гр_1))

при ДЪр ^ 0, Дха^р_1) ^ 0. Отсюда следует, что

ха(г) — ха(г) = ха(г р1) — ха ^ р1) + О^ДЪ р, ДСа(Ь р_1))

при £ € Тр I. По построению хз(Ьр0) = хз(Ьр0). Отсюда

хз(г) - хз(г) = 00(-), Тр0,

ххз(г) - х,з(г) = 00 + 01, ге ТрЬ

хз(г) - х,з(г) = 00 + 01 + ... + От, 1- е Тр„и

т.е.

(23) хз(г) -хз(г)=о(Ар, Ахз(Ьр-1)) при Ь € Тр. Подставляя (22) и (23) в (21), получим

(24) Ахз(г) =хз(г) -х(г) = (хз(г) -хз(г))+ ( ) +Ахз(Ьр-1) + о(АЪр, Ахз(Ьр-1))

при £ € Тр.

Проследим теперь изменение Ахз(1) на всем отрезке Т, рассматривая его последовательно на промежутках Т1,Т2,...,Тз. По условию хз (10) = х (10), так что Ахз (10) = 0. Рассматривая соотношение (24) как рекуррентное и обозначая хз(1) - Хз(1) = 6хз(1), будем иметь

Ахз(г) = бхз(г) + о(Аг 1,0), ге Т1, Ахз(г 1) = о(Аг 1,0),

Ахз (г) = бхз(г) + о(Аг 1,0) + о(Аг 2, Ахз (г 1)) =

= 5х3(ь) + 0(А 1) + о(Аъ2, о(Аг 1)), г е Т2,

Ахз(г 1) = о(Аь 1) + о(Аь 1, Аь 2),

Ахз (г) = йхз(г) + о(Аг 1) + о(Аг 1, Аг 2) +... + +0(Аг 1,Аг2,..., Аз), ге Тз.

Обозначим

6з = тах |£хз(£)|, р=1, 2,..., я,

ьет.

р

По(АЬ)1 I о(АЪ 1, АЪ 2)1 I о(АЪ 1, А12,..., АЪ з)|\

V Аг 1 , АЪ 2 АЪ з ).

7з = тах , „ , „ ,з 1 АЪ1 ' АЪ

Очевидно §з ^ 0 и ^ 0 при в ^ ж, тахА£з ^ 0, поскольку, как уже отмечалось, 6хз = хз(1) - хз(1) ^ 0 при Ь е Тр, АЬр ^ 0 (по построению). Тогда

|Ахз(г)| < 5з + ъАг 1 +ъАг2 +... + ъАгз = ¿з +7з^^ -Ь).

Эта оценка показывает, что Дха(1) ^ 0 равномерно на Т при в ^ ж, шахД4р ^ 0. Это и доказывает равномерную сходимость построенной последовательности |ха(4)} к х(Ь), получающейся при указанной последовательности разбиений.

Описок литературы

[1] В. Ф. Кротов, В. З. Букреев, В. И. Гурман. Новые методы вариационного исчисления в динамике полета. М.: Машиностроение, 1969. — 288 с. ^ 123.

[2] В. Ф. Кротов, В. И. Гурман. Методы и задачи оптимального управления. М.: Наука, 1973. —448 с. | 123, 144.

[3] Модели управления природными ресурсами / ред. В. И. Гурман. М.: Наука, 1981. —264 с. | 123.

[4] И. В. Краснов, Н. Я. Шапарев, И. М. Шкедов. Оптимальные лазерные воздействия. Новосибирск: Наука, 1989. — 92 с. ^ 123.

[5] А. О. Блинов, В. И. Гурман, В. П. Фраленко. Аналитическая аппроксимация .модели динамики летательного аппарата в задачах приближенно-оптимального синтеза управления // Вестник СГАУ, 2009. Т. 4, с. 16—25. ^ 123.

[6] В. И. Гурман, Е. А. Трушкова, А. О. Блинов. Приближенная оптимизация управления на основе преобразований .модели объекта // Автоматика и телемеханика, 2009. Т. 5, с. 13-23. \ 123.

[7] В. И. Гурман. Вырожденные задачи оптимального управления. М.: Наука, 1977. —304 с. | 124, 126, 131, 135.

[8] В. И. Гурман, И. С. Гусева. Модели управляемых систем, порождающие магистральные решения задач оптимального управления // Программные системы: теория и приложения : электрон. научн. журн. 2013. Т. 4, № 4(18), с. 107-125, иР1_ http://psta.psiras.ru/read/psta2013_4_107-125.pdf. \ 124, 149.

[9] В. И. Гурман. Принцип расширения в задачах управления. М.: Наука. Физматлит, 1997. —288 с. | 124, 129, 130, 131, 134, 135, 136.

[10] И. В. Расина. Вырожденные задачи оптимального управления дискретно-непрерывными процессами // Автоматика и телемеханика, 2013. Т. 2, с. 38— 52. | 125.

[11] В. И. Гурман. Магистральные решения в процедурах поиска оптимальных управлений // Автоматика и телемеханика, 2003. Т. 3, с. 61—71. ^ 129, 130.

[12] В. И. Гурман. Об оптимальных процессах с неограниченными производными // Автоматика и телемеханика, 1972. Т. 12, с. 14—21. ^ 129, 130.

[13] В. А. Дыхта. Условия локального минимума для особых режимов в системах с линейными управлениями // Автоматика и телемеханика, 1981. Т. 12, с. 5-10. | 130, 148.

[14] В. И. Гурман. О преобразованиях вырожденных задач оптимального управления // Автоматика и телемеханика, 2013. Т. 11, с. 132—138. ^ 131.

[15] В. А. Дыхта, О. Н. Самсонюк. Оптимальное импульсное управление с приложениями. М.: Наука. Физматлит, 2000. — 256 с. ^ 134.

[16] А. Б. Куржанский. Управление и наблюдение в условиях неопределенности. М.: Наука, 1977. —394 c. f 135.

[17] А. В. Лотов. О понятии обобщенных множеств достижимости и их построении для линейной управляемой системы // Докл. АН СССР, 1980. Т. 250, № 5, с. 1081-1083. f 135.

[18] Г. Н. Константинов, Г. В. Сидоренко. Внешние оценки множеств достижимости управляемых систем // Известия АН СССР. Техн. киберн. 1986. Т. 3, с. 28-34. f 135.

[19] В. И. Гурман, Г. Н. Константинов. Описание и оценка множеств достижимости управляемых систем // Дифференциальные уравнения, 1987. Т. 3, с. 416-423. f 135.

[20] Ф. Л. Черноусько. Оценивание фазового состояния динамических систем. Метод эллипсов. М.: Наука, 1988. —319 с. f 135.

[21] М. М. Хрусталев. Точное описание множеств достижимости и условия глобальной оптимальности динамической системы // Автоматика и телемеханика, 1988. Т. 5, с. 62-70. f 135.

[22] В. И. Гурман. Оценки множеств достижимости управляемых систем // Дифференциальные уравнения, 2009. Т. 45, № 11, с. 1601-1609. f 135.

[23] В. Ф. Кротов. Методы решения вариационных задач: II: Скользящие режимы // Автоматика и телемеханика, 1963. Т. 24, № 5, с. 581—598. f 141.

[24] М. И. Зеликин, В. Ф. Борисов. Синтез оптимальных управлений с накоплением переключений // Итоги науки и техн. Сер. Соврем. мат. и ее прил. Темат. обз. 2009. Т. 90, с. 5-189. f 142.

[25] И. С. Гусева, В. В. Трушков. Реализация магистральных решений вы,с-ших порядков // Вестник Бурятского гос. ун-та. Вып. 9. Математика и информатика, 2010, с. 29-34. f 143.

[26] В. Ф. Кротов, И. Н. Фельдман. Итерационный метод решения задач оптимального управления // Изв. АН СССР.. Техн. киберн. 1983. Т. 2, с. 160— 168. f 143, 149.

[27] В. И. Гурман, Е. А. Трушкова. Приближенные методы оптимизации управляемых процессов // Программные системы: теория и приложения : электрон. научн. журн. 2010. Т. 1, №4, с.85-104, URL http: //psta.psiras.ru/read/psta2010_4_85-104.pdf. f 144.

[28] А. И. Тятюшкин. Мультиметодные алгоритмы для численного решения задач оптимального управления // Тр. АНН «Нелинейные науки на рубеже тысячелетий», 2001, с. 79-94. f 146.

[29] А. Ю. Горнов. Вычислительные технологии решения задач оптимального управления. Новосибирск: Наука, 2009. — 278 с. f 146.

[30] В. И. Гурман, О. В. Фесько, И. С. Гусева, С. Н. Насатуева. Итерационные процедуры на основе метода глобального улучшения управления // Программные системы: теория и приложения : электрон. научн. журн. 2014. Т. 5, №2(20), с.47-61, URL http://psta.psiras.ru/read/psta2014_2_47-61.pdf. f 146.

[31] Новые методы улучшения управляемых процессов / ред. В. И. Гурман, В. А. Батурин, Е. В. Данилина и др. Новосибирск: Наука, 1987.— 183 с. f 146.

[32] И. В. Расина. Итерационные алгоритмы оптимизации дискретно-непрерывных процессов // Автоматика и телемеханика, 2012. Т. 10, с. 3-17.

[33] В. И. Гурман, И. С. Гусева, О. В. Фесько. Магистральные решения в задаче управления квантовой системой // Программные системы: теория и приложения : электрон. научн. журн. 2013. Т. 4, №4(18), с. 91-106, URL http://psta.psiras.ru/read/psta2013_4_91-106.pdf. t 149.

[34] M. Murphy, S. Montangero, V. Giovannetti, T. Calarco. Communication at the Quantum Speed Limit Along a Spin Chain // Phys. Rev. Lett., 2010, URL http://arxiv.org/abs/1004.3445v1. t 149.

[35] O. Baturina, V. Gurman, I. Rasina. Optimization of Excitation Transfer in a Spin Chain // 5th IFAC International Workshop on Periodic Control Systems. Periodic Control Systems, 2013. Vol. 5, p. 177-180. t 149.

[36] И. С. Гусева. Магистральное решение второго порядка в задаче экономического роста с учетом инноваций // Вестник Бурятского гос. ун-та. Вып. 9. Математика и информатика, 2011, с. 19-25. t 150.

[37] В. И. Гурман, Е. А. Трушкова, О. В. Фесько. Программный комплекс для сценарного анализа инновационных стратегий развития региона // Программные системы: теория и приложения : электрон. научн. журн. 2014. Т. 3,№ 5(14),с.7-22, URL http://psta.psiras.ru/read/psta2012_5_7-22.pdf.

t 147.

t 150.

Рекомендовал к публикации

д.ф.-м.н. С.В. Знаменский

Об авторах:

д.ф.-м.н., г.н.с. ИЦСА Института программных систем им. А.К. Айламазяна РАН, специалист в области моделирования и управления гибридными системами, автор и соавтор более 100 статей и 5 монографий

д.т.н., профессор, зав. кафедрой системного анализа УГП им. А.К. Айламазяна, известный специалист в области теории управления, системного анализа и их приложений, автор и соавтор более 200 статей и 20 монографий

e-mail:

e-mail:

Владимир Иосифович Гурман

Ирина Викторовна Расина

irinarasina@gmail.com

vig70@mail.ru

стажер кафедры системного анализа УГП им. А.К. Айлама-зяна, область научных интересов — приближенные методы в теории управления

e-mail:

Ирина Сергеевна Гусева

ig_19@mail.ru

Образец ссылки на эту публикацию:

В. И. Гурман, И. В. Расина, И. С. Гусева. Преобразования дифференциальных управляемых систем для поиска приближенно-оптимального управления // Программные системы: теория и приложения: электрон. научн. журн. 2014. T. 5, №4(22), с. 123-157.

URL http://psta.psiras.ru/read/psta2014_4_123-157.pdf

Vladimir Gurman, Irina Rasina, Irina Guseva. Differential Control Systems Transformations to Approximate Optimal Control Search.

Abstract. It is shown that general differential control system may be transformed to equivalent systems with linear control variables. Transformations to derived systems of lesser order known in the theory of degenerate problems are applicable to these systems. Derived problems deliver ideal turnpike solutions to the original problem.

There are proposed procedures of ideal turnpike solution approximations by the admissible original problem solutions for both unbounded and bounded linear controls, and algorithms of their subsequent iterative improvements, applied to some practical problems (in Russian).

Key Words and Phrases: degenerate problems, turnpike solutions, attenuated problems.

i Надоели баннеры? Вы всегда можете отключить рекламу.