Научная статья на тему 'МЕТОДЫ СЛАБОГО УЛУЧШЕНИЯ НА ПЛАВАЮЩЕЙ СЕТИ ОПЕРАТОРОВ В ЗАДАЧЕ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ'

МЕТОДЫ СЛАБОГО УЛУЧШЕНИЯ НА ПЛАВАЮЩЕЙ СЕТИ ОПЕРАТОРОВ В ЗАДАЧЕ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ Текст научной статьи по специальности «Математика»

CC BY
17
5
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МЕТОДЫ СЛАБОГО УЛУЧШЕНИЯ / ОПТИМАЛЬНОЕ УПРАВЛЕНИЕ / УРАВНЕНИЕ РИККАТИ

Аннотация научной статьи по математике, автор научной работы — Батурин В.А., Данеев А.В., Сизых В.Н.

В работе предлагаются методы слабого улучшения первого и второго порядка для задач оптимального управления на плавающей сети операторов. Техника вывода алгоритмов основана на теории В.Ф. Кротова. Приводятся условия неулучшаемости управления, тесно связанные с необходимыми и достаточными условиями слабого локального минимума.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Батурин В.А., Данеев А.В., Сизых В.Н.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

WEAK IMPROVEMENT METHODS ON A FLOATING NETWORK OF OPERATORS IN THE OPTIMAL CONTROL PROBLEM

The paper proposes first and second order weak improvement methods for optimal control problems on a floating network of operators. The algorithm derivation technique is based on the theory of V.F. Krotov. Conditions for the unimprovability of control, which are closely related to necessary and sufficient conditions for a weak local minimum, are given.

Текст научной работы на тему «МЕТОДЫ СЛАБОГО УЛУЧШЕНИЯ НА ПЛАВАЮЩЕЙ СЕТИ ОПЕРАТОРОВ В ЗАДАЧЕ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ»

УДК 517.997

МЕТОДЫ СЛАБОГО УЛУЧШЕНИЯ НА ПЛАВАЮЩЕЙ СЕТИ ОПЕРАТОРОВ В ЗАДАЧЕ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ

© 2022 В.А. Батурин, А.В. Данеев, В.Н. Сизых

Иркутский государственный университет путей сообщения, г. Иркутск, Россия

Статья поступила в редакцию 15.04.2022

В работе предлагаются методы слабого улучшения первого и второго порядка для задач оптимального управления на плавающей сети операторов. Техника вывода алгоритмов основана на теории В.Ф. Кротова. Приводятся условия неулучшаемости управления, тесно связанные с необходимыми и достаточными условиями слабого локального минимума. Ключевые слова: методы слабого улучшения, оптимальное управление, уравнение Риккати. DOI: 10.37313/1990-5378-2022-24-2-80-89

ВВЕДЕНИЕ

Сеть операторов описывается заданным графом. На каждом ребре задано направление и система управляемых дифференциальных уравнений. Если вершины графа не фиксированы, т.е. могут менять свои координаты, то такую сеть операторов будем называть плавающей. Методы последовательных улучшений можно подразделить на алгоритмы слабого и сильного улучшения. В алгоритмах слабого улучшения ограничивается приращение по управлению, например, в градиентном методе, а в алгоритмах сильного улучшения ограничивается приращение фазовой переменной, но не управления.

Математические модели, описываемые сетью операторов, достаточно часто встречаются на практике, особенно в технологических процессах, например, химико-технологических производствах, когда процесс создания конечного продукта состоит не в последовательной технологической цепочке, а описывается параллельными процессами, составляющих сеть операторов и в результате получается не монопродукт, а несколько конечных продуктов. Плавающие сети операторов на практике встречаются реже, например, распространение загрязнения воды вдоль русла рек в бассейне какой-либо реки - обычная сеть операторов, а бассейн реки Амур - плавающая сеть операторов, поскольку река Амур меняет свое русло. Возможно, плавающая сеть операторов создает

Батурин Владимир Александрович, доктор физ.-мат. наук, профессор, старший научный сотрудник. E-mail: rozen@iss.ru

Данеев Алексей Васильевич, доктор технических наук, профессор, профессор кафедры «Информационные системы и защита информации». Е-mail: daneev@mail.ru Сизых Виктор Николаевич, доктор технических наук, профессор, профессор кафедры «Автоматизация производственных процессов». Е-mail: sizykh_vn@mail.ru

новые возможности для развития новых технологических процессов. Все эти системы управляемы и актуальными являются задачи оптимального управления. Исследованием таких задач занимаются уже более пятидесяти лет и до настоящего времени они не утратили свою актуальность. Перечислим некоторые из них: [1,4-8, 10,11].

Статья построена следующим образом: сначала излагаются методы первого порядка градиентного типа, далее выводятся методы слабого улучшения второго порядка. Специально исследуются случаи, когда исходное приближение удовлетворяет необходимым условиям оптимальности, но не доставляет функционалу слабый локальный минимум. Используя необходимые и достаточные условия оптимальности слабого локального минимума, строится специальный алгоритм улучшения.

ПОСТАНОВКА ЗАДАЧИ

Пусть заданы ориентированный граф (рис. 1)

с вершинами i = 0, N + к. Обозначим: А; - множество индексов точек j таких, что в заданном графе существуют ребра j < i, В; - множество индексов точек j таких, что в заданном графе существуют ребра j > i, , £2) - координаты на плоскости, i - вершины графа. Координаты

, £2) - не являются фиксированными, а могут меняться. Поэтому данный объект будем называть плавающей сетью операторов.

Пусть первые k вершин графа являются входными, а последние h верши

- выходными, т.е. А; = 0, I = о, к и

В: =0, I = N +1, N + к.

На каждом ребре состояние процесса описывается свой математической моделью в форме обыкновенных дифференциальных уравнений.

% 1

©ОО©

% 2

Рис. 1. Ориентированный граф

■■/(( , ^ ((Д и ( )), (1)

Ч е Тц

О, 7 е Д., концы

Г- не фиксированы. Далее индек-

где

отрезков г сы ¡,) у г будем опускать.

Начальные условия на каждом ребре определяется следующих отношений:

х''=эе''(г.), 1=0, к.

Функции х''ф - кусочно дифференцируемы и принимают значения в евклидовом пространстве И"">>; и" е V-.cz и"«'» - кусочно непрерывны; ае'' - заданные функции.

Обозначим х'={х''(г):) е В, ¡=0,Щ, и'={и'\г);)еВ, {=0,М}, х=(х°(г),х1(г).,хы(г))', ¿=(и°(г), и1(г),..., иР(г)).

Множество троек (х,и,Т), удовлетворяющих перечисленным условиям, а также дифференциальным связям(1) и начальным условиям (2), будем называть МШШ£Ш@£МЗШУ£ШЦМШ. и обозначать Б, предполагается, что

Определим функционал 1(х,и, Т=Р(хы+1т(гт),..., хы+кы+ь(гт)), который требуется минимизировать. Здесь Б.еА..

Пусть ф''(г, х'') - непрерывно дифференцируемая по своим аргументам, ге[г,г], 1=0,Ы, )еВ.

Обозначим х0''=х''(г), х''=х'' и введем следующие конструкции:

Я"(г,х",и'1)= фх"'х''(г,х'')р(г,х'',и'')+ ф1''(г,х'));

а>(х0),х')=фф)(г.,х')-фф)(г.,х0)), где «'» - означается транспонирование.

Обозначим Г(х0,х1,Т)=Р(х18Ы+1'ы+1,х1ш+,ш+1')+

С(Хд, лс^) и введём функционал Лагранжа Ь, который совпадает с функционалом I на множестве Ю

Ь=Г(х(,хрТ) - ъиЪж Г Д 4Xи^сИ.

I

Пусть р!>(г)=зирЩг,х",и"),

т=1п[[Р(х1

} »'Д-

Теорема 1. Пусть имеется последовательность {х^и^Т} у^Би функции ф''(г,х'') такие, что выполнены условия 1-2:

& -* о;

Тогда последовательность {(х^и^Т)} - минимизирующая и всякая минимизирующая последовательность удовлетворяет условиям 1-2.

Доказательство теоремы аналогично доказательству теоремы Кротова для обыкновенных задач оптимального уравнения [11].

ПРОСТЕЙШИЙ ВАРИАНТ

Рассмотрим граф у которого три вершины с координатами (\01, С02),Сс11,С12), (&&) (Рис. 2), отрезки времени между вершинами [г0,г1] и [г1,г2]. Предположим, что точки (С01,С02) и Сс^, С22) фиксированы, а точка (С11, С?) не фиксирована, соответственно фиксированы г0 , г2 и не фиксирован момент времени г1. На этом простейшем варианте продемонстрируем вывод алгоритмов, исследуем свойства релаксационности и проиллюстрируем работу алгоритмов на примерах. ->

Вектор сай) шо направлен в сторону

точки | Д вектор ) ) направ-

лен в сторону точки (%,Найдем сумму этих векторов и определим координаты

(%2,%2) Г\

V > / 1 / /

/ а/ 1 V Ь___Й— МЛ И

1 I I 1 1 1 '

(% 2,62) -Рис. 2. Ориентированный граф. Простейший вариант

Координаты точки рассчитываются

по следующим формулам:

(1 = /;сохр+ у, = 1рпу,

Тогда имеет место аналог теоремы Кротова для стандартных задач оптимального уравнения.

Р= ШШУ + Ш' У=а + Р, «=180°- Ф-

ФОРМУЛА ПРИРАЩЕНИЯ ФУНКЦИОНАЛА

Пусть на отрезках времени [г0,г1] и [г1,г2] заданы системы дифференциальных уравнений и функционал, который требуется минимизировать:

ифеКт1, хф еД"-, уф еД";,

моменты времени г0, х2 - фиксированы, т1 - не фиксирован,

1=(х1,х,и,у,у)=Р(у(х2)).

Введём функции

О^хМ^т^-ф^х);

С'(г^хМ'^уН'Ст, ъ(х(т)))Щу);

Составим функционал Лагранжа:

1(т1г х,и,у, 1?}=

.

Пусть задано начальное приближение (т1гх,й, у,-и) .

Функции ф0фх) и ф1^) будем задавать так, чтобы были выполнен9ы следующие условия:

= 0, тогда

+ ^(ЧУ.^Ч» = о, тогда

^{ч^Сч))- <Ру(Т_1' У Сч))®гС^)) = О-

Находим:

ж(т1}) + С* (т^у,*^)} =

[ 1 Я^уГО.**)) =

Тогда с учётом условий 1-2 получим:

= -^(у(т2)), Г(:ч) == трЧчЫ^ч))

Введём функции Понтрягина Н 0 (р, х, ф°,и) = X, и),

Запишем + С^ = ^(т^'х

- Н^.у^.ФЧ^Ы)

Найдем при х= хф, у=Уф

Рассмотрим приращение функционала!: АЬ = [.(х^у.тг.т^) — ,т1г)

■ С^т^у.х) - -

+

Зададим функции ф0 и ф1 линейными по со-

стоянию

где Ц1°(х), - п, и л,-мерные вектор-функции.

Найдем производные функции ф° и ф' при х=х (г), у=у(т). Имеем:

= АС" + Дб1- [I ДЯв(Ъ *,«)<££ +

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

а

,+Дт Гта

И°(Ь,х,и)с1Х + ДД^у,-!?)^-

МЕТОДЫ УЛУЧШЕНИЯ ПЕРВОГО ПОРЯДКА

В этом разделе будет изложен метод наискорейшего спуска и его вариации. Приращение функций О0, G1, R0, R1 разложим в ряд Тейлора до слагаемых первого порядка. Имеем:

ДС^т^фД) = С°(т1дСт))'Д1(т1) + Стс; (т1,г(т1))дт+ Д^Ч^уЮ^Ю) = УСЧ)'*СЧ))'л*+

+Су(тг,у(т2}.:1Ст1)),Ду + Сг11(т"1.,у(т"1}.,:?(т1)Дт +

Тогда с учётом того, что

G% + Gl = о, Gy =0,<р°- с= о,

имеем

AG0 + AG1 = + С* ).Дт1 + 0l(-> + о2{-),

- н\тI, у^.ФЧчУЧ^ОУ

Рассмотрим

R°(t,x,u)dt = =

Д1 (£,у,= | й1 (1,у, 1?)аI &г1 + о(Дт1) = = К1 (т1; , г (т^Д^ + ^(Д^) =

Разложим приращение функций Я0 и Я1 в ряд Тейлора до слагаемых первого порядка. Имеем х,и) = (г, ¿(0, й(£))'Дг + + П°(ргхХ^гй(£))'Аи + |Аи|),

.

Потребуем выполнение условий:

я^ад.зд) = ч>1х + <р1Гх =

Отсюда

Таким образом приращение функционала примет вид:

дI = [яЧт^уСтД^ЧО^И)-

I

I

- + о(Х

а градиент

д1 = (н1-н°,-£ к <и, - /;; я; *).

Новые координаты вершины (см. рис. 2) рассчитываются по формулам (3). В случае применения градиентных процедур приращения по

времени (длина ребра) определяется формулами At = ¿(xj),^ (i,)-uC^) -

£ > 0. В качестве 12 выберем 1= г At, 1= s At.

Тогда новые координаты (f1, f'-) определяются по формулам:

f1 = г(Н° - cosj5 + cosy),

Проделывая тригонометрические преобразования, окончательно получим:

Z1 = -H^sin^-

arccos

V

acrsm ■

пг-иг

(8)

I и lfi-i.ll

Изложим метод наискорейшего спуска. АЛГОРИТМ 1

1. На каждом ребре задаются начальные уравнения и1(г),у1(г) и время смены этапа г11, из системы уравнений (4)-(5) определяются х'(г), у1(г).

2. Из системы дифференциальных уравнений

c условиями в г1, г2:

= -фЪ2)). ) =

находятся у°(г), У(г).

3. По формулам:

д «(О = н^х^Ц^Ю^Ю), Av(_t) = НХъуЧЯ.ФЧЯУ (О),

и формулам (8) подсчитывается Д С1.

Новое управление, значения г1 и координат задаются соотношениями

и°(0 = г/(0 + гДифУ'ф = 1?](£) + ДНО,

где С подсчитывается из решения одномерной задачи минимизации по е > 0 для функционала 1(_хи,уи,и1 + вАи^1 + г£р,т' + гДт). Приведён классический алгоритм наискорейшего спуска, который допускает различные вариации, например, спуск осуществлять по одному из управлений или параметру г. Можно использовать классическую градиентную про-

цедуру, когда при неудачном выборе значения параметра е, новое значение получается уменьшением исходного. Гораздо более эффективным будет метод сопряженных градиентов, который по вычислительным затратам эквивалентен градиентным методам.

Выпишем условия стационарности для поставленной задачи, являющиеся необходимыми условиями оптимальности, т.е. и смене этапа т1 А1=0: H°{ttx{t),$°{£),û{t)) = О,

Hl{t,y{t},$\t},v{t)) = О,

Сформулируем теорему о процессе, который неулучшаем приведенным алгоритмом.

Теорема 2. Пусть на множестве ненулевой меры по t элементы (й (t), "û Ît),x) не удовлетворяет условиям стационарности, тогда заданное приближение улучшаемо алгоритмом.

Доказательство этой теоремы очевидно, поскольку AI^Û.

Замечание. Если ввести в постановку задание ограничения на управления и момент времени смены ребра u(t) е U,v(t) е V,x,e [т,'"'",т""'х], то можно использовать для решения задачи метод проекции градиента либо метод условного градиента.

Пример 1 (Рис. 2)

Ребро 1 Ребро2

x = и у = v

х(0)=хо У(т)=х(т)

t G [Од] iG [-т, Г]

Функционал I=Ij+I2.

Координаты вершины графа £,=(-4,-1), £=(0,0), £2=(-2,-4). Точки £û,£2 фиксированы, -нефиксирована.

Выберем хд=-3/4, Т=1, тогда х'=\' 17. Начальное приближение u'(t)=l, £,,'=(<0,0% v'(t)=0, X!(t)=t+X0, х'(х')= \T7+xg, y'(t)= \>T7+Xg. Значение функционала 11=(т+хд)2/2+т, при т'= (V17+XJ/2+ V 17, Н°=ц>и-и2, Н°=цР-2и=цР-2, Н°=0, у'^г'+Хд,

y(T)=T1+xÛ, I2=1/2(t1+xû), I1=(x1+xÛ)+x1. Выпишем функции Понтрягина и производные от них №=\\Pu-u2; H°=\\P-2u; HxÛ=Û; H1=\V1v-v2/2; Hv1=^1-v; H'=0.

y

Сопряженные системы: ip°=0; ip'=0; \\i'(T)=-(x'+xj; y '(t)=-(x'+xj;

4?=0; ^(^-(x'+xj.

Новое приближение: uII(t)=1+a[-(TI+x0)-2], v''=-a(x1+x0).

Новые координаты подвижной вершины графа:

<p = arcsm--~

Тогда Ç1 = - H^ sin(-52D,7} =

Ç2 = s-(H°- /i1)cos(52c,7) ■ sin(l2D,7) = (см. рис. 3).

Рис. 3. Одна итерация метода. Сплошная линия - начальное приближение. Пунктирная линия -следующее приближения

Положим а=0, тогда и"=и', у"=у', а улучшение будем осуществлять по подвижной вершине графа. Подсчитаем значение функционала:

(т + *о)2 , _ -~--1" т;

I? =^хг(т) + J u2(t)dt

ж п

(т + х0)2 + т; 1Т = О,

На исходном приближении 11=9/16. Таким образом только за счет изменения координат вершины графа произошло улучшение.

5. МЕТОД УЛУЧШЕНИЯ ВТОРОГО ПОРЯДКА

Введем вспомогательный функционал

1=и1+(1-и)Г, а е [О,Ц, / = - + -

- заданное приближение. Функции Кротова будем искать в линейно-квадратическом виде

гц вектор, сг°(0 — п1 X — симметричная матрица,

1/г;(£) — Т12 — вектор,

— п2 X тг2 — симметричная матрица.

Найдем производные функций ф° и при х = £(£},у - у (с) = ае(ж(£>},

Рассмотрим приращение функционала I

Функции ф0 и ф1 заданы так, чтобы выполнялись следующие условия:

+ = о, = о.

тогда с учетом выражения производных функций ф° и ф;, имеем

Введем функционал

У>и>Р) = + ~

где С^(т1,у,д;(т1}} = ^(т^ж^т,)) + яГ(у). Потребуем, чтобы

С1у (^УЫ'*®) = °>И

= о, тогда получим .

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рассмотрим приращение функций Я0(г,х,и) и Я1(г,у,у) и разложим их в ряд Тейлора до слагаемых второго порядка:

Приращение функций 0],01,ЯР,Я1 разложим в ряд Тейлора до слагаемых второго порядка по переменным х,и,у,у и до слагаемых первого порядка по г1. Имеем:

\ — Л гЛ

Д*ц Ш^Фд + (т1,х(т1))Дт1 + + , ¿(т-))Дх(Т1) + о{ I

АС1 = +

+(^1' уЫ- )Дт +

+ ^ [Ах'С^Ах + Ау'(т2)СухАх(т1) + +Ах'(т1)С$х'АУ(т2) +

.

+ -[Ах'П°хАх+Ах'П1иАи + +Аи'П^Ах + ЛиЯ^Ди] + о(-),

= д*'ду + Rt'^v + ^ [Ду'4/у +

+Ду'Я^Дг + Др'Д^Ду + Дг-'л^Дг,] + о(-), (9)

где производные функции и Л1 подсчи-тываются вдоль (£,ж(£),й(£), (£,у(£},!?(£)),

Найдем

1 1

тахАи(с1П0 + — (12Н° Н—(/ — а)|Ди|2},

2 2

и при выполнении условия

« - (1 - я}^}"1^ + О*) А. - (1 - «О^ <

О, где Е'-т'-> и Е'-т~} — единичные матрицы, получаем

Ди(*,Д*) = (С - (1 - + (11)

Подставляя выражение (11) и (12) в (9), а коэффициенты ф0(г,х) и ф1(г,у) зададим так, чтобы выражение (9) не зависело от Ах, Ау. В результате

придем к следующей системе дифференциальных уравнений:

%=+«+АЖ, - (1 - (13)

Если производные функций R0 и R1 выразить через производные функций Н° и Н1, получим Аи(Ш) = - (< - (1 - + + Я1)дх),

где производные функции и И1 подсчитыва-ются в точках

(ЪЗД^ЙС*)) и (I

Добавим к системе дифференциальных уровнений начальные условия

= -аРу{у{т2)),а1{т2) = -я^(у(тг}),(18)

= ¥ эе(Дт,)), (19)

Полученные конструкции и определяют метод последовательных улучшений.

АЛГОРИТМ 2

1. На каждом этапе задаются начальные управления и1^) и у1^) и момент смены этапа х11 , из уравнений (4) - (5) определяются х1^), у1^).

2. Задаются параметры ае [0,1], р>0, и из системы дифференциальных уравнений (13) -(15), (18) - (19) находятся у'®, а0ф, а1®.

3. Новые траектории х2ф, у2ф определяются из уравнений (4) - (5), при и=и}^)+ Ди(^Дх), у=у1ф+Ду^,Ду) и х12=х11+рДх1, где Аи, Ду определяются по формулам (16), (17), Дх=И0-И1, тем самым получаются и новые уравнения и новое значение х1.

и^и^+Ди^х^-х1^)),

у2(1)=у1(1)+Ду(1,у2(1)-у1(1)) и по формулам (8) подсчитывается Д£.

4. Сравниваются значение функционалов в I1 и I2.

Если улучшение не произошло, то параметры а и р уменьшаются и процесс повторяется, начиная с пункта 2.

Если и у1^) заданы, то уравнения относительно О0^) и а1^) превращаются в матричное уравнение Риккати, которые могут и не иметь решения на отрезках [х0,х1] и [х1,х2], тем более системы (13) - (15), или одна из них может не

иметь решения. В работе [2] подробно исследуются такие системы. Показано, что за счет выбора параметра а можно обеспечить выполнение условий:

- (1 - < О, Н^ - (1 - < О

и существование решения уравнений (13) - (15).

Рассмотрим два случая: начальное приближение не удовлетворяет хотя бы одному из условий стационарности; удовлетворяет условиям стационарности.

Сформулируем теорему об улучшаемости.

Теорема 2. Если начальное приближение не удовлетворяет хотя бы одному из условий стационарности, то оно улучшаемо.

Доказательство. Пусть выполнены условия Ии0=0, Иу1=0 и ДЧ*!.-)- ЯЧ^'О Ф 0, тогда решение уравнений (4) - (5), замкнутое синтезом уравнений и'ф+Аи^Ах), Дv(t, Ау) даст ре-

шение и=и'(1), х=х'(1), V = V у=у'ф. На множестве допустимых

Ма(т1гх,у,игг) = а&1 + -[( (и - и1 (р))г& +

+ I (г -гт'О))2^] = IН1 - Я°]Дт + 0(4^} = аМ

Г-

и, следовательно,

аМ = ^(ЯЧЧ/) - Я0!/^, )) + оСДт1}-

Таким образом, а и р можно подобрать так, что Д1<0.

Рассмотрим специальный случай, когда выполнены условия стационарности при а=1 и усиленные условия Лежандра-Клебша Иии0<0, Иу1<0. Тогда системы (13) - (15), (18) - (19) разделяются на сопряженные системы и матричное уравнение Риккати:

= №)), (20) Ф'Ы = -^(У(т2), (21)

г е [т[,т2] + + + -(22)

+ [Н1^ + ^ЧК^)1« +Я'У1 (2Ъ)

Известно, что матричное уравнение Риккати может и не иметь решений на всём искомом отрезке времени.

Определение. Точка г* называется особой точкой матричного уравнения Риккати, если

Нт,.

К*)1| =

.

Пример 2. (Рис. 2) Ребро 1

X = и, *1(0) = О, £е[ 0,т],

Ребро 2

у = V,

у(т) = х(т), 1€[Т Л

и

= + иЩйг-, /2 = - уЩйг.

Свойство особой точки изучены в монографии [2]. Отметим одно из них для уравнение (23). Пусть г*(а) особая точка, если а<а2, то г*(а1)<г*(а2), т.е. при уменьшении параметра а особая точка смещается влево. Аналогичное свойство имеет место и для уравнения^).

Выпишем алгоритм второго порядка для случая, когда выполнены условия стационарности, усиленное условия Лежандра-Клебша, матричное уравнение Риккати содержат особую точку Ге (г11, г2]. Достаточные условия существования решения уравнения Риккати содержится в обзоре В. Кучеры в [12].

АЛГОРИТМ 3 (случай особой точки):

1. Параметр а подбирается так, чтобы особая точка совпала с т/.

2. Находится симметрическая подматрица о матрицы ст, обладающая свойством

3. Находится предел

х = Ип1 (¿г(£) 1.

4. Задается параметр е>0.

5. Определяется решение системы

ХЬ=0, |Ь|=е.

6. Интегрируется система

^ = д{ь,у, V1 + АъЬАу)),у(тЗ = зв(х!(т[))г

где Ау=у-у'(1), ди определяются по формуле (17) при í е (V, т2], а при

Тем самым находится у2(г) и у2(г), на отрезке [г0,г11] уравнение и2(г)=и1(г).

Аналогичным образом можно построить процесс улучшения и для случая особой точки у матричного уравнения (22).

Алгоритмлегкораспространяетсяинаслучаи, когда в функционал I входят интегральные слагаемые = /Т1/°(и,и№ и 1г = /гУ(£,у,[/№.

В этом случае функции Н0 и Н1 записываются в виде

Н°= //-«Л И1= ^'д-ад°,аЕ[0Л].

Проиллюстрируем полученную схему на примере.

Функционал 1=11+12.

Координаты вершины графа С0=(-4,-1); \=(0,0), \=(-2,-4). Точки ^ фиксированы, -нефиксирована, т = т/ 87.

В качестве начального приближения выберем и1(г)=0, у1(г)=0. Функционал 11=(х1,и1)=0.

Соответственно траектории х1(г)=0, у1(г)=0. Функционал 11(х1,и1)=0 и достигает абсолютного минимума. Поэтому подробнее рассмотрим второй этап. Выпишем задачу улучшения:

Выпишем функцию Я = цг\/-а/2 • (V2 — у2), найдем производные:

Ну = ау, Нуу = агНуф = 0, = ф - ар,

Фу

Н =1.

Уравнение для у: ф=0, цг(Т)=0, ф)=0, I е [т,7]. Уравнение для ст: 0=-а+(1-2а)ст2, ст(Т)=0, а е [0,1]. Его решение:

а

2а- 1

2а- 1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

а

1

а > -. 2

При а=1 о=г£;(Т-г). Особая точка находится из уравнения соз(Т-г)=0, г*=Т-п/2. Если г*<г, то в этой задаче особой точки нет и уравнение у(г)=0 доставляет функционалу 12=0 минимум.

Рассмотрим случай г*>г. Тогда особая точка Г(а) находится из уравнения

(т - о

2а - 1

а

71

2

Параметр а подберем так, чтобы г*(а)=г, а=К2/(2К2-1), где К=(Т-г)2/2. Тогда синтез управления, замыкая которым, получим уравнение:

у" = афу», у"(т) = 0Г

Отметим, что со5(Т-т)^ (2а — 1)/я =0, и уравнение имеет бесконечно много решений при произвольной постоянной С. Улучшающее управление

V

и

-Csi n[ (£- 3")

2а — 1

2а— 1

а

а

Значение функционала г

= [(О")2 - Cvff)2)<*t =

нетрудно показать, что при ае(0,5, 1) выражение в скобках отрицательное, т.е. улучшение произвольно.

Рассмотрим еще один вариант. Если х - фиксированная величина и нет особой точки при а=1 на [х,Т], то исходные управления доставляют функционалу I минимум. Другая ситуация: х -не фиксировано. Продолжая управление

вплоть до t=0 и исследуя уравнение Риккати на предмет существования особой точки на (0,Т), получим: если особая точка существует, то начальное приближение улучшаемо, а если не существует, то и'(1)=0, и'(1)=0 доставляет функционалу I минимум.

ЗАКЛЮЧЕНИЕ

Таким образом, в работе предложены методы последовательных улучшений первого и второго порядка для задачи оптимального управления на плавающей сети операторов. Приведены условия неулучшаемости : для первого порядка равенство градиента нулю, для второго порядка приведены условия улучшаемости и в случае равенство градиента нулю, но существование особой точки уравнения Риккати хотя бы на одном из этапов. Работа алгоритмов проиллюстрирована на тестовых примерах.

СПИСОК ЛИТЕРАТУРЫ

1. Батурин, В.А Метод улучшения для дискретной управляемой системы с сетевой структурой / В. А. Батурин, А.А. Лемперт// УБС. - 2001. - 30.1. - С. 11-21.

2. Батурин, В.А. Приближенные методы оптимального управления, основанные на принципе расширения / В.А. Батурин, Д.Е. Урбанович. - Новосибирск: Наука, 1997. - 176 с.

3. Гурман, В.И. Принцип расширения в задачах управления / В.И. Гурман. - М.: Наука, - 1997.

4. Гурман, В.И. Приближенные методы оптимального управления / В.И. Гурман, В.И. Батурин, И.В. Расина. - Иркутск: Изд-во Иркут. ун-та, 1983.

5. Гурман, В.И. Вырожденные задачи оптимального управления / В.И. Гурман. - М.: Наука, 1977.

6. Гурман, В.И. Метод улучшения управления для иерархических моделей систем сетевой структуры / В.И. Гурман, И.В. Расина, О.В. Фесько, О.В. Усенко // Изв. Иркутского гос. ун-та. Сер. Математика. - 2014. - № 8. - С.71-85.

7. Гурман, В.И. Достаточные условия оптимальности в иерархических моделях неоднородных систем /

B.И. Гурман, И.В. Расина // АиТ. - 2013. - № 12. -

C. 15-30.

8. Дмитрук А.В. Принцип максимума для задач оптимального управления с промежуточными ограничениями / А.В. Дмитрук, А.М. Каганович // Нелинейная динамика и управление. Т.6 [под ред. С.В. Емельянова, С.К. Коровина]. - 2008. -С. 101-136.

9. Кротов, В.Ф. Методы и задачи оптимального управления / В.Ф. Кротов, В.И. Гурман. - М.: Наука, 1973.

10. Haimovicha H., Seron M.M. Bounds and invariant sets for a class of switching systems with delayed-state-dependent perturbations // Automatica. 2013. 49:3. P. 748-754.

11. Monovich T., Margaliot M. Analysis of Descrete-Time Linear Switched Systems: A Variational Approach // SIAM J. Control Optim. 2011. 49:2. P. 808-829.

12. Кучера, В. Матричное уравнение Риккати (обзор) / В. Кучера // Экспресс-информация: Техн. кибернетика. - 1973. - № 16. - С. 1-16.

13. Гурман, В. Сети дискретных операторов // Программные системы: теория и приложения. - 2016. - С. 71-78.

14. Гурман, В.И. Методы приближенного решения задач оптимального управления / В.И. Гурман, И.В. Расина, О.В. Фесько, И.С. Гусева // Программные системы: теория и приложения. 2015. С. 113-137.

WEAK IMPROVEMENT METHODS ON A FLOATING NETWORK OF OPERATORS IN THE OPTIMAL CONTROL PROBLEM

© 2022 V.A. Baturin, A.V. Daneev, V.N. Sizykh

Irkutsk State Transport University, Irkutsk, Russia

The paper proposes first and second order weak improvement methods for optimal control problems on a floating network of operators. The algorithm derivation technique is based on the theory of V.F. Krotov. Conditions for the unimprovability of control, which are closely related to necessary and sufficient conditions for a weak local minimum, are given. Keywords: weak improvement methods, optimal control, Riccati equation. DOI: 10.37313/1990-5378-2022-24-2-80-89

REFERENCES

1. Baturin, V.A. Metod uluchsheniya dlya diskretnoj upravlyaemoj sistemy s setevoj strukturoj / V.A. Baturin, A.A. Lempert// UBS. - 2001. - 30.1. - S. 11-21.

2. Baturin, V.A. Priblizhennye metody optimal'nogo upravleniya, osnovannye na principe rasshireniya / V.A. Baturin, D.E. Urbanovich. - Novosibirsk: Nauka, 1997. - 176 s.

3. Gurman, V.I. Princip rasshireniya v zadachah upravleniya / V.I. Gurman. - M.: Nauka, - 1997.

4. Gurman, V.I. Priblizhennye metody optimal'nogo upravleniya / V.I. Gurman, V.I. Baturin, I.V. Rasina. -Irkutsk: Izd-vo Irkut. un-ta, 1983.

5. Gurman, V.I. Vyrozhdennye zadachi optimal'nogo upravleniya / V.I. Gurman. - M.: Nauka, 1977.

6. Gurman, V.I. Metod uluchsheniya upravleniya dlya ierarhicheskih modelej sistem setevoj struktury / V.I. Gurman, I.V. Rasina, O.V. Fes'ko, O.V. Usenko // Izv. Irkutskogo gos. un-ta. Ser. Matematika. - 2014. -№ 8. - S.71-85.

7. Gurman, V.I. Dostatochnye usloviya optimal'nosti v ierarhicheskih modelyah neodnorodnyh sistem / V.I. Gurman, I.V. Rasina // AiT. - 2013. - № 12. - S. 15-30.

8. Dmitruk A.V. Princip maksimuma dlya zadach optimal'nogo upravleniya s promezhutochnymi ogranicheniyami / A.V. Dmitruk, A.M. Kaganovich // Nelinejnaya dinamika i upravlenie. T.6 [pod red. S.V. Emel'yanova, S.K. Korovina]. - 2008. -S. 101-136.

9. Krotov, V.F. Metody i zadachi optimal'nogo upravleniya / V.F. Krotov, V.I. Gurman. - M.: Nauka, 1973.

10. Haimovicha H., Seron M.M. Bounds and invariant sets for a class of switching systems with delayed-state-dependent perturbations // Automatica. 2013. 49:3. P. 748-754.

11. Monovich T., Margaliot M. Analysis of Descrete-Time Linear Switched Systems: A Variational Approach // SIAM J. Control Optim. 2011. 49:2. P. 808-829.

12. Kuchera, V. Matrichnoe uravnenie Rikkati (obzor) / V. Kuchera // Ekspress-informaciya: Tekhn. kibernetika. - 1973. - № 16. - S. 1-16.

13. Gurman, V. Seti diskretnyh operatorov // Programmnye sistemy: teoriya i prilozheniya. -2016. - S. 71-78.

14. Gurman, V.I. Metody priblizhennogo resheniya zadach optimal'nogo upravleniya / V.I. Gurman, I.V. Rasina, O.V. Fes'ko, I.S. Guseva // Programmnye sistemy: teoriya i prilozheniya. 2015. S. 113-137.

Vladimir Baturin, Doctor of Physics and Mathematics, Professor, Senior Research Fellow. E-mail: rozen@iss.ru Aleksey Daneev, Doctor of Technical Sciences, Professor, Professor of the Department of Information Systems and Information Security. E-mail: daneev@mail.ru Viktor Sizykh, Doctor of Technical Sciences, Professor, Professor of the Department of Automation of Production Processes. E-mail: sizykh_vn@mail.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.