Научная статья на тему 'Дискретно-непрерывные модели и оптимизация управляемых процессов'

Дискретно-непрерывные модели и оптимизация управляемых процессов Текст научной статьи по специальности «Математика»

CC BY
926
57
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ДИСКРЕТНО-НЕПРЕРЫВНЫЕ СИСТЕМЫ / ОПТИМИЗАЦИЯ / АППРОКСИМАЦИЯ / АЛГОРИТМЫ УЛУЧШЕНИЯ / HYBRID CONTROL / OPTIMIZATION / APPROXIMATION / IMPROVEMENT ALGORITHMS

Аннотация научной статьи по математике, автор научной работы — Расина Ирина Викторовна

Статья посвящена исследованию различных управляемых систем на основе концепции дискретно-непрерывного процесса, развивавшейся в предшествующих работах как конкретизация общей модели многошаговых процессов и соответствующих условий оптимальности и глобальных оценок. Получены алгоритмы приближенной оптимизации, которые могут быть использованы для широкого класса неоднородных процессов, в частности, импульсных процессов, в то время как обычные методы оптимизации однородных процессов неприменимы. Приводятся примеры.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Discrete-continuous models and optimization of control processes

The article is devoted to the investigation of hybrid control systems on the base of discrete-continuous process concept developed in preceding works as a concretization of the general model of multi-step processes with related optimality conditions. There are obtained algorithms of approximate optimization which can be applied to a broad class of heterogeneous processes, in particular, to the impulse ones whereas the conventional optimization methods for homogenous processes are not applicable. Illustrative examples are given.

Текст научной работы на тему «Дискретно-непрерывные модели и оптимизация управляемых процессов»

ISSN 2079-3316 ПРОГРАММНЫЕ СИСТЕМЫ: ТЕОРИЯ И ПРИЛОЖЕНИЯ № 5(9), 2012, с. 49-72 УДК 517.977

И. В. Расина

Дискретно-непрерывные модели и оптимизация управляемых процессов

Аннотация. Статья посвящена исследованию различных управляемых систем на основе концепции дискретно-непрерывного процесса, развивавшейся в предшествующих работах как конкретизация общей модели многошаговых процессов и соответствующих условий оптимальности и глобальных оценок. Получены алгоритмы приближенной оптимизации, которые могут быть использованы для широкого класса неоднородных процессов, в частности, импульсных процессов, в то время как обычные методы оптимизации однородных процессов неприменимы. Приводятся примеры.

Ключевые слова и фразы: дискретно-непрерывные системы, оптимизация, аппроксимация, алгоритмы улучшения.

1. Введение

В [1-6] была предложена и получила развитие концепция дискретно-непрерывной системы (ДНС) как конкретизация весьма общей модели многошаговых процессов и соответствующих условий оптимальности. Конкретизация состоит в том, что управление на отдельных шагах трактуется как некоторый непрерывный процесс, описываемый дифференциальной системой. На этой основе получены общие условия оптимальности и разработан ряд алгоритмов оптимизации дискретно-непрерывных процессов с широким кругом приложений.

Цель данной работы — указать новые возможные приложения данной концепции, в том числе — альтернативный подход к описанию и исследованию импульсных процессов управления, которые в настоящее время привлекают внимание многих авторов (см., например, обзор в [7]), а также предложить новые алгоритмы оптимизации

Работа выполнена при финансовой поддержке РФФИ (проект № 09-01-00170-а) и РГНФ (проект № 11-02-00171-а).

© И. В. Расина, 2011

© Программные системы: теория и приложения, 2011

сложных систем такого рода (главным образом, приближенной), ориентированные на параллельные вычисления.

2. Модель дискретно-непрерывной (гибридной) системы и достаточные условия оптимальности

В качестве общей модели гибридной системы предлагается следующая конкретизация абстрактной дискретной модели

(1) х(к + 1) = / (к,х(к),и(к)),

к £ К = [к{,кI + 1, ..., кр}, и £ и(к,х),

где к — номер шага (этапа), не обязательно физическое время; х, и — переменные произвольной природы (возможно различной) для различных к; и(&, х) — заданное при каждом к и х множество.

Пусть на некотором подмножестве К' С К, кх, кр £ К', и = (иа, тс), — дискретное управление, тс = (Т, хсис(Ь)) — некоторый непрерывный управляемый процесс. Будем описывать этот процесс системой дифференциальных уравнений:

А'уС

(2) ¿с = — = Г (г,г,хс,ис), г £ Т (г),

хс £ Xе(г, г) С Мп(к), ис £ ис (г, г, хс) С Мр(к), г = (к,х,и*) . Оператор правой части (1) имеет вид

/ (к,х,и) = в (г,^с(г)), = (^ ,хст ,Ьр ,хср) £ Г(г).

Решением этой комбинированной системы будем считать набор т = (х(к), и (к)) £ О, где при к £ К':

и(к) = (иё(к), тс(к)) , тс(к) £ Бс {Ь, х(к), иа(к)) ,

который называется дискретно-непрерывным (гибридным) процессом.

В [3,5] получены аналоги общих достаточных условий оптимальности Кротова и их конкретизация в форме Беллмана, которая используется и при выводе алгоритмов улучшения. Вводятся функционал (к, х) и параметрическое семейство функций

(г) : Мп(к)+1 ^ М, г = (г,х (г), ил (Ь)) .

Строится обобщенный лагранжиан

Ь = С (х (кр)) + ^ (^ (к) - К(к,х(к),и(к))) +

К\К'\^

(¿л (к)-Сс(х(к))+[ (цс(х(к)) - Кс(г(к),г,хс(г),ис(г))) л), К' ^

Т(г)

и ряд конструкций по аналогии с достаточными условиями оптимальности Кротова [9,15]:

К-1

С (х) = ^ (ж) + ^ (К, х (К)) - ^ (к!, х (^)) - ^ р (г),

к1

К (к,х,и) = (к + 1, / (к,х,и)) - (к, х), Сс (г,^с) = -р (к +М (г,7с))+ V (к,х (к)) + (г,гР ,хср) -

(г^г ,хс(гт)) - ! (г, г) ¿г,

Т(г)

Ес (г, г, хс, ис) = /с (г, г, хс, ис) + (г, г, хс),

8ир|Д (к, х,и) : х £ Х(к), и £ и (к, х)}, к £ К\К',

М (к) =

- М [1е (г): х £ X (к), Vй £ И (к, х)}, к £ К',

Vе (г,г) = вир[Кс (г,Ь,хс,ис) : хс £ Хс(г,Ь),ис £ Ис (г,Ь,хс)}, 1е (г) = [Сс (г, 1С) : (>ус) £ Г(г), хс £ Хс(г, ЬР)}.

Достаточные условия оптимальности в терминах минимали т* £ О или минимизирующей последовательности [т8} С О представляют собой условия минимума Ь без дискретных цепочек и дифференциальных связей при некотором специальном способе задания функций у, Одним из возможных является схема Беллмана.

Пусть К, х (к[) — заданы, = т (г), хС1 = £ (г), (Ьр, хсР) £ Гр (г), в (г, 7с) = в (г, Ьср, хср), где Г1^ (г) — некоторая поверхность в Кп(к)+1. Других ограничений на переменные состояния нет.

Получается следующая рекуррентная цепочка относительно функций Кротова-Беллмана двух уровней tp, <рC (z):

<р (к,х)= sup <р (к + 1,f (k,x (t) ,u)), ueu(k,x)

ip (kF,x) = -F (x), к e K\K'\kF,

(3) ip^c. = -HCxс (Z,t,XC,ipCxa ) ,

HC (z, t, xC,p) = max{pTfC (z, t, xC, uC) : uC e UC (z, tC, xC)}, <PC (z, tF, XCF ) = ip (k + 1,9 (z, tF, XCF)) , (tF, XCF ) e rCF (z) , ip (k,x)= sup <pC (z,TC (z) ,£C (z)), к e K',

ueud(t ,x)

которая разрешается в порядке следования от kF к ki.

Предположим, что решение этой цепочки (<р (к, х (к)), ¡pC (z, t, xC)) существует и, кроме того, существуют соответствующие этому решению функции й(к,х (к)), iid (к,х (к)), uC (z,t,xC), получающиеся в результате операций максимума и минимума в (3). Подставляя эти функции в правые части заданных дискретных и непрерывных соотношений, при к e K' будем иметь

ж (к + 1) = f (к,х (t) ,й(к,х (t))), х (кi) = i (кi), к e K\K'\kF,

(4) ж (к + 1) = 9 (к,х (к), iid (к, х (к)) (z)) ,

хC = fC (t, x (t), ud (t, x (t)), t, xC, iiC (z(k),t, xC)) , tl = T (z(k)), xC (tl) = С (z), z(k) = (k,x (k) ,ud (k,x (k))) .

Тогда решение этой дискретно-непрерывной цепочки

(х (к) ,и(к))*, к e K\K', (х (к),Ud (к)), T (t),XC (к,t) ,UC (k,t)*, к e K', t e T* (k),

задает в целом оптимальный дискретно-непрерывный процесс т*.

Фактически решается семейство задач для любых комбинаций начальных условий b = (ki,х (ki)) из некоторого множества Bi, для которых существует решение цепочки (4). Такой результат будем называть решением в форме синтеза оптимального управления для рассматриваемой модели.

3. Глобальные оценки множеств достижимости

Множества достижимости (МД) — важные характеристики управляемой системы, которые позволяют решать разнообразные задачи управления, в частности, оптимального управления. В связи с этим их описания и оценки могут иметь весьма широкий круг приложений, таких как проблемы устойчивости, инвариантности, управления при неполной информации в стохастической или игровой постановке, многокритериальной оптимизации, исследования разнообразных свойств управляемых систем. Для ДНС естественно ввести 2 класса (МД) верхнего (дискретного) и нижнего (непрерывного) уровней.

Напомним, что множеством достижимости дискретной системы Хр_(к,кх, X/) на шаге к, порожденным начальным множеством X/, заданным на шаге к[, называется объединение значений х, принимаемых на шаге к на всевозможных траекториях системы (1), начинающихся при к[ из Х[.

Аналогично определяется МД непрерывной системы нижнего уровня Хсп(1,1[(г), ХС1), на шаге к в момент Ь как объединение значений хс, принимаемых в момент Ь на всевозможных траекториях системы (2), начинающихся в момент из Хст. Здесь уместно также использование понятия ансамбля траекторий как объединение всевозможных траекторий системы (2), исходящих из точек заданного начального множества [8].

Множества, содержащие МД Хе, ХСЕ, называются их внешними оценками, а множества, содержащиеся в МД Хс, Хсс, — внутренними оценками.

Непосредственно из определений МД и внешней оценки для дискретной системы вытекают следующие соотношения:

Хп(г +1) = /(г, Хп(г), и(г, хп(г))), хп(г,) = X,, Хе (к + 1) = / (к, Хе (к), И (к, Хе (к))), Хе (кт) = Хш.

Они описывают эволюцию множества достижимости или его оценки и могут служить для аналитического представления, когда операции объединения могут быть выражены аналитически. Для непрерывных систем подобных непосредственных описаний нет, однако существует другой подход с использованием оценочных систем функций типа Кротова как для дискретных, так и для непрерывных систем [9], который может быть непосредственно распространен на ДНС.

Пусть ил, (к) — заданы, х^ = £(к,х). Вводятся произвольные семейства {^а(к,х)}, а € А, {^р(к,х,Ь,хс)}, @ € В. Далее строится следующая вспомогательная (оценочная) ДНС. Верхний уровень (дискретный)

Vа (к + 1) = На (к, V (к)) = вир{^а (к + 1, / (к, х, и)) : и € и (к,х), х € X (к,у (к))}, Vа (к[) = вир <ра (к[, X/), X (к, и) = П {х: (к, х) < иа} П Хо (к),

аеЛ

где Хо — некоторая априорная внешняя оценка Хд, V — все семейство {Vа}, а € А.

Нижний уровень (непрерывный):

^ = Щ {г, }), ^ ) = ^ , ^ = зпрЩ , Хс): Xе € Х1 }

кср (г, {^}) = вир{ т /с(г, хс, ис) + :

\ ^^ Кр {ир

€ и с (1,хс), хс € Щ (г, {^})},

Щ (г, {иср}) = д п {хс: ^ (г, хс)

р ЕВ

= ^, ^ (г, хс) < ^' = ¡з}п хо (г),

х> (*) = {х° € к": ч>% (^ хс) < ир (г)} п хо (г),

рЬВ

где Хо, Х0 — возможные априорные внешние оценки. Непрерывная система и соответствующая ей оценка МД зависит от параметров к, х. Связь между уровнями определяется следующими очевидными соотношениями:

Х^ (г,) = £(к,Х1р(к)), Х^(к +1) = в(к,Х0 (к,,Хч>(к),ьР)).

Любая система пар {^ определяет внешние оценки мно-

жеств достижимости системы (обоих классов) рассматриваемой ДНС. Весьма важно, что среди этих оценок содержатся (при естественных дополнительных предположениях) точные оценки, совпадающие с множествами достижимости. Они получаются при специальном задании функций ф, ц>с условиями, родственными рассмотренным выше соотношениям типа Беллмана [9].

На верхнем уровне имеем рекуррентную цепочку:

X/ = [х: х(х) <ч}, <р (г/,х)=х (х),

(5) вир <р (к +1, / (к,х,и)) — <р (к,х) = г(Ь,<р (Ь,х)),

«еи(4 ,х)

¡у(к +1)=г( к,1У (к)), 1у( кг ) = ц. А на нижнем уровне получаем уравнение в частных производных:

X? = [хс : хс (хс) < 4е}, Vе (хс)=Хс (х),

(6) вир (г,хс)Г(г,хс,ис)) + ч>% (г,ХС) = Гс (г(г,хс)),

исеис(г ,хс)

¿с = гс (г,^с), Vе (гг) = дс,

где г (к, и), гс (1, Vе) — произвольные функции (вторая непрерывна по состоянию). Все атрибуты нижнего уровня, зависят от параметров к,х. Связь между верхним и нижним уровнем определяется следующими соотношениями:

(к, и, £(х)) =у (к,х), Чс(к) = 1У(к), <р (к + 1, в (к, Xе)) = (к, гр,хс), и(к + 1) = Vе(к, гр).

Рассмотрим как частный случай линейно-квадратическую ДНС:

х°(к + 1) = х0(к) + 1(а(к)1х12 + Ь(к)1и12)

а, Ъ> 0, х0 £ М, х0(г£) = 0, х(к + 1)=А(к)х(к) + В(к)и, х £ Мп(к), х(кг) = 0.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

хс0 = 2(асШхс12 + ьс(г)1ис12), Ас, Ъс > 0, хс0 £ М, Хс0(г 1 )=0, ¿с = АС(г)хс(г) + вс(г)ис, хс £ Мп(к), хс(гI) = £(к)х, х(к + 1) = 0(к)хс(к, ),

где через , обозначены матрицы соответствующих размеров. Все параметры непрерывной системы считаются зависящими от к. Соотношения (5), (6), описывающие МД для данной системы, разрешаются, если задать р, ¡рс в виде

ф = хта(к)х, = хсТас(к, Ь)хс.

При этом получается ДНС для матриц а(к), (гс(к, Ь). При а(Ь) > 0, Ь(Ь) > 0 получаются уравнения типа Риккати, а при а(Ь) = 0, Ь(Ь) > 0 — линейные уравнения.

Эти результаты могут быть использованы для аппроксимации МД нелинейной системы в окрестности некоторой траектории, лежащей на его границе при построении процедуры улучшения управления в задаче с ограничениями на правом конце.

4. Приложение к импульсным процессам управления

Процессы, порождаемые импульсными управляющими воздействиями, являются по существу дискретно-непрерывными, и концепцию ДНС естественно рассматривать в качестве адекватного для них математического аппарата.

Рассматривается управляемая система

(7) х, = ! (г,х,и), х £ мп, и £ и (г,х) с мй, с неограниченным годографом (множеством скоростей)

V (г,х) = /(г,х, и (г,х)).

Такие системы играют ключевую роль в теории вырожденных задач [9,10], где достаточно полно изучены их свойства и связанные с ними понятия и объекты. Одно из таких понятий — предельная система, которая строится следующим образом. Рассматриваются пределы последовательностей [гид|гид|-1}, [гид} С V, |гид| ^ ж. Каждому пределу сопоставляется продолжающий его луч . Предельной называется система

— = I, I £ ь (г,х),

ат

где Ь — параметр, Ь (Ь,х) — объединение указанных лучей (конус). При естественных предположениях она асимптотически описывает поведение исходной системы при больших скоростях. Предельная система может быть записана в форме

(8) ^ = к(х)и, и £ И С Мй, ат

где к = И.1,... ,к¡. — некоторый базис линейной оболочки Ь (символ параметра здесь для краткости опущен).

Введем в рассмотрение класс ЕЕх кусочно-непрерывных функций Хд (1) следующим образом. Разобьем отрезок Т системой точек [Ь^},

г = 0,1,... ,д, ¿о = , = Ьр. На каждом промежутке (ti,ti+l) зададим элемент последовательности хч (!,) следующим образом. Это решение системы (7) при некотором и = и (¿), начинающееся из точки хч (Ь^ +0). А в каждой точке {¿^ оно претерпевает разрыв «вдоль некоторой траектории» соответствующей предельной системы, начинающейся из точки Хд (Ьг — 0) (рис. 1).

Рис. 1.

Учитывая свойства предельной системы, можно утверждать, что существует последовательность {хЧ8 (£)} С &х, сходящаяся по мере к хд (¿), на которой хЧ8 (1р) ^ хд (1р) [9].

Представим множество ЕЕх с помощью ДНС (1), (2), где к — порядковый номер левого или правого предела хч (Ь) в некоторой точке разрыва. Четные номера обозначают левые пределы, а нечетные — правые (начальная точка рассматривается как левый предел, а конечная — как правый). Для нечетных к на нижнем уровне рассматривается исходная непрерывная система (7), действующая между соседними точками разрыва, которую перепишем в форме (2):

¿с = ¡с (г,г,хс,ис), г € т(г), т = (к),гР(к)),

г =(к,х,иа), иа(к)= гР (к). Для каждого четного к рассматривается для простоты лишь один уровень, где множеством управлений служит множество достижимости соответствующей предельной системы на своем интегральном многообразии.

Полученную таким образом ДНС назовем сингулярно ослабленной. С одной стороны, она описывает класс решений ЕЕх, более широкий, чем исходный, поскольку допускает разрывные решения. С другой стороны, любое решение из ЕЕх аппроксимируемо решениями исходной.

Элементы множества ЕЕх зависят от параметра ц — числа точек разрыва, которое в общем случае может неограниченно расти. Если нет априорных верхних оценок для этого числа, то в ходе итераций, например, при поиске оптимального решения, его необходимо увеличивать «до установления». В этом случае, с учетом того, что — число точек разбиения одного и того же временного отрезка, предлагается поступать следующим образом. Пусть найден некоторый элемент mj на з-ой итерации. На следующей итерации положим ч(з + 1) = ч(з) +1 и изменим масштаб предыдущих элементарных отрезков коэффициентом 3/(3 + 1). Соответственно модифицируем mj по правилу изменения масштаба времени до некоторого fhj. Тогда появится новый отрезок в конце, равный Т/(3 + 1). На этом отрезке положим хд^+1)(^ = д + 0).

Предлагаемое представление позволяет, в частности, применять условия оптимальности (раздел 2) для решения задач оптимального управления. Рассмотрим для иллюстрации следующий пример.

ПРИМЕР 4.1.

хс1 = (хс2)2, ¿с2 =ис, ис > 0,

хс1 (0) = 0, хс2(0)=х}2, хс1(гр) ^ м.

Представим эту систему как четырехшаговую дискретно-непрерывную.

• Шаг к = 0:1 = 0, переход на верхний уровень с помощью предельной системы, которая в данном случае имеет вид:

¿хс1 /(1т = 0, ¿хс2/(1т =1.

• Шаг к = 1: Ь £ (0, Ьр), процесс определяет исходная система.

• Шаг к = 2:1 = Ьр, вновь движение по предельной системе.

Предельная система интегрируется явно:

хс1 =хс1(0), хс2 = хс2 (0) + т,

поэтому шаги 0 и 2 могут быть выполнены как дискретные, а шаг 1 — как «непрерывный». Дискретные переменные обозначим х1,х2. Будем иметь:

ж1(0) = 0, х2(0)=х2, х1(2) ^ М, х1(1)=х1(0),

х2(1) =х2(0)+и, и > 0, хс(1, 0) = х(1),

х1(2) =хс1(1, гр), х2(2) = хс2(1, гр )+и.

Выпишем конструкции достаточных условий, полагая разрешающие функции (Кротова) линейными (<р = фТ(к)х, <рс = фсТ(к)хс):

Rc(t,xc ,ис) = фс1(г)(хс2)2 + фс2(Ь)ис + фс1хс1 + фс2 хс2,

Gc(xj,xcF,х) = -ф1(2)хср - ф2(2)хср + ф1(1)х1 + ф2(1)(х2)+

+ф с1(Ьр )(ХСр1) + ф с2(1р )(ХСр2) - фс1(tj )(х1) - фc2(tj )(х2),

R(k,x,u) = ф1(к + 1)х1 + ф2(к + 1)(х2 + и) - ф1(к)х1 - ф2(к)х2,

к = 0, 2,

G(x) = х1 + ф1(3)х1 + ф2 (3)х2 + const.

Из условия максимума функций Кс и (-Сс) (с учетом неравенства ис > 0) следует:

Я R

фс2 < 0, ис = 0, фс1 = 0, ^^ = 2фс1хс2 + фс2 = 0,

охс2

фс1 < 0, -ф(2) + ф"(tc) = 0, ф(1) - фс1(Ь!) = 0.

В свою очередь условия максимума R и (-G) (с учетом неравенства и > 0) определяют следующее соотношения:

ф2(к +1) < 0, ф(к) = ф(к +1)),

ф1(3)= ф1 (2) = -1, ф2(3)= ф2 (2)=0.

Рассматривая эти условия совместно с исходными непрерывными и дискретными соотношениями, получаем:

хс2(г) = const = х2(1), ф с1(г) = const = ф1(1),

Фс2 = -2ф1(1)х2(1)г + ф2(1),

фс2(1р) = -2ф1(1)х2(1)1р + ф2(1) = ф2(2) = 0,

ф2(1) = -2x2(1)tF, ф2(1)и = -2x2(1)tFи < 0.

Отсюда следует, что м(0) = 0 при х2(1) > 0, х2(1) = х2 (0), м(0) > 0 при х2(1) = 0. В последнем случае из исходного уравнения получается м(0) = -х2(0), х2(0) < 0. В итоге получается разрывное решение, соответствующее импульсу в начальный момент, сопровождаемому нулевым управлением на оставшемся промежутке.

Если предельная система вполне управляема на своих интегральных многообразиях, то, как известно [9], в этом частном случае возможен дальнейший переход к производной системе меньшего порядка

У = Vxf (t,x,u)+ щ, U1 € U (t,x), у = 'ч (t,x),

которая служит для регулярного представления обобщенных решений импульсного типа исходной системы. При этом используется интеграл у = г/(1 ,х) предельной системы (8), в общем случае нелинейной, который далеко не всегда выражается явно. В [9] предлагается неявная процедура его описания и соответствующее представление импульсных режимов как решений производной системы непосредственно в терминах исходной управляемой системы (7):

у = г /(г ,х,и) + в, х = х (I ,*, у) , у ((г 1 ) = 0, и £ и (г,х), х = а (Ь)у, х (11) = XI,

/ З \Т

а= —Н (г ,х (г)) (—Н (г ,х (г))) а (г),

а (гI) = в(к (, X (гI)), 61, 62,. .., еп),

Зх

— = Н (Ь,х)ю, х = £ (1, г), х (1, 0) = х (1),

Зр- = - гк^ю, 3 = 1, 2, ... ,п, г (г, 0) = ат (г), |ю|< 1,

—— = —гп^ю, в и, 0) = 0. З

Базис Н (1, х) считается ортогональным без потери общности.

Сама трактовка и практическое применение этой нестандартной процедуры связано с дискретизацией участвующей в ней дифференциальной системы с аргументом , которая предполагается регулярной, допускающей, например, корректную дискретизацию по схеме Эйлера [12]. Здесь как раз удобно ее дискретно-непрерывное представление. Переходя к принятым выше обозначениям для верхнего и нижнего уровней и выбирая масштаб времени так, чтобы шаг дискретизации был равен 1, приходим к следующей ДНС:

х(к + 1) = х(к) +г(к)/(к,х(к),и) + в(к),

х (к1) = 0, и £ И (к,х),

х(к + 1) = х(к)а (к) Ах(к), х (к1) = XI,

а(к + 1) = а(к) — Н (к,х (к)) (АН (к, х (к)))т а (к),

а (к1) = в(к (к,1, х (к1)), еь &2,. .., еп),

Зтс

— = Н (к,хс)ис, Xе (к, 0) = х (к), 1ис1< 1,

^ = -(гЬ)хаис, гс (к, 0) = ат (к), г(к + 1)= гс (к,гр) ,

(1сс

- = -(гсК)кт, вс (к, 0)=0, в(к + 1) = вс (к,гР),

аЬ

Ах (к) = х(к + 1) - х(к), Ак(к) = к(к + 1, х(к + 1)) - к(к, х(к)).

5. Приближенная оптимизация и последовательное улучшение

Для прикладных задач точное разрешение условий оптимальности, в частности, уравнений (4), маловероятно. Но они могут быть использованы для приближенной оптимизации двояким путем: 1) заданием функций Кротова в форме многомерных полиномов и глобальной аппроксимацией в заданной области соотношений (4) на некоторой сетке узлов; 2) построением итерационных процедур последовательного улучшения управлений в окрестности текущего приближения. В свою очередь, такие процедуры могут строиться посредством локальной аппроксимации функций Кротова степенными полиномами невысокого порядка по различным принципам [13,14]. Рассмотрим это подробнее.

5.1. Приближенная глобальная оптимизация

В этом случае функции у, ус ищутся в форме

^(к,х) = ^ гФа(к)да(х),

а

Vс(Ь,хс) = £ ф°(к)дср(хс),

р

где {да(х)}, (ж)} — некоторые заданные наборы базисных функций, а {фа}, {^р} — соответствующие наборы коэффициентов, подлежащих определению посредством аппроксимации рассмотренных выше соотношений типа Беллмана на некоторой сетке узлов по известному методу наименьших квадратов. Это приводит к линейным системам относительно фа, фр, в результате разрешения которых получаются рекуррентные соотношения вида

фа(к)= 1С(к, [фа(к +1)} , фа(кр ) = Фа Е,

(9) Фср = -Кс(г, {фс}), ФС(ЬЕ) = Грр,

с соответствующими связями между уровнями, вытекающими из (3).

Преимущество такого подхода в том, что он не требует строгого согласования конструкции полинома и конфигурации узловых точек, требуется лишь избыточность числа узлов относительно числа неизвестных, чтобы задача аппроксимации имела единственное решение. В частности, он позволяет совместить аппроксимацию регулярным степенным (тейлоровским) полиномом с прямоугольной сеткой узлов, что невозможно, например, при многомерной интерполяции.

Точность полученного таким образом приближенного решения можно оценить сверху величиной

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

А= вир С(х)— М С(х)+ у и (к) — М К(к,х,й(к,х))\ +

х(*р) ( ) хп') ( ) к\К\гг ^ ( ) ( ( '

+ у вир (и (к) — М Сс + [ (ис — М Кс())л), К х( х°(IР) У V Х°(г) )

Т(*)

которая представляет собой аналог известной оценки Кротова [15,16]. Здесь Х(к), Хс(г, Ь) — области, в которых строится синтез.

5.2. Последовательное улучшение процессов по принципу локализации

Для того чтобы использовать этот подход в задаче итерационного улучшения по принципу локализации, достаточно ввести два функциональных параметра — некоторый процесс т1 и функционал типа нормы, который представляется в форме = 1/х°(кр), где

х0(к + 1) = х0(к) + а1х(к) — х\к)12 + Ци — ис1(к)12,

х с0(г) = ас1хс(к, г) — хс1(к, г)12 + ъс1ис — ис1(к, г)12.

Далее следует вместо (х,хс, I) подставить новый набор (х — х1,хс — хс1, (1 — г/)1 + ) и искать приближенное решение задачи оптимизации посредством аппроксимации соотношений (4). В результате получатся уравнения относительно коэффициентов функций Кротова. При этом наборы параметров а, Ь, ас, Ьс, V будут играть роль регуляторов алгоритма улучшения. В зависимости от выбора аппроксимирующих конструкций и соответственно числа коэффициентов этих конструкций итерации улучшения будут получаться более простыми (например, для линейной конструкции), но менее эффективными, либо более эффективными, но более сложными (например, для регулярного полинома второй степени).

Эта схема является дальнейшим развитием метода, основанного на тейлоровском разложении соотношений (4) типа Беллмана с точностью до малых второго порядка включительно [17].

5.3. Последовательное улучшение по максиминному принципу

Этот принцип, предложенный В.Ф. Кротовым в [16,18], в абстрактных терминах состоит в следующем. Пусть задан функционал I (u,v) на множестве D, где v = в (и), и некоторая пара (u,v)i из класса D. Вводится функционал L(u, v), такой что L = I на D. Если задать L так, чтобы L(ui,vi) = supL(u\,v), а u*(v) — из условия

V

minL(u,v), то I(u2,V2) < I(u\,v\), где (U2,V2) — решение уравнения

и

v = 9(u*(v)).

Для его реализации может быть предложен аналог предыдущей схемы среднеквадратической аппроксимации уравнений (4), где вместо функций u(k,x (t)), iid (k,x (к)), uc (z,t,xc), xc (tj) = (z) подставлены и1 (к), udl (к), ucl (k,t), xcj (к). В результате получатся уравнения для коэффициентов аппроксимирующего полинома, аналогичные (9), но линейные.

Другая схема — локальная тейлоровская аппроксимация функционала L. Предположим, что X = Г = Шт(к), X c = Г c = Шп(к), xcj (к) = £ (к,х (к)), ki, Х[, кр, tj (к), tp (к) — заданы. Задан элемент т1 € D. Поиск улучшенного элемента т11 и функций ip (к,х (к)), •д (z,t,xc) будем вести из условий:

1) R1 = minR (к,х (к) ,иТ (к)),

X

2) RcI = minRc(zI,t,xc (k,t) ,ucl (k,t))),

3) GcI = max[ Gc (zI,xcp) - f Rc(zI(k),t,xc(t,z),ucI(k,t))dt

X V Tiz1)

4) Gl = max G (x),

где xc(t, z) — результат операции 2). Пусть

ü(k,x) = arg max R (k,x (к) ,u (k)),

uEU(k,x)

uc (z,t,xc) = arg max Rc (z,t,xc,uc).

uc eua(z,t,xa)

Тогда из заданной дискретно-непрерывной системы и начальных условий при полученных управлениях находятся функции х11(к), хс11(к, Ь) и программы управлений

V11 (к) = й (к, Хи(к)) , ис11 (к, г) = йс (к,г, х11(к), хс11(к,г)),

т.е. элемент т11, такой что I (т11) < I (т1). Повторяя итерационно эти операции, получим улучшающую последовательность {т8}.

Будем выполнять указанные операции приближенно в достаточно малой окрестности траектории дискретно-непрерывного процесса т1, рассматривая тейлоровское представление функционала Ь:

Ь « Ь1 = йС + 1й2С — V (¿К + 1з2К) +

2 ^ V 2

К \ К'\ кР

К'

[¿К

J ^¿Кс +

¿сс + \л2сс — I [¿тс + 1й2кс) л

\ т( к)

Для выполнения условий 1) - 4) достаточно положить:

сх = 0, Кх = 0, Ку = 0, Ссхс = 0, сх — ^ кх<зъ = 0,

Т( к)

Схх = ~Л'1, Кхх = Л, К^хсхс = Л,

КххС - 0, Сха хс - Л , - 0, ^^хх ^ КххЗ - Л .

Т( к)

Здесь Л1 - Л5 — положительно определенные диагональные матрицы. Нетрудно видеть, что эти равенства представляют собой достаточные условия локального экстремума функций С, Сс, К, Кс. Зададим функции <р и <рс в следующем виде:

<р (к, х) = фТ (к) х + 1АхТа (к) Ах,

< (г, г, Xе) = Хт (к, Ь)х + фсТ (к, г) Xе + 1 (АхсТас (к, г) Ахс+ +Ахтаа (к, г) Ах + АхсТ1УТ (к, ^ Ах + Ахту (к, ^ Ахс) .

Расшифровка указанных условий локальных экстремумов приводит к задаче Коши для ДНС относительно коэффициентов этих функций с начальными условиями на правом конце (которую здесь

приводить не будем из-за громоздкости). Отметим, что эта система линейна, т.е. заведомо разрешается. Тем самым в соответствии с условиями 1) - 4) получается улучшенный процесс т11.

Параметры Л играют роль регуляторов близости соседних приближений, т.е. в конечном итоге — регуляторов алгоритма. В целом получающийся алгоритм улучшения — это алгоритм второго порядка. Если положить а = 0, ас = 0, Л = 0, получается алгоритм улучшения первого порядка. В этом случае локализация и соответственно эффект улучшения достигается за счет дополнительных ограничений вида \а — и11 < 61, 1ис — ис11 < б2.

5.4. Метод улучшения, основанный на аппроксимации множества достижимости

Предлагаемый метод улучшения строится как локализация следующей известной глобальной схемы:

1) Строится множество достижимости X д(кр) системы ДНС.

2) Функция Р(х) минимизируется на множестве Хд(кр) П Г; находится соответствующая точка минимума хр* (для простоты предположим, что она существует и единственна).

3) ДНС (1), (2) просчитывается «справа налево» при начальном условии (1 р,хр) = (1 р*,хр*) и управлениях й, йс, получаемых в процессе построения множества достижимости; в результате находится искомый оптимальный элемент т.

Локализация производится с помощью функционала

и = (х0(кр ),х(кр)) = (1 — и)Р (х(кр)) + их0(кр)

и линейной аппроксимацией исходной ДНС (1), (2) в окрестности т1, где под символами х, и, хс, ис следует понимать х — х1(к), и — и1(к), хс — хс1 (к, г), ис — ис1(к, г).

Этому соответствует локальная аппроксимация множества достижимости исходной ДНС (1), (2), дополненной уравнениями отно-

0 сО

сительно х0, х :

{(х0,х): х0 > 1 хта(к)х, },

(10) а(к + 1) = А(к)а(к)Ат (к) + В(к)Вт (к),

а(кг) = 0, к е К\кр,

(11) ¿с = Ас(к,г)ас (к)АсТ(к,г) + Вс (к)ВсТ(к), ас(к,гт(к)) = ^Та(к)^, а(к + 1) = втас(к,гр(к)в, к е К',

где через к, в обозначены матрицы соответствующих размеров, получающиеся при линеаризации исходных одноименных функций. Далее на этом множестве согласно методу локализации решается задача о минимуме Р„(Ь,х,х0) с учетом имеющихся концевых ограничений.

В целом получается следующая процедура улучшения, составляющая каждую итерацию алгоритма.

1. «Слева направо» просчитывается ДНС (10), (11).

2. Минимизируется функция

^(х, х0) = (1 - ^(х) + УХ0, 0 < V < 1, при условиях

х е Г, х0 > 1(х - X1 (кр))та(кр)(х - х1 (кр)),

находится точка минимума (хр*)и.

3. «Справа налево» разрешается цепочка

ф(к) = Ат(г)ф(г + 1), Ф(кр) = а(кр)(хр- Х1(кр), находится фи (к) и

и, = ь1(к) + Вт(кр ))(к)ф„ (к + 1),

< = ис1(к) + вс т(к,г))фси (к,г).

4. Просчитывается «слева направо» исходная ДНС (1), (2) при ии, и, и начальном условии х(к[) = Х[, находится то, и А.(у) = I(то1) - I(то,).

5. Шаги 2-4 повторяются для различных V до тех пор, пока с требуемой точностью не выполнится условие (хи(кр)) е Г, а I(и) не достигнет минимума при некотором V*, топринимается за то11.

6. Элемент т11 берется в качестве т1 и начинается следующая итерация. Процесс итераций заканчивается, когда V* к 0 и т1 к т11 с заданной точностью.

В отличие от методов, базирующихся на схеме Беллмана непосредственно, данный метод не решает автоматически задачу локально оптимального синтеза и в этом отношении проигрывает ему применительно к задаче со свободным правым концом. В задачах с концевыми ограничениями преимущество предыдущего метода исчезает, поскольку применение штрафов для искусственного освобождения от концевых ограничений связано с известной проблемой регулирования штрафных параметров, что значительно усложняет в целом процедуру улучшения.

6. Улучшение магистрали в социо-эколого-экономической модели

Рассмотрим в качестве содержательного примера производную задачу, полученную путем двойного перехода от полной системы уравнений модели [19] при идеализирующих предположениях о неограниченности линейных управлений. Она имеет существенно меньший порядок по сравнению с исходной и служит для поиска приближенного решения исходной для его последующего уточнения итерационными методами. Это решение имеет магистральный характер, поскольку его траектория не удовлетворяет всем исходным граничным условиям, и их выполнение достигается посредством импульсных воздействий. Уравнения связи этой задачи:

с = к(в)у— рВбк — р(А" (6)^" + В" 5") — Б(г)+

+'Пг (в) (^ + N (г — г) + гтг — ехг)— г]вв (в)г([у"к" ] + Н )(в — в),

(12) в=—([1"к"] + Н )(в — в), ф I ) = 0, в(ЬI ) = 0.

Здесь у — вектор выпусков продукции по отраслям, 0 < у < Г(к), к = р(Е — А(в)) — г/вС(в), цв = р(Ав1в + 5вВв)(Св^в)-1, к, к", Г(к), 6, 6в, 6" — основные фонды, мощности и инвестиции (векторы) и темпы амортизации (диагональные матрицы) в экономическом, природо-социо-восстановительном и инновационном секторах; р — матрица-строка цен (ценовых поправок); — вектор индексов состояния при-

« ' г

родной среды и социума; гт , ех' — миграционные потоки загрязнений и ресурсов; г(Ь) — заданная функция (опорная), например, получаемая из статистического прогноза; А, Ав, А" — матрицы прямых

затрат в экономическом, природо-социо-восстановительном и инновационном секторах; В, Вг, В" — матрицы фондообразующих затрат в указанных секторах; N — матрица коэффициентов взаимовлияния компонентов природной и социальной подсистем; С — матрица коэффициентов прямого воздействия отраслей экономики на компоненты природной и социальной подсистем, а в, в — векторы инновационных индексов и их предельных значений (агрегированное описание изменения за счет инноваций элементов матриц и других параметров), Н — диагональная матрица, отражающая диффузию инноваций.

Рассмотрим задачу поиска минимума функционала I = -С^р) (что соответствует максимуму накопленного дохода) при предположении, что к" > 0 не ограничено сверху. Это задача импульсного управления, так что применима схема представления исследуемой системы как ДНС (раздел 4). Разобьем заданный отрезок на N этапов — переходов между значениями дискретного аргумента (п = 0,1, 2,..., N), N = 4.

1 этап: Выход на магистраль (п = 0,1).

2-3 этапы: Движение по магистрали в силу непрерывной системы с точками переключения переменных (п = 1, 2; 2, 3).

4 этап: Сход с магистрали (п = 3,4).

Обозначим переменные верхнего уровня как х1, х2, х3. Здесь переменные х1, х2 соответствуют правым пределам переменных (, в,

3

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

а х3 — начальным значениям времени на непрерывных интервалах,

23

т.е. точкам преключения непрерывных управлений; и2, и3 — дискретные управления (импульс для выхода на магистраль и смещения точек переключения).

Тогда справедливы следующие уравнения верхнего уровня:

х}(п +1)= хЦп) + им (п), 11^(4) = 0, п = 0,...,Ы - 1, иа2(п)=0, п =1,...,М - 1, и'13(п) = 0, п = 0,...,Ы - 1.

ж1(0) = с(0,гт(0)) = 0, х2(0) = в(0,гг(0)) = 0, ж3(0) = (0) = 0.

На нижнем уровне на соответствующих этапах действует исходная система (6), которую для краткости переобозначать не будем. В новых терминах функционал принимает вид I = -х1(4).

Был построен алгоритм, основанный на среднеквадратической аппроксимации соотношений Беллмана (раздел 5.1) [20]. За начальное приближение взята магистраль из [19], которая формально получается при исследовании только уравнения относительно в при

предположении, что матрицы А7, А" от в не зависят. Заметим, что ее проекция на плоскость (1, в) не проходит через точку (1 [, в[), т.е. разрывна в этой точке. Кроме того, есть точки переключения переменных к, у.

Рассмотрим конкретный пример для агрегированной версии модели с одномерными секторами производства, восстановления и инноваций для условного региона, прототипом которого служит Байкальский регион по состоянию на 2010 год со следующими исходными данными:

ПРИМЕР 6.1. гр = 20, р = 1, 5 = 57 = 5" = 0.05, А0 = 0.5, А(в) = (1+в)А0, С0 = 0.000406, С (в) = (1+в)С0, В = 1, А7 (в) = 1+в, В7 = 1, А" (в) = 1 + в, В" = 1, С7 = 1, к0 = 400, кр = 800, к7 = 10, к" =6, в0 =0, в = -0.8, г0 = 0.8, Гр = 0.9, г = 1, N = -0.001, гтг = 0.1, ехг = 0.1, 5(г) = в(г - г)2, в = 5000, У1 = 0, к,_ = 0, Уи = 7 = 10, 77 = 0.0002, Н = 0.03, ^ = 0.0015.

Результаты расчетов приведены в таблице 1 и на графиках ниже (рис. 2). Заметим, что функционал достиг верхней границы при = .

Таблица 1. Результаты расчетов

№ вР Г П иЛ1( 0) ил\ 1)

1 -0.7565 9.978 -3.779 -0.723 -9.065

2 -0.771 0.913 41.694 -0.749 -0.205

3 -0.7855 0.708 194.683 -0.774 -0.097

4 -0.8 0.611 468.25 - -

Заключение

Рассмотренная концепция дискретно-непрерывного процесса и соответствующие ей условия оптимальности и оценки представляют собой удобный аппарат для описания и исследования различных сложных систем и процессов, таких как системы переменной структуры [21], логико-динамические системы [22], импульсные процессы [23], [24], [7], которые являются предметом интенсивно развиваемого направления — теории гибридных систем. Это подтверждается и приведенными примерами, один из которых, модельный, демонстрирует

Рис. 2. Итерации улучшения

возможность и эффективность применения достаточных условий оптимальности, другой относится к важной прикладной области управления региональными системами и показывает высокую эффективность итерационных алгоритмов оптимизации, построенных на основе указанных условий оптимальности.

Список литературы

Гурман В. И. К теории оптимальных дискретных процессов // Автоматика и телемеханика, 1973, № 6, с. 53—58 f 1

Габелко К. Н. Последовательное улучшение многоэтапных процессов // Автоматика и телемеханика, 1974, № 12, с. 72—80 f Орлов А. Г., Расина И. В. Сложные процессы и достаточные условия относительной оптимальности // Управляемые системы. — Новосибирск : ИМ СО АН СССР, 1979, № 18, с. 39-46 f2

Гурман В. И., Расина И. В. Сложные процессы // Методы решения задач оптимального управления на основе принципа расширения. — Новосибирск : Наука, 1990, с. 84-94 f

Гурман В. И., Батурин В. А., Расина И. В. Приближенные методы оптимального управления. Иркутск : Изд-во Иркутского ун-та, 1983.— 180 с. f2 Гурман В. И. Модели и условия оптимальности для гибридных управляемых систем // Изв. РАН. Теория и системы управления, 2004, № 4, с. 7075 f1

Миллер Б. М., Рубинович Е. Я. Оптимизация динамических систем с импульсными управлениями. М. : Наука, 2005.— 430 с. f1, 6 Куржанский А. Б. Управление и наблюдение в условиях неопределенности. М. : Наука, 1977.-- 392 с. f3

Гурман В. И. Принцип расширения в задачах управления. 2-е изд. М. : Наука, Физматлит, 1997.— 288 с. f2, 3, 4, 4, 4

Гурман В. И. Вырожденные задачи оптимального управления. М. : Наука, 1977.-- 304 с. f4

Гурман В. И., Батурин В. А., Данилина Е. В., Москаленко А. И. Новые методы улучшения управляемых процессов. Новосибирск : Наука, 1987. f Расина И. В. Дискретизация непрерывных: управляемых систем на основе обобщенных решений // Автоматика и телемеханика, 2011, № 6, с. 171-178 f4

Гурман В. И., Трушкова Е. А. Приближенные методы оптимизации управляемых процессов // Программные системы: теория и приложения, 2010, № 4, с. 85-104 f5

Гурман В. И. Абстрактные .задачи оптимизации и улучшения // Программные системы: теория и приложения, 2011, № 5, с. 21-29 f5 Кротов В. Ф., Гурман В. И. Методы и задачи оптимального управления. М. : Наука, 1973.-- 448 с. f2, 5.1

Krotov V. F. Global methods in optimal œntrol theory. New York : Marcel Dekker, 1996.-- 400 p. f5.1, 5.3

Расина И. В. Две формы достаточных условий оптимальности и метод улучшения второго порядка для сложных процессов // Юбил. сб. научн. тр. к 10-летию СИПЭУ. — Иркутск : Изд-во Макаров, 2004, с. 180-192 f5.2 Кротов В. Ф., Фельдман Н. Н. Итерационным метод решения задач оптимального управления // Изв. АН СССР. Техн. киберн., 1983, № 2, с. 160-168 f5.3

[4

[19] Расина И. В., Блинов А. О., Гусева И.С. Магистрали в .задаче оптимизации стратегии развития региона на многокомпонентной модели // Вестник БГУ, 2011, № 9, с. 36-42 f6, 6

[20] Расина И. В., Блинов А. О. Улучшение импульсных процессов на основе дискретно-непрерывной модели // Вестник БГУ, 2011, (в печати) f6

[21] Емельянов С. В. Теория систем с переменной структурой. М. : Наука, 1970.— 336 с. f6

[22] Васильев С. Н., Жерлов А. К., Федосов Е. А. Интеллектное управление динамическими системами. М. : Физматлит, 2000.— 352 с. ^6

[23] Цыпкин Я. З., Попков Ю. С. Теория нелинейных импульсных систем. М. : Наука, 1973.— 416 с. f6

[24] Дыхта В. А., Самсонюк О. Н. Оптимальное импульсное управление с приложениями. М. : Физматлит, 2000.— 256 с. f6

I. V. Rasina. Discrete-continuous models and optimization of control processes. Abstract. The article is devoted to the investigation of hybrid control systems on the base of discrete-continuous process concept developed in preceding works as a concretization of the general model of multi-step processes with related optimality conditions. There are obtained algorithms of approximate optimization which can be applied to a broad class of heterogeneous processes, in particular, to the impulse ones whereas the conventional optimization methods for homogenous processes are not applicable. Illustrative examples are given.

Key Words and Phrases: hybrid control, optimization, approximation, improvement algorithms.

Образец ссылки на статью:

И. В. Расина. Дискретно-непрерывные модели и оптимизация управляемых процессов // Программные системы: теория и приложения : электрон. научн. журн. 2011. №5(9), с. 49-72. URL: http://psta.psiras.ru/read/psta2011_5_49- 72.pdf

i Надоели баннеры? Вы всегда можете отключить рекламу.