Научная статья на тему 'Точные штрафы в задаче оценки координат динамической системы в условиях неопределенности'

Точные штрафы в задаче оценки координат динамической системы в условиях неопределенности Текст научной статьи по специальности «Математика»

CC BY
70
26
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НАБЛЮДАЕМОСТЬ / ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ / ШТРАФНЫЕ ФУНКЦИИ / НЕДИФФЕРЕНЦИРУЕМАЯ ОПТИМИЗАЦИЯ / УПРАВЛЕНИЕ / OBSERVABILITY / THE DIFFERENTIAL EQUATIONS / PENAL FUNCTIONS / NOT DIFFERENTIATED OPTIMIZATION / MANAGEMENT

Аннотация научной статьи по математике, автор научной работы — Карелин Владимир Витальевич

Проблеме учета ограничений в задачах математического программирования было уделено много внимания. Во многих случаях ее решали с помощью штрафных функций. В настоящее время идея точных штрафов хорошо разработана и широко используется. Подход, основанный на точном штрафе, наиболее интересен и изящен, но он приводит к необходимости решать негладкую задачу оптимизации, даже если исходная задача является гладкой. Однако прогресс в области численных методов недифференцируемой безусловной оптимизации, достигнутый в последние годы, дает некоторую надежду, что эти трудности будут преодолены. Ранее теория точных штрафов была применена к исследованию одного класса задач управления, в которых управления были просто параметрами системы дифференциальных уравнений, описывающей поведение некоторого управляемого объекта. В статье рассматривается задача наблюдения. Система дифференциальных уравнений считается ограничениями. Показано, как можно их убрать, вводя соответствующую штрафную функцию. Получающийся новый функционал существенно негладкий, тем не менее он обладает интересными дифференциальными свойствами, и современные методы недифференцируемой оптимизации позволяют решать указанные задачи численно.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Exact penalties functions in the problem of estimating the coordinates of the dynamical system under uncertainty

The problem of reducing a constrained mathematical programming problem to an unconstrained one has been given a great deal of attention. In most cases such a reduction is performed with the help of socalled penalty functions. At present the theory of Penalization is well developed and widely used. The exact penalization approach is most interesting and elegant but it generally requires solving a nonsmooth problem even if the original one was smooth. However, recent developments in Nondifferentiable Optimization give some hope that these difficulties will be overcome. To be able to reduce a constrained optimization problem to an unconstrained one via exact penalization it is suitable to represent the constraining set in the form of equality, where the function describing the set must satisfy some conditions on its directional derivatives (or, in general, on its generalized directional derivatives). In the present paper we show how to describe the constraints given in the form of differential equations by a (nonsmooth) functional whose directional derivatives satisfy the required properties. We treat one parametric optimization problem. This problem is reduced to a nonsmooth unconstrained optimization problem. It makes it possible to construct a numerical algorithm for the unconstrained optimization problem just allowing one to solve the original parametric optimization problem. Then, by making use of necessary optimality conditions (for a nonsmooth problem) it is shown that the conditions we obtain are equivalent to the well-known ones.

Текст научной работы на тему «Точные штрафы в задаче оценки координат динамической системы в условиях неопределенности»

ВЕСТНИК САНКТ-ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА

Сер. 10. 2011. Вып. 4

УДК 539.3 В. В. Карелин

ТОЧНЫЕ ШТРАФЫ В ЗАДАЧЕ ОЦЕНКИ КООРДИНАТ ДИНАМИЧЕСКОЙ СИСТЕМЫ В УСЛОВИЯХ НЕОПРЕДЕЛЕННОСТИ

Введение. Рассмотрим систему обыкновенных дифференциальных уравнений

где х(Ь) - абсолютно непрерывная функция. Начальное условие х(Ьо) = хо заранее неизвестно. Обозначим через х(Ь,хо) решение системы (1), проходящее через конкретную точку хо. Способы оценки или уточнения положения системы по данным измерения составляют предмет теории наблюдения. Предполагается, что поведение измерительного устройства подчиняется уравнению

в котором B — n-матрица соответствующей размерности, у — m-мерный вектор, а величина A.(t) - неизвестная погрешность, для которой известно лишь априорное ограничение на допустимые области ее изменения. Измерения (2) производятся на отрезке времени [0, T]. Тогда можно поставить задачу об определении оптимальной разрешающей операции Ф, вычисляющей x(t) с наименьшей возможной ошибкой ш при заданной оценке погрешности A.(t).

Эта операция может либо строиться заранее, на основе априорной информации о системе и заданных ограничениях, либо формироваться апостериорно, в зависимости от уже измеренных значений функции y(t). В первом случае речь идет о программном наблюдении, а во втором - о позиционном наблюдении. Решение задачи позиционного наблюдения основано на построении в фазовом пространстве некоторой информационной области X(T,y(-)), совместимой с сигналом y(t) и состоящей из концов тех траекторий системы (1), (2), которые могли бы, в принципе, породить вместе с некоторой величиной Д именно измеренную реализацию y(t). При этом неизвестное истинное состояние x(t) системы будет обязательно одним из элементов X(T, y(-)). Поэтому за оптимальную оценку x°(t) вектора x(t) принимается наилучшая, в каком-либо смысле, точка из X(T,y(-)).

Постановка задачи. Найдем минимум функционала )) на множестве ре-

шений системы обыкновенных дифференциальных уравнений (1), у которой начальное

Карелин Владимир Витальевич — доцент кафедры математической теории моделирования систем управления факультета прикладной математики-процессов управления Санкт-Петербургского государственного университета. Количество опубликованных работ: 60. Научные направления: идентификация систем управления, недифференцируемая оптимизация. E-mail: Vladimir. Karelin@VK10377.spb.edu.

© В. В. Карелин, 2011

x = f (x,t),

(1)

y(t) = Bx(t) + A(t),

(2)

условие x(0) = xo считается неизвестным. При этом предполагается, что оно удовлетворяет ограничению xo G Xo, где Xo - заданное выпуклое и замкнутое множество в Rn. Измерению доступны функции (2), в которых Д - неизвестный заранее параметр, реализации которого изображаются измеримыми функциями Д^). Информация о них ограничивается заданием допустимых областей их изменения

Д(t) G Е

где Е - выпуклый компакт. Задача заключается в том, чтобы оценить неизвестные величины координат x(t) по результатам наблюдения - значениям измеренной реализации y(t). Восстановить точные значения координат невозможно из-за наличия возмущений Д^). Речь идет лишь о наилучшей аппроксимации указанных величин. Представим уравнение (2) в виде включения

0 G G(t,y(t),x(t), Е).

Введем множество X(t,to,Xo) всех решений системы (1), удовлетворяющих этому включению. Для каждого е > 0 рассмотрим возмущенное дифференциальное включение

ez G G(t,y(t),x(t), Е), z(to) G Zo, (3)

в котором Zo С comp Rm. Если e = 0, то приходим к невозмущенному включению. Обозначим через Z(to, Xo, Zo) пучок всех траекторий системы (1) и возмущенного дифференциального включения. Непосредственно из построения этого множества вытекает следующее соотношение:

X(t, to, Xo) С Z(to, Xo, Zo).

Вопрос, насколько близко может быть оценивающее множество Z(to, Xo, Zo) к изучаемым семействам траекторий X(t,to,Xo), остается открытым.

Следуя работе [1], заменим ограничения вида (3) штрафным членом

т

d(Z) = J p(z,Z)dt, (4)

о

где p(z, v) есть евклидово расстояние от v до G(-), а to = 0.

Метод штрафных функций. Рассмотрим множество

О := {[z, xo] | z G C[0, T] : ^(z, xo) = 0},

здесь

\T I } \ 1

v(z,xo)= / \z(t) — f(xo + z(t)dr,xo,t)\ dt .

oo Заметим, что ^(z, xo) ^ 0 Vz, xo G P[0, T]. Если z, xo G О , то функция

t

x(t) = xo + j z(t)dT

o

удовлетворяет (1), и наоборот.

Таким образом, задача решения системы (1) для некоторого хо Є Хо эквивалентна нахождению г Є Р[0,Т] такого, что р(г,хо) = 0.

Пусть д := [и, д], где и Є С[0,Т], д Є К". Положим

\\q\\} ||v|| :=

1/2

■= Vх?-

Пара g определяет направление (на множестве C[0, T] х R"). Функция р в точке [z, xo] удовлетворяет p(z, xo) > 0 в направлении g. Теперь определим

<p'(z, Х0;д) = lim — [<p{z + av, х0 + ад) - <p(z, ж0)].

a|0 а

Предел существует и конечен, т. е. верно следующее утверждение:

Лемма 1 [2]. Если p(z, x0) > 0 ( т. е. [z, x0] ф Q), то функция р дифференцируема в окрестности точки [z, x0].

При этом

ip'{z, х0] g) = f ^v(t), w(t) - f w(r)dT j dt -

~ (Wf) ™(t)dt,qj = (y^sO,

(5)

где

Kt) - .f

(dm

l dx

w(r)dr,-j (Ml) w(t)dt

0

Так как (5) линейно в д, заключаем, что р дифференцируема около ^, х0] вместе с «градиентом» (на множестве С[0, Т] х ]Е,П). Более того, справедливо такое утверждение: Лемма 2. Существует а > 0 такая, что

min (^р, д) ^ —а < 0 y[z, x0] ф &.

llsIM

Доказательство. Сначала докажем, что

VP = 0.

Предположим, что это не так, тогда

(6)

■т - J

(df(r)

I dx

w(t)dr = 0n yt Є [0, T],

т. е. чм^) = 0п Ш € [0, Т], и мы получили противоречие. Будем считать теперь, что (6) неверно. Тогда существует последовательность ^к,х^] такая, что

=1=

здесь

Отметим, что

где

f+\ f(dfk{T)\ f f (dfk(t)\

У V dx ) Wk(T)dT’~J —) wk{t)dt

to dfk(t) df(xk (t),xk ,t) dfk(t) df (xk(t),xk ,t)

dx

dx

dxt

o

dxt

o

Wk (t) =

V(zk ,xo )

t

xk(t) = xo + j zk(t)dT,

zk(t) — f (xo + J zk(t)dT, xk,t)^J .

Ilwk|| = 1, \\hk||^0,

hk(t) = wk(t) - J wk{r)dT.

Отсюда вытекает, что ||wk|| ^ 0, что невозможно.

Теперь рассмотрим случай, когда p(z,xo) = 0. Укажем, что

т I Г \

p(z,xo)= max J \z(t) — f (xo + J z(t)dr, xo,t), v(t) \ dt,

2(t)dt

1/2

Если p(z, xo) = 0, то h(t) = z(t) — f (xo + f z(t)dT, xo, t) = 0 Vt G [0, T].

o

Так как

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

t

z(t) + av(t) — f (xo + j(z(t) + av(T))dr, xo + aq, t) =

= h(t)

df (t)

+ o(a),

тогда

T t

<p'(z7 x0]g) = max J I v(t)7 v(t) - J v(r)d

ax j ”(T)dT - ^7«1 '*

o

1

a

Для этой функции имеем

р'(z, xo; g) = max

11^11 = 1

} - j 4r)dr) at-

/(тёг9) mdi’q

dxo

Vo

Отсюда следует

Лемма 3. Если р(А, z) = 0, тогда функция р дифференцируема в направлении точки [xo ,z] и даже субдифференцируема , т. е.

p'(z,xo; g) = max (G, g),

GEd<p(z,xo)

где

dp(z,x„) = |g = [v*,q*]|v* € C[0,T],9* € JRn,v*{t) = v(t) —

-J = -/ É C[0,T], lldl < il (7)

t 0 '

Таким образом, задача наблюдаемости свелась к проблеме минимизации функционала

t t

(8)

00

T t

4>(z,xo) = j F (xo + j z(t )dr )dt,

подчиненного условиям (4), и p(z,xo) = 0, xo € Xo. Функционал 4>(z,xo) дифференцируем

ф'(г,х0;д) = lim —

a|o а

t

F (xo + j (z(t ) + av(T ))d,T )dt — 4>(z, xo)

v(t) ) dt,

dF(x(t)) dx

и его «градиент» (на множестве C[0,Т] х R") имеет вид

dF (x(t))

ЧФ^,А) =

dx

(9)

Следуя работам [2-4], можно доказать такое утверждение:

Теорема. Если р - липшицева на С[0,Т] х ^1Яп, тогда найдется Ао ^ 0 такая, что для всех А ^ А0 множество минимумов функции ф на множестве П = {[г, х0]\р(г, х0) = 0} совпадает с множеством минимумов функции

ф\(г, хо) = ф(г, хо) + Ар(г, хо) на всем множестве С[0, Т] х К"-.

Таким образом, если [г*,х0] - точка минимума функции ф\(г,хо) (для А ^ Ао), тогда р(г*,х*) = 0 и ф содержит его минимальные значения на О около [г*,х*]. Это также означает, что функция

Ъ

х*(і) = хо + J г*(т)йт

является решением дифференциальной системы уравнений

х(г) = / (х(г), х*0 ,г), х(0) = хо,

и значение функционала I(хо) минимальное в точке х*.

Функция ф\(г,х0) субдифференцируема, и ее субдифференциал имеет вид

дфх(г*, х*) = уф(г*,х*0) + Адр(г*,х*0),

где уф определен формулой (9), а др - (7) (множество р(г*,х*) = 0).

Необходимое условие оптимума

0 € дфх(г*,х*0).

Из него следует, что существует функция V € С[0,Т] такая, что ||"у|| ^ 1, и при этом

т

д ^(ж*(г))

дх

+ А

эд -!

(дПт)

І дх

и(т)йт

Ъ

т

0п '^І Є [0,^],

где

д/(і) _ д/(х*(і),Л*,і) д/(і) д/(х*(і),х*о,і)

дх

дх

дхо

дх0

Заменяя Ау(1) на у(1), получаем, что если х*(I) = х(Ь,х0) минимизирует (8), то существует вектор-функция у(Ь) € С[0, Т] такая, что

№(--М)+ад_ДМЙ)*0(т)<іт = „ *і€[0,п

дх

(10)

/ ’т = °-

о

Если Г(х) - дважды непрерывно дифференцируемая функция, тогда (10) можно переписать в дифференциальной форме

и

= _щш.

dx

Заключение. В работе задачу оптимизации процесса наблюдения удалось свести к задаче оптимизации без ограничений, для которой определены необходимые условия оптимальности. По функции точного штрафа можно установить точку глобального минимума задачи условной минимизации, если найдем точку глобального безусловного минимума функции штрафа при подходящих значениях штрафного параметра a. Однако, с практической точки зрения, поскольку обычные алгоритмы не способны привести к глобальным решениям (а только к локальным), то представляет интерес изучить связь между локальными минимумами исходной задачи и соответствующими точками штрафной функции.

Литература

1. Кларк Ф. Оптимизация и негладкий анализ / пер. с англ. Ю. С. Ледяева; под ред. В. И. Бла-

годатских. М.: Наука, 1988. 280 с. (Clark F. H. Optimization and nonsmooth of analysis.)

2. Demyanov V. F., Facchinei F., Karelin V. V. Optimal control problems via Exact Penalty Function // J. of Global Optimiz. 1998. Vol. 12, N 3. P. 215-223.

3. Di Pillo G., Grippo L. On the exactness of a class of Nondifferentiable Penalty functions // J.

Optim. Theory Appl. 1988. Vol. 57. P. 397-408.

4. Giannessi F., Niccolucci F. Connections between nonlinear and integer programming problem // Symposia Mathematica. 1976. Vol. XIX. P. 161-176.

Статья принята к печати 19 мая 2011 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.