Сер. 10. 2012. Вып. 4
ВЕСТНИК САНКТ-ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА
УДК 519.85 Г. Ш. Тамасян
ГРАДИЕНТНЫЕ МЕТОДЫ В ВАРИАЦИОННОЙ ЗАДАЧЕ СО СВОБОДНЫМИ КОНЦАМИ*)
Введение. В [1] продемонстрирована эффективная техника применения негладкого анализа [2] и теории точных штрафных функций [1, 3] в решении различных задач вариационного исчисления [4, 5]. В данной работе представлены результаты использования указанного в [1] подхода к задаче со свободными (подвижными) концами [6-8]. Получены в «новой» форме необходимые условия экстремума, а на их основе построены численные алгоритмы (прямые методы) наискорейшего спуска (МНС) и метод сопряженных градиентов (направлений) (МСГ) [1, 4, 5]. Из них элементарным образом выводятся «естественные краевые» условия [6-8].
Постановка задачи со свободными концами. Пусть Т > 0 фиксировано. Через Р2 [0, Т] обозначим класс непрерывно-дифференцируемых на [0, Т] функций с кусочно-непрерывной и ограниченной на [0, Т] второй производной.
Начнем изучение данной проблемы со случая фиксированного правого конца. Пусть заданы х\, Х2 € К.
Задача. Среди кривых, принадлежащих классу Р2[0,Т], удовлетворяющих условиям х(Т) = Х1, х'(Т) = Х2 и имеющих левый конец на прямой, параллельной оси ординат Ь = 0, найти ту, которая доставляет экстремум функционалу
т
1 (х)=! т'х"('м *■ (1)
о
где функцию Р будем считать непрерывно-дифференцируемой по всем своим аргументам на К х К х К х [0 , Т].
Рассмотрим множество
П0 = { х € Р2[0, Т] | х(Т)= х1, х'(Т) = х2 }. (2)
Переформулируем поставленную выше задачу (1), (2). Обозначим через г(Ь) = х''(Ь), тогда
т т т
х'(Ь) = х2 — J г(т) йт, х(Ь) = х1 + (Ь — Т )х2 + J ^ г (у) йуйт. (3)
Тамасян Григорий Шаликович — кандидат физико-математических наук, доцент кафедры математической теории моделирования систем управления факультета прикладной математики—процессов управления Санкт-Петербургского государственного университета. Количество опубликованных работ: 20. Научные направления: недифференцируемая оптимизация, негладкий анализ, вариационное исчисление, теория управления, вычислительная геометрия. E-mail: [email protected].
*) Работа выполнена при финансовой поддержке Российского фонда фундаментальных исследований (грант № 12-01-00752).
© Г. Ш. Тамасян, 2012
Введем функционал
T т
f (z) = J F (xi + (t - T )x2 + J J z(y) djdr,x2 - J z(t ) dr, z(t),t)dt.
mm эквивалентна задаче миними-
жШо
Несложно показать, что задача (1), (2) I(х)
зации функционала ](г) на всем пространстве Р[0, Т]. Здесь Р[0, Т] - множество кусочно-непрерывных, ограниченных на отрезке [0, Т] функций. Действительно, любой функции г € Р[0,Т] с помощью формул (3) сопоставляется функция х € По, т. е. удовлетворяющая ограничениям на правом конце х(Т) = х\, х'(Т) = х2.
Пусть ¿1, ¿2 € Р[0,Т]. На множестве Р[0,Т] введем в рассмотрение следующие метрики:
Pi(zi,z2)= max
te[0,T ]
t T
J j(zi(Y) - z2(7)) dYdr
00
P2(zi, z2)
max
te[0,T ]
J j(zi(Y) - z2(Y)) dYd
zi(t) - z2(t)
00
max
te[0,T ]
t
J(zi(Y) - z2(Y)) dY
+
+ sup
te[0,T ]
P3(zi,z2)= sup zi(t) - z2(t)
te[0,T ]
Между метриками pi, p2 и рз существует такая связь:
T 2
Pi(zi, z2) < P2(zi, z2) <
T2
1 + T +
2!
P3(zi,z2),
Таким образом, метрика рз мажорирует метрики р2 и р1, а метрика р2 - метрики р1 и рз. Отсюда следует, что метрики р2 и рз эквивалентны.
Пусть £ > 0. Если г* € Р[0, Т] - точка локального минимума функционала ] на множестве Р[0,Т], то справедливы включения
|z | P3(z, z*) < £
2 rpk
У —
^ k\
k=0
-i
j С |z 1 P2 (z, z*) < С |z 1 pi(z, z*) <
Отсюда заключаем, что точка локального минимума функции ] на множестве Р[0,Т] в метрике р1 является точкой локального минимума и в метрике р2, и в метрике рз. В силу эквивалентности метрик р2 и рз точка локального минимума ] в метрике р2 есть точка локального минимума и в метрике рз (справедливо и обратное). Теперь заметим, что если г* € Р[0, Т] - точка локального минимума функционала ] на множестве Р[0, Т] с метрикой р1, то функция х*(Ь) (3) принадлежит множеству По и является сильной экстремалью функционала I(х) на множестве По.
Если же z* G P [0, T] - это точка локального минимума функционала f на множестве P[0, T] с метрикой р2 или р3, то функция x* (t) (3) есть слабая экстремаль функционала I(x) на множестве По.
Пусть z G P[0, T] фиксировано, e > 0. Выберем произвольное v G P[0, T]. Положим
ze(t)= z (t) + ev(t).
Функция Aze(t) = ze(t) — z(t) = ev(t) называется классической вариацией кривой z. Используя классическую вариацию [1, 4, 5], получаем
т
f (ze) = f (z) + e J Q(t, z)v(t) dt + o(e, v), (4)
о
o(e, v)
где--> 0 равномерно по v при sup |v(t)| ^ 1,
e 1 te[0,T]
t t
0 0
здесь F (t) = F(x,x' ,x" ,t). Функционал f дифференцируем по Гато в точке z, и функция Q(t, z) является «градиентом» Гато функционала f в точке z.
Г т
Направление g(t, z) = —Q(t, z)/\\Q(t, z)||, где ||Q(t, z)\\2 = I Q2(t, z) dt - это направ-
0
ление наискорейшего спуска (в метрике L) функционала f в точке z.
Пусть z* G Z - точка локального минимума функционала f на множестве Z. Пусть e > 0, выберем v G P[0,T] и положим
ze(t) = z*(t)+ev(t).
Так как pi(ze, z*) -> 0 для всех г = 1, 3, то
е|°
fl{Zm)= liminf f(*\~fM <lîminffM-f(^ =liminîf(z*+£:]-f(z*\ Pi(z,zt)^0 Pi(z,z*) e|° Pi (z£,z*) e4° e\\v\\i
где \\v\i = pi(v, O).
Теорема 1 [1]. Для того чтобы z* G P[0,T] была точкой глобального или локального минимума функции f на множестве P[0,T] в метрике pi, необходимо, чтобы
sir \ г - г f (z) — f (z*) n = limmf ----— > 0.
Pi(z,zt)^0 Pi(z, z* ) Учитывая произвольность v G P[0,T] из (4) и теоремы 1 имеем
T
j Q(t, z*)v(t) dt > 0 Vv G P[0,T]. (5)
0
Это условие необходимо в любой из метрик pi, г = 1,3.
Теорема 2. Соотношение (5) эквивалентно следующему условию:
t
г дР*Н) i' дР*н) дР*(ь)
о о
Здесь Г * (Ь) = Р{х*,х'^ ,х'' . Условие (6) является интегральным уравнением Эйлера для задачи (1), (2). Дифференцируя дважды выражение (6), получим условие
+ 172^7Г=° VíeJD(xJ, (7)
дх ¿Ь дх' ¿Ь2 дх"
где Б(х'1) - множество точек непрерывности функции х"(Ь). Дифференциальное уравнение 4-го порядка (7) - это уравнение Эйлера-Пуассона.
Следствие 1. «Естественные краевые условия» на левом конце выводятся из необходимого условия (6). Первое условие получаем при Ь = 0:
dF (t)
dz
а второе - после дифференцирования по t при t = 0:
d dF(t) dF(t)
= 0, (8)
t=0
dt dz dx'
= 0. (9)
t=0
Метод наискорейшего спуска. Пусть z* G Z - точка минимума функционала f (z) на P[0,T], тогда Q(t,z*) = 0 для всех t G [0,T]. Точка z*, в которой выполнено условие (6), называется стационарной.
Итак, если точка z G P[0,T] не является стационарной точкой функционала f, то можно найти направление наискорейшего спуска функционала f в точке z. Таким образом, возникает естественная идея описать следующий МНС для определения стационарных точек, т. е. точек, удовлетворяющих условию (6).
Выберем произвольное z0 G P[0, T]. Пусть уже найдено zk G P[0, T]. Если выполнено условие (6), то точка zk является стационарной, и процесс прекращается.
Если же условие (6) не выполнено, то возьмем функцию Gk(t) = Q(t, zk) - градиент функционала f в точке zk.
Далее решается задача одномерной минимизации
min f (zk - ßGk) = f (zk - ßkGk).
Теперь положим zk+1 = zk - ßkGk. Имеем f (zk+1) < f (zk).
Далее продолжается аналогично. В результате построим последовательность точек {zk} С P[0,T]. Если эта последовательность конечна (состоит из конечного числа точек), то по построению последняя полученная точка стационарная. Если же последовательность {zk} содержит бесконечное количество точек, то, учитывая, что функция Q(t,z) непрерывна, как функция z, можно показать, что описанный метод схо-
r t
дится в следующем смысле: ||Q(t, zk)\\ ^ 0. Здесь ||Q||2 = I Q2 dt, следовательно,
0
Q(t, zk) ^ 0 в метрике L2. Вопрос о существовании предельных точек последовательности {zk} остается открытым.
Метод сопряженных градиентов (направлений). Пусть г°(г) - некоторое начальное приближение. Будем строить последовательность {гк(г)} по формулам
гк+1(1) = г к(г) - вкШк (г), к = 0,1,..., (10)
где
Шо(г) = Со (г), Шк (г) = Ск (г)+ук ш-1(г), к = 1,2,....
Величина в к может определяться так же, как и в МНС, а ук по формуле
о
7 к = —
1
j(Ok(t),Gk(t) - Gk-i(t))dt
1
j (Ck-i (t), Gk-i (t)} dt
Как показывает практика, на каждом этапе алгоритма с неизбежностью накапливаются погрешности. Это может привести к тому, что векторы Wk перестают указывать направление убывания функционала, и релаксация метода может нарушиться. Для борьбы с таким явлением МСГ время от времени обновляют, полагая в (10) Yk = 0, т. е. осуществляют градиентный спуск.
Задача (общий случай). Среди всех кривых x(t) класса P2[0,T], концы которых лежат на двух заданных вертикалях t = 0 и t = T, определить кривую, которая доставляет экстремум функционалу (1).
Обозначим через z(t) = x"(t) и положим, что
t t т
At) = xi +J z(r) dT x(t) = x0 + txi +JJ z(Y) dYdT
0 0 0
Таким образом, каждой функции x G P2[0,T] взаимнооднозначно сопоставляется элемент Z = [x0, x1, z] G Z, здесь Z = R x R x P[0, T].
Далее под нормой элемента Z = [x0,xi,z] G Z будем понимать
T
||Z||2 = x0 + xi + J z2(t) dt.
0
Введем функционал
t t т t
f (x0, xi,z)=JF (x0+txi 41z(Y) dYdT xi 4z(T) dT z(t) t)dt
0 0 0 0
Несложно показать, что задача I(x) —> min эквивалентна задаче минимизации
xeP 2[0,t ]
функционала f (z) на всем пространстве Z.
Пусть z G P[0, T], x0, xl G R фиксированы, e > 0. Выберем произвольные v G P[0, T], П, p G R. Положим
ze(t)= z (t) + ev(t),
хое = хо + £Ц, х\е = х\ + £р.
Используя вариации (11), находим ( Т
/(хое,х1е,гЕ) = /(£)+£< J Q(t,z)v(t) ¿Ь +
+ 'П [ ^ dt + /л
dF(t) +tdF(t)
dx'
dx
dt\ + q(e, v),
где F(t) = F(x,x',x",t), —'——- -> 0 равномерно no v при sup |v(t)| ^ 1;
e ei° te[0,T ]
dFb) J., , dF<yf) dz
Для данной проблемы можно сформулировать аналогичное утверждение теоремы 1 и получить следующее необходимое условие.
Теорема 3. Для того чтобы г* € Z была точкой глобального или локального минимума функции / на множестве Z, необходимо, чтобы
dF * (y) Г dF *(y) dF *(t)
dz
dF* (t) dx
dt = 0,
dF*{t) dF*{t)
dx' dx
dt = 0,
(12)
(13)
(14)
здесь Г*(Ь) = Г(х*, х'*,х'*,Ь).
Следствие 2. «Естественные краевые условия» выводятся из (12)-(14). Первое условие на правом конце получаем из (12) при Ь = Т:
dF (t)
dz
0,
t=T
а второе - после дифференцирования по Ь (12) при Ь = Т:
= 0.
d 8F(t) 8F(t)\ dt dz dx' )
t=T
Первое условие (8) на левом конце вытекает из (12) при Ь = 0 с учетом (14), а второе условие на левом конце (9) следует после дифференцирования по Ь (12) при Ь = 0 и из (13).
Заметим, что градиентом функционала ] в точке г является (
с(г,2)
дх
¿г
дР{1)
дх' дх
т
¿г
дх
\ г г
Направление д(г,Х2) = —0(г,Х)/\\0(г,Х)\\, где
. дР(7) , дР(г)
дх
№,г)\\2 =
дг (г)
дх
¿г I +
"¿ад +
дх'
дх
т , т
+
/(/ <->- г)
дх'
дх
дх
¿г I +
¿г,
0 \г
есть направление наискорейшего спуска функционала ] в точке г.
Пусть 2* € 2 - точка минимума функционала f (г) на 2, тогда \\С(г, г*)\\ = 0. Точка 2*, в которой выполнены условия (12)-(14) или \\С(г, 2*)\\ =0, называется стационарной.
Таким образом, если точка 2 € 2 не является стационарной точкой функционала f, то можно найти направление наискорейшего спуска функционала ] в точке 2. Как и в предыдущей задаче, можно описать МНС и МСГ для нахождения стационарных точек.
Пример. Исследуем на экстремум функционал
■к/ 4
I(х) = J (х2 - х2) ¿г
при условии на левом конце
х(0) = 1.
Точным решением данной задачи является функция х*(г) = сов(г) + вш(г), I(х*) = — 1. В табл. 1 приведены результаты расчетов при помощи МНС. В качестве начальной
Таблица 1. Результаты алгоритма МНС
к II& || \\х х || 1(хк) 11<Э(Як)Н
0 3.78298 1.696563 10.4326 6.087
1 0.451521 0.154978 -0.820146 0.803652
2 0.0598808 0.0267536 -0.99713 0.0965666
3 0.00731 0.002512 -0.9999527 0.013047
4 9.919 • КГ4 4.419 • КГ4 -0.9999992 0.0016
5 1.232 • Ю-4 4.2 • 10-Б -0.999999 2.199 • Ю-4
6 1.694 • КГБ 7.538 • КГ6 -0.99999999 2.739 • КГБ
2
2
точки выбрана х{Ь) = 1+54 ——. Вычисления проводились в математическом пакете Mathcad.
Так как в МСГ первый шаг аналогичен МНС, то в табл. 2 приведены результаты расчетов на втором и третьем шагах.
Таблица 2. Результаты алгоритма МСГ
к \\х -¿fell \\х || 1(хк) IIQ0*k)ll
2 6.52 • 10~л 8.3555 • 10~4 -0.99995813 0.012836
3 3.5894 • КГ6 6.45841 • Ю-6 -0.99999999 6.966 • 10-Б
Заключение. Результаты численных экспериментов показали эффективность использованных методов. МСГ более трудоемкий по сравнению с МНС, однако построенная минимизирующая последовательность имеет более высокую скорость сходимости. Остаются не решенными вопросы о скорости сходимости и существовании предельных точек построенных минимизирующих последовательностей.
Литература
1. Демьянов В. Ф. Условия экстремума и вариационные задачи. М.: Высшая школа, 2005. 335 с.
2. Демьянов В. Ф., Рубинов А. М. Основы негладкого анализа и квазидифференциальное исчисление. М.: Наука, 1990. 432 с.
3. Еремин И. И. Метод «штрафов» в выпуклом программировании // Докл. АН СССР. 1967. Т. 143, № 4. С. 748-751.
4. Demyanov V. F., Tamasyan G. Sh. Exact penalty functions in isoperimetric problems // Optimization. 2011. Vol. 60, Issue 1. P. 153-177.
5. Демьянов В. Ф., Тамасян Г. Ш. О прямых методах решения вариационных задач// Труды Ин-та математики и механики Уральск. отд. РАН. 2010. Т. 16, № 5. C. 36-47.
6. Гюнтер Н. М. Курс вариационного исчисления. М.: Гостехиздат, 1941. 308 с.
7. Смирнов В. И., Крылов В. И., Канторович Л. В. Вариационное исчисление. Л.: Изд-во Ленингр. ун-та, 1933. 204 с.
8. Ванько В. И., Ермошина О. В., Кувыркин Г. Н. Вариационное исчисление и оптимальное управление: учебник для вузов. 2-е изд. / под ред. В. С. Зарубина, А. П. Крищенко. М.: Изд-во Моск. гос. техн. ун-та им. Н. Э. Баумана, 2001. 488 с.
Статья рекомендована к печати проф. В. Ф. Демьяновым. Статья принята к печати 21 июня 2012 г.