Научная статья на тему 'Градиентные методы в вариационной задаче со свободными концами'

Градиентные методы в вариационной задаче со свободными концами Текст научной статьи по специальности «Математика»

CC BY
167
43
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ТОЧНЫЕ ШТРАФНЫЕ ФУНКЦИИ / НЕГЛАДКИЙ АНАЛИЗ / ВАРИАЦИОННОЕ ИСЧИСЛЕНИЕ / ЕСТЕСТВЕННЫЕ КРАЕВЫЕ УСЛОВИЯ / EXACT PENALTY FUNCTIONS / NONSMOOTH ANALYSIS / CALCULUS OF VARIATIONS / NATURAL BOUNDARY CONDITIONS

Аннотация научной статьи по математике, автор научной работы — Тамасян Григорий Шаликович

В [1] продемонстрирована эффективная техника применения негладкого анализа и теории точных штрафных функций в решении различных задач вариационного исчисления. В данной работе представлены результаты использования указанного в [1] подхода к задаче со свободными (подвижными) концами. Получены в новой форме необходимые условия экстремума, а на их основе построены численные алгоритмы (прямые методы) наискорейшего спуска и метод сопряженных направлений. Из них элементарным образом выведены естественные краевые условия

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Gradient methods in the variational problem with free ends

The efficiency of techniques of nonsmooth analysis and the theory of exact penalty functions for solving various problems of the calculus of variations was demonstrated in [1]. In this paper, some results of application of the approach described in [1] to the problem with free ends are presented. A new form of necessary conditions is obtained, and, based on them, new numerical algorithms (direct methods) of steepest descent and conjugate directions are constructed. The natural boundary conditions are derived in an elementary way from them

Текст научной работы на тему «Градиентные методы в вариационной задаче со свободными концами»

Сер. 10. 2012. Вып. 4

ВЕСТНИК САНКТ-ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА

УДК 519.85 Г. Ш. Тамасян

ГРАДИЕНТНЫЕ МЕТОДЫ В ВАРИАЦИОННОЙ ЗАДАЧЕ СО СВОБОДНЫМИ КОНЦАМИ*)

Введение. В [1] продемонстрирована эффективная техника применения негладкого анализа [2] и теории точных штрафных функций [1, 3] в решении различных задач вариационного исчисления [4, 5]. В данной работе представлены результаты использования указанного в [1] подхода к задаче со свободными (подвижными) концами [6-8]. Получены в «новой» форме необходимые условия экстремума, а на их основе построены численные алгоритмы (прямые методы) наискорейшего спуска (МНС) и метод сопряженных градиентов (направлений) (МСГ) [1, 4, 5]. Из них элементарным образом выводятся «естественные краевые» условия [6-8].

Постановка задачи со свободными концами. Пусть Т > 0 фиксировано. Через Р2 [0, Т] обозначим класс непрерывно-дифференцируемых на [0, Т] функций с кусочно-непрерывной и ограниченной на [0, Т] второй производной.

Начнем изучение данной проблемы со случая фиксированного правого конца. Пусть заданы х\, Х2 € К.

Задача. Среди кривых, принадлежащих классу Р2[0,Т], удовлетворяющих условиям х(Т) = Х1, х'(Т) = Х2 и имеющих левый конец на прямой, параллельной оси ординат Ь = 0, найти ту, которая доставляет экстремум функционалу

т

1 (х)=! т'х"('м *■ (1)

о

где функцию Р будем считать непрерывно-дифференцируемой по всем своим аргументам на К х К х К х [0 , Т].

Рассмотрим множество

П0 = { х € Р2[0, Т] | х(Т)= х1, х'(Т) = х2 }. (2)

Переформулируем поставленную выше задачу (1), (2). Обозначим через г(Ь) = х''(Ь), тогда

т т т

х'(Ь) = х2 — J г(т) йт, х(Ь) = х1 + (Ь — Т )х2 + J ^ г (у) йуйт. (3)

Тамасян Григорий Шаликович — кандидат физико-математических наук, доцент кафедры математической теории моделирования систем управления факультета прикладной математики—процессов управления Санкт-Петербургского государственного университета. Количество опубликованных работ: 20. Научные направления: недифференцируемая оптимизация, негладкий анализ, вариационное исчисление, теория управления, вычислительная геометрия. E-mail: grigoriytamasjan@mail.ru.

*) Работа выполнена при финансовой поддержке Российского фонда фундаментальных исследований (грант № 12-01-00752).

© Г. Ш. Тамасян, 2012

Введем функционал

T т

f (z) = J F (xi + (t - T )x2 + J J z(y) djdr,x2 - J z(t ) dr, z(t),t)dt.

mm эквивалентна задаче миними-

жШо

Несложно показать, что задача (1), (2) I(х)

зации функционала ](г) на всем пространстве Р[0, Т]. Здесь Р[0, Т] - множество кусочно-непрерывных, ограниченных на отрезке [0, Т] функций. Действительно, любой функции г € Р[0,Т] с помощью формул (3) сопоставляется функция х € По, т. е. удовлетворяющая ограничениям на правом конце х(Т) = х\, х'(Т) = х2.

Пусть ¿1, ¿2 € Р[0,Т]. На множестве Р[0,Т] введем в рассмотрение следующие метрики:

Pi(zi,z2)= max

te[0,T ]

t T

J j(zi(Y) - z2(7)) dYdr

00

P2(zi, z2)

max

te[0,T ]

J j(zi(Y) - z2(Y)) dYd

zi(t) - z2(t)

00

max

te[0,T ]

t

J(zi(Y) - z2(Y)) dY

+

+ sup

te[0,T ]

P3(zi,z2)= sup zi(t) - z2(t)

te[0,T ]

Между метриками pi, p2 и рз существует такая связь:

T 2

Pi(zi, z2) < P2(zi, z2) <

T2

1 + T +

2!

P3(zi,z2),

Таким образом, метрика рз мажорирует метрики р2 и р1, а метрика р2 - метрики р1 и рз. Отсюда следует, что метрики р2 и рз эквивалентны.

Пусть £ > 0. Если г* € Р[0, Т] - точка локального минимума функционала ] на множестве Р[0,Т], то справедливы включения

|z | P3(z, z*) < £

2 rpk

У —

^ k\

k=0

-i

j С |z 1 P2 (z, z*) < С |z 1 pi(z, z*) <

Отсюда заключаем, что точка локального минимума функции ] на множестве Р[0,Т] в метрике р1 является точкой локального минимума и в метрике р2, и в метрике рз. В силу эквивалентности метрик р2 и рз точка локального минимума ] в метрике р2 есть точка локального минимума и в метрике рз (справедливо и обратное). Теперь заметим, что если г* € Р[0, Т] - точка локального минимума функционала ] на множестве Р[0, Т] с метрикой р1, то функция х*(Ь) (3) принадлежит множеству По и является сильной экстремалью функционала I(х) на множестве По.

Если же z* G P [0, T] - это точка локального минимума функционала f на множестве P[0, T] с метрикой р2 или р3, то функция x* (t) (3) есть слабая экстремаль функционала I(x) на множестве По.

Пусть z G P[0, T] фиксировано, e > 0. Выберем произвольное v G P[0, T]. Положим

ze(t)= z (t) + ev(t).

Функция Aze(t) = ze(t) — z(t) = ev(t) называется классической вариацией кривой z. Используя классическую вариацию [1, 4, 5], получаем

т

f (ze) = f (z) + e J Q(t, z)v(t) dt + o(e, v), (4)

о

o(e, v)

где--> 0 равномерно по v при sup |v(t)| ^ 1,

e 1 te[0,T]

t t

0 0

здесь F (t) = F(x,x' ,x" ,t). Функционал f дифференцируем по Гато в точке z, и функция Q(t, z) является «градиентом» Гато функционала f в точке z.

Г т

Направление g(t, z) = —Q(t, z)/\\Q(t, z)||, где ||Q(t, z)\\2 = I Q2(t, z) dt - это направ-

0

ление наискорейшего спуска (в метрике L) функционала f в точке z.

Пусть z* G Z - точка локального минимума функционала f на множестве Z. Пусть e > 0, выберем v G P[0,T] и положим

ze(t) = z*(t)+ev(t).

Так как pi(ze, z*) -> 0 для всех г = 1, 3, то

е|°

fl{Zm)= liminf f(*\~fM <lîminffM-f(^ =liminîf(z*+£:]-f(z*\ Pi(z,zt)^0 Pi(z,z*) e|° Pi (z£,z*) e4° e\\v\\i

где \\v\i = pi(v, O).

Теорема 1 [1]. Для того чтобы z* G P[0,T] была точкой глобального или локального минимума функции f на множестве P[0,T] в метрике pi, необходимо, чтобы

sir \ г - г f (z) — f (z*) n = limmf ----— > 0.

Pi(z,zt)^0 Pi(z, z* ) Учитывая произвольность v G P[0,T] из (4) и теоремы 1 имеем

T

j Q(t, z*)v(t) dt > 0 Vv G P[0,T]. (5)

0

Это условие необходимо в любой из метрик pi, г = 1,3.

Теорема 2. Соотношение (5) эквивалентно следующему условию:

t

г дР*Н) i' дР*н) дР*(ь)

о о

Здесь Г * (Ь) = Р{х*,х'^ ,х'' . Условие (6) является интегральным уравнением Эйлера для задачи (1), (2). Дифференцируя дважды выражение (6), получим условие

+ 172^7Г=° VíeJD(xJ, (7)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

дх ¿Ь дх' ¿Ь2 дх"

где Б(х'1) - множество точек непрерывности функции х"(Ь). Дифференциальное уравнение 4-го порядка (7) - это уравнение Эйлера-Пуассона.

Следствие 1. «Естественные краевые условия» на левом конце выводятся из необходимого условия (6). Первое условие получаем при Ь = 0:

dF (t)

dz

а второе - после дифференцирования по t при t = 0:

d dF(t) dF(t)

= 0, (8)

t=0

dt dz dx'

= 0. (9)

t=0

Метод наискорейшего спуска. Пусть z* G Z - точка минимума функционала f (z) на P[0,T], тогда Q(t,z*) = 0 для всех t G [0,T]. Точка z*, в которой выполнено условие (6), называется стационарной.

Итак, если точка z G P[0,T] не является стационарной точкой функционала f, то можно найти направление наискорейшего спуска функционала f в точке z. Таким образом, возникает естественная идея описать следующий МНС для определения стационарных точек, т. е. точек, удовлетворяющих условию (6).

Выберем произвольное z0 G P[0, T]. Пусть уже найдено zk G P[0, T]. Если выполнено условие (6), то точка zk является стационарной, и процесс прекращается.

Если же условие (6) не выполнено, то возьмем функцию Gk(t) = Q(t, zk) - градиент функционала f в точке zk.

Далее решается задача одномерной минимизации

min f (zk - ßGk) = f (zk - ßkGk).

Теперь положим zk+1 = zk - ßkGk. Имеем f (zk+1) < f (zk).

Далее продолжается аналогично. В результате построим последовательность точек {zk} С P[0,T]. Если эта последовательность конечна (состоит из конечного числа точек), то по построению последняя полученная точка стационарная. Если же последовательность {zk} содержит бесконечное количество точек, то, учитывая, что функция Q(t,z) непрерывна, как функция z, можно показать, что описанный метод схо-

r t

дится в следующем смысле: ||Q(t, zk)\\ ^ 0. Здесь ||Q||2 = I Q2 dt, следовательно,

0

Q(t, zk) ^ 0 в метрике L2. Вопрос о существовании предельных точек последовательности {zk} остается открытым.

Метод сопряженных градиентов (направлений). Пусть г°(г) - некоторое начальное приближение. Будем строить последовательность {гк(г)} по формулам

гк+1(1) = г к(г) - вкШк (г), к = 0,1,..., (10)

где

Шо(г) = Со (г), Шк (г) = Ск (г)+ук ш-1(г), к = 1,2,....

Величина в к может определяться так же, как и в МНС, а ук по формуле

о

7 к = —

1

j(Ok(t),Gk(t) - Gk-i(t))dt

1

j (Ck-i (t), Gk-i (t)} dt

Как показывает практика, на каждом этапе алгоритма с неизбежностью накапливаются погрешности. Это может привести к тому, что векторы Wk перестают указывать направление убывания функционала, и релаксация метода может нарушиться. Для борьбы с таким явлением МСГ время от времени обновляют, полагая в (10) Yk = 0, т. е. осуществляют градиентный спуск.

Задача (общий случай). Среди всех кривых x(t) класса P2[0,T], концы которых лежат на двух заданных вертикалях t = 0 и t = T, определить кривую, которая доставляет экстремум функционалу (1).

Обозначим через z(t) = x"(t) и положим, что

t t т

At) = xi +J z(r) dT x(t) = x0 + txi +JJ z(Y) dYdT

0 0 0

Таким образом, каждой функции x G P2[0,T] взаимнооднозначно сопоставляется элемент Z = [x0, x1, z] G Z, здесь Z = R x R x P[0, T].

Далее под нормой элемента Z = [x0,xi,z] G Z будем понимать

T

||Z||2 = x0 + xi + J z2(t) dt.

0

Введем функционал

t t т t

f (x0, xi,z)=JF (x0+txi 41z(Y) dYdT xi 4z(T) dT z(t) t)dt

0 0 0 0

Несложно показать, что задача I(x) —> min эквивалентна задаче минимизации

xeP 2[0,t ]

функционала f (z) на всем пространстве Z.

Пусть z G P[0, T], x0, xl G R фиксированы, e > 0. Выберем произвольные v G P[0, T], П, p G R. Положим

ze(t)= z (t) + ev(t),

хое = хо + £Ц, х\е = х\ + £р.

Используя вариации (11), находим ( Т

/(хое,х1е,гЕ) = /(£)+£< J Q(t,z)v(t) ¿Ь +

+ 'П [ ^ dt + /л

dF(t) +tdF(t)

dx'

dx

dt\ + q(e, v),

где F(t) = F(x,x',x",t), —'——- -> 0 равномерно no v при sup |v(t)| ^ 1;

e ei° te[0,T ]

dFb) J., , dF<yf) dz

Для данной проблемы можно сформулировать аналогичное утверждение теоремы 1 и получить следующее необходимое условие.

Теорема 3. Для того чтобы г* € Z была точкой глобального или локального минимума функции / на множестве Z, необходимо, чтобы

dF * (y) Г dF *(y) dF *(t)

dz

dF* (t) dx

dt = 0,

dF*{t) dF*{t)

dx' dx

dt = 0,

(12)

(13)

(14)

здесь Г*(Ь) = Г(х*, х'*,х'*,Ь).

Следствие 2. «Естественные краевые условия» выводятся из (12)-(14). Первое условие на правом конце получаем из (12) при Ь = Т:

dF (t)

dz

0,

t=T

а второе - после дифференцирования по Ь (12) при Ь = Т:

= 0.

d 8F(t) 8F(t)\ dt dz dx' )

t=T

Первое условие (8) на левом конце вытекает из (12) при Ь = 0 с учетом (14), а второе условие на левом конце (9) следует после дифференцирования по Ь (12) при Ь = 0 и из (13).

Заметим, что градиентом функционала ] в точке г является (

с(г,2)

дх

¿г

дР{1)

дх' дх

т

¿г

дх

\ г г

Направление д(г,Х2) = —0(г,Х)/\\0(г,Х)\\, где

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

. дР(7) , дР(г)

дх

№,г)\\2 =

дг (г)

дх

¿г I +

"¿ад +

дх'

дх

т , т

+

/(/ <->- г)

дх'

дх

дх

¿г I +

¿г,

0 \г

есть направление наискорейшего спуска функционала ] в точке г.

Пусть 2* € 2 - точка минимума функционала f (г) на 2, тогда \\С(г, г*)\\ = 0. Точка 2*, в которой выполнены условия (12)-(14) или \\С(г, 2*)\\ =0, называется стационарной.

Таким образом, если точка 2 € 2 не является стационарной точкой функционала f, то можно найти направление наискорейшего спуска функционала ] в точке 2. Как и в предыдущей задаче, можно описать МНС и МСГ для нахождения стационарных точек.

Пример. Исследуем на экстремум функционал

■к/ 4

I(х) = J (х2 - х2) ¿г

при условии на левом конце

х(0) = 1.

Точным решением данной задачи является функция х*(г) = сов(г) + вш(г), I(х*) = — 1. В табл. 1 приведены результаты расчетов при помощи МНС. В качестве начальной

Таблица 1. Результаты алгоритма МНС

к II& || \\х х || 1(хк) 11<Э(Як)Н

0 3.78298 1.696563 10.4326 6.087

1 0.451521 0.154978 -0.820146 0.803652

2 0.0598808 0.0267536 -0.99713 0.0965666

3 0.00731 0.002512 -0.9999527 0.013047

4 9.919 • КГ4 4.419 • КГ4 -0.9999992 0.0016

5 1.232 • Ю-4 4.2 • 10-Б -0.999999 2.199 • Ю-4

6 1.694 • КГБ 7.538 • КГ6 -0.99999999 2.739 • КГБ

2

2

точки выбрана х{Ь) = 1+54 ——. Вычисления проводились в математическом пакете Mathcad.

Так как в МСГ первый шаг аналогичен МНС, то в табл. 2 приведены результаты расчетов на втором и третьем шагах.

Таблица 2. Результаты алгоритма МСГ

к \\х -¿fell \\х || 1(хк) IIQ0*k)ll

2 6.52 • 10~л 8.3555 • 10~4 -0.99995813 0.012836

3 3.5894 • КГ6 6.45841 • Ю-6 -0.99999999 6.966 • 10-Б

Заключение. Результаты численных экспериментов показали эффективность использованных методов. МСГ более трудоемкий по сравнению с МНС, однако построенная минимизирующая последовательность имеет более высокую скорость сходимости. Остаются не решенными вопросы о скорости сходимости и существовании предельных точек построенных минимизирующих последовательностей.

Литература

1. Демьянов В. Ф. Условия экстремума и вариационные задачи. М.: Высшая школа, 2005. 335 с.

2. Демьянов В. Ф., Рубинов А. М. Основы негладкого анализа и квазидифференциальное исчисление. М.: Наука, 1990. 432 с.

3. Еремин И. И. Метод «штрафов» в выпуклом программировании // Докл. АН СССР. 1967. Т. 143, № 4. С. 748-751.

4. Demyanov V. F., Tamasyan G. Sh. Exact penalty functions in isoperimetric problems // Optimization. 2011. Vol. 60, Issue 1. P. 153-177.

5. Демьянов В. Ф., Тамасян Г. Ш. О прямых методах решения вариационных задач// Труды Ин-та математики и механики Уральск. отд. РАН. 2010. Т. 16, № 5. C. 36-47.

6. Гюнтер Н. М. Курс вариационного исчисления. М.: Гостехиздат, 1941. 308 с.

7. Смирнов В. И., Крылов В. И., Канторович Л. В. Вариационное исчисление. Л.: Изд-во Ленингр. ун-та, 1933. 204 с.

8. Ванько В. И., Ермошина О. В., Кувыркин Г. Н. Вариационное исчисление и оптимальное управление: учебник для вузов. 2-е изд. / под ред. В. С. Зарубина, А. П. Крищенко. М.: Изд-во Моск. гос. техн. ун-та им. Н. Э. Баумана, 2001. 488 с.

Статья рекомендована к печати проф. В. Ф. Демьяновым. Статья принята к печати 21 июня 2012 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.