Научная статья на тему 'Метод скорейшего подъема в задаче максимизации нормы на строго выпуклом множестве'

Метод скорейшего подъема в задаче максимизации нормы на строго выпуклом множестве Текст научной статьи по специальности «Математика»

CC BY
198
16
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СТРОГО ВЫПУКЛОЕ МНОЖЕСТВО / ЗАДАЧА НА МАКСИМУМ НОРМЫ / УЛУЧШЕНИЕ ЭКСТРЕМАЛЬНЫХ ТОЧЕК / STRICTLY CONVEX SET / MAXIMUM NORM PROBLEM / IMPROVEMENT OF EXTREMAL POINTS

Аннотация научной статьи по математике, автор научной работы — Срочко Владимир Андреевич, Ушакова Светлана Николаевна

Задача максимизации нормы относительно строго выпуклого компактного множества рассматривается в плане поиска и улучшения экстремальных точек. На основе достаточного условия оптимальности и конструктивного использования свойства дифференцируемости опорной функции построен метод скорейшего подъема, дающий возможность оценить качество найденной экстремальной точки.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Method of steepest ascent for the maximization norm problem on strictly convex set

Maximum norm problem on the strictly convex compact set is considered from the position of search and improvement of extremal points. On the basis of sufficient optimality condition and support function differentiation the method of steepest ascent is constructed.

Текст научной работы на тему «Метод скорейшего подъема в задаче максимизации нормы на строго выпуклом множестве»

Серия «Математика»

Том 2 (2009), №1, С. 233-244

Онлайн-доступ к журналу: http://isu.ru/izvestia

УДК 517.977

Метод скорейшего подъема в задаче максимизации нормы на строго выпуклом множестве *

B. А. Срочко

Иркутский государственный университет

C. Н. Ушакова

Иркутский государственный университет

Аннотация. Задача максимизации нормы относительно строго выпуклого компактного множества рассматривается в плане поиска и улучшения экстремальных точек. На основе достаточного условия оптимальности и конструктивного использования свойства дифференцируемости опорной функции построен метод скорейшего подъема, дающий возможность оценить качество найденной экстремальной точки.

Ключевые слова: строго выпуклое множество, задача на максимум нормы, улучшение экстремальных точек.

Проблема глобального решения невыпуклых задач оптимального управления сохраняет свою актуальность, что стимулирует устойчивый интерес исследователей. В теоретическом плане последовательно пополняется и углубляется набор достаточных условий оптимальности, связанных с общими и специальными классами задач (см.обзор [1]). На этой основе появляются и совершенствуются вычислительные процедуры с ориентацией на поиск именно оптимальных процессов по крайней мере в задачах выпуклой и ^.с.-максимизации на множествах с линейным экстремальным свойством [2-4]. В соответствующих алгоритмах еще остаются эвристические фрагменты (теоретическая недостаточность), но общее направление исследований и первые результаты вычислений внушают осторожный оптимизм.

* Работа выполнена при финансовой поддержке РФФИ, грант 08-01-00709.

1. Введение

В данной статье рассматривается задача максимизации нормы на множестве достижимости (МД) линейной системы управления. В качестве основных объектов выделяются экстремальные точки МД, которые в рамках поставленной многоэкстремальной задачи подозрительны на оптимальность. Ключевая проблема на пути глобального решения состоит в разработке процедур гарантированного поиска и возможного улучшения экстремальных точек. Теоретической основой здесь является достаточное условие оптимальности на множестве экстремальных точек, которое представлено в форме равенства нулю функции максимума на пересечении границы МД и соответствующей поверхности уровня целевой функции(эллипсоид). Далее конструктивно используется свойство дифференцируемости опорной функции и для поиска её нулевого максимума на экстремальном эллипсоиде выделяется траектория подъема. Получена оценка снизу для приращения определяющей функции на эллипсоиде. В результате решения задачи на максимум этой оценки по параметру определяется метод скорейшего подъема, который, по существу, оказывается процедурой последовательного проектирования граничных точек МД на экстремальный эллипсоид. Доказывается свойство монотонности метода и сходимость итерационного процесса к экстремальным точкам.

В целом, представленная технология улучшения экстремальных точек на данном этапе развития не гарантирует отыскания оптимального решения невыпуклой задачи, но в рамках теоретически обоснованных процедур повышает вероятность достижения глобальной цели.

В историческом плане уместно отметить достаточно популярную в свое время задачу минимизации нормы конечного состояния, которая с позиций численного решения была обстоятельно изучена О.В. Васильевым в работах [5,6].

2. Постановка задачи. Экстремальные точки

Введем квадратичную функцию

^>(х) = 2 (х — а,С (х — а)) (2.1)

с вектором а Є Кп и симметричной, положительно-определенной матрицей С Є Епхп.

Будем использовать обобщенное скалярное произведение (х, у)с = (х,Су) и соответствующую норму ||х||2 = (х,х)с, связанные с матрицей

С. В случае С = Е (единичная матрица) индекс с опускается. Отметим, что <^(х) = 2||х — аЦ^, У^(х) = С(х — а).

Пусть О С Кп - строго выпуклый компакт (т£О = 0) с границей О. Рассмотрим задачу максимизации нормы

^>(х) ^ тах, х € О. (Р)

Свяжем с проблемой (Р) линейную по целевой функции задачу с вектором у = а (У^>(у) = 0)

<У^>(у),х) ^ тах, х € О. (Р^

Пусть х(у) € - её единственное решение. Предположим, что а € -О,

т.е. х(у) = а Уу = а.

Введем функции максимума

Р(у) = тах(У^(у),х), #(у) = р(у) — <У^>(у),у), у € Яп

х£и

и отметим некоторые их свойства:

1) функция р(у) выпукла на Лп и дифференцируема в каждой точке у = а с градиентом Ур(у) = Сх(у);

2) функция д(у) дифференцируема в каждой точке у = а, причем

^д(у) = С(х(у) - у) - У^(у);

3) #(у) > 0, Уу € О согласно определению, при этом, если у € т£О \ {а}, то #(у) > 0;

4) если д(у) < 0, то вектор (х(у) — у) есть направление подъема функции $(•) в точке у :

(^(у),х(у) — у) = ||х(у) — у||с2 + |5(у)| > 0;

5) если д(у) > 0, то ^>(х(у)) > ^>(у), поскольку в силу выпуклости функции ^(-) :

^(х(у)) — ^(у) > <^^(у),х(у) — у) = ^(у);

6) если д(у) = 0 для некоторого у € О \ {а}, то х(у) = у, вследствие единственности решения задачи (Р1).

Определим множество экстремальных точек в исходной задаче (Р)

Ех£(Р) = {у = а : у = х(у)}.

Это множество точек у € I), удовлетворяющих необходимому условию локального максимума в задаче (Р) : у = а^таххед<У^(у),х).

Сформулируем и докажем достаточное условие оптимальности экстремальных точек.

Пусть г € Ех£(Р). Введем множество Лебега Р(г) = {х € Лп : <^(х) << ^(г)} (строго выпуклый компакт) и соответствующую поверхность уровня Р(г) = {х € Кп : <^(х) = ^(г)} (эллипсоид с центром в

точке а). Отметим, что г € О П Р(г) и ^(г) = 0.

Теорема. Для оптимальности точки г € Ех£(Р) в задаче (Р) достаточно, чтобы

5(у) = 0, Уу € О П £(г). (2.2)

Доказательство. Предварительно докажем расширенный вариант условия (2.2), в котором фигурирует множество О

#(у)=0, Уу € О П !,(г). (2.3)

Пусть (2.3) выполнено, но точка г € Ех£(Р) не является оптимальной, т.е. 32 € О : <^(2) > <^(г). Для а € Я образуем прямую г(а) = г + а(2 — г). Найдем точку пересечения {г(а)} П Р(г), а = 0, решая уравнение ||г(а) — аЦ^ = ||г — аЦ^ относительно а. В результате,

2<У^(г),г — 2) а =-----л---=тто---.

11г — 2112

Убедимся, что а € (0,1). Поскольку г = х(г), 2 € О, то <У^(г),г — 2) > 0, ^ а > 0. Далее, в силу квадратичности функции ^(-) и предположения 2 € Дг)

ад - ад = ^ад^ — г) +11|2 — г|2 >0.

Отсюда ||г — 2||2 > 2<У^(г), г — 2) ^ а < 1.

Итак, а € (0,1). Обозначим 2 = г(а). Согласно построению 2 € Р(г), 2 = г + (2(2 — г). Поскольку О - строго выпуклое множество, то 2 € т£О П Р(г) и с учетом свойства 3) ^(2) > 0. Получили противоречие с (2.3), что и доказывает это условие. Остается заметить, что, если в (2.3) у € т£О П Р(г), то в силу свойства 3) $(у) > 0. Следовательно, справедливо условие (2.2). Теорема доказана. □

Утверждение теоремы означает, что любая точка пересечения О П Р(г) является экстремальной в задаче (Р). Кроме того, соотношение

(2.2) является, очевидно, необходимым условием оптимальности: если г - оптимальная точка задачи (Р), то любая точка у € ОПР(г) является также оптимальной, т.е. у € Ех£(Р) ^ $(у) = 0.

Проведем обсуждение задачи (Р) и условия (2.2). Допустим, что целевая функция ^(-) в задаче (Р) имеет общеквадратичный характер при сохранении сильной выпуклости

<^(х) = 1 <х, Сх) + <^, х), СТ = С, С > 0.

Выделим точку её минимума х* как решение линейной системы Сх+^ = 0. Тогда функция ^(-) представляется в виде

т.е. с точностью до const приобретает структуру (2.1) с эквивалентной задачей (P).

В связи с экстремальными точками и условием их оптимальности

(2.2) естественно возникает необходимость эффективного (элементарного) решения задачи (Pi), что, в свою очередь, предполагает конкретизацию множества D. Оставляя в стороне конечномерные описания (например, множество Лебега сильно выпуклой функции), выделим в качестве основной реализации тот случай, когда D - множество достижимости линейной управляемой системы

Иными словами, О - множество концевых точек {х(^)} фазовых траекторий, соответствующих управлениям и € V. Это выпуклое компактное

обеспечивает свойство строгой выпуклости

Задача (Рі) в данном случае решается элементарно на основе принципа максимума Понтрягина:

1) находим решение ^(і,у), і Є Т сопряженной системы

вполне приемлемо (трудоемкость - две задачи Коши).

В принятой интерпретации постановка (Р) описывает невыпуклую задачу оптимального управления (на максимум нормы конечного состояния в линейной системе). Экстремальные точки соответствуют управлениям, удовлетворяющим принципу максимума в задаче (Р).

<^(x) = 2{x — x*, C(x — x*)) — 2{x*, Cx*),

x(t) = Ax(t) + bu(t), x(t0) = x0, t Є T = [t0,ti]

к моменту времени ti в классе допустимых управлений

V = {u Є (T) і u(t) Є [u-, u+], t Є T}.

множество. Условие линейной независимости векторов b, Ab,..., An ib

u-, {b,^(t,y)) < О, u+, {b,^(t,y)) > О;

3) находим решение x(t, y), t Є T фазовой системы

x = Ax + bu(t,y), x(t0) = x0.

В результате x(y) = x(ti,y), т.е. операция y ^ x(y) реализуется

В рамках этой задачи наша цель состоит в построении процедур поиска и улучшения экстремальных точек (ехі-точек) на основе свойств определяющих функций р(у), $(у) и признака оптимальности (2.2).

3. Методы поиска и варианты улучшения экстремальных

точек

Естественной процедурой поиска ext-точек согласно определению y = а, у = x(y) является метод простой итерации

у0 € D \{а}, yk+1 = x(yk), k = 0,1... (3.1)

Понятно, что yk € D, Vk > 0. В рамках задачи (P) метод (3.1) обеспечивает монотонность по целевой функции и сходимость по невязке экстремальности £(yk) = ||yk+1 — yk:

<^(yk+1) — ^(yfc) = g(yk) + 2||yk+1 — yk>0 ^

^>(yk+1) > ^(yk), £(yk) — 0, k —— to.

Отметим, что процедура (3.1) представляет собой метод условного градиента (МУГ) в задаче (P) согласно стандартной схеме

yk(а) = yk + a(x(yk) — yk), ak = arg max ^(yk(a)), yk+1 = yk(ak).

0<a<1

В данном случае ak = 1, что приводит к методу (3.1).

Пусть z € Ext(P), т.е. g(z) = 0. Согласно свойству 5) для улучшения точки z в задаче (P) достаточно найти точку 2 € L(z) : д(2) > 0, т.е. обеспечить улучшение z относительно функции g(-) на поверхности уровня L(z). С этой целью будем использовать процедуру градиентного подъема с нелокальным шагом. Введем градиентный луч

z(a) = z + aVg(z), a> 0

и найдем точку его пересечения с L(z). В данном случае Vg(z) = —V^(z), поэтому выход из ext-точки z происходит по внутренней нормали к эллипсоиду L(z). Требуемая точка определяется в явном виде

z0 = z(ao), ao =2 М|2.

|V^(z)|2

Проведем анализ точки z0 € L(z) :

если x(z0) = z0, (z0 € Ext(P)), то градиентная процедура продолжается;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

если ^>(х(г0)) > <^(г) (улучшение произошло или х(г0) € О П £(г)), то уход на МУГ (3.1) с у0 = х(г0).

Основной интерес представляет типовая ситуация, когда ^>(х(г°)) < ^>(г) (х(г0) € т££(г)). В этом случае

0 >^(х(г0)) — <^(г0) = #(г0) + 2||х(г0) — г0||2 ^ #(г0) < 0 ^ г0 € О.

В соответствии с условием оптимальности (2.2) построим итерационный метод подъема для функции $(•) на эллипсоиде Р(г). Опишем общий шаг метода: гк ^ гк+1, к = 0,1,...

Пусть гк € -£(г), ^(гк) < 0, х(гк) € т££(г). Согласно свойству 4)

вектор (х(гк) — гк) определяет направление подъема функции $(•) в точке гк. Образуем луч

гк(а) = гк + а(х(гк) — гк), а> 0 (3.2)

и выделим точку его пересечения с эллипсоидом Р(г) :

гк(а) Є ^ ск = 2 ||х(^к;) — к ц2 • (3.3)

'а, =• и = -|х(гк) — гк| |с

Поскольку гк(1) = х(гк) Є т£Р(,г), то а > 1. Предположим, что луч £к(а), не проходит через центр эллипсоида: а Є |^к(а), а Є (0, а)}.

Проведем проектирование точек гк(а), а Є (0, а) на поверхность уровня Р(,г) в С-норме. Соответствующая задача

||у — г (а)||с ^ тт, у € £(г)

имеет единственное решение, которое выражается по формуле

11 Д* и

2к(а) = а + г ) а с (гк(а) — а). (3.4)

и г (са) а и с

Изучим поведение функции $(•) вдоль кривой 2к(а), а € (0, (2). Предварительно найдем оценку снизу для приращения ^(2к(а)) — ^(гк). Согласно определению

£(у) = Р(у) — ^Р^уЬ У^(у) = С (у — а)

Следовательно,

#(у) — #(гк) = Р(у) — Р(гк) + <гк — а, гк )с — <у — а, у)с.

Для у € Р(г) имеем ||у — а||с = ||гк — а||с, поэтому

<гк — а, гк )с — <у — а, у)с = <гк — у, а)с.

Кроме того, с учетом свойства 1)

p(y) — p(zk) > (Vp(zk),y — zk) = (x(zk),y — zk)c,

и оценка приращения функции g(-) на L(z) принимает вид

g(y) — g(zk) > (x(zk) — a, y — zk)c.

Положим здесь y = 2k(a) и введем обозначение

Ak(a) = (x(zk) — a, 2k(a) — zk)c, a € (0, й).

С целью анализа задачи

Ak(a) — max, a € (0, й) (3.5)

используем формулу (3.4) для zk (a) и выделим из оценки Ak (a) фрагмент, зависящий от a

(x(zk) — a, zk (a) — a)c dk (a) = — -

|zk (a) — a|

c

(x(zk) — a, zk — a)c + a(g(zk) + ||x(zk) — zk Ц;?)

||zk (a) — a| Производная знаменателя равна

Тогда

k( ) и = g(zk) + a||x(zk) — zk||2

da z a a c ||zk(a) — a||c '

d ( ) = (g(zk) + ||x(zk) — zk||c2)||zk(a) — a||c

da k (a) = ||zk (a) — a||2

(x(zk) — a, zk — a)c + a(g(zk) + ||x(zk) — zk ||2)

X

||zk (a) — a||3 g(zk) + a||x(zk) — z

||гк (а) — а||3

Объединим дроби в правой части и распишем квадрат нормы ||гк (а) — а||2 = ||гк — а||2 + 2 а^(гк) + а2||х(гк) — гк Ц;?.

Общий знаменатель равен ||zk(a) — a|3. Проведем преобразования в

„2

гк (а) — а||^.

числителе. Коэффициент при а2 равен нулю. Выделим коэффициент при :

#(гк )(#(гк) + ||х(гк) — гк ||2) — <х(гк) — а,гк — а)с||х(гк) — гк ||2.

С

МЕТОД СКОРЕЙШЕГО ПОДЪЕМА В ЗАДАЧЕ МАКСИМИЗАЦИИ 241 Отмечая, что

<гк — а, х(гк) — а)с = #(гк) + ||гк — а||2, (3.6)

получаем выражение

а: #2(гк) — ||гк — а|2|х(гк) — гк ||2.

Наконец, свободный член в числителе с учетом (3.6) равен:

(^(гк) + ||х(гк) — гк ||2)||гк — а||2 — ^(гк )<х(гк) — а, гк — а)с = = ||гк — а||2||х(гк) — гк ||2 — £2(гк).

Объединим полученные выражения в рамках производной

( а Л п а Л |гк — а|2|х(гк) — гк |2 — £2 (гк) (37)

*/к (а) = (1 — а)----------«г» (а) — а||?---------------------’ (37)

д(гк) = <гк — а, х(гк) — гк )с.

В контексте задачи (3.5) нас интересует, конечно, знак производной на интервале (0, (2). Рассмотрим разность в числителе. Согласно неравенству Коши-Шварца

|$(гк)| < ||гк — а||с||х(гк) — гк||с,

причем равенство (для ненулевых векторов) имеет место только в случае линейной зависимости (^(гк) < 0)

гк — а = —в(х(гк) — гк), в> 0. (3.8)

Умножим обе части на (х(гк) — гк)

5(гк ) = —в||х(гк) — гк||2.

Следовательно,

I о(гк) I

2 = 2 ||х(гк) — гк112 = 2в ^ в € (0, 2).

Из условия (3.8) получаем а = гк + в(х(гк) — гк), что противоречит

предположению а € {гк( ), € (0, 2)}.

Итак, условие (3.8) невозможно, т.е. разность в числителе производной (3.7) больше нуля.

Перейдем к выводам. Производная (3.7) положительна для а € (0,1), равна нулю при а = 1 и отрицательна для а € (0, <2). Следовательно, функция-оценка Дк(а) является унимодальной на (0, (2) с единственной точкой максимума к = 1.

Это значение параметра выделяет из (3.4) следующий метод проекций (гк+1 = 2к(1) - проекция точки х(гк) на поверхность уровня Р(г) в С-норме)

к

гк+1 = а + |,х(гк) — ас,|с (х(гк) — а), (3.9)

который по построению является процедурой скорейшего подъема для функции $(•) вдоль кривой гк(а) в смысле задачи (3.5) на максимум оценки возрастания Дк( а). Отметим, что этот метод в рамках альтернативного подхода впервые построен и апробирован в [4].

Подсчитаем значение задачи (3.5) Дк(1) = Дк с учетом итерационной формулы (3.9)

Дк = <х(гк) — а,гк+1 — гк )с =

= ||гк — а||с||х(гк) — а||с — <гк — а, х(гк) — а)с.

Здесь опять действует неравенство Коши-Шварца: Дк > 0, причем

Дк = 0 ^ гк — а = 7к(х(гк) — а), 7к > 0. (3.10)

Обратим внимание на случай равенства Дк = 0. Отметим, что

к

| гк — а| с Тк й 7 ^ й-.

| х(гк) — а| с

В силу формулы (3.9) это означает, что гк+1 = гк. Очевидно и обратное заключение: гк+1 = гк ^ Дк = 0.

Кроме того, линейная зависимость (3.10) порождает аналогичную связь между градиентами: V^>(zk) = 7кV^>(x(zk)). Следовательно,

х(гк) = а^тах^^>(х(гк)),х) ^ х(гк) € Ех£(Р).

х€Д

Метод (3.9) обеспечивает следующую оценку возрастания определяющей функции

5(гк+1) — £(гк) > Дк к = 0,1... (3.11)

Обсудим вопрос о сходимости. Предположим, что итерационный процесс (3.9) не прерывается, т.е. х(гк) € т££(г), Дк > 0, к = 0,1,.... Тогда последовательность {$(гк)} монотонно возрастает и ограничена сверху (^(гк) < 0), что в силу (3.11) приводит к сходимости по оценке: Дк ^ 0, к ^ то. Далее, пусть 2 € Р(г) - предельная точка последовательности {гк}. Тогда с учетом непрерывности отображения у ^ х(у), у = а и сходимости по оценке заключаем, что [4]

2 — а = <2(х(2) — а), <2 > 0 ^ х(2) € Ех£(Р).

Таким образом, всякая предельная точка 2 € L(z) последовательности {zk} порождает ext-точку x(2) € L(z) задачи (P).

В заключение, выделим особые случаи метода проекций, когда итерационная процедура (3.9) исчерпывается.

Понятно, что в случае улучшения точки z, когда x(zk) € L(z) следует прервать итерации (3.9) и уйти на МУГ (3.1) с y0 = x(zk).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рассмотрим ситуацию, когда zk+1 = zk, g(zk) < 0. Это означает, что x(zk) € intL(z) - ext-точка задачи (P) без условия улучшения: ^>(x(zk)) < <^(z). Как и ранее, действуем по схеме (3.2), (3.3): сформируем луч zk(а) и перейдем в точку zk(2) € L(z), с которой начинается новый итерационный цикл: z0 = zk(2). Возможная альтернатива -аналогичное использование луча zk(а) = zk + а Vg(zk), а > 0.

Наконец, в случае zk = x(zk), zk = z выходим из ext-точки zk по градиентному направлению. Если zk = z, то процедура улучшения в рамках данного подхода завершается.

Замечание 1. Представляется целесообразным организовать метод наискорейшего подъема по стандартной схеме относительно функции g(-) вдоль кривой 2к(а) :

zk+1 = (ак), ак : g(2k(а)) ^ max, а € (0, 2).

Аналитическое решение задачи на максимум проблематично, поэтому реализация такой схемы связана с -перебором в рамках некоторого метода одномерного поиска.

Замечание 2. Представляется уместным указать один прием, имеющий шанс на улучшение ext-точки z в процессе реализации метода проекций.

Рассмотрим k-тую итерацию метода: zk € L(z), g(zk) < 0, Ak > 0. Уравнение опорной гиперплоскости Гк к множеству D в точке x(zk) имеет вид (V^(zfc),x — x(zk)) = 0. Найдем проекцию точки zk на Гк в C-норме (возможный вариант C = E)

—к ■ и kn k fl(zfc) , k \

zk = arg mm llx — zkllc = zk + -тНР—-rr?: (zk — a).

xerfc" l|c ||zk — a|2v 7

Отметим, что Zk = x(zk) в силу предположения Ak > 0. Образуем вектор pk = x(zk) — Zk, задающий некоторое направление в опорной гиперплоскости. Найдем решение x(pk) линейной задачи

(pk, x) ^ max, x € D.

Если x(pk) € L(z) (улучшение), то уход на МУГ, иначе продолжаем метод проекций.

Список литературы

1. Аргучинцев А. В. Оптимальное управление: нелокальные условия, вычислительные методы и вариационный принцип максимума / А. В. Аргучинцев,

B. А. Дыхта, В. А. Срочко // Известия вузов. Математика. — 2009. — № 1. —

C. 3-43.

2. Стрекаловский А. С. Элементы невыпуклой оптимизации / А. С. Стрекалов-ский. — Новосибирск: Наука, 2003.

3. Enkhbat R. On Some Theory, Methods and Algorithms for Concave Programming / R. Enkhbat // Optimization and Optimal Control. World Scientific Publishing Co. — 2003. — P. 79-102.

4. АнтоникВ. Г. Метод нелокального улучшения экстремальных управлений в задаче на максимум нормы конечного состояния / В. Г. Антоник, В. А. Срочко // Журн. вычисл. матем. и матем. физ. — 2009. — Т. 49. — № 5. — С. 791-804.

5. Васильев О. В. Градиентный метод решения одного класса задач оптимального регулирования / О. В. Васильев // Журн. вычисл. матем. и матем. физ. — 1967. — Т. 7. — № 1. — С.52-61.

6. Васильев О. В. Программа минимизации нормы конечного состояния в линейной системе управления / О. В. Васильев // Информ. сборн. трудов ВЦ ИГУ. Выпуск 1. — С. 115-143.

V. A. Srochko, S. N. Ushakova

Method of steepest ascent for the maximization norm problem on strictly convex set

Abstract. Maximum norm problem on the strictly convex compact set is considered from the position of search and improvement of extremal points. On the basis of sufficient optimality condition and support function differentiation the method of steepest ascent is constructed.

Keywords: strictly convex set, maximum norm problem, improvement of extremal points.

Срочко Владимир Андреевич, доктор физико-математических наук, профессор, Институт математики,экономики и информатики, Иркутский государственный университет, 664003, Иркутск, ул. К. Маркса, 1 тел.: (3952) 24-22-14, ([email protected])

Ушакова Светлана Николаевна, ст.преподаватель кафедры вычислительной математики и механики, Институт математики,экономики и информатики, Иркутский государственный университет, 664003, Иркутск, ул. К. Маркса, 1 тел.: (3952) 24-22-14, ([email protected])

Srochko Vladimir, Irkutsk State University, 1, K. Marks St., Irkutsk, 664003 professor, Phone: (3952) 24-22-14, ([email protected])

Ushakova Svetlana, Irkutsk State University, 1, K. Marks St., Irkutsk, 664003, senior instructor, Phone: (3952) 24-22-14,

([email protected])

i Надоели баннеры? Вы всегда можете отключить рекламу.