Научная статья на тему 'Одноранговое семейство релаксационных субградиентных методов  с растяжением пространства'

Одноранговое семейство релаксационных субградиентных методов с растяжением пространства Текст научной статьи по специальности «Математика»

CC BY
95
16
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук

Аннотация научной статьи по математике, автор научной работы — Крутиков В. Н.

Предложено семейство релаксационных субградиентных методов с растяжением пространства для решения задач негладкой безусловной оптимизации, частными случаями которого являются r-алгоритм Н.З. Шора и обобщение алгоритма Ф. Вульфа. Доказана сходимость алгоритмов семейства на строго выпуклых функциях.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Onerank family of relaxation sub-gradient methods with space extension

A new relaxation sub-gradient method with space extension for solving non-smooth absolute optimization problems is suggested. Shor’s r-algorithm and generalization of Wolfe’s algorithm are special cases of this method. Convergence of algorithms of family has been proved with strictly convex functions.

Текст научной работы на тему «Одноранговое семейство релаксационных субградиентных методов с растяжением пространства»

Одноранговое семейство релаксационных субградиентных методов с растяжением

пространства

Крутиков В.Н. (ard@kemtel.ru )

Кемеровский государственный университет

1. Введение. В работах [1-3] разработана методика многокритериального численного анализа современных методов негладкой оптимизации, которая позволяет судить о их эффективности. Численное исследование [2] метода эллипсоидов (МЭ) [4], ^алгоритма (МШ) [5,6], метода ортогонального спуска (МОС) [7,8] и, разработанного в последние годы, метода уровней (МУ) [9,10] демонстрирует высокую эффективность последнего относительно других методов по критерию числа вычислений функции и субградиента. Тем не менее, в силу различной трудоемкости итераций методов, более эффективными по критерию времени счета могут оказаться другие методы [2], с относительно невысокими объемами требуемой для реализации памяти и вычислительными затратами на итерации, что определяет актуальность создания таких методов.

В работе [11] разработан алгоритм негладкой оптимизации ¿-субградиентного типа с растяжением пространства в направлении субградиента (МРП), во многом похожий на МШ МШ получен из эвристических соображений и до сих пор не обоснован, как метод ¿-субградиентного типа. Отмеченные алгоритмы просты в реализации, на практике оказываются универсальным средством решения задач безусловной оптимизации, эффективны при решении гладких и негладких задач, в том числе и невыпуклых. В настоящей работе предложено семейство релаксационных методов ¿-субградиентного типа с растяжением пространства для решения задач негладкой безусловной оптимизации, частными случаями которого являются ^алгоритм Н.З. Шора [6] и обобщение алгоритма Вульфа [13,12]. Доказана сходимость алгоритмов семейства на строго выпуклых функциях. Полученное в работе обоснование МШ, как метода ¿-субградиентного типа, выводит его из разряда эвристических методов, объясняет его происхождение и позволяет применить к нему эффективную технологию реализации, предложенную в [11].

Для решения задачи минимизации выпуклой на Я" функции /х) в релаксационных процессах ¿-субградиентного типа [12]

хг-+1 = хг- - у л+1, у I = ш^тт Д х1 - у +1) (1)

у

направление спуска +1 выбирается как решение неравенств ([12, с.259])

(я, g) > 0, е а, (2)

где С= дЕ /(х1) - ¿-субградиентное множество в точке х1. Множество решений (2)

обозначим 8(С), а д/(х) = д/х) - субградиентное множество в точке х. Поскольку явное

задание ¿-субградиентного множества отсутствует в релаксационных субградиентных методах (РСМ) в качестве множества С используют некоторую оболочку субградиентов, полученных в результате работы алгоритма [12-15]. В первых работах [12-15] в качестве решения (2) использовался вектор г/о = п(С) - ближайший к началу координат вектор из О. В

работе [16] на основе теории обучения [17] разработан подход создания алгоритмов решения задачи (2), получено несколько новых алгоритмов [16, 11,18-20] и сделан вывод, что в схеме r-алгоритма [6] должен присутствовать метод решения неравенств.

Итерация r-алгоритма [6] в форме [21], при точном одномерном спуске записывается

в виде

+! = - Y¡Si+!, Si+! = Hjgi, gi е df() , (3)

Yi = arg min f (xi -Y si+l), (4)

Y

где матрица метрики пересчитывается по формуле

H +1 = H - (1 -1/a2)Hiy>ylH\ , (5)

(yi, Hi yi)

yi = gi+1 - gi, gi+1 е df (xi+1) и (gi+1, Higi) < 0. (6)

В настоящей работе формулируется и обосновывается метод решения неравенств, содержащийся в схеме (3)-(6), на этой основе разрабатывается семейство релаксационных субградиентных методов.

2. Одноранговое семейство методов решения неравенств. Обозначим:

po=p(G)=|h(G)||, |ig=n(G)/po, s* = Jq /pG, Rg = R(G) = max || g ||,

geG

*

RS = RS (G) = max(lG, g), rg = r(G) = Pq / rs , V(G) = Pq / Rq . Векторы JUq и s

geG

являются решениями (2). Будем полагать, что выполняется следующее предположение.

Предположение 1. Множество G выпуклое, замкнутое, ограниченное (Rq < да) и

удовлетворяет условию отделимости, то есть Pq > 0.

Из определения величины Rs для величины (Jq , g) следует оценка

PG < ( jg , g) < Rs , Vg e G (7)

Из (3), с учетом определения вектора S , получим

1 < (s, g) < Rs / pq , Vg e G (8)

Величина Rs , согласно (7), удовлетворяет ограничениям

Pg < Rs <|| Jq || max || g 11< Rq . (9)

geG

Для симметричной строго положительно определенной матрицы H размера nxn будем использовать обозначение H>0. В следующем алгоритме строится последовательность матриц Hi >0, i=1, 2, ..., таких, что при определенных условиях через конечное число итераций вектор Higi е S(G) для некоторого gi е G, т.е. является решением системы (2).

Алгоритм решения неравенств A(a).

1. Положить i=0. Задать a > 1, H0 = I. Выбрать произвольно g0 е G.

2. Найти ut е G такой, что

(Hu, gi) < 0 (10)

Если такого вектора не существует, то Htgt е S(G), закончить работу алгоритма.

3. Вычислить yi = ut — gt и получить новое приближение матрицы по формуле (5)

4. Выбрать произвольно gi+1 е G .

5. Положить i=i+1. Перейти на пункт 2.

Изложим сначала идею доказательства. Обозначим A, = H- 1. На основании (8) и неравенства Шварца получим

1 * (s\gi) < (s*, Af -5H°-5g,) < (s\ V)(gt,Hg). (11)

Нашей задачей является показать, что правая часть (11) убывает и через конечное число итераций станет меньше 1. Это послужит доказательством того, что неравенство (10) через конечное число итераций перестанет выполняться, т. е. будет найдено решение системы (2).

Для последовательности { т{ = min [(y :, H :y :) /(y:, y:)]} справедлива оценка.

0< j <i-1 j j j j j

Теорема 1 [11]. Пусть множество G удовлетворяет предположению 1, а последовательность {H,} - результат преобразования (5) при H0 = I, а > 1 и

произвольных yi е Rn, yi Ф 0, i = 0,1,2,.... Тогда

„ , > 1.

' n(a 'n -1)

Лемма 1. Пусть множество G удовлетворяет Предположению 1, а овательность

алгоритма РН. Тогда

последовательность п, = min (g:, H:g:) вычисляется на основе характеристик

0< j<i-1

< 4 ^С«2 - В , / > 1. (12)

' г 2/ /" Л\ 4 у

" (а -1) Доказательство. Исходя из (10) получим

(У],н ]У]) =(gj, н]^]) + (и], ]) - 2( gj, ]) >(gj, н]^]) + (и], ]).

Отсюда следует

( У] > н]У] ) > ( gj > ) > ( gj > )

(У], У]) (|^]|| + ||и]||)2 4ЯС ' что, с учетом теоремы 1, доказывает (12). Лемма доказана.

Матрицы А/ = н— преобразуются по рекуррентной формуле

А/+! = А/ + (а2 -1)У/УТ /(У/,н/У/), (13)

что следует из формулы Шермана - Мориссона. Из (13) и определения вектора я* получим

(я*, А, +!**) = (я*, А,+!**) + (а2 -1)((д*н )2). (14)

( У/ , н/ У/ )

Сделаем оценку правой части (14). Обозначим ~* = А1/2я *, С - множество векторов

~ 1/2 1/2 1/2 ~ ~ g = н/ g, \ZgeG, г1 = н( gi, г2 = н( и1, я - проекцию вектора я * на плоскость Р,

1 /2

образованную векторами и г2 , 2 = н/ У/. С учетом равенства

(~ *, ~) = (А)11 я*, н)'2 g) = (я*, g)

неравенство (8) представим в виде

1 < ~) < Я / Ро = Г-1, е С п Р (15)

Границы (15) изображены на рис. 1 в системе координат, образованной

ортонормированными векторами: е^ = ~/ || ~ || и ортогональным ему в плоскости Р вектором . Обозначим (а], ¿¡) и (а2, ё2) - координатное представление в означенной системе

координат векторов rj и r2 соответственно.

Преобразуем последний из сомножителей в (14)

(s*, y )2 _ (Aj'2 s*, Hj'2 yt) _ z)2 _ ||~| |2|

l|2 • 2 Z Sin ф

(5*, A:S*)tg2ф < ' l—. (16)

(У, Hlyl) (y¡,Н[У[) (zz) ||Z|2(sin2 ф + cos2 ф) 1 + tg2ф Угол ф нанесен на рис. 1, причем sin2 ф = 1 - cos2 щ, где щ - угол образованный векторами z, e1. Сделаем оценку верхней границы tg2ф. На рис. 1 принято максимизирующее оценку tg 2ф расположение векторов r1 и r2 на границах (15), поскольку, удлиняя и сокращая векторы r1 и r2 можно их вывести на противоположные границы с одновременным увеличением острого угла ф (см. рис. 1), что только увеличит оценку. Так как

(Hlul, g) = (rb r2) = CTlCT2 + S^ < 0, (17)

и компоненты o¡, о2 обе положительны, то компоненты ó¡ и ó2 должны иметь различные знаки. Из (17) и соотношения между среднеарифметическим и среднегеометрическим, следует

(|51| + |52Í)2/4 >|5152|>G1G2. (18)

Отсюда, с учетом соотношения ^ / ст2 = rG, которое следует из расположения векторов r1 и r2 на границах (15), получим оценку

tg 2ф =

(|5il + | 52 |)2

<

fr2 -^i)2 = (1 - r(G))2

4CTiCT 2

I

4r(G)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(~ , g) = 1 / r( g )

(19)

52 51 2

Рисунок 1. Плоскость векторов r1 и r2.

Обозначим 0 = 0(r) = [(1 - rG)/(1 + rG)]2 и Q = Q(a,0) = 1 + (a2 - 1)0 .

Лемма 2. Пусть для множества G выполнено предположение 1. Тогда для * *

последовательности {(s , A¿s )} имеют место оценки

(/,Ai+/) < (s\A/)Q < (s*, Ai_/)Q2 < ... < (s*,A0s*)Ql = Q /pG. (20) Доказательство следует из оценок (14), (16) и (19). Лемма доказана. В следующей теореме дается обоснование сходимости алгоритма A(a). Теорема 2. Пусть множество G удовлетворяет предположению 1 и 0 < 1/n. Тогда при

1 < а2 < 1/п9, (21)

алгоритм А(а) находит решение неравенств (2) за конечное число итераций, которое не превосходит минимального целого /, удовлетворяющего неравенству

, 4/яЯ(а2 - 1)0/ , ч

1 >-9К . ы . (22)

прЬ(а 'П -1)

Доказательство. На основании неравенств (11), (12) и (20) получим

. , * , гг л (§1,)бг 41Кк{а2 - 1)0г' 41кк{а2 -1)(0/а2/пV ч 1 < (5 ,)(§г,Н§) п 2 <—. ^ =-^-Щтт-.-^.(23)

V I 2 ,„,^2/2//п 1-, ,„2 /1 „-2//п\ 4 у

Ра пРа(а -1) пРо(1 -а )

Скорость убывания правой части (23) определяется малостью показателя

Ж<0,а) = ^ = ^^ < 1. (24)

который должен быть меньше 1, чтобы обеспечить возможность убывания (23). Исследуем поведение функции '(9,а) при а>1. Найдем ее производную

у„ па

а/п

При а =1 величина '(9,а)=1 и только отрицательное значение производной Ж' при а=1

обеспечивает убывание '(9,а). Как следует из (25), это возможно только при 9 < 1/п. Преобразуем (25)

а 9-(1 +(а -1)9) = 0 ^ па2 9 -1 - (а2 -1)9 = 0 ^ а29(п -1) = 1 -9. па

Отсюда найдем решение уравнения (25)

2 1-9 1 *

а =->—; ^ а =

1-9

>

9(п -1)

9(п -1) п9 \

Таким образом при 9<1/п на участке ае (1, а*) отрицательности производной Ж' будет

заведомо обеспечено '(9,а)<1, т.е. убывание правой части (23). Неравенство (23) выполняется до тех пор, пока не получено решение и возможен выбор в пункте 2 алгоритма в соответствии с (10). Гарантированную оценку числа итераций, требующихся для получения решения неравенств (2), дает минимальное целое /, при котором перестает выполняться неравенство (23), т.е. выполняется обратное неравенство (22). Теорема доказана.

Алгоритм решения неравенств в схеме г-алгоритма (3)-(6) (ЛЯ(а)) отличается от А(а ) реализацией пункта 4, который имеет следующий вид:

4. Задать §г :1 = и/. (26)

Алгоритм решения неравенств на основе выбора ближайшего к началу координат вектора в текущей метрике (AW(а)). Эффект убывания правой части (23) можно усилить, если подчинить выбор вектора §/+1 условию минимума величины (§/:1, Н/:1§/:1), а его выбор осуществлять на отрезке

§1:1 = (1 -в/ )§/ + в ¡и/ = §/ :в/ (и/ - §/), 0 <в/ < 1. (27)

Решением является

в =_ (+1 Уг, Яг ) =_ (Н,У,, Яг ) = (, & ) - (Н,и,, & ) (28)

' (нг+1 Уг, Уг) (нг+1 Уг, Уг) (нгЯг, Яг) +(нгиг, иг) - 2( нгиг, Яг)

Формулы (27), (28) соответствуют выбору ближайшего к началу координат вектора в текущей метрике из оболочки двух векторов, принадлежащих множеству О, и при нг=1 полностью идентичны формулам нахождения ближайшего к началу координат вектора из О в алгоритме Вульфа [13,12]. Вектор яг+1 , получаемый по формулам (27), (28), будем

обозначать ^ (, иг). Алгоритм решения неравенств А^а), основанный на (27), (28), отличается от А(а) реализацией пункта 4, который имеет следующий вид: 4. Задать ^+1 = (^, и ). (29)

Одноранговое семейство алгоритмов решения неравенств (АВ^(а, А)) получим из алгоритма А(а), заменив в нем пункт 4:

4. Задать ^+1 = А • ¿¥ (& , щ) + (1 - А) • иг. (30)

Обозначим 5 е(О) = {х е Яп | || 2 — х ||< е, Ух е О]- окрестность множества О. В

следующей лемме приведена зависимость поведения характеристик множества в зависимости от степени его возмущения.

Лемма 3 [11]. Пусть множество О удовлетворяет предположению 1. Тогда при 0 < е < р(О) будут выполняться соотношения

Я^е (О)) < Я(О) + е (31)

р(^е (О)) > р(О) -е (32)

Я,(^е(О)) < Я,(О) + е (33)

г(^е (О)) > г(О) - 2е / Ро (34)

у(^(О)) > у(О) - 2е/Яо (35)

Введем зависимости, которые связывают введенные ранее параметры 9 и гО:

(1 - т)2 1 - 91/2

9(ю) = (-®(9) =-ш. (36)

(1 + ю)2 1 + 91/2

Установим взаимосвязь между допустимыми возмущениями множества О и характеристиками алгоритма решения неравенств, обеспечивающими его сходимость за конечное число итераций и найдем оценку этого числа итераций.

Теорема 3. Пусть множество О удовлетворяет предположению 1, 0(тО) < 1/п и задано некоторое в*, удовлетворяющее неравенству

9(гО) <9* < 1/п. (37)

Тогда при

1 < а2 < 1/пв *, (38)

е < е* =рОА/2, (39)

где А= гО -г*, г*= а>(6*), алгоритм А(а) находит решение неравенств (2) на множестве 5е(0) за конечное число итераций, которое не превосходит минимального целого г, удовлетворяющего неравенству

2

1 > 36Яо (а2 -1)[0(а,9*)] = 36г(а2 - 1)[0(а,9*)]

2 2 / п 1Л пу /„.2г / п

пр0 (а2'п -1) пу0 (а2'п -1)

Доказательство. Из неравенства (39) и определения множества Se (G) следует

Se(G) с Se*(G). (41)

Поэтому

р(Se (G) > р(Se* (G)), R(Se (G) < R(Se* (G)). (42)

Отсюда и определения величины А следует

r(Sе (G) > r(Se*(G)) = r(G) - А = r *. (43)

В силу взаимосвязи (36) и неравенств (37) и (43) будет выполняться ограничение

0(r(G)) < 0(r(Se (G))) <0* < 1/n. (44)

Отсюда и (38) получим

1 < а2 < 1/n0* < 1/n0(r(Se (G))). (45)

Неравенства (44) и (45) свидетельствуют о выполнимости условий теоремы 2 о сходимости алгоритма А(а) на множестве Ss (G) за конечное число итераций.

Используя (23) получим оценку необходимого числа шагов алгоритма А(а) для получения решения системы (2) на множестве Ss (G) . Для множителя Q в (23), в силу (44), справедлива оценка

Q(a, 0(r(Sе (G)))) < Q(a, 0*). (46)

Получим оценку отношения p/R в (23). Сначала сделаем оценку величины А в (39). На основании (44) получим

1 - n"1/2 1 - 2-1/2

1 >®(0) >-jyy >-^. (47)

1 + n"1/2 1 + 2

Из(47)следует

1 - 2-1/2 21/2 2

А = G - r* < 1--— =-— =-— < 1. (48)

1 + 2 1 + 2 1 + 2

Из неравенств (31), (32), с учетом (48), получим

>P(G)(1 - - = —-. (49)

p(Se (G)) > p(G)(1 - 0.5) = p(G)

Я( 5е (О)) Я(0 )(1 + 0.5) 3Я(0) Оценки (49), (46) вместе с(23) позволяют прийти к оценке (40) для определения числа итераций алгоритма решения неравенств. Теорема доказана.

3. Одноранговое семейство релаксационных субградиентных методов с растяжением пространства. Техника обоснования нового алгоритма соответствует [11, 12].

Обозначим й(х) = р(д/(х)), Б(х) = {х е Яп | /(х) < /(г)].

Дадим описание метода минимизации, основанного на использовании алгоритма решения неравенств АВ^(а, А).

Алгоритм минимизации ( АВЖМ(а, А) ).

1. Задать начальное приближение н0 = I, х0 е Яп, целые г=0, т0=0, N - период обновления, параметра >1 , 0 < А < 1. Вычислить Я0 е д/(х0 ) . Если я0=0, то х0 точка минимума, закончить вычисления.

2. Найти новое приближение минимума

,+1 = нгЯг, хг+1 = хг - УЛ+1, У г = ^тт / (х - у ,+1).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

у

3. Вычислить субградиент игедд(хг+1), исходя из условия (иг, ,г+1) < 0. Если иг=0, то

Xj+i - точка минимума, закончить вычисления.

4. Если i - mj >N, то: произвести обновление mj+1 = i, gj+1 = Uj, Hj+1 = I ; перейти на пункт 7.

5. Вычислить yj = ui - gj, ßj = - (Hy> >gj |, gj+i = gj + ßjy;. .

(НгУг, yj)

Если gf+i = 0, то: произвести обновление mj+1 = i, gj+i = Uj, Hi+i = I;

перейти на пункт 7.

6. Положить mj+1 = mj, вычислить

T T

gr +i =A-gWi +i + (1-Д)• Uj, Ht+i = Нг -(1 - 1/a2) H'У'Н H) .

( yj , Hj yj )

7. Положить i=i+1, перейти на пункт 2.

Отметим, что в п.3, в силу условия точного одномерного спуска вдоль направления (-sj+1), в новой точке xj+1 вектор uiedf(xj+1), такой, что (uj, 5j+1) < 0, всегда существует согласно необходимого условия минимума одномерной функции (см., например, [12, с.287]). Например, в реализациях МШ [1,2] в процедурах одномерной минимизации используют сверхрелаксацию в направлении спуска, чтобы автоматически обеспечить подобное условие. Условие п.3 (uj, 5j+1) < 0 обеспечивает условие п.2 алгоритма решения неравенств, встроенного в пунктах 3, 5, 6 метода минимизации.

Доказательство сходимости метода опирается на следующую лемму [12].

Лемма 4 [12]. Пусть функция f (x) строго выпукла на Rn, множество D(X0) ограничено, а последовательность {xk }°°= 0 такова, что

f (xk+1) = min f (xk + a (xk+1 - xk )). (50)

ae[0,1]

Тогда lim || xk+1 - xk ||= 0.

k ^<x>

Обозначим ik , k=0,1,..., - индексы i, при которых происходит обновление в пунктах 4 или 5. Обозначим Zk -точки xjk , x* - точку минимума функции, x* - предельные точки

последовательности {zk }°°=1. Существование предельных точек последовательности {Zk} при ограниченности множества D(x0) следует из Zk е D(x0).

Теорема 4. Пусть множество D(x0) ограничено, функция f(x) строго выпукла на Rn, и на D(x0), при x Ф x*, ее характеристики удовлетворяют соотношениям

e(Kf (x))) <00 < 1/ n, (51)

v(df (x)) > V0 > 0, (52) где 0O и v0 некоторые константы. Пусть задано некоторое 0*, такое что

00 <0* < 1/n. (53)

Тогда при параметрах алгоритма минимизации ARWM(a, Д)

1 < a2 < 1/n0 *, (54) N >2 N(vo,e*), (55)

где N(v0,e*) - минимальное целое i, удовлетворяющее неравенству

. > 36/(а2 -1)[0(а,9*)]' (5б)

1 >-о--. (56)

т>02(а2//п -1)

любая предельная точка последовательности (2к } является точкой минимума на Яп .

Доказательство. Допустим, что утверждение теоремы неверно: предположим, что

*

подпоследовательность 2к ^ х , но

а (х*) = а *> о (57)

Обозначим 3* = д/(х* ), = Зв (8/(х*)) . Положим

8<е* = а * А/2, А= со(9о) - со(9*). (58)

Выберем 8 > 0, такое, что

д/(х) с Ух е 38 (х ) (59)

Такой выбор возможен в силу полунепрерывности сверху точечно-множественного отображения д/ (х) (см. [12, с.289]).

Для множеств 3 * и 3*, при выборе в согласно ограничению (58), с учетом условий

(51)-(54), будут выполнены условия теоремы 3 сходимости за конечное число итераций алгоритма решения неравенств, который реализован в пунктах 3, 5, 6 метода минимизации, причем число итераций не превосходит Ы(у0,9*) шагов. В силу (55) число шагов алгоритма решения неравенств в методе минимизации превосходит в 2 раза величину Ы(у0,9*) и является достаточным для получения решения прежде чем произойдет обновление в пункте 4. Отсюда следует, что до обновления в пункте 4 последовательность х/ выйдет из * V

окрестности £§(х ). Вектор gi+1, получаемый в пункте 5, согласно формул пунктов 3, 5 и

6, принадлежит некоторой оболочке субградиентов из множества . Следовательно, пока

последовательность х/ е £§ (х*), вектор gV+l не может обратиться в нуль. Поэтому

обнуление вектора gV+l, ведущее к преждевременному обновлению в пункте 5, означает

выход последовательности х/ из окрестности 38 (х * ) .

Выберем номер К такой, что при к5 > К будет справедливо

^ е 38/2(х*), х1 е 38 (х*), < / < iks + N, (60)

т. е. такой номер К, что точки х/ остаются в окрестности (х ) в течение, по крайней

*

мере, N шагов алгоритма. Такой выбор возможен в силу сходимости ^ х и

выполнения на каждом шаге алгоритма условия (50) леммы 4. Последнее утверждение противоречит полученному ранее выводу, что последовательность х/ выйдет из окрестности

£§ (х*) через Щу0,9*) шагов алгоритма. Полученное противоречие доказывает теорему.

4. Заключение. В работе предложено одноранговое семейство алгоритмов решения неравенств с растяжением пространства, выявлены условия их сходимости. На этом основании построено семейство релаксационных субградиентных методов с растяжением пространства, частным случаем которого является ^алгоритм. Доказано, что при определенных ограничениях на субградиентные множества алгоритмы семейства сходятся

на строго выпуклых функциях.

ЛИТЕРАТУРА

1. Нестеров Ю.Е., Пурмаль Е.И. Анализ эффективности методов негладкой оптимизации. М.: ЦЭМИ АН СССР, 1984.

2. Нестерова С.И., Скоков В.А. Численный анализ программ негладкой безусловной оптимизации // Экономика и математические методы. l994. т.30. №2.

3. Скоков В. А. Варианты метода уровней для минимизации негладких выпуклых функций и их численное исследование // Экономика и математические методы. l997. т.33. №l .

4. Немировский А. С., Юдин Д. Б. Сложность задач и эффективность методов оптимизации. М. l979.

5. Шор Н. З., Журбенко Ц. Г. Метод оптимизации, использующий операцию растяжения пространства в направлении разности двух последовательных гpaдиентов // Кибернетика. 1971. № 3.

6. Шор Н. З. Методы минимизации недифференцируемых функций и их приложения. Киев: Наукова думка, l979.

7. Щепакин М.Б. О методе ортогонального спуска//Кибернктика. 1987. №1.

8. Скоков В.А., Щепакин М.Б. Численный анализ одного варианта метода ортогонального спуска // Кибернктика и системный анализ. 1994. №2.

9. Lemarechal C, Nemirovski A.C., Nesterov Yu.E. New Variants of Bundle Methods // Match. Program. Ser. B. 1995. V.69.№1.

10. Гольштейн Е.Г., Немировский А.С., Нестеров Ю.Е. Метод уровней, его обобщения и приложения // Экономика и мат. методы. 1995.Е.31.№3.

11. Крутиков В.Н., Петрова Т.В. Релаксационный метод минимизации с растяжением пространства в направлении субградиента// Экономика и мат. методы. 2003. Т. 39, Вып. 1. С 106-119.

12. Демьянов В. Ф., Васильев Л.В. Недифференцируемая оптимизация. М.: Наука, 1981.

13. Wolfe P. Note on a method of conjugate subgradients for minimizing nondifferentiable functions // Math. Programming. 1974. v. 7. N 3.

14. Lemarechal C. An algorithm for minimizing convex functions // Proc. IFIP Congress-74. Amsterdam: North-Holland. l974.

15. Lemarechal C. On extension of Davidon methods to nondifferentiable problems // Math. Programming Studi. Amsterdam:North-Hol-land.l975. №3.

16. Крутиков В.Н Методы минимизации на основе частной модели субградиентных множеств//Методы оптимизации и их приложения/Труды 11-й международной Байкальской школы-семинара. Иркутск.1998.Том 1.

17. Цыпкин Я. З. Основы теории обучающихся систем. М.: Наука, 1981.

18. Крутиков В.Н. Новый релаксационный субградиентный метод с изменением метрики // Вестник КемГУ. Кемерово, 2001. Вып. 4. С. 16-22.

19. Крутиков В.Н., Петрова Т.В. Новый метод решения задач минимизации большой размерности// Вестник КемГУ. Кемерово, 2001. Вып. 4. С.65-71.

20. Крутиков В.Н., Петрова Т.В. Новый релаксационный метод недифференцируемой минимизации // Мат. заметки ЯГУ. 2001. Т.8, вып. 1. С. 50-60.

21. Скоков В. А. Замечание к методам оптимизации, использующим операцию растяжения пространства // Кибернктика и системный анализ. 1974. №4.

i Надоели баннеры? Вы всегда можете отключить рекламу.