Научная статья на тему 'Реализация алгоритмов однорангового семейства субградиентных методов'

Реализация алгоритмов однорангового семейства субградиентных методов Текст научной статьи по специальности «Математика»

CC BY
132
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук

Аннотация научной статьи по математике, автор научной работы — Крутиков В. Н., Арышев Д. В.

Предложена эффективная реализация алгоритмов однорангового семейства релаксационных субградиентных методов с растяжением пространства для решения задач негладкой безусловной оптимизации. Проведено численное исследование и сравнение алгоритмов с известными методами.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

REALIZATION OF ALGORITHMS OF ONERANK SUB-GRADIENTS METHODS FAMILY

Effective realization of algorithms of onerank relaxation sub-gradients methods family with space extension for solving non-smooth absolute optimization problems is suggested. Numerical research and comparison of algorithms with known methods are carried out.

Текст научной работы на тему «Реализация алгоритмов однорангового семейства субградиентных методов»

Реализация алгоритмов однорангового семейства субградиентных методов

Крутиков В.Н. (ard@kemtel.ru), Арышев Д.В. Кемеровский государственный университет

1. Введение

Эффективность новых методов негладкой оптимизации определяется посредством их тестирования и сравнения с известными методами. В работах [1-3] сформирована методика многокритериального численного анализа алгоритмов негладкой оптимизации на системе сложных тестов. В [2] проведено подробное численное исследование метода эллипсоидов (МЭ) [4], ^алгоритма (МШ) [5,6], метода ортогонального спуска (МОС) [7,8] и метода уровней (МУ) [9,10]. Метод МУ оказался лучшим по критерию числа вычислений функции и субградиента. Как отмечено в [2], по критерию времени счета на ряде задач более эффективными оказываются методы с относительно невысокими объемами требуемой для реализации памяти и вычислительными затратами на итерации, что определяет актуальность разработки и совершенствования подобных алгоритмов, к числу которых относится г-алгоритм [5,6] и созданный недавно релаксационный метод с растяжением пространства в направлении субгралиента (МРП) [11].

Алгоритмы МШ и МРП принадлежат классу релаксационных методов е-субградиентного типа (РСМ)(см., например, [12-19]) с растяжением пространства. Отмеченные алгоритмы просты в реализации, на практике оказываются универсальным средством решения задач безусловной оптимизации и эффективны при решении гладких и негладких задач, в том числе и невыпуклых. Алгоритм МРП [11], в отличие от ^алгоритма, решает все тестовые задачи из [2], что связано с применением в МРП новой технологии реализации методов типа РСМ. В настоящей работе эта технология используется для реализации однорангового семейства релаксационных методов с растяжением пространства, предложенного в [20], частными случаями которого являются ^алгоритм [6] и обобщение [21] известного алгоритма Ф. Вульфа [13]. В результате получено семейство работоспособных методов минимизации негладких функций, определены области задания их параметров. Алгоритмы семейства исследованы численно на гладких и негладких тестах, проведено их сравнение с известными методами негладкой оптимизации и выявлены области их эффективных параметров.

2. Одноранговое семейство релаксационных субградиентных методов

с растяжением пространства

Для решения задачи минимизации выпуклой на Я" функции /х) в релаксационных процессах е-субградиентного типа [12]

Х- +! = Х; - У & +1 , /г = ^ /(Х- - ГЬ+1 ) (1)

Г

направление спуска +1 выбирается как решение неравенств ([12, с.259])

(g) > 0, е а, (2)

где 0= де /(X-) - е-субградиентное множество в точке X-. Множество решений (2)

обозначим 8(С), а д/(х) = д/х) - субградиентное множество в точке х. Поскольку явное

задание е-субградиентного множества отсутствует в релаксационных субградиентных методах в качестве множества а используют некоторую оболочку субградиентов, полученных в результате работы алгоритма [12]. В первых работах [12-15] в качестве решения (2) использовался вектор г/о = п(0) - ближайший к началу координат вектор из О. В

работе [16] на основе теории обучения [22] разработан подход создания алгоритмов решения неравенств (2), которые послужили основой нескольким новым алгоритмам минимизации [11, 16-21], к числу которых относится одноранговое семейство релаксационных субградиентных методов с растяжением пространства [20].

Для целей формулирования процедуры одномерной минимизации и ее необходимых свойств, рассмотрим одноранговое семейство РСМ с точным одномерным спуском и метод решения неравенств, на котором оно основано [20].

Для симметричной строго положительно определенной матрицы Н размера пхп будем использовать обозначение Н>0. В следующем алгоритме строится последовательность матриц Нг >0, 1=1, 2, ..., таких, что при определенных условиях через конечное число итераций вектор Н ^^ е Я (О) для некоторого gi е О, т.е. является решением системы (2).

Алгоритм решения неравенств А(а) [20].

1. Положить 1=0. Задать а > 1, Н0 = I. Выбрать произвольно go е О.

2. Найти иг е О такой, что

(Ни, gi) < 0 (3)

Если такого вектора не существует, то е Я (О), закончить работу

алгоритма.

3. Вычислить у1 = и1 — gi и получить новое приближение матрицы

Н у уТ ттТ

Нг +1 = Н — (1 — 1/а2) (1УН ) . (4)

(Уг, НгУг)

4. Выбрать произвольно gi+1 е О .

5. Положить 1=1+1. Перейти на пункт 2.

Согласно (3) для работы алгоритма решения неравенств А(а) необходима генерация последовательности векторов { иг}, для векторов которой не выполняются неравенства (2),

где в качестве 5 используется вектор Н^ .

В алгоритме минимизации, основанном на методе А(а), конкретизируется выбор последовательности gi+1 е О .

Алгоритм минимизации ( АВЖМ(а, А) ) [20].

1. Задать начальное приближение Н0 = I, е Я", целые 1=0, т0=0, N - период

обновления, параметра >0 , 0 < А < 1. Вычислить g0 ед/(^0 ) . Если g0=0, то х0 точка

минимума, закончить вычисления.

2. Найти новое приближение минимума

5 = Higi, хг+1 = хг — У А', У г = тЬ /(хг — У ^). (5)

у

3. Вычислить субградиент е д/(х, +1) такой, что

(иг, 5) < 0. (6)

Если и=0, то х,+} - точка минимума, закончить вычисления.

4. Если i - т1 >N, то произвести обновление т1+} = i, gi+1 = и, Hi+1 = I и перейти на

пункт 7.

5. Вычислить.

g!r+1 = +Р,-У,-, где у, = и, — gi, & = — (, & > (7)

(НгУг, у, )

Если gW_l = 0, то произвести обновление mi+} = I, gi+1 = и1, Н,+1 = I иперейти на

пункт 7.

6. Положить mi+} = mi, вычислить

gi+1 = )• gW+x + (1 -А) • ut, (8)

H +1 = H - (1 -1/а2) Н;УИ Hi . (9)

(yi, НгУг )

7. Положить i=i+1, перейти на пункт 2.

Замечание 1. Алгоритм минимизации ARWM(a, А) при А=0 эквивалентен r-алгоритму [6 ] в виде, предложенном в [23], а при А=1 - алгоритму Вульфа в метрике r-алгоритма [21 ].

Отметим, что в п.3, в силу условия точного одномерного спуска вдоль направления (-si), в новой точке xi+1 вектор uiGdßxi+1), такой, что (ui, si) < 0, всегда существует согласно необходимого условия минимума одномерной функции (см., например, [12, с.287]). Условие

(6) п.3 обеспечивает условие (3) п.2 алгоритма решения неравенств, встроенного в пунктах 3, 5, 6 метода минимизации.

Пусть s, x е Rn и u е df (x), тогда, в силу определения субградиента, выполняется неравенство f (x — ys) > f (x) — у(u, s). Отсюда следует, что неравенство (u, s) > 0 является необходимым условием возможности уменьшения функции в направлении s . Получаемый в

(7) вектор gW в алгоритме минимизации ARWM(a, А), согласно (8) и (5) используется для получения направления спуска. Поэтому важно, чтобы составляющая направления спуска s = HgW, соответствующая вектору gW, удовлетворяла необходимому условию

возможности уменьшения функции (HgW, u) > 0. В этой связи свойства операций (7) разберем подробнее.

Лемма 1. Пусть g, u е Rn - произвольные ненулевые векторы, матрица H>0 ,

gW = gW(H,g,u) = g + ßy, y = u - g, ße[0,1], (10)

ß = arg mini6[0,1]{( H (g + ty), g + ty)}. (11)

Тогда:

1) параметр ß задается выражением

0, если (Hy, g) > 0,

1, если - (Hy, g)/(Hy, y) > 1, (12) (Hy, g)/(Hy, y) в противном случае.

ß = ß( H, g, u)

и, в частности,

при (u, Hg) < 0 ß = -(Hy, g) /(Hy, y); (13)

2) вектор gW, если gW Ф 0, удовлетворяет неравенствам

(HgW, g) > 0, (HgW, u) > 0, (14)

которые в случае (13) сохраняются для преобразованной матрицы H +

+ 2 HyyTHT

H += H - (1 -1/а2) ч . (9.А)

(y, Hy) 1/2 1/2

Доказательство. Образуем векторы z = H g, p = H u, r = p - z, v = z + ßr . Обозначим

(r z) (Hy g)

ß* = arg mint{Ф(/) = (z + tr, z + tr)} = = -^Ц, (15)

(r,r) y)

v* = z + ß * r - вектор минимальной длины, образованный векторами z, p. В этих обозначениях (11)-(14) будут иметь вид

ß = ß( H, g, u) =

ß = arg minie[o5i]{( z + tr, z + tr)}, (11. А)

0, если (r, z) > 0,

1, если - (r, z) /(r, r) > 1, (12. А) - (r, z)/(r, r) в противном случае.

ß = -(r, z)/(r, r), при (p, z) < 0; (13.А)

(v, z) > 0, (v, p) > 0. (14. А)

1) Пусть r=0. Тогда z=p и выполняется условие (14.А), т.е. (14), при любом ße[0.1]. Согласно (12. А) будет ß=0, хотя любое ße[0.1] удовлетворяет условию (11. А) , т.е. (11). Следовательно лемма верна при r=0. Во всех остальных случаях будем предполагать r?0.

2) При r?0 квадратичная функция 9(t) = (z + tr, z + tr) из (15) строго выпуклая. Величина ß* из (15) ее точка минимума. Величина ß - ее точка минимума на отрезке [0.1]. Если ß*e[0.1], то ß=ß*. Если ß* находится вне отрезка [0.1], то ß определяется посредством проектирования величины ß* на отрезок [0.1], т.е. ß=0, если ß*<0 и ß=1, если ß*>1. Формула (12.А) при r^0 реализует отмеченное правило.

Если (p, z) > 0, то будут выполнены неравенства (14.А), т.е. (14), поскольку v = z + ßr = z(1 -ß) + ßp и ße[0.1]. Если ( p, z) < 0 , то

ß* = - frz) =-(z,z) - (z,p)-e [0,1],

(r, r) ( z, z) + (p, p) - 2( z, p)

что доказывает (13.А), т.е. (13). Таким образом, мы доказали (12) и (13). Из (13), (15) и ß=ß* следует

(v*, r) = (v, r) = (HgW, y) = 0. (16)

Отсюда и равенств v = z + ßr и p = z + r при v?0 получим

(v, v) = (v, z) = (v, p) > 0, что доказывает (14.А), т.е. (14), в случае (13). В силу (16) выполняется равенство H+gW = HgW . Поэтому неравенства (14) для матрицы H + сохраняются. Лемма доказана.

3. Реализация алгоритмов однорангового семейства релаксационных субградиентных методов с растяжением пространства

В этом разделе строится модификация алгоритма АВЖМ(а, А) с неточным одномерным спуском. Основные принципы реализации релаксационного субградиентного метода с неточным одномерным спуском и конкретная процедура одномерной минимизации заимствованы в [17, 11]. Рассмотрим версию алгоритма АБЖМ(а, А), включающая в себя процедуру одномерной минимизации вдоль направления (- Si), функции которой заключаются в построении [17, 11]: а) релаксационной последовательности точек { х, }; б) последовательности точек {р,}, из окрестности точек х,, таких, что для каждой из них найдется и, е д/(р,) , для которого (и,, ) < 0 - условие сходимости алгоритма решения неравенств, встроенного в пунктах 3, 5, 6 метода минимизации.

Обращение к процедуре обозначим

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ОМ({х, 5, gх, /х, Ы;{Ут, /т, gm, Уь и к1})

Блок входных параметров состоит из: х - точки текущего приближения; 5 -направления спуска; g х е д /(х) ; /х = /(х) ; ^ - начального шага одномерной

минимизации. Предполагается, что выполняется необходимое условие возможности одномерного спуска (gх, 5) > 0 в направлении 5 .

Уп

Блок выходных параметров включает в себя: ут - шаг в точку полученного приближения минимума х + = х — ут5 ; /т = /(х+), gm ед/(х+); - шаг вдоль 5, такой, что в точке р = х — у^ для и ед/ (р) выполняется неравенство (и, 5) < 0; И -

начальный шага спуска для следующей итерации.

Алгоритм одномерного спуска (ОМ) [17, 11]. Пусть требуется найти приближение минимума одномерной функциир(в) = /(х — в5), где х - некоторая точка, 5 - направление

спуска. Возьмем возрастающую последовательность Д = 0 и Д = И^М11 при , > 1. Обозначим 21 = х — в,5, г, ед/ (21),, = 0,1,2,К , X - номер I, при котором впервые выполнится соотношение (г,, 5) < 0 . Зададим параметры отрезка локализации [/0, у1 ]

одномерного минимума У0 = Рх—ь /0 = /(—1), g0 = г1—1, /1 = Р1, /1 = /(2Х ), gl = г1 и найдем точку минимума у* одномерной кубической аппроксимации функции на отрезке локализации [24]. Вычислим

0.1/15 если X = 1 и у* < 0.1/15

/1, если У1 — у*< 0_2(^1 — У0),

У00, если X > 1 и у* — у00 < 0.2(^1 —

*

у , в остальных случаях.

1/2

Вычислим начальный шаг спуска для следующей итерации И = дт (^Ут ) .

Реализация семейства алгоритмов ARWM(a, А). В предлагаемом ниже варианте алгоритма обновление матрицы заменено на коррекцию диагональных элементов, а точный одномерный спуск - на приближенный.

Алгоритм минимизации АВЖМОМ(а, А).

1. Задать Н0 = I, х0 е Я" , 1=0, параметры а >1, 0 < А < 1, параметр корректировки

—8

матрицы 80 = 10 . Задать параметры останова: N - максимально допустимое число итераций, 8х - точность минимизации по аргументу, - точность

минимизации по градиенту. Вычислить Г0 = go ед/ (х0). Если go=0, то х0 точка минимума, закончить вычисления.

1/2 1/2

2. Положить п, = mаx Н1 .-. Если п, < 80 , то Н, = Н, / 7Г;, И: = , п, = 1.

1< ] < "

Если (gi,Higi)/(gi, gi) <8oПi, то Н, = Н, + 1080п

1/2

3. Вычислить направление спуска =— Н^^ /(gi, Н^^) . Произвести одномерный спуск:

ОМ ({х,,, gmi, Л,}; {У,,/,+1, г,+1, ~,и,,+1}).

Найти новое приближение минимума х,+1 = х, — у.

4. Если , > N или ||х,+1 — х, || < 8х, или || г,+Ц < 8g то закончить вычисления.

5. Вычислить:

gW (Н,, gi, и,), если gW (Н,, gi, и,) * 0, и,, в противном случае

~+1 = А-+ (1 — А) • и,, (18)

gi+1

У = и, -81, Н,+1 = Н, -(1 -1/а2)Н 1У1У1И\ . (19)

(У,, НгУг )

Вычислить

w \§1¥ (Н, > ~+1, Г+1). если (Н,, ~+ь Г+1) ф 0, ё, +1 =\ , (20) Г+1, в противном случае

ё1+1 =А- ёт + (1 -А) • Г-+1, (21)

7. Положить 1=1+1, перейти на пункт 2.

Отметим, что преобразования (17), (19) эквивалентны преобразованиям (7),(9) алгоритма АВЖМ (а, А) и выполняют основную роль в решении неравенств. Преобразование (20) является дополнительным преобразованием, и, согласно результатам леммы 1 (14), его основное назначение обеспечить выполнимость неравенства (я,+1, г+1) > 0 - необходимого условия возможности одномерной минимизации вдоль направления я, +1, не нарушая, а способствуя при этом сходимости метода решения системы неравенств.

Наиболее просто с процедурой ОМ реализуется ^алгоритм, который, согласно замечанию 1, является алгоритмом семейства АВЖМ(а, А) при А=0.

Реализация г-алгоритма. В предлагаемом ниже варианте ^алгоритма обновление матрицы заменено на коррекцию диагональных элементов, а точный одномерный спуск - на приближенный.

Алгоритм минимизации гОМ(а).

1. Задать Н0 = I, е , г=0, параметры а >1, 0 < А < 1, параметр корректировки

—8

матрицы 80 = 10 . Задать параметры останова: N - максимально допустимое

число итераций, 8х - точность минимизации по аргументу, 8^ - точность

минимизации по градиенту. Вычислить ё0 е д/(Х0) . Если ё0=0, то х0 точка минимума,

закончить вычисления.

1/2 1/2

2. Положить п, = max Нг ■ ■. Если < 80 , то Н, = Н, / п,, И, = , п, = 1.

1< ■ < п

Если (, ) /(ё,, ё, ) < 80п,, то Н, = Н, + 1080П1,

1 /2

3. Вычислить направление спуска = -/(ё,, ) . Произвести одномерный

спуск:

ОМ({х-, я,, ё,, /1, ^ }; , ^+1, ё,+1,У,-, и,И+1}).

Найти новое приближение минимума х,+1 = х, - у.

4. Если I > N или ||х7-+1 - х, || <8х, или 11 ёI+1| < 8ё то закончить вычисления.

5. Вычислить:

Уг = и, -ё, Н +1 = Нг -(1 -1/а2)Н 1У1У1И\ .

( У, , Н, У, )

6. Положить 1=1+1, перейти на пункт 2.

В пункте 5 алгоритма гОМ(а) производится итерация алгоритма решения неравенств, где используется субградиент и,. Субградиент ё,+1 используется только для формирования направления спуска.

Алгоритм минимизации АВЖМ(а, А) при А=1 эквивалентен алгоритму Вульфа в метрике ^алгоритма [21] и соответствует методу решения неравенств А(а), в котором в

пункте 4 вектор gi+1 е О выбирается согласно формулам (7), (8) при А=1. Такой алгоритм

решения неравенств, вероятно, более эффективен, чем общий алгоритм А(а) на фиксированном множестве О. В методах минимизации множество О постоянно меняется. Здесь нужна возможность обновляемости, т.е. через определенные промежутки в пункте 5

алгоритма АРЖМ(а, А) следует принимать g/+l = и,. Другой способ обновления

заключается в задании А<1, что задает частичное обновление в (8). Согласно сделанному замечанию алгоритм АРЖМОМ(а, А) будет неработоспособным при А=1, поскольку в нем отсутствует обязательное полное обновление через заданное число итераций. Отмеченный факт наблюдается экспериментально.

6. Численное исследование Тестовые функции. Использовались известные задачи оптимизации, на которых в [2] проведено подробное численное исследование программ негладкой оптимизации МШ, МУ, МЭ, МОС, а в [3] -вариантов МУ (обозначения, описания и начальные точки для функций соответствуют [2,3]): 1) (MAXQ) [25] - максимум из квадрата координаты по всем координатам текущей точки; 2) (МАХЬ) [25] - максимум модуля координаты по всем координатам текущей точки; 3) (ООБК) [25] - разность максимума координаты по всем координатам текущей точки, умноженного на ", и суммой всех координат этой точки; 4) (ИГЬБ) [1] - квадратичная функция с матрицей Гильберта; 5) (МХС) [1] - максимум модуля к -х координат, умноженных на к3;6) (БМО) [1]- сумма модулей к-х координат текущей точки в степени к, умноженных на к3 ; 7) (МХ№) [1] - максимум линейной комбинации норм векторов; 8) (РЬК) [1, 26] - задача приближения данных полиномом (п-1)-й степени. 9) (ICQP) [3] - плохо обусловленная квадратичная функция для любого п п—1

/(х) =2[1000(х,- — х,+1)2 + (1 — х,-+1)2], х0=(0,...,0), х*=(1,...,1),/*=0, ,=1

10) (Розенброка) [26, 27]. f (x) = 100• (xf -x2)2 + (xl -1)2, x0 = (-1.2,1),

11) (Вуда) [27]. f (x) = 100(x2 - x?)2 + (1 - x1)2 + 90(x4 - x|)2 + (1 - x3)2 +

+ 10.1(x3 -1)2 + 10.1(x4 -1)2 +19.8• (x2 -1)• (x4 -1), x0 = (-3, -1, -3, -1).

12) (Пауэлла) [26, 27]. f (x) = (x: + 10x2)2 + 5(x3 -x4)2 + (x2 -2x3)4 + 10(x: -x4)4, x0 = (3, -1, 0, 1).

Результаты тестирования. Во всех методах в каждой точке функция и субградиент вычислялись одновременно. Исследовались алгоритмы rom(a), АРЖМОМ(а, А), МРП [11] при а=2 с процедурой одномерной минимизации ОМ с параметрами (qm = 0.8 , qM = 3). В

таблице 1 приведено количество затраченных методом вычислений функции и субградиента,

*

которое соответствует моменту выполнения условия f - f < s.

Для сравнения с известными методами в табл. 2 приведены результаты счета на первых восьми функциях для МШ, МУ, МЭ и МОС, взятые в [2], и для МРП, взятые в [11]. В

табл. 2 первое число - количество затраченных методом вычислений функции и

*

субградиента, которое соответствует моменту выполнения условия f - f < s, второе -

число решенных задач. Величина s указана в таблице под названием метода. Отметим, что методы МУ, МЭ и МОС применимы только на выпуклых функциях, причем для метода МОС необходимо оптимальное значение функции.

Методом МУ на функции 9 при размерностях n=5,10,15,30,50 и точности счета s=10-5 максимальное число вычислений функции и субградиента составляет MMax=1000, а минимальное - Mm¡n=118 [3]. Сравнивая эти результаты с результатами табл. 1 можно сказать о более высокой эффективности алгоритма АРЖМОМ(а, А) на гладких функциях

Таблица 1.

Номера функций Точн ость 8 Метод АВЖМОМ(а, А) при а=2 и различных А Количество вычислений (функции и субградиента) МРП а=2 ББОБ

п Пэы(а) А=0.7 А=0.9 А=0.98 А=0.995 [11] [27]

№ 1-8 10-4 5 429 404 406 467 560 458 -

№ 1-8 10-4 10 809 766 714 805 952 723 -

№ 1-8 10-4 15 1308 1188 1096 1110 1387 1019 -

№ 1-8 10-4 50 5340 5065 4549 4043 4419 3225 -

№ 9 10-5 5 55 56 54 53 54 57 -

№ 9 10° 10 97 93 93 90 78 69 -

№ 9 10-5 15 148 135 128 127 113 96 -

№ 9 10° 30 240 226 211 223 221 133 -

№ 9 10-5 50 335 331 366 320 343 172 -

-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

№ 10 10-10 2 63 77 67 57 54 47 38

№ 11 10-10 4 198 182 156 161 168 58 56

№ 12 10-10 4 57 59 55 54 52 53 51

Таблица 2.

Размерн./ Число задач Методы Количество вычислений / число решенных задач в группе

МУ [2] 10-4 МШ [2] 10-4 МОС [2] 10-4 МЭ [2] 10-4 МРП [11] 10-4 МРП [11] 10-8

5 / 8 258 / 8 1090/8 202 / 7 4156/8 458 / 8 796/ 8

10 / 8 346 / 8 1720/7 326 / 8 2361/8 723 / 8 1253/8

15 / 8 443 / 7 3448/8 599 / 8 3009/4 1019/8 1728/8

50 / 8 955 / 8 5435/6 2456/8 - 3225/8 5218/ 8

На основании приведенных результатов можно сделать следующие выводы:

1. Разработанная реализация АВЖМом(а, А) алгоритма АВЖМ(а, А) и, в частности, г-алгоритма - ^М(а), согласно результатам табл. 1, позволяет решить все задачи № 1-8 негладкой оптимизации. Известная реализация ^алгоритма (МШ, табл. 2) уступает по эффективности алгоритму ^М(а).

2. Разработанный алгоритм АВЖМОМ(а, А) эффективен при минимизации гладких функций и на функциях № 10-12 близок по эффективности квазиньютоновскому методу ББОБ [27].

3. Релаксационные субградиентные методы и, в частности, семейство алгоритмов АВЖМОМ(а, А), являются некоторым промежуточным звеном между полюсами, образованными методом МУ, эффективным на функциях, близких к кусочно-линейным функциям, и квазиньютоновскими методами, эффективными на функциях, близких к квадратичным функциям.

4. Релаксационные субградиентные методы АВЖМОМ(а, А), ^М(а), МРП и МШ применимы для решения невыпуклых задач оптимизации (функции № 10-11).

Таким образом, в работе предложена эффективная реализация алгоритмов однорангового семейства релаксационных субградиентных методов с растяжением пространства для решения задач негладкой безусловной оптимизации. Проведено численное исследование и сравнение алгоритмов семейства с известными методами и выделены области их эффективных приложений.

ЛИТЕРАТУРА:

1. Нестеров Ю.Е., Пурмаль Е.И. Анализ эффективности методов негладкой оптимизации. М.: ЦЭМИ АН СССР, 1984.

2. Нестерова С.И., Скоков В.А. Численный анализ программ негладкой безусловной оптимизации // Экономика и математические методы. l994. т.30. № 2.

3. Скоков В.А. Варианты метода уровней для минимизации негладких выпуклых функций и их численное исследование // Экономика и математические методы. 1997. т.33. № 1 .

4. Немировский А. С., Юдин Д. Б. Сложность задач и эффективность методов оптимизации. М. 1979.

5. Шор Н. З., Журбенко Ц. Г. Метод оптимизации, использующий операцию растяжения пространства в направлении разности двух последовательных гpaдиентов // Кибернетика. 1971. № 3.

6. Шор Н. З. Методы минимизации недифференцируемых функций и их приложения. Киев: Наукова думка, l979.

7. Щепакин М.Б. О методе ортогонального спуска//Кибернктика. 1987. № 1.

8. Скоков В.А., Щепакин М.Б. Численный анализ одного варианта метода ортогонального спуска // Кибернктика и системный анализ. 1994. № 2.

9. Lemarechal C, Nemirovski A.C., Nesterov Yu.E. New Variants of Bundle Methods // Match. Program. Ser. B. 1995. V.69.№ 1.

10. Гольштейн Е.Г., Немировский А.С., Нестеров Ю.Е. Метод уровней, его обобщения и приложения // Экономика и мат. методы. 1995.Е.31.№ 3.

11. Крутиков В.Н., Петрова Т.В. Релаксационный метод минимизации с растяжением пространства в направлении субградиента// Экономика и мат. методы. 2003. Т. 39, Вып. 1. С 106-119.

12. Демьянов В. Ф., Васильев Л.В. Недифференцируемая оптимизация. М.: Наука, 1981.

13. Wolfe P. Note on a method of conjugate subgradients for minimizing nondifferentiable functions // Math. Programming. 1974. v. 7. N 3.

14. Lemarechal C. An algorithm for minimizing convex functions // Proc. IFIP Congress-74. Amsterdam: North-Holland. 1974.

15. Lemarechal C. On extension of Davidon methods to nondifferentiable problems // Math. Programming Studi. Amsterdam:North-Hol-land.l975. № 3.

16. Крутиков В.Н Методы минимизации на основе частной модели субградиентных множеств//Методы оптимизации и их приложения/Труды 11-й международной Байкальской школы-семинара. Иркутск.1998.Том 1.

17. Крутиков В.Н. Новый релаксационный субградиентный метод с изменением метрики // Вестник КемГУ. Кемерово, 2001. Вып. 4. С. 16-22.

18. Крутиков В.Н., Петрова Т.В. Новый метод решения задач минимизации большой размерности// Вестник КемГУ. Кемерово, 2001. Вып. 4. С.65-71.

19. Крутиков В.Н., Петрова Т.В. Новый релаксационный метод недифференцируемой минимизации // Мат. заметки ЯГУ. 2001. Т.8, вып. 1. С. 50-60.

20. Крутиков В.Н., "Одноранговое семейство релаксационных субградиентных методов с растяжением пространства", Электронный журнал "Исследовано в России", 209, 24502459, 2003, http://zhurnal.ape.relarn.ru/articles/2003/209.pdf

21. Крутиков В.Н., Арышев Д.В., "Метод сопряженных субградиентов с растяжением пространства", Электронный журнал "Исследовано в России", 208, 2439-2449, 2003, http://zhurnal.ape.relarn.ru/articles/2003/208.pdf

22. Цыпкин Я. З. Основы теории обучающихся систем. М.: Наука, 1981.

23. Скоков В. А. Замечание к методам оптимизации, использующим операцию растяжения пространства // Кибернктика и системный анализ. 1974. № 4.

24. Банди Б. Методы оптимизации. Вводный курс. Пер. с англ. М: Радио и связь, 1968.

25. Lemarechal C. Numerical experiments in nonsmoth optimization // Progress in nondifferentiable optimization.// Ed. Nurminski. E. A. Luxenburg (Austria), 1982.

26. Поляк Б. Т. Введение в оптимизацию. М: Наука, 1983.

27. Brodlie K. An assement of two approaches to variable metric methods // Math. Program. 1972. V. 7. N 12.

28. Химмельблау Д. Прикладное нелинейное программирование. - М.: Мир, 1975.

i Надоели баннеры? Вы всегда можете отключить рекламу.