Серия «Математика»
2015. Т. 11. С. 54—68
Онлайн-доступ к журналу: http://isu.ru/izvestia
УДК 519.853.3
Применение модифицированного метода симплексных погружений для решения специального класса задач выпуклой недифференцируемой оптимизации *
А. В. Колосницын
Институт систем энергетики им. Л. А. Мелентьева СО РАН
Аннотация. Рассматривается модифицированный метод симплексных погружений, который относится к классу методов центрированных сечений. Особенностью метода является оценка скорости сходимости, которая зависит только от числа отсеченных вершин симплекса построенной секущей плоскостью. Чем больше вершин отсекает секущая плоскость, тем выше скорость сходимости метода. Модифицированный метод симплексных погружений, снабженный данным критерием выбора секущей плоскости, используется для решения специального класса задач выпуклой недифференцируемой оптимизации, который состоит из двух типов функций. Для возможности формировать секущую плоскость, отсекающую наибольшее число вершин симплекса, возникает необходимость в описании субдифференциала функции, зависящего от одного или нескольких параметров, по которым можно провести оптимизацию. С этой целью приводится описание субдифференциалов функций из введенного класса задач в параметрическом виде, что позволяет формировать вспомогательные минимаксные задачи для поиска результирующих секущих плоскостей, отсекающих наибольшее число вершин симплекса, и сокращает количество итераций метода симплексных погружений. Приводятся результаты численного эксперимента.
Ключевые слова: модифицированных метод симплексных погружений, субдифференциал выпуклой функции, результирующая секущая плоскость.
Для решения задач выпуклой недифференцируемой оптимизации нам доступен достаточно обширный арсенал различных методов, информацию о которых можно найти, например, в [3; 4; 5; 6; 7; 8; 9].
1. Введение
* Работа выполнена при частичной финансовой поддержке РФФИ, грант 15-0708986.
Исторически первыми можно выделить субградиентные методы, которые представляют собой прямой аналог градиентных методов с заменой градиента функции на произвольный субградиент. При этом не удается достичь монотонного убывания значений минимизируемой функции, однако важно, что убывает другая функция — расстояние до точки минимума. Еще одна особенность метода заключается в правиле выбора длины шага. Его нужно уменьшать, например, задавая априори стремящуюся к нулю последовательность. Главным достоинством таких методов можно считать их чрезвычайную простоту, если известен простой способ вычисления субградиента. Однако, на практике они чаще всего оказываются бесполезными, обладая низкой сублинейной скоростью сходимости и не имея достаточно надежного критерия остановки. Тем не менее субградиентные методы используются чаще всего тогда, когда достаточно найти очень грубое приближение к решению.
Возможность ввести разумное правило остановки дает группа методов кусочно-линейной аппроксимации. Их базовая идея заключается в использовании информации, накапливаемой по ходу итераций, для построения все более точной кусочно-линейной аппроксимации снизу целевой функции. К недостаткам данных методов можно отнести необходимость решать задачу линейного программирования, в которой с ростом числа итераций возрастает и число ограничений. Кроме того, за исключением некоторых классов задач, например, задач с острым минимумом (острый минимум здесь понимается в смысле определения, данного в [7], стр. 127), в общем случае методы кусочно-линейной аппроксимации могут сходиться очень медленно. Еще один существенный недостаток данных методов связан с их неустойчивостью, что выражается в хаотичном поведении последовательностей значений целевой функции (хк)} и последовательности приближений {хк}.
Эта проблема может быть решена в многошаговых методах с квадратичными подзадачами, которые основаны на методах кусочно-линейной аппроксимации и дополнены необходимым стабилизирующим механизмом. Стабилизация осуществляется за счет введения в модель квадратичного члена, который призван обеспечить близость получаемого решения хк+1 к предыдущему приближению, избегая чрезмерных скачков в последовательности {хк}. Не вдаваясь в излишние детали, отметим, что для некоторых важных классов негладких выпуклых функций в настоящее время вполне возможно получать сверхлинейно сходящиеся методы [3].
И, наконец, выделим еще одну группу методов, основанных на понятии «центра» допустимого множества. Суть методов так называемых центрированных сечений заключается в определении центра допустимого множества и последующем проведении через него отсекающей гиперплоскости, после чего часть множества, содержащая решение, вновь подвергается операции нахождения центра и проведения через него от-
сечения. Повторение таких шагов метода осуществляется до тех пор, пока мы не найдем решение с заданной точностью.
В [7] показано, что наиболее эффективным с точки зрения отсечения части множества, не содержащей решения, является метод центров тяжести, однако нахождение центра тяжести множества представляет собой весьма трудную задачу и зачастую не может быть реализовано. Поэтому задача поиска центра множества может быть сведена к нахождению центра более простых аппроксимирующих множеств. К наиболее важным методам таких типов относятся методы вписанных и описанных эллипсоидов, метод аналитического центра, метод объемного центра. Данные методы обладают полиномиальной вычислительной сложностью [5].
В данной статье предлагается модификация метода симплексных погружений, относящегося к классу методов центрированных сечений. Его главная особенность и исследовательский интерес автора связаны с полученной в [1] оценкой скорости сходимости, которая открывает достаточно богатый выбор для создания различных модификаций по ускорению работы метода. В статье рассматривается специальный класс задач, состоящий из комбинаций двух типов выпуклых недифференци-руемых функций, для которых приводится описание субдифференциалов в параметрическом виде. Показано, как с помощью вспомогательных минимаксных задач, основанных на параметрическом описании субдифференциалов, формируются результирующие секущие плоскости, отсекающие наибольшее число вершин симплекса, что позволяет ускорить поиск решения рассматриваемой задачи.
2. Постановка задачи и основные определения
Рассмотрим следующую задачу выпуклой оптимизации
fo(x) ^ min, ( )
fi(x) < 0,
где x € Rn, fi(x), i = l,...,m — выпуклые, не обязательно гладкие функции.
Основная идея метода симплексных погружений заключается в следующем. На k-м шаге допустимое множество решений поставленной задачи погружается в симплекс Sk. Находится центр данного симплекса xc'k, через который проводится отсекающая плоскость вида L = gT(x — xc,k) = 0. Затем часть симплекса, содержащая решение, погружается в новый симплекс минимального объема Sk+i. Повторяя такую процедуру, мы строим новые симплексы меньшего объема, последовательно локализуя решение, и останавливаемся, когда объем симплекса становится достаточно малым.
Введем ряд важных определений, которые нам необходимы для более детального изучения метода симплексных погружений.
Определение 1. Симплексом Б С Кп с вершиной в точке х° и ребрами (х °), образующими базис в Кп, называется
множество
Б = ^ х е Еп : х = х0 + ^ аг (хг - х°) , аг > 0, ^ аг < . К г=1 г=1 )
Определение 2. Центром симплекса Б называется точка хс, которая находится по следующей формуле
х
с11
(х1 + ... + хп) .
п + 1
Определение 3. Объем симплекса Б определяется формулой
V(Б) = —Л(Ы (X)| , п! 1 4/1
где X — матрица размеров п хп, столбцы которой есть суть векторы
х1 х2 хП
«А/ 2 ш ) ' ' ' ) ш '
Определение 4. Любую плоскость вида
Ь = {х : дТ (х - хс) = 0} ,
проходящую через центр хс симплекса Б будем называть секущей плоскостью.
Определение 5. Будем говорить, что вершина хг симплекса Б не отсекается плоскостью Ь, если
аг = дТ (хг - хс) < 0,
и отсекается, если
а> 0.
3. Построение симплекса минимального объема и оценка
скорости сходимости
Отметим несколько ключевых особенностей метода симплексных погружений. Важным принципом его работы является процедура погружения усеченного симплекса в новый симплекс минимального объема, что обеспечивает сходимость метода к решению задачи. Исчерпывающую информацию о построении симплекса минимального объема, содержащего заданный усеченный симплекс, можно найти в [1]. Мы же подробно остановимся на оценке скорости сходимости метода, которая также сформулирована в [1] в виде следующей теоремы.
Теорема. Пусть Б С Яп - есть п-мерный симплекс, хс - его центр, Бс = {х Е Б, дТ (х — хс) < 0} - усеченный симплекс. Симплекс Бс всегда можно погрузить в симплекс Б * такой, что для объемов V (Б) и V (Б *) симплексов Б и Б * будет выполняться неравенство
V (б *) {1 к = 1
4 = -уббг <{ (& Г (Ак = к< „., <31>
где к - число сохраненных при отсечении вершин симплекса.
Оценка скорости сходимости (3.1) зависит только от числа отсеченных вершин симплекса, причем, при отсечении п вершин симплекса мы получаем аналог метода дихотомии. На основе данной оценки была разработана модификация метода, представим ее подробное описание в следующей главе.
4. Модифицированный метод симплексных погружений
Сделаем небольшое замечание. В дальнейшем под базовым методом симплексных погружений будем понимать метод и соответствующий алгоритм, описанный в работе [1], не использующий формирование вспомогательных задач для построения результирующей секущей плоскости.
Идея модификации метода симплексных погружений, описанная в [2], заключается в учете сразу нескольких секущих плоскостей. Пусть центр симплекса, полученный на данной итерации, не является допустимым решением задачи (2.1) и в нем нарушаются I < т ограничений. Тогда можно построить I секущих плоскостей, соответствующих нарушаемым ограничениям с целью отсечь как можно больше вершин симплекса.
Сложность такого подхода заключается в том, что на данный момент нет метода построения симплекса минимального объема, содержащего усеченный симплекс, полученный в результате введения I секущих плоскостей (I > 2). Однако, следующие результаты из [2] дают нам возможность рассматривать линейную комбинацию из нормалей таких секущих плоскостей и получать одну результирующую секущую плоскость.
Предположим, что на г-й итерации метода сиплексных погружений можно провести I секущих плоскостей с нормалями аг,г = 1,...,1. Будем искать нормаль результирующей секущей плоскости Ь в виде линейной комбинации 1=1 \гаг нормалей аг. Тогда, если существует вектор
(4.1)
с
где хс - центр текущего симплекса а г - число отсеченных вершин, то отсекающее полупространство
отсекает то же число вершин, что и совокупность отсекающих полупространств.
Стоит отметить, что не всегда бывает возможно найти такой вектор Л, который являлся бы решением системы (4.1). Поэтому в общем случае для построения результирующей секущей плоскости формируется следующая минимаксная задача:
из решения которой и находится вектор Л. Данная техника построения результирующей секущей плоскости справедлива и в том случае, когда центр симплекса попадает в точку, где целевая функция или функция, задающая ограничение задачи (2.1), является недифферен-цируемой. Тогда при условии, что мы можем параметрически описать субдифференциал соответствующей функции в данной точке, у нас есть возможность с помощью постановки задачи (4.2) построить результирующую секущую плоскость, которая отсекает наибольшее число вершин симплекса.
Приведенная идея построения результирующей секущей плоскости является ключевым элементом исследования автора данной статьи и положена в основу модифицированного метода симплексных погружений. Следующая глава содержит описание класса задач выпуклой не-дифференцируемой оптимизации, для которого можно построить субдифференциал в параметрическом виде в заданной точке.
5. Описание класса задач выпуклой недифференцируемой
ьт(х - хс) < о, ь = ла
г=1
(4.2)
оптимизации
Рассмотрим два типа функций:
т
(5.1)
г=1
f II(x) = max {ai (ai)T x - bi} , (5.2)
1<i<m l J
где a e Rm, ai e Rn, i = 1,.., m, x e Rn, b e Rm.
Определим класс задач выпуклой недифференцируемой оптимизации, который описывается функциями вида (5.1), (5.2):
f m0 n0
Фо(x) = E fI(x) + E fII(x) ^ min,
i=1 i=1
mk nk (5 3)
Фк(x) = £ fli(x) + £ fll(x) < 0, k = 1,..., N, (5'3)
i=1 i=1
x e X,
где X — множество простой структуры.
Для возможности использовать модифицированный метод симплексных погружений при решении задачи вида (5.3) нам потребуется описание субдифференциалов функций (5.1) - (5.2). Напомним основные формулы для вычисления субдифференциала выпуклой функции [7]. Если fi(x), i = 1, ...,m - выпуклые функции и ai > 0, тогда
(m \ m
^ aifi(x) = ^ aidfi(x), ai > 0.
i=1 J i=1
Пусть f (x) = max fi(x), fi(x), i = 1,...,m - выпуклые функции,
1<i<m
тогда
df(x)= co I U dfi(x) [ie/(x)
q : q = ^ \iQi(x), gi(x) e dfi(x), Xi > 0, i e I(x), ^ Xi = 1 ie/(x) ie/(x)
I(x) = {i : fi(x) = f (x)} .
Отметим один важный принцип, которым мы будем руководствоваться при описании субдифференциалов функций (5.1) и (5.2). Класс задач выпуклой недифференцируемой оптимизации (5.3) описывается с помощью различных комбинаций функций, которые представляют собой модуль выпуклых функций и максимум из выпуклых функций. В качестве операций, производимых над данными функциями, используются их сложение и умножение на неотрицательные константы. Субдифференциал функции из такого класса укладывается в параметрическое описание путем его представления как выпуклой оболочки соответствующих субградиентов.
При вычислении субдифференциала функции f1 (х) в заданной точке X первым действием, очевидно, будет представление модуля выпуклой функции как максимума из двух выпуклых функций:
д(аг \(аг)тX — ЬА) =
. (5.4)
д (шах{ —аг ((аг)тX — Ьг) , аг ((аг)тX — Ьг)}) , г = 1,..., т.
Субдифференциал максимума выпуклых функций представляет собой выпуклую оболочку из объединения субдифференциалов активных функций:
д (шах {—аг ((аг)тX — Ьг) , аг ((аг)тX — Ь^) =
= co < У аи(аг), [J aa(ai) > , i = 1,...,m. (leLj(x) ¡еЩх) )
Как можно заметить, в последней записи используются объединения по множествам L1, L2, i = l,...,m. Это множества, которые либо пусты, либо состоят всего из одного элемента и показывают, какая из выпуклых функций определенного ранее максимума (5.4) из данных функций является активной. Определим структуру этих множеств:
Li(x) = 11 : mmfX ^^ (aTx — bj,)} = an (aTx — bi) = —ai (aTx — b^ | ,
Li (x) = 11 : max {ail (aTX — bj)} = ai2 (aTX — bi) = ai (aTX — bi,) | ,
i = l,..., m.
Следующим шагом в описании субдифференциала функции f1 (x) является переход от выпуклой оболочки из объединения субдифференциалов активных функций к всевозможным выпуклым комбинациям субградиентов из данных субдифференциалов:
co < У ац (ai), [J ац (ai)
[ieL}(x) leL? (x)
q : q = I — ki ai + ki ai ) ai, V ieLj(x) ieL?(x) J
ki > 0,1 e Lj(x)[j L2(x), Y^ Xn = 4 ,i = l,..., m.
ieLi(x) иLj(x) J
Чтобы иметь параметрическое представление субдифференциала функции f/(x), нам остается просуммировать по всем i = 1, ...,m полученные субдифференциалы модуля выпуклых функций:
df/(х) = д {YZi ai\(ai)T x — h\) =
= {q : q = EI=i (—Elebj(x) Xiiai + EieLf(x) Xiiai) a%,
(5.5)
Xii > 0,1 e L1(x)U Ll(x)^ieLi(x) иl2(X) Xn = 1 i = 1,..., m} .
Множество (5.5) определяет параметрическое описание субдифференциала функции f / (x).
Математические выкладки при описании субдифференциала функции f//(x) аналогичны тем, что мы использовали при описании субдифференциала функции f/(x) за исключением последней части. Вместо суммирования по всем i = 1, ...,m мы еще раз берем выпуклую оболочку субдифференциалов активных функций. Распишем все преобразования поэтапно:
df//(x) = д I max {ai \ (ai)Tx — bj} ) =
1 < i< m
= co ^ LJ д (max {—ai((ai)Tx — bi), ai((ai)Tx — b^}) [ie/(x)
= co < У co < у aHai, [J aHai
[ie/(x) [ieL}(x) ieLl(x)
Последовательно раскрывая выпуклые оболочки, получаем следующее множество:
{q : q = Eie/(x) V-i (— EleLj(x) Xiiai + E leLl(x) Xiiai) ai,
Hi > 0, Xii > 0, l e Ll(x) U L2(x ), (5.6)
Eie/(x) Vi = 1, EieL\(x)uL?(x) Xii = 1, i e
где множество I(x) = {i : ai \ (ai)Tx — bi\ = f//(x)} .
Множество (5.6) определяет субдифференциал функции f //(x).
МОДИФИЦИРОВАННЫЙ МЕТОД СИМПЛЕКСНЫХ ПОГРУЖЕНИЙ 63 6. Постановки минимаксных задач
Используя описание субдифференциалов функций f1 (X) и f11 (X), запишем минимаксные задачи для определения результирующей секущей плоскости в методе симплексных погружений. Для функции f1 (X) получаем:
min max w[ (X), (6.1)
где
wk (W) =
\ I<k<n+1
XM - Wiiai + ^ Xüai
¿=i \ lebj(x) ieb2(x)
T
k
vk — x
Wii > 0, l e Lj(x)U Lj(x), Y. Xii = 1>
lebj(x) и ь2(х)
vk - k-ая вершина симплекса.
Для функции f11 (X) минимаксная задача будет иметь следующий вид:
min max wIkI(X,ß), (6.2)
I<k<n+1
где
wk (W,ß) =
T
Y ^ I - Y Wiiai + Y Wiiai | a
yei(x) \ iebj(x) iebl (x)
ßi > 0, Xii > 0, l e Ll(x)[J Lj(x),
Y ßi = 1, Y Xii = !, i e I(x),
k
vk x
iei(x)
i£Lj(x) ULj(x)
ук - к-ая вершина симплекса.
В этом параграфе мы описали задачи построения результирующих секущих плоскостей, используя параметрическое описание субдифференциалов каждой из функций /1 (х) и /11 (х). Общий вывод результирующей секущей плоскости для функции из класса задач (5.3) не представляет труда с учетом приведенных ранее правил вычисления субдифференциалов суммы выпуклых функций, умноженных на неот-рицаетльные константы.
a
7. Алгоритм модифицированного метода симплексных
погружений
Используя возможность описания субдифференциалов функций, входящих в класс задач (5.3) и введение минимаксных задач для поиска секущей плоскости, отсекающей наибольшее число вершин, приведем алгоритм модифицированного метода симплексных погружений.
Алгоритм 1. Перед началом l-й итерации, l = 0,1,2,... задаются матрица X1 размеров (n + 1) х n, строка i которой соответствует i-й вершине симплекса Si, содержащего решение x* задачи (5.3); plmax -длина максимального ребра симплекса Si т. е.
Plmax = \\xl'1 — xl'3 1 i = j.
1<г<п, 1<]<п
При l = 0 полагаем фi = plmax =
На l-й итерации необходимо выполнить следующие действия. Шаг 1. Найти точку xc'1 - центр симплекса Si по формуле
Х ' = П + 1 (xi + .. + xn
где x\ есть i-я строка матрицы X1.
Шаг 2. Вычислить значение максимальной невязки ограничений
hi = Ж/Л0, Фк (xCl)} = фа И) ,
положить Ф1+1 = min {Ф1, hi}.
Шаг 3. Найти нормаль ai отсекающей плоскости по следующей формуле:
{дфо {xc'1) , если hi = 0, с п
дф3 \xc ) , если hi > 0,
При hi = 0 описать субдифференциал функции ф0(xc'1), используя алгоритмы построения субдифференциалов функций f1 (x) и f11 (x). Сформировать минимаксную задачу по формулам (6.1), (6.2) и определить нормаль результирующей секущей плоскости. Проделать аналогичные действия и при hi > 0 для функции ф3 (xc'1). Шаг 4. Построить усеченный симплекс
SlG = {x : x е Si, af (x — xc< 0} .
Шаг 5. Найти величины аг = af (x\ — xc'1) , i = 1, 2, ...,n + 1, определить индекс p из условия
ap = min ai.
l<i<n+l
Найти величины вг = —аг/ар, г = 1,2, ...,п.
Шаг 6. Найти параметр ^ £ [0,1], решив задачу одномерной выпуклой минимизации:
п
Як = шш П (1 + [5г1)-1. к 0«11 --г=1
Шаг 7. Найти вектор т1 = (т1, ...,т1р-1,т1р+1, ...,тП), задающий коэффициенты растяжения ребер симплекса Б[, исходящих из опорной вершины х1р: тI = (1 + вгЬг)-1.
Шаг 8. Перейти от симплекса Бг с матрицей X1 к симплексу £¿+1 с
матрицей
X l+h
+ ?! X - Xj , i = p, i = 1, 2, ...,n + 1,
Xi+1 i Xpj + Ti X — Xpj, 13 ' Xij, i = p, i = 1,2, ...,n.
Шаг 9. Если
о1 < e
r max — -1
тогда хс'1 - решение задачи (5.3) с заданной точностью е, в противном случае возвращаемся на шаг 1.
8. Численный эксперимент
Предварительное численное тестирование проводилось на задаче выпуклой безусловной минимизации вида
m
F(x) = ^ (аг \aT x — bi \ + Ti) ^ min, x E Rn
i=1
с известной заранее точкой минимума x*. Идея теста заключается в том, что мы изначально задаем точку x* E Rn, а векторы аг E Rn, аг, Ti, i = 1, ...,m генерируются случайным образом. Полагая вектор b = Ax*, получаем F(x*) = £m=i Ti. При этом для остальных точек F(x) > F(x*), поскольку к F(x*) добавляются неотрицательные в силу использования модуля слагаемые. В итоге получается кусочно-линейная выпуклая функция с минимумом в точке x*. Цель тестирования состояла в проверке того, насколько эффективным является использование вспомогательной минимаксной задачи.
Вычисления проводились в системе GAMS на компьютере с четы-рехядерным процессором Intel Core i7/2.3GHz, 8 Gb оперативной памяти. Результаты представлены в таблице 1, в которой приняты следующие обозначения: n — число переменных, m — число слагаемых в
целевой функции, кв — число итераций базового метода, Тв — время работы (в секундах) базового метода, км — число итераций модифицированного метода, Тм — время работы (в секундах) модифицированного метода, ктгптах — количество минимаксных задач, решенных в ходе работы модифицированного метода. В таблице приведены средние результаты по сериям из пяти задач для каждой размерности. Точность решения е принималось равной 10-5.
Таблица 1
Результаты численного эксперимента
п т кв Тв км Тм ктттах
5 120 152 2.128 144 2.328 4
10 300 345 4.830 330 6.258 21
20 700 1337 21.392 1298 35.240 216
30 1200 3729 182.732 3582 243.071 866
40 2200 7307 255.745 7169 594.683 2203
50 3000 11250 393.750 11032 815.798 3942
Из проведённого вычислительного эксперимента можно сделать следующие выводы. Для того, чтобы проявился эффект от решаемых минимаксных задач необходимо, чтобы число слагаемых т в целевой функции (или другими словами число линейных кусков целевой функции) существенно превышало число переменных. Чем больше т, тем чаще появляется возможность использовать неоднозначность субградиента. Время работы и базового, и модифицированного методов вполне приемлемо для задач недифференцируемой оптимизации. То, что из-за решения вспомогательных минимаксных задач время работы модифицированного метода превышает время работы базового не должно вводить в заблуждение. Главной целью предлагаемой методики является сокращение количества итераций, что и было достигнуто. Во многих неявных задачах выпуклой недифференцируемой оптимизации (например, при декомпозиции задач линейного или выпуклого пограммирования большой размерности) время вычисления значения целевой функции значительно может превышать время решения вспомогательной минимаксной задачи. Адаптация и тестирование модифицированного метода симплексных погружений на неявных задачах выпуклого программирования — цель дальнейших исследований.
Подводя итог, следует отметить, что в данной статье приведено параметрическое описание субдифференциалов выпуклых недифферен-цируемых функций специального вида и проведено численное тестирование модифицированного метода симплексных погружений, характеризующее эффективность модификации.
МОДИФИЦИРОВАННЫЙ МЕТОД СИМПЛЕКСНЫХ ПОГРУЖЕНИЙ 67 Список литературы
1. Анциферов Е. Г. Алгоритм симплексных погружений в выпуклом программировании / Е. Г. Анциферов, В. П. Булатов // Журн. вычисл. математики и мат. физики. - 1987. - Т. 27, № 3. - С. 377-384.
2. Апекина Е. В. Модифицированный метод симплексных погружений с одновременным введением нескольких секущих плоскостей, / Е. В. Апекина, О. В. Хамисов // Изв. вузов. Математика. - 1997. - № 3. - С. 16-24.
3. Измаилов А. Ф. Численные методы оптимизации : учеб. пособие / А. Ф. Измаилов, М. В. Солодов. - М. : Физматлит, 2005. — 304 с.
4. Мину М. Математическое программирование. Теория и алгоритмы / М. Мину. - М. : Наука, 1990. - 488 с.
5. Нестеров Ю. Е. Введение в выпуклую оптимизацию / Ю. Е. Нестеров. - М. : МЦНМО, 2010. - 280 с.
6. Нурминский Е.А. Численные методы выпуклой оптимизации / Е. А. Нурмин-ский. - М. Наука, 1991. - 168 с.
7. Поляк Б. Т. Введение в оптимизацию / Б. Т. Поляк. - М. : Наука, 1983. - 384 с.
8. Шор Н. З. Методы минимизации недифференцируемых функций и их приложения / Н. З. Шор. - Киев : Наук думка, 1979. - 200 с.
9. Numerical Optimization. Theoretical and Practical Aspects. Second edition / J. F. Bonnans, J. C. Gilbert, C. Lemarechal, C. A. Sagastizaabal. - Berlin : SpringerVerl., 2006. - 494 p.
Колосницын Антон Васильевич, Институт систем энергетики им. Л. А. Мелентьева СО РАН, 664033, Иркутск, ул. Лермонтова, 130 (e-mail: [email protected])
A. V. Kolosnitcyn
Using of Modified Simplex Imbeddings Method for Solving Special Class of Convex Non-Differentiable Optimization Problems
Abstract. In this paper it is considered the modified simplex imbeddings method, which is related to the class of cutting plane methods. The main feature of this method is the convergence estimation, which depends only on the quantity of simplex vertices, that are cut off by the cutting plane. The more vertices are cut off by the cutting plane, the higher speed of method convergence. Modified method of simplex imbeddings with such criteria of cutting plane choosing is applied to solving special class of convex non-differentiable problems, which is consists of two types of functions. We come across the necessity to describe the function subdifferential that is depends on one or several parameters, that we can subject to optimization. It is described functions subdifferentials from the introduced class in parametric representation, that let us form auxiliary problems in simplex imbeddings method for searching resulting cutting planes, that cut off as much vertices of simplex as possible. It let us increase the speed of finding optimal solution. The results of numerical experiment are also given in this paper.
Keywords: modified simplex imbeddings method, subdifferential of convex functions, resulting cutting plane.
References
1. Antsiferov E.G., Bulatov V.P. An algorithm of simplex imbeddings in convex programming (in Russian). Zh. vychisl. Mat. mat. Fiz., 1987, vol. 27, no 3, pp. 377-384.
2. Apekina E.V., Khamisov, O.V. A modified simplex immersions method with simultaneous introduction of several intersecting planes (in Russian). Izv. Vysh. Uchebn Zaved., Mat., 1997, no 12, pp. 16-24.
3. Izmailov A.F., Solodov M.V. Numerical optimization methods (in Russian). Moscow, Fizmatlit, 2005. 304 p.
4. Minu M. Mathematical programming. Theory and algorithms (in Russian). Moscow, Nauka, 1990. 488 p.
5. Nesterov Yu.E. Convex optimization methods (in Russian). Moscow, MTSNMO, 2010. 280 p.
6. Nurminski E.A. Numerical methods of convex optimization (in Russian). Moscow, Nauka, 1991. 168 p.
7. Polyak B.T. Introduction to optimization (in Russian). Moscow, Nauka, 1983. 384 p.
8. Shor N.Z. Methods of minimization of non-differentiable functions and their applications (in Russian). Kiev, Nauk. dumka, 1979. 200 p.
9. Bonnans J.F., Gilbert J.C., Lemarechal C., Sagastizaabal C.A. Numerical Optimization. Theoretical and Practical Aspects. Second edition. Berlin : SpringerVerl., 2006. P. 494.
Kolosnitcyn Anton Vasilievich, Melentiev Energy Systems Institute SB RAS, 130, Lermontov st., Irkutsk, 664033 (e-mail: [email protected])