УДК 519.6
П. А. Бирюкова,
Московский физико-технический институт (государственный университет)
Параметрическая форма необходимых условий оптимальности для гладкой задачи математического
программирования
Статья посвящена вопросам построения модификаций необходимых условий экстремума, зависящих от параметра, для гладких задач математического программирования. Основой для построения указанных модификаций являются необходимые условия экстремума для гладких штрафных функций (ШФ). Главным элементом в методике построения необходимых условий является замена ограничений-неравенств на ограничения-равенства путем введения невязки, зависящей от параметра. Показано, что предельные значения решений задачи, зависящих от параметра, являются решением исходной задачи. Предложены схемы решения задач математического программирования на основе построенных модификаций необходимых условий экстремума.
Ключевые слова: необходимые условия экстремума, задача математического программирования, штрафные функции, коэффициент штрафа, Д-преобразование, условие дополняющей нежесткости, внешние штрафные функции, внутренние штрафные функции
P.A. Biryukova
Moscow Institute of Physics and Technology (State University)
Parametric form of the necessary conditions for a smooth mathematic programming problem
This paper is devoted to the construction of modifications of the necessary conditions for an extremum depending on a parameter for smooth problems of mathematical programming. The basis for constructing these modifications is the necessary conditions for the extremum of smooth penalty functions. The main element in the procedure for constructing the necessary-conditions is to replace bounds-inequalities by bounds-equalities (introducing a residual that depends on the parameter). It is shown that the limiting values of solutions of a problem are a solution of the original problem. Also, the schemes for solving mathematical programming problems are presented.
Key words: necessary conditions for the extremum, mathematical programming problem, penalty functions, penalty coefficient, ^-transformation, the condition of complementary non-rigidity, external penalty functions, internal penalty functions.
1. Введение
В работе рассматриваются необходимые условия оптимальности (НУО) для гладкой экстремальной задачи вида:
© Бирюкова П. А., 2018
(с) Федеральное государственное автономное образовательное учреждение высшего образования «Московский физико-технический институт (государственный университет)», 2018
найти
f (x*) = min f (x), x £ G, (1)
где G = {x £ Rra : <ßi(x) ^ 0, i = l,m; hj(x) = 0, j = 1, l}.
Предполагается, что решение задачи (1), точка x* £ G, существует, а функции f, pi, hj -достаточно гладкие: порядок их дифференцируемости будет указан ниже. Формулировки необходимых условий оптимальности задачи (1) зависят от формы представления ее функции Лагранжа [1].
Пусть функция Лагранжа задачи (1) имеет вид
m l
L(x, X,ß) = Xof (x) + ^Wi(x) + Mhj(x), (2)
i=1 j=1
где Хг ^ 0, г = 0, т.
Теорема 1 (из [1]). Пусть в задаче (1) функции / и г = 1,т дифференцируемы в точке х* £ С, функции , ] = 1,1 непрерывно дифференцируемы в некоторой окрест,ноет,и точки х*. Если х*-локальное решение задачи (1), то существуют числа, /*, ] = 1,1 и Х* ^ 0, г = 0,т, не равные нулю одновременно, т,акие, что
УхЬ(х*,Х*,/*) = 0, (3)
Х* ^ 0; Х* ^ 0, Х*фг(х*) = 0, г = 1т Щ(х*) = 0,з = 1,1.
Точка (х*, Х*,/*) называется стационарной точкой задачи (1). В регулярном случае, который будет рассматриваться далее, Хо = 1.
Система (3) представляет собой необходимое условие оптимальности для задачи (1). В этой системе п + т +1 условий типа равенства и п + т +1 + 1-независимых переменных, т
нежест,кости (УДН). НУО (3) - классический результат в теории методов оптимизации, они имеют большое как теоретическое, так и практическое значения. Например, если задача (1) выпуклая, то решение системы (3) является ее решением; если же задача (1) невыпуклая, то после нахождения стационарной точки (х*, Х*,/*) надо проверить, является ли она ее решением, для чего следует применить какое-нибудь достаточное условие оптимальности.
Известны различные методы решения системы (3) [2], [6]. Как отмечается в [2], прямое решение этой системы как гладкой задачи недостаточно эффективно, поэтому вводятся негладкие переформулировки системы (3), которые также не всегда эффективны. Сложность решения системы определяется в первую очередь наличием УДН. Поэтому, желательно так переформулировать систему (3), чтобы устранить из нее УДН для ограничений-неравенств. В теории и практике решения задач математического программирования (МП) известны способы преобразования ограничений вида фг(х) ^ 0 к виду ф(х,у) = фг(х) + у2 = 0, г = 1,т, и тогда задача (1) превращается в задачу с ограничениями-равенствами, для которой система (3) уже не содержит УДН [2]. На практике этот прием используется не часто, т.к. увеличивается размерность задачи.
В настоящей работе предлагается метод преобразования системы (3) к виду, в котором отсутствуют УДН, основой чего являются НУО в методе гладких штрафных функций.
2. Метод штрафных функций
Приведем краткие сведения о методе ШФ, необходимые для построения НУО задачи (1).
Если решать задачу (1) методом гладких штрафных функций, то условие стационарности в нем представляет собой систему только п уравнений, при этом решение х*(т) этой
системы будет приближением к х*, зависящим от коэффициента штрафа т[3]. Точное решение задачи (1)
где
х* = lim x*(t), т = 0, (4)
т
х*(т) = arg min F(х,т), (5)
F(х,т) = f (х) + ^ Р1(г,рг(х)) + ^ Р2{т,Н](х)), х е Мга
г=1 з=1
Р\(т, ^г(х)),Р2(т, Н](х)) - функции штрафа, т > 0 - коэффициенты штрафа, которые для функций Р1 ,Р2 можно брать различными: т1 > 0, т2 > 0. Для упрощения изложения примем: т1 = т2 = т. Конечно, равенства (4), (5) имеют место только при определенных условиях, накладываемых на функции f, ф, Н, Р1, Р2 [1], [3].
Известен недостаток метода ШФ, заключающийся в том, что при т — 0 функция F(х,т) становится плохо обусловленной [1, 3], и известные методы решения задачи (5) становятся неустойчивыми, малоэффективными, т.е. время решения таких задач увеличивается по сравнению с хорошо обусловленными задачами.
Однако на основе метода гладких ШФ можно модифицировать необходимые условия оптимальности (3), которые можно также интерпретировать как модификацию условий оптимальности для задачи (5).
Функция штрафа Р2(т,Н](х)) является внешней штрафной функцией, а функции Р1(т,фг(х)) могут быть как внешними, так и внутренними ШФ.
Укажем требования, которым должны удовлетворять внешние и внутренние ШФ [4].
Для внешних ШФ:
Р(х, ти) = 0 или Р(х, ти) — 0 при х е О и ти — 0;
P(х, Tk) > 0 при х / G;
(6)
P(x,Tk+i) > P(x,Tk) при х /G;
Р(х, ти) — го при ти — 0, к — го, х е О.
О
Н] (х) = 0,] = 1,1 и предполагается, что
int G = 0
и
0 < P(х, Tk) < P(х, Tk-i) Vx е int G, к = 1, 2,... ; (7)
P(х, Tk) — 0, к — жУх е int G;
P(xk,Tk) — ж, к — ж, p(xk,dG) — 0,
где dG - граница множества G, а p(xk, dG) - расстояние от х^ до dG. Приведем примеры штрафных функций для решения задачи (5).
Для ограничений-равенств будем применять степенную функцию: P(T,hj(х)) = 1 (hj(x))ß, где ß = 2,4,6,.... Эта функция является внешней ШФ. Наиболее часто применяется квадратичная ШФ, т.е. при ß = 2.
Для ограничений-неравенств можно применять как внешние, так и внутренние ШФ.
Рассмотрим вначале внешние ШФ. Степенная ШФ вида P(т,р(x)) = 1 (max(0,pi(x))ß, ß = 2,3,4... широко применяется на практике. При ß = 2 она непрерывно дифференцируема. Для повышения порядка ее дифференцируемо-сти надо увеличивать степень ß, т.е. ß = 3, 4 и т.д.
¥i(x)
Более удобны показательные ШФ: P(r,pi(x)) = та т при а > 1, в частности экспо-
¥i (x)
ненциальная ШФ: P(т,р>%(x)) = те т - они бесконечно дифференцируемы по рi.
В качестве внутренних можно применять традиционные ШФ вида
т
P(т, ißi(x)) = -т ln(-pi(x)) и P(т; Pi(x)) =--(—, x е int G.
Сформулируем теорему о сходимости метода ШФ для комбинированного случая, когда функции Pi(т, Pi(x)) могут быть как внутренними, так и внешними ШФ [4].
Введем множество Mi = {x е Мга : pia(x) ^ 0, ia е [1,m], 0 ^ а ^ а ^ m}; к ограничениям в этом множестве применяется метод внутренних ШФ. Множество M2 = {x е Мга : pia(x) ^ 0, ia е [1,m], а < а ^ m, hj(x) = 0, j = 1,1}. К ограничениям во множестве M2 применяется метод внешних ШФ. Очевидно, что Mi Р| M2 = G. Пусть множество B£(xo) = {x е Rra : \\x — xo^ < e} — окрестность точки xo. Теорема 2 (из [4]). Пусть x0 е G, Gi = {x е G : f (x) ^ f (x0)} - компакт; функции f, , i = 1,m, hj,j = 1,l - непрерывно дифференцируемы; существует x* - решение зада,ни (1); для некоторого e > 0 задана, окрестность Bs(x*) и выполнено условие Bs(x*^ M2 P| int Mi = 0. Пусть также выполнены условия (7) и (6) для множеств Mi и M2. Тогда существует последовательность xk = arg min F (x,^k), k = 0,1,2,..., 0 < тк+1 < тк, такая, что при
lim тк = 0, k ^<х>, x* = lim xk, k ^ж.
Теорема 2 является адаптацией к задаче 1, частным случаем более общей теоре-
Gi
G2 = {x е Rn,x0 е G : F(x0,тk) ^ F(x,тк)} - компакт. Замечание
))
2 можно исключить условие Be(x*)f^\ M2 П int Mi = 0, при этом множество Mi = Rn.
Mi M2
чи (1) методами внутренних и внешних ШФ.
3. О модификациях НУ О задачи (1)
Рассмотрим НУО для задачи (5), т.е. запишем уравнение VxF(x, т) = 0 в компонентном виде:
dF(x, т) df(x) i ^ dPi^,^) dpi(x) i ^ dP2(т, hj) dhj(x) n ^
dh
j=i
_=__dPi(i,^i) dpi(x) + y^ dP2(i,hj) dhj(x) =0 t = Yn (8)
dxt dxt ^ dpi dxt ^ dhj dxt ' ' '
i=i j=i J
Из теории методов ШФ fl], [4], [5] известно, что
дР1(тк,pi) = = lim др(Tk,hj) = u* j =~i m
дрг =Ai, =1,m; k^ dhj =ßj,j =1,1 { '
где \*,ß**- множители Лагранжа в системе условий (3). Исходя из (9), обозначим
ЦГ^-- *; i = im; dPj = j; j = U (Ю)
к
Определение
^-преобразованием штрафных функций Р1(т,фг), г = 1,т; Р2(т,Н]), ] = 1,1, называются Р-функции К1 (т,\г), г = 1,т; Я2(т, ), ] = 1,1, такие, что
^i(x) = Ri(т, Ai), i = 1, m; hj(x) = R2(r, щ), j = 1, l, (11)
и равенства (11) равносильны равенствам (10). По сравнению с (10) индексы k в (11) опущены.
Представление (11) возможно, если для dPlJ(¡^^, dP2Qh'hj] существуют обратные функции. Отметим, что для внутренних и внешних ШФ, указанных выше, обратные для их производных существуют.
Замечание
R
гл. «невязка, остаток, погрешность вычислений»). Именно такой смысл имеют функции Ri(r,Ai), R2(r,jj) в уравнениях (11).
Модификация НУО (8) состоит в следующем:
1) Из m + l производи ых dPlgT^ , dP2Qh'hj ] возьмем любое их число g ^ m + l и заменим
их значения в (8) на множители Ak, щк в соответствии с (10).
g
ным производным штрафных функций. В результате получим систему из n + g уравнений.
Максимальное число уравнений полученной системы, очевидно, равно n + m + l. Запишем эту систему:
df (x] А.&Мх! iST1 dhj(x] = 0 t = 1~П
dxt + 2^i=i Ai dxt + 2^j=i ji dxt = 0, L = 1,n,
_ _ (12)
^i(x) = Ri(r, Ai), i = 1, m; hj(x) = R2(r, щ), j = 1, l.
Напомним, что в системе (12) r > 0.
Система (12) отличается от (3) тем, что в ней вместо УДН для ограничений ^i(x) ^ 0 и уравнений hj (x) = 0 введены соответствующие уравнения со значениями невязок Ri(r,Ai), R2(r,jj). Заметим, что множители Лагранжа в (3)Ai ^ 0, i = 1,m, и в (10)
dP<dtpPÍ ^ 0, i = 1,m. Таким свойством обладают все штрафные функции для ограничений-неравенств. Поэтому в системе (12) неравенства Ai ^ 0, i = 1,m, в отличие от системы (3),
можно опустить.
о " « dPiÍTMi] dP2(r,hj)
В силу произвольности выбора производных —iJ, —Qh. и их последующего преобразования максимальное число построенных эквивалентных (8) систем равно (включая систему (8)) 2m+l, поэтому укажем только некоторые частные варианты модификаций условий (8). Рассмотрим случай, когда одновременно преобразуются одна или две из двух групп ограничений ^i(x) ^ 0, hj(x) = 0. Таких вариантов (включая систему (8)) будет 22 = 4. Приведем один пример, когда преобразуются ограничения ^i(x) ^ 0, i = 1,m.
df(x] . улm A dy>i(x] . улl др2(т,hj] dh,j(x] =0 , = j— dxt + ^i=i Ai dxt + ^j=i dhj dxt = 0, L = 1, n,
^i(x) = Ri(r, Ai), i = 1, m. Система (13) состоит из n + m уравнений.
Укажем еще один случай задачи, часто встречающейся на практике. Пусть задача (1) представлена в виде найти
min f (x), x e Rra, (14)
<^г(х) ^ 0, г = 1,т; (х) = 0, ] = 1,1, хг ^ 0, 0 ^ t ^ 8 ^ п.
Если 8 = 0, ограничения хг ^ 0 отсутствуют.
Тогда функция Е(х, т) из (5) и уравнение (8) имеют вид
т I в в
Е(х, т) = /(х) + ^ Рг(т, &(х)) + ^ Р2(т, Н(х)) + ^ Р3(т, -хг) = А(х, т) + ^ Рз(т, —хг),
г=1 3=1 г=1 г=1
_ (15)
где Рз(т, — хг) - внутренняя или внешняя ШФ для о граничений —хг ^ 0, t = 1,8. дЕ(х,т) дА(х,т) дРз(т, —хг) п
dxt dxt dx
dF(х,т) _ dA(x, t) dxt dxt
_0, t _ s + l,n. (16)
Если для системы (16) применять ^-преобразование, то максимальное число ее модификаций равно 2т+1+в.
Обозначим = Щ, t = 1, 8. Если применять ^-преобразование к трем группам
штрафных функций дР1оТр\^ , дР2оиН:> ^, дРд(—' х-)^ , т0 П0ЛУЧ им 23 = 8 модификаций системы (14). Например, если применять Д-преобразование к дР'д^р'.^ и дР2дн'Н^^, т0 П0ЛУЧИМ
систему:
m
df + m х d<pi(T,x) + sp dhi(T,x) _ дРз(т, -xt) t _ —
dxt ^ i dxt ^dxt dxt , ,S,
i=i ]=i
df d<pi(T,xt) dhi(T,xt) ———
dxt + £+ £_0,t_s + 1n (17)
i=1 3 = 1
Pi(x) = Ri(t, Xi), i = 1, m; hj(x) = R2(t, щ), j = 1, l,
в которой n + m + l уравнений.
Рассматривая снова систему (8) для задачи (1), заметим, что общее число ее модификаций равно 2m+l. При идеальной арифметике, т.е. когда все вычисления проводятся точно, все системы эквивалентны, т.е. значения xk, t = 1,n, Xk, i = 1,m для всех систем совпадают. Однако вычисления с действительными числами на практике проводятся с ограниченной точностью, зависящей от длины мантиссы чисел, определенной в программном обеспечении ЭВМ. Поэтому можно считать, что погрешности решений различных модификаций системы (8) не совпадают. Выбор конкретной модификации системы зависит от структуры решаемой задачи и не всегда очевиден. Отметим также, что анализ погрешностей решений - отдельная сложная проблема.
Замечание
Преобразование производной штрафной функции dP<(~v было предложено в работе [5]. Оно использовалось для решения задачи вида
max f (x),
x e мга, ^i(x) < 0, i _ 1, m; xj ^ 0,j _ 1,n, (18)
и имеет другую схему для построения системы уравнений, решающей задачу (18). Метод построения указанной системы назван в [5] «методом обратных связей».
Приведем конкретный вид К(т, а), где а = Хг, г = а = , ] = 1,1, для
указанных выше штрафных функций.
'Ф(х)
1) Для ограничения ф(х) ^ 0 внешняя показательная ШФ Р(т,х) = та т , где а > 1, т > 0, Х - соответствующий ограничению множитель Лагранжа. Тогда
дР(т,х) ' т ( Х
= т а ■ а т , К(т, Х) = -— ■ 1п -—
дф 1п а \1п а
'(х) др(т X '(х)
Если а = е, т.е. Р(т, х) = те, то —дфЩ = еи Я(т, Х) = т 1п Х.
Пусть Р (т,х) = 1 (ф+(х))в ,в = 2,3,4,... - степенная ШФ. Для нее
1
дРдфх) = т (ф+(х))в-1, где ф+(х) = тах(0,ф(х)), ф+(х) = в 1 и Ф+(х)в-1 = в при Х ^ 0. При в = 2 ф+(Е) = Т^. Тогда обратиая к дРдТ/'Щ будет функция
2 ■ -LKji^a. иирошси JX дф
c ^ 0, Л = 0,
Л > 0.
r(t^) = { гтх\ ^
ß
Так как по определению Л ^ 0, то будем считать R(t, Л) = l^ß^j в 1 , Л ^ 0. Отличие ШФ
Р(т,ф) = 1 аТи Р(т,ф) = 1 (ф+(х))в заключается в том, что в первой Р(т,ф) > 0 при ф(х) ^ 0, а во второй Р(т,ф) = 0 при ф(х) ^ 0. Это необходимо учитывать при решении систем (12), (22).
Рассмотрим внутренние ШФ. Пусть Р(т,х) = -т 1п(-ф(х)). Тогда дРдфХ = -фЩ и Е(т,Х) = -^, Х> 0.
Если Р (т,х) = - фЩ, то = ф?, Я(т,Х) = ,Х> 0.
2) Для ограничения Н(х) = 0 Р(т,х) = 1 Нв(х), в = 2,4,6,... дРд^Н"> = ТНв-1 и
Я(т,/) = ^ , а когда в = 2, Я(т,/) =
В работе [5] рассматривались функции К(т, Х), которые обозначались Q(т,Х) для экспоненциальной, логарифмической, обратной, а также и для других ШФ.
Рассмотрим теперь другой вариант НУО для задачи (1), в котором присутствуют только функции-невязки К(т, Хг) = ^(т, Хг), г = 1, т, функции Я2(т, ), ] = 1,1, отсутствуют.
Представим ее в виде: найти
min f (х),х е M, pi(x) ^ 0, i = 1,m, (19)
где M = {х е Rra : hj(х) = 0, j = 1, l}.
Представим вспомогательную функцию F(х,т) = f (х) + Y1P(T,Vi(x)), х е M, и метод ШФ для задачи (19): найти
minF(х,т), х е M. (20)
Выпишем для задачи (20) НУО в форме Лагранжа:
df (х) | m dP(T Vi) d<Pi(t) | ., dhj(x) =0 t = !—
dxt + ^ dVi ' dxt + ^N dxt =ö,t = 1,n { '
i=i j=i
hj(x) = 0, j = 1,l.
Если теперь провести ^-преобразование для дР((г'), г = 1,т, то из системы (21) полу-
дщ
чим равносильную ей систему:
= Щ + У Хг + У ^ д_щ (22)
дхг дхг дхг дхг
г=1 ]=1
<г(х) = Я(г,\г), г = 1,Ш, к(х) = 0,] = 1,1.
Система (22) отличается от системы (12) тем, что в (22) отсутствуют невязки К(т,лг). Первые п уравнений в (22) представляют собой производную функции Лагранжа Т(х, X, л) по Хг, ' = 1, п. Если применить НУО (21)для задачи (14), то возможное равносильное (21) условие будет иметь вид, отличный от (17):
д/(х) + У х д<г(т,х) ^у*- дкз(т,х) = дР(т, -Хг) ^ = — дхг ^ г д<г дН^ дхг , ,8,
г=1 ] = 1
дХХ + ^^ ±^ = 0-'=^ т
г=1 j=l -1
<г(х) = Я(т,Хг), г = 1,т, к(х) = 0,] = 1,1.
Замечание
1) Отметим, что теорема 2 также справедлива и для задачи (20). В этом случае в условие теоремы 2 вместо компакта С\ надо поставить компакт Сз = С\ Р| М.
2) Система (22) является результатом ^-преобразования всех т производных дР<д(р, г = 1,т. В общем случае из системы (21) можно получить 2т систем уравнений, равносильных системе (21).
Рассмотрим теперь некоторые свойства систем (12) и (22). Матрица Якоби для системы (12) по переменным х, X, л имеет вид
3(х, X, ¡л) =
Т"
ТХХ
(х, х,л) (й)т (д£)т
дх ОН дх
дх дЯ(т, X) д\ 0
0
дЯ(т,у) ду
(24)
где (т хп) матрица дХ и (I хп) матрица ^х ~ матрицы Якоби систем функций <г, г = 1,т, и hj, ] = 1,1; Т'ХсХ(х, X, л) — п х п матрица вторых производных функции Лагранжа задачи (1);
дЯ(т,Х) , \ ' дЯ(тХ) ■ 1-
—дХ — (т х т) диагональная матрица с диагональными элементами —дх. , г = 1,т; дЯ<(УууУ — (I х I) диагональная матрица с диагональными элементами дЯ<о~у ^), ] = 1,1.
Матрица 3(х, X, л) для системы (22) отличается только тем, что в ней матрица дЯ(т, у) = о
ду .
Отметим, что в системах (12) и (22) матрицы Ь'ХсХ(х, X, л) не зависят от коэффициента
штрафа т, в то время как матрицы ¥ХХ(х,т) для задач (5) и (20) зависят, причем для этих
задач число обусловленности 7 матрицы Р'ХХ(х,т) 7 ^ го при т ^ 0 [1, 4], в результате
чего методы ШФ решения задачи (1) становятся неустойчивыми. Вопрос обусловленности
матрицы 3(х, X, л) для систем (12) и (22) в зависимости от т определяется видом ШФ и
требует дополнительного исследования. В частности, если элементы диагональной матри-
дЯ(г,Х) дЯ(т,у) „ п
Цы —дх и —ду окажутся ограниченны ми при т ^ 0, то можно ожидать, что число
обусловленности 7 матрицы 3(х, X, л) будет ограниченным, и методы решения систем (12)
и (22) будут устойчивыми.
Отметим также, что от числа т в (22) зависят невязки R(r,Xi), т.е. Pi(x(r)) = R(r,Xi(r)), i = 1,m, причем решение задачи (1) является предельным значением для x(r) и Х(т) при т — 0, т.е. x* = x(0), X* = Х(0) и будет иметь место УДИ:
Xi(0)^i(x*) = о, Xi(0) ^ о, i = 1m
4. Схемы решений задачи (1)
Рассмотренные выше модификации НУ оптимальности могут быть использованы для построения различных схем решения задачи (1) . Так как модификаций НУ оптимальности много, то ограничимся рассмотрением только комбинаций систем (8) (метод ШФ) и (22). Напомним некоторые свойства метода ШФ и систем нелинейных уравнений (СНУ) (22). Метод ШФ обладает хорошей сходимостью на начальных итерациях и его сходимость ухудшается при уменьшении коэффициента штрафа тна конечных итерациях [4], [7].
Для методов решения СНУ необходимо хорошее начальное приближение к решению, т.е. знание такой начальной точки, из которой метод будет сходиться [2]. Кроме того, как
показывает практика, увеличение коэффициента штрафа т(КШ) расширяет окрестность x* ,
Используя указанные свойства, можно предложить схему решения задачи (1) как комбинацию методов ШФ и методов решения СНУ.
Схема 1. Для решения задачи (1) построим вспомогательную функцию F(x,r) (5) и решим некоторым методом последовательность а задач БМ: min F(x,r), x Е Rn при ri > т2 > ... > ra. Считая, что точка x(ra) - решение задачи БМ при т = та находится в области сходимости методов решения системы (22), решаем СНУ (22) для последовательности коэффициентов штрафа та+1 > та+2 > ... > rend, где rend - значение КШ, при котором полагаем, что решение СНУ обладает достаточной точностью.
Схема 2. В этой схеме используются только методы решения СНУ (22). Считая, что при достаточно большом КШ ri начальная точка xo находится в области сходимости методов решения СНУ, решаем последовательность СНУ (22) при ri > т2 > ... > rend.
Указанные схемы решения задачи (1) являются примерами из многих возможных схем, построенных на основе модификаций НУО, рассмотренных выше.
x*
чи (1).
x*
hj (x) = 0, j = 1,1, и некоторым набором J (x*) = {is [1,m] : фi (x*) = 0} активных
ограничений фi(x*) =0, i Е [1,m]. Если бы набор активных ограничений был известен, то x*
ма в общем случае состоит в том, что набор активных ограничений фi(x*) = 0, i Е [1,m]
x*
1) Используя вышеизложенную схему 1 или схему 2, находим приближенные к x* ,Х* значения x, X.
2) Рассматривая малые (на наш взгляд) значения Xi > 0, полагаем, что ограничение
(x) не будет активным. Удалив из списка ограничений ф^) ^ 0, i = 1,m, неактивные ограничения, для которых считаем X* = 0, построим новую задачу (1), в которой будут только активные ограничения (по нашей гипотезе), и решим снова задачу по схеме 2, где начальной точкой будут x и Xi, & Xi по гипотезе соответствуют активным ограничениям.
Если новое найденное приближение к решению мало отличается от x ш X, то можно считать, что x и X - хорошее приближение к x* и X*. Если указанное отклонение не мало, то необходимо рассматривать другой набор активных ограничений.
Заключение
Отметим основные результаты, полученные в статье:
- Для задачи МП рассмотрены два варианта метода штрафных функций (5) и (20).
- Используя ^-преобразование (11), на основе НУО для метода ШФ (8) и (21) построены варианты параметрических условий оптимальности для задачи (1). Показано, что для (1) имеет место многовариантность равносильных параметрических НУО.
- Показано, что матрица Якоби (24) слабо зависит от коэффициента штрафа т, т.е. если число обусловленности для многих модификаций НУО окажется ограниченным, то численные методы решения систем (12), (22) будут более устойчивыми, чем в методах ШФ.
- Предложены схемы решения задачи (1), представляющие собой комбинации метода ШФ и методов решения СНУ.
Литература
1. Сухарев А.Г., Тимохов А.В., Федоров В.В. Курс методов оптимизации. М.: Физматлит, 2008.
2. Измаилов А.Ф., Солодов М.В. Численные методы оптимизации. М.: Физматлит, 2003.
3. Поляк Б. Т. Введение в оптимизацию. Изд. 2-е. М.: Ленанд, 2014.
4. Полах Э. Численные методы оптимизации. Единый подход. М.: Мир, 1974.
5. Умное Е.А., Ум,нов А.Е. Методы параметрической линеаризации, использующие штрафные функции со всюду обратимой производной для решения пар двойственных задач // Труды МФТИ. 2011. Т. 3, № 1. С. 146-152.
6. Бертсекас Д. Условная оптимизация и методы множителей Лагранжа / пер. с англ. М.: Радио и связь. 1987. (Bertsekas, D.P. Constrained optimization and Lagrange Multiplier methods. Academic Press. 1982.)
7. Гилл Ф., Мюррей У., Райт, М. Практическая оптимизация / пер. с англ. М.: Мир, 1985. (Р.Е. Gill, W. Murray, and М. Н. Wright. Practical Optimization. Academic Press. 1981)
References
1. Sukharev A.G., Timokhov A.V., Fedorov V.V. Course of optimization methods. Moscow: Fizmatlit, 2008. (in Russian).
2. Izmailov A.F., Soldatov M. V. Numerical optimization methods. Moscow: Fizmatlit, 2003. (in Russian).
3. Polyak B.T. Introduction to optimization. 2th ed. Moscow: Lenand, 2014. (in Russian).
4. Polak E. Numerical optimization methods. One approach. Moscow: Mir, 1974. (in Russian).
5. Umnov E.A., Umnov A.E. Parametric linearization method using penalty functions with everywhere invertable derivation. Proceedings of MIPT. 2011. V. 3, N 1. P. 146-152. (in Russian).
6. Bertsekas D.P. Constrained optimization and Lagrange Multiplier methods. Academic Press, Inc. 1982.
7. Gill P.E., Murray W., Wright M. H. Practical Optimization. Academic Press. 1981.
Поступим в редакцию 20.02.2018