УДК 519.855
А. К. Була1'2, Е. А. Умное1, А. Е. Умное1
1 Московский физико-технический институт (государственный университет) 2 Университет Лубумбаши, ДР Конго
Оптимизация формы множества Парето в задачах многокритериального программирования
Рассматривается схема использования метода гладких штрафных функций для исследования зависимости решений задач многокритериальной оптимизации от параметров. Приводится описание алгоритмов, основанных на методе гладких штрафных функций, решения задачи оптимизации по параметрам уровня согласованности целевых функций и выбора соответствующей формы множества Парето.
Ключевые слова: задача многокритериального параметрического программирования, множество Парето, метод гладких штрафных функций, задача оптимизации по параметрам.
1'2 1 1
1
2
Optimization of the shape of the Pareto set in multicriterial programming problems
A scheme of usage of the smooth penalty method is concidered. This scheme is appied to parametric multicriterial programming problems. A suitable algorithm for solving parametric reference-point problems is suggested. Solutions of the problem describe the optimal shape of the Patero set.
Key words: parametric multiobjective programming problem, Pareto-set, penalty-functions method, parametric optomization.
Введение
В математическом моделировании достаточно часто формализация отношений предпочтения для состояний моделируемого объекта порождает несколько независимых друг от друга целевых функций. По исторически сложившейся традиции в этом случае принято говорить о задаче многокритериальной оптимизации.
Конечномерной многокритериальной моделью мы будем называть математическую модель с N целевыми функциями
fk(х,и) ^ max к = [1,Ж] , (1)
X
подлежащими максимизации, на обладающем внутренними точками множестве элементов х £ Еп, удовлетворяющих условиям вида
Vi(x,u) < 0 г = [1,т] , (2)
где и £ В С Ег - вектор параметров модели. При этом предполагается, что функции fk(х, и) и yi(x, и) достаточно гладкие, то есть они имеют непрерывные частные производные требуемого порядка по всем своим аргументам.
© Вула А. К., Умнов Е. А., Умнов А. Е., 2017
(с) Федеральное государственное автономное образовательное учреждение высшего образования «Московский физико-технический институт (государственный университет)», 2017
Некорректность в общем случае подобной постановки задачи очевидна, поскольку экстремальный для одной из целевых функций элемент х, вообще говоря, не является таковым для других. При этом, однако, некоторую полезную информацию может дать последовательное решение следующих однокритериальных задач поиска экстремума на множестве (2) каждой из функций (1) в отдельности для к = [1, N]:
Целевую функцию Д (х,и) назовем улучшаемой в допустимой (то есть удовлетворяющей условиям (3)) точке хо, если существует другая допустимая точка Х\, для которой Д (х\,и) > /к(хо, и). Понятно, что решение задачи (3) при любом к = [1,^] является неулучшаемым, или «идеальным» с точки зрения целевой функции Д(х,и).
Понятие улучшаемости целевых функций позволяет все допустимые точки исходной многокритериальной модели разделить на два множества таких, что: в каждой точке первого из них все целевые функции улучшаемые, а для любой точки второго имеется по крайней мере одна целевая функция, каждое допустимое улучшение значения которой приводит к ухудшению значения хотя бы одной другой целевой функции.
В дальнейшем будем называть второе множество множеством паретовского типа или просто множеством Парето.
Общего универсального подхода к решению задач многокритериальной оптимизации до настоящего времени не предложено, однако разработаны многочисленные подходы (см. [1, 2]), позволяющие сужать множество «кандидатов» на решение.
Например, при практическом использовании многокритериальных математических моделей набор независимых целевых функций достаточно часто заменяют некоторым единым критерием, переходя таким образом к стандартной задаче математического программирования, позволяющей находить на множестве Парето в определенном смысле согласованные или компромиссные решения.
Постановка задачи
В данной статье мы воспользуемся вариантом подхода, в котором компромиссной является задача поиска на множестве (2) элемента, минимизирующего величину рассогласования целевых функций (то есть максимального по всей совокупности критериев, отклонения каждого из критериев от своего неулучшаемого «идеала»). Иными словами, это есть задача математического программирования следующего вида:
решение которой мы будем обозначать как р**(и) и х**(и). Здесь РЦ*(и) = ¡к(х*к(и), и).
Задачу (4) естественно назвать двухуровневой параметрической задачей, поскольку формулировка ее условия содержит Р*(и), к = [1,^], - решения однокритериальных задач (3), которые будем называть задачами первого уровня. При этом как в задачах первого, так и второго уровня вектор параметров и € В предполагается фиксированным.
Понятно, что экстремальная величина рассогласования критериев в общем случае определяется свойствами множества Парето и является для этого множества некоторой количественной характеристикой, зависящей, вообще говоря, от вектора параметров и. Поэтому естественной представляется постановка для модели (1) - (2) оптимизационной задачи третьего уровня, например, такой:
¡к(х,и) ^ тах
X
при условиях
(3)
Уг(х, и) ^ 0 г = [1, т] .
минимизировать р при условиях р ^ 0:
Уг(х, и) ^ 0 г = [1, т],
¡к(х,и) > Р*к(у) - Р к = [1,Ж] ,
(4)
оптимизировать по и € В выражение р**(и),
(5)
решением которой будут являться вектор параметров и*** £ В и число р*** = р**(и***).
Далее в настоящей статье мы рассмотрим возможный подход к решению задачи (5).
Метод решения
Рассмотрим теперь задачу отыскания в пространстве параметров стандартным (например, градиентным) методом поиска экстремума величины рассогласованности значений целевых функций многокритериальной модели (3) - (4) - (5).
Отметим, что специфика этой схемы заключается в том, что постановка задачи (5) верхнего (третьего) уровня включает р**(и) - зависимость, являющуюся решением задачи (4) второго уровня, условие которой, в свою очередь, содержит зависимости F*(u) = fk (х*к(и), и) Ук £ [1,-W], определяемые решениями задач (3) нижнего (первого) уровня.
При этом зависимости р**(и) и F* (и) У к £ [1,,/V] в общем случае (для гладких функций fk(х, и) и yi(x,u) ) не являются дифференцируемыми функциями, то есть непосредственное использование каких-либо численных методов, основанных на применении тейлоровских аппроксимаций, оказывается невозможным.
Для преодоления этого затруднения предлагается воспользоваться методом гладких штрафных функций (см. [3]), чтобы получить достаточно гладкие аппроксимации зависимостей р**(и) и F*(u) У к £ [1, N ]. При этом будем предполагать, что штрафная функция Р(т, s), штрафующая нарушение ограничения S ^ 0, удовлетворяет следующим условиям:
1°. функция Р(т, s) имеет Ут > 0 и У s непрерывные производные по всем своим аргументам до второго порядка включительно.
2°. Для всех т > 0 и У s выполнены неравенства
дР д 2 Р
~S>0; W >0. (6)
3°. Р(т, s) > 0 У,в и любого т > 0, причем, кроме того,
ümP(т,*) = { S> 0 , (7)
Гv ' ' \ 0, s < 0. w
При решении задачи верхнего уровня каким-либо итерационным методом для каждого шага этого метода оказывается необходимым решение задач второго и первого уровней при фиксированном векторе параметров и. Рассмотрим вначале возможную схему решения задач первого уровня.
Будем использовать для однокритериальных задач (3) вспомогательную функцию вида
m
Ак(т ,x,u) = fk (х,и) - Y.P (т, Уг(х,и)) У к £ [1,Ж], (8)
г=1
в то время как достаточно гладкая штрафная функция Р(т, s) удовлетворяет условиям (6) и (7).
Как показано в [4], в качестве сглаженной аппроксимации х*к(и) - точного решения каждой из задач нижнего уровня (3), можно принять Хк(v,) - стационарную точку вспомогательной функции (8), определяемую системой уравнений
дАк
= 0 У j £ [1,п], (9)
dxj
ИЛИ) чт0 то же самое,
dfk ^ дР дуг
dxj ¿=1 дуг dxj
= 0 Уj £ [1,п].
Поскольку в условие задачи второго уровня (4) входят зависимости Р**(у) = /* (х*(и), и) Ук € [1,^], не являющиеся дифференцируемыми функциями своих аргументов, то для этих зависимостей также необходимо выбрать сглаженную аппроксимацию.
В качестве такой аппроксимации можно использовать вспомогательную функцию, вычисленную в стационарной точке, то есть функцию Р*(и) = Ак(т,х*(и), и), так как (в силу свойств метода штрафных функций) ее значение при малых положительных т близко к оптимальному значению целевой функции к-й задачи (3).
Стандартные методы оптимизации, используемые для задач нижнего уровня, основанные на использовании непрерывных градиентов или иных дифференциальных характеристик, предполагают, что помимо решения системы (9) мы можем находить и сами эти характеристики. Продемонстрируем это на примере вычисления производных функции Рк (и) по компонентам вектора параметров и.
Поскольку Рк (у,) = Ак (т,х* (и), и), то по правилу дифференцирования сложной функции имеем
дРк дАк . ^ дАк дхз
ди„ диг
+ £
дху дир
Ур € [1, г],
что в силу (9) дает
дРк дАк
ди„
ди„
(т,хк(и),и) Ур € [1,г].
(10)
Отметим, что последнее упрощение было бы невозможным, если для Р* (и) вместо сглаживающей аппроксимации А*(т, х*(и), и) использовать, более естественную на первый взгляд, аппроксимацию ¡*(х*(и), и).
Рассмотрим теперь процедуру решения задачи второго уровня.
Запишем условие задачи (4) в следующем, более удобном для применения метода штрафных функций, виде:
максимизировать — р при условиях — р ^ 0,
Уг(х, и) ^ 0 г = [1,т], У*(р,х,и) < 0 к = [1,Щ , где У*(р, х, и) = Р*(и) — р — /к(х, и).
Решение этой задачи мы будем соответственно обозначать как р**(и) и х**(и). Определим следующим образом для задачи (10) вспомогательную функцию
N т
Е(т, Р, х,и) = —р — Р (т, —р) — ^ Р (т, Ук(р, X, и)) — ^ Р (т, Уг(х, и)),
(11)
(12)
к=1
г=1
заменив предварительно в У* (р, х, и) зависимость Р*(и) на ее сглаженную аппроксимацию У к (у). *
Условия стационарности вспомогательной функции (12) по совокупности переменных { р, х1, х2, ... хп } будут
( дЕ дР N дР
др др к=19У*
дЕ N дР д/к т дР дуг тт- = ¿^ ^т" "Е:— ~— = 0
(13)
УЗ € [1,п].
дХ] к=1 дУ* дХ] = дуг дх
Пусть решения системы (13) суть ~р(и) и х(и), тогда в качестве сглаженной аппроксимации зависимости р**(и) можно использовать функцию Е(и) = —Е (т,р(и),х(и),и) . Найдем производные этой функции по компонентам вектора параметров и.
По правилу дифференцирования сложной функции многих переменных имеем
дЕ дЕ ™ дЕ дхп дЕ др
— =----- +---- Ур е [1,г],
дир дир дХ] дир др дир
д Е д Е
что, с учетом —— = 0 и —— = 0 V 1 е [1,П из (13), дает существенно более простое
др дХу
выражение
дЕ дЕ . = = .
дп~ = о^У,Р(и),х(и),и) Ур е [1, г] . (14)
Наконец получим формулы для компонент градиента от Е(и) в терминах функций, используемых в формулировке многокритериальной модели (4) - (5) и методе гладких штрафных функций.
Исходя из (12) получаем
дир DYk дир = дуг дир
0Yk дЕ k д fk дЕ k ,1п.
где —— = —--—— , а значения —— находятся из равенств (1U).
дир дир дир дир
Формулы (14) позволяют решать задачу верхнего уровня, применяя какой-либо из методов первого порядка, например, сопряженных направлений. Для полноты картины здесь следовало бы рассмотреть и методы второго порядка. Однако мы сделаем это в конце статьи, перейдя сейчас к описанию демонстрационного примера.
Пример решения задачи
Проиллюстрируем особенности такой постановки задачи следующим примером. Рассмотрим достаточно наглядную многокритериальную математическую модель, в которой х = || Х1Х2Х3 ||T £ Е3 - вектор независимых переменных, а вектор параметров и = || ulu2!T £ Е2 .
Требуется максимизировать по х при некотором и £ В функции
f i(х, и) = Х1 , ¡2(х,и) = Х2 , fз(х,и) = Хз
при условиях: Х1 ^ 0, Х2 ^ 0 и Х3 ^ 0 ,
ai(ui, и2)Х1 + Ü2 (Ul, и2)Х2 + аз(щ, и2)хз ^ Ь(и1,и2) ,
где положительные функции ai(u), a2(u), аз(и) и Ь(и) задаются условиями, приведенными далее.
Геометрическая интерпретация многокритериальной модели приведена на рис. 1. Отметим ее основные особенности. Допустимой областью модели (при допустимом фик-и
гранью ABC или является его частью. Предполагается, что точка А имеет координатное представление || ui 0 0 ||T, а точка В - || 0и2 0 ||T.
При этом будем считать, что множество В в пространстве параметров задается условием: сумма длин отрезков ОА, ОВ и ОС постоянна и равна трем.
Применив стандартные методы аналитической геометрии, получим, что для совместности системы ограничений модели необходимо существование г ^ 0 такого, что
а1(и1, и2) = и2г , a2(u]_, и2) = U]_r , аз(и1, U2) = U1U2 , b(ul,u2) = ulu2r.
Рис. 1. Геометрическая интерпретация модели (6) (7)
Причем выполнение условия непустоты множества В может быть обеспечено выбором
г = 3 — ui — u2
при ограничениях 0.1 ^ u\ ^ 2.5 и 0.1 ^ щ ^ 2.5.
Минимальная величина рассогласованности критериев в данном примере зависит от формы множества Парето, которое является треугольником ABC либо его частью. Графическое представление зависимости величины рассогласования целевых функций от параметров щи и2 показано на рис. 2 и 3.
Рассмотрим подробнее свойства этой зависимости.
Решения задач первого уровня (3) при фиксированных щи U2 очевидны:
fi(x*(u)) = U1 , f2(x*(u))= U2 , /з(ж*(«))=3 — U1 — U2 .
Следовательно, задача второго уровня (4) минимизации рассогласованности критериев, будет иметь вид:
минимизировать по {х\, Х2, Хз, р} величину р при условиях Р ^ 0 , Х\ ^ 0 , Х2 ^ 0и Хз ^ 0 ,
U2r Х\ + U\r Х2 + UiU2 Х3 ^ U\U2r ,
Х\ ^ Ui — р, Х2 ^ U2 — Р,
х3 ^ г — р, г = 3 — ui — u2 .
Ее решение будем по-прежнему обозначать p**(ui,v,2).
Наконец, задача третьих) уровня (5), для данного примера такова:
минимизировать по {ui, U2} p**(ui,u2) при 0.1 ^ Ui ^ 2.5 и 0.1 ^ U2 ^ 2.5. Из теории математического программирования известно, что свойства зависимости p**(ui,v,2) в первую очередь определяются тем, как множество ограничений модели типа «неравенство» разделяется на активные и неактивные, то есть первые из которых выполняются как равенства, а вторые как строгие неравенства.
Это разделение зависит от значений параметров модели и его оптимальный вариант определяет решение задачи второго уровня.
Вначале предположим, что значения параметров модели инициируют конфликт всех трех критериев одновременно. Иначе говоря, улучшение значения какой-либо одной из целевых функций модели возможно лишь при ухудшении значений всех остальных.
Рис. 2. Величина |ОА| + |0 В| + |0 С| постоянна (ЗБ-график)
Рис. 3. Величина |ОА| + |OB| + IOC| постоянна (вид изолиний)
В этом случае должны быть активны последние пять ограничений из задачи второхх) уровня, и мы получаем следующую систему уравнений, позволяющую найти аналитиче-
ский вид зависимости p**(ui,v,2) :
U2r Xi + uir х2 + uiи2 х3 = uiu2r,
xi = Ui — Р-,
Х2 = U2 — Р-,
Хз = Г — P,
г = 3 — ui — и2 ,
исключая из которой неизвестные Xi, Х2, Хз и г, получаем искомую зависимость р от ui и U2 в виде
2
p**(Ui,U2) = -.
i 2 1 1 1
— + — +
ui и2 3 — ui — и2
Нетрудно проверить, что стационарными для p**(ui,U2) являются точки || 11 ||T, || —3 3 ||T, || 3 — 3 ||T и || 3 3 ||T , в первой из которых, согласно критерию Сильвестра,
2
эта функция имеет локальный максимум со значением —, а остальные являются недопустимыми, поскольку для них нарушены условия неотрицательности для xi, Х2, хз и г, .
В.
системы изолиний, изображенных на рис. 3, позволяет выделить пять областей с различными наборами активных ограничений. Границы между областями показаны светлыми линиями. Полученная выше формула справедлива только в области 4. В этой области множество Парето рассматриваемой модели состоит из внутренних точек треугольника ABC.
Вне области 4 формула для p**(ui, и2) другая. Например, для области 1 p**(ui,u2) находится из системы уравнений
/
и2Г XI + и\ГХ2 + и\и2 ХЗ = и\и2Г , х\ = 0, Х2 = Ь,2 - Р, х3 = г — р, г = 3 — и\ — и2 ,
поскольку множество активных ограничений в ней другое: оно содержит условие Х\ = 0 вместо условия х\ = и\ — р. Проверьте самостоятельно, что в области 1
Р**(и\,и2) = —-^-.
— +
и2 3 — ui — и2
Стационарных точек у этой зависимости нет.
Для областей 2 и 3 рассуждения и результаты аналогичные. Множествами Парето в областях 1, 2 и 3 являются стороны треугольника ABC: ВС, АС и АВ соответственно. Наконец, отметим, что в области 5 система условий (2) противоречива. При этом точное решение задачи верхнего (третьего) уровня имеет вид
2
и\* = 1, и*2* = 1, р** = -.
Опишем теперь метод решения задачи третьего уровня для рассматриваемого демонстрационного варианта многокритериальной модели. Мы имеем
целевые функции: максимизировать по ж = Hxi Х2 ^з||т £ Ез
fi(x,u) = Xi, ¡2(x,u) = Х2, fз(х,и) = Хз,
при условиях: xi ^ 0, Х2 ^ 0, хз ^ 0 ,
ai(u)xi + a2(u)x2 + a3(u)x3 ^ b(u) ,
где
ai(u) = u2(3 — ui — u2) , a2(u) = ui(3 — ul — u2) , a2(u) = uiu2 , b(u) = uiu2(3 — ul — u2)
При этом
,, I|T „ Г 0.1 ^ ui ^ 2.5 } u = ^& = iu 0.1 <u2 < 2.5 i
Введем обозначения
Ui = —xi ,
У2 = —Х2 ,
Уз = —xi ,
У4 = aixi + а2Х2 + азхз — b ,
а в качестве штрафной функции возьмем Р(т, s) = т exp I —
Тогда вспомогательные функции однокритериальных задач (8) будут иметь вид
4 ( Уз \
Ак(т, х, и) = Хк — / т ехр — для к = 1, 2, 3 . (15)
ё 1ТУ
х
следующими системами уравнений:
дА = 8кз + ехр ( —аз ехр ( Ук =1, 2,3, V3 = 1,2,3
(т)—a exp( 7)
Наконец, производные от сглаженных аппроксимирующих функций Fk(u) по компонен-
u
^ w дАк (_ dai t _ da2 _ da3 db\ (уЛ
\Fk) Up = дйГ (T, Хк (u),u)=[xki Q- + хк2 д- + хк3 д- — g-) exp -
F д up \ д up д up д up д up j \ I / (16)
Ук = 1,2,3, Ур = 1, 2 .
Теперь рассмотрим задачу (11) - оптимизации рассогласования критериев модели. В нашем случае эта задача имеет вид:
минимизировать р по совокупности переменных {х\, х2, хз, р} при условиях х\ ^ 0, х2 ^ 0, хз ^ 0, р ^ 0 и
а\х\ + а2х2 + а3х3 ^ Ь. (17)
Кроме того, должны выполняться неравенства хк ^ Рк — р Ук = 1, 2, 3.
Эту задачу будем также решать методом гладких штрафных функций с той же Р(т, в), для чего будет удобно ввести (помимо определенных ранее) обозначения —к = Рк — р — хк Ук = 1, 2, 3. В этом случае вспомогательная функция (12) имеет вид
Е(т, х, р,и) = —р — т ехр ^ —^ — ^ т ехр ^ —— ^ т ехр ^ —^ . (18)
Условия стационарности вспомогательной функции (13) в случае (18) принимают вид системы уравнений
дЕ др
дЕ дхк
—1 + ехр
И—г, -(
(¥к\ , (Ук\ (УЛ П иг. 1 О О
= ехр — + ехр — — ак ехр — = 0 У к = 1,2,3.
\т) \т) V)
(19)
Обозначим решения системы (19) как р(и) и х(и), и используем в качестве сглаженной аппроксимации зависимости р**(и) функцию
Е(и) = — Е (г, р(и),х(и),и) .
(20)
Производные этой функции по компонентам вектора параметров и находятся по формулам (14) и для рассматриваемого примера имеют вид
Ч = ехР (+ Ё ехр (£)
дУк ди„
0
( уЛ I даэ дЪ\ (УЛ дЕк и 1 „
=ехч^• ^—^ + £ехр Ы ^ Ур=^
При этом значения производных от функций Ек(у,) находятся по формулам (16).
Теперь для поиска стационарных точек функции Е(и) в пространстве параметров можно использовать какой-либо итеративный метод, улучшающие направления для которого находятся при помощи производных первого порядка. В качестве примера для решения задачи (17) применим стандартную градиентную схему наискорейшего подъема.
Таблица 1
1 «1 «2 Е Р
0 0.700000000 1.600000000 0.580923855 0.545812501
1 0.700000000 1.200000000 0.633041421 0.596126653
2 0.900876900 1.159092100 0.654535635 0.621144210
3 0.941239800 1.000136600 0.660271356 0.626927551
4 0.981719000 1.018621200 0.661487390 0.628152833
5 1.000234400 1.000052500 0.661620557 0.628286990
6 1.000071000 0.999946090 0.661620583 0.628287016
Таблица 2
1 Nдта& 'Ш2 8
0 0.231363725 -1.8973*10^-9 -1.000000000 0.400000000
1 0.131142557 0.979887531 -0.199550560 0.205000000
2 0.076755604 0.246115279 -0.969240563 0.164000000
3 0.050581430 0.909645878 0.415384614 0.044500000
4 0.010207109 0.706089900 -0.708122202 0.026222500
5 2.43444*10^-4 -0.837971176 -0.545714493 0.000195000
6 3.73575*10^-5 -0.922621240 0.385707203 0.000076500
Пусть 1 = 0, 1, 2, ... - номер итерации. Тогда эта схема будет описываться соотношениями
1 /=,
и1+1 = ир + ^"^Р , гДе = Т?-(Е(и*)) , Р = 1, 2.
Значение нормы градиента вычисляется по обычной для ортонормированого базиса формуле
' 2 / , \ 2
а величина в1 - шага по улучшающему направлению, для каждой итерации оценивается методом дихотомии.
Результаты расчетов приведены в табл. 1 и 2.
Замечания об использовании алгоритмов второго порядка
В заключение рассмотрим метод нахождения для функции Е(и) элементов матрицы Гессе, знание которых позволит использовать в процессе поиска стационарных точек методы второго порядка.
Применяя к функции (20) правила дифференцирования сложной функции, получаем
/= л" д 2Е ™ д2Е дхз д 2Е др г п ^
\Е(и)) 7Г~, РЛ = [1,г]. (21)
V ) ирич дирдщ р^ дирдХ] дщ дирдр дщ Вторые частные производные вычисляются непосредственно в точке {Х, р} , а первые про-
дХу др
изводные, т.е. —— и ——, находятся согласно известной теореме о неявных функциях из дщ дщ
системы линейных уравнений
( д2Е др п д2Е дхг д2Е
р + £ тггт^ + "
др2 дия г=1 дрдХг дия дрдия '
д2Е др п д2Е дхг д2Е
дxjдрдиq + ]=1дxjдxiдиq + дх^дщ 0 ^ ^т4} ,
которая, в свою очередь, получается при последовательном дифференцировании по переменным р и Xj j = [1,п] условий стационарности (13).
Наконец, отметим, что для вычисления производных (21) также необходимо знать значения вторых производных от функций Fk(и). Эти значения могут быть найдены (аналогичным использованному выше) методом из формул (10) и условий (9) - стационарности функций Ак(т,х,и).
Литература
1. Лотов A.B., Поспелова И.И. Многокритериальные задачи принятия решений. М.: МАКС Пресс, 2008. 200 с.
2. Жадап В.Г. Методы оптимизации. Ч. 1. Введение в выпуклый анализ и теорию оптимизации. М.: МФТИ, 2014. 270 с.
3. Фиакко A.B., Мак-Кормик Г.П. Нелинейное программирование. Методы последовательной безусловной оптимизации. М.: Мир, 1972. 240 с.
4. Умное А.Е. Метод штрафных функций в задачах большой размерности // Ж. вычисл. матем. и матем. физ. 1975. Т. 15, № 6. С. 1399-1411.
References
1. Lotov A. V., Pospelova I.I. Multicriterial problems in decisionmaking. M.: MAX Press, 2008. 200 p. (in Russian).
2. Zhadan V.G. Methods of optimizftion. Introduction in convex analysis and theory of optimization. M.: MIPT, 2014. 270 p. (in Russian).
3. Fiacco A.V., McCormick G.P. Nonlinear Programming: Sequential Unconstrained Minimization Techniques. M.: Mir, 1972. 240 p. (in Russian).
4. Umnov A.E. The method of penalty in problems of high dimension. J. Computational Mathematics and Mathematical Physics . 1975. V. 15, N 6. P. 1399-1411. (in Russian).
Поступим в редакцию 17.10.2017