Научная статья на тему 'Гладкие методы в многокритериальных задачах'

Гладкие методы в многокритериальных задачах Текст научной статьи по специальности «Математика»

CC BY
78
14
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЗАДАЧА МНОГОКРИТЕРИАЛЬНОГО ПРОГРАММИРОВАНИЯ / МЕТОД ГЛАДКИХ ФУНКЦИЙ ОБРАТНЫХ СВЯЗЕЙ / ЗАДАЧА ОПТИМИЗАЦИИ ПО ПАРАМЕТРАМ МНОГОКРИТЕРИАЛЬНОЙ МОДЕЛИ

Аннотация научной статьи по математике, автор научной работы — Була А. К.

В работе рассматривается схема использования метода функций обратных связей для исследования зависимости маргинальных оценок в задачах многокритериальной оптимизации от параметров. Приводится описание подхода, основанного на методе гладких функций обратных связей. Предлагается, обосновывается и демонстрируется на примерах алгоритм решения задачи оптимизации по параметрам для минимизации рассогласованности значений целевых функций.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Гладкие методы в многокритериальных задачах»

УДК 519.855

А. К. Була

Московский фгоико-техпический ипститут (государственный университет) Университет Лубумбаши. ДР Конго

Гладкие методы в многокритериальных задачах

В работе рассматривается схема использования метода функций обратных связей для исследования зависимости маргинальных оценок в задачах многокритериальной оптимизации от параметров. Приводится описание подхода, основанного на методе гладких функций обратных связей. Предлагается, обосновывается и демонстрируется на примерах алгоритм решения задачи оптимизации по параметрам для минимизации рассогласованности значений целевых функций.

Ключевые слова: задача многокритериального программирования, метод гладких функций обратных связей, задача оптимизации по параметрам многокритериальной модели.

A.K. Dula

Moscow Institute of Physics and Technology (State University) University of Lubumbaslii. DR. of the Congo

Smooth methods in multicriterial problems

The studied scheme is used to solve parametric programming problems for multicriterial models. An algorithm for solving parametric reference point problems by smooth methods is suggested. The description, foundation and demonstrational examples are given.

Key words: parametric programming problem, nmltiobjective optimization, feedback functions method.

Введение

Под конечномерной многокритериальной моделью мы будем называть математическую модель с N целевыми функциями

Fk(x,u) — max, k = [1, N] , (1)

x

подлежащими максимизации на обладающем внутренними точками множестве элементов x Е Eп, удовлетворяющих условиям вида

fi(x,u) < 0, i = [1,m], (2)

где u Е В С Er - вектор параметров модели. Далее мы будем считать, что функции Fk(x,u) и fi(x,u) имеют непрерывные частные производные требуемого порядка по всем своим аргументам.

Очевидно, что некоторую полезную информацию может дать последовательное решение следующих однокритериальных задач поиска экстремума на множестве (2) каждой из функций (1) в отдельности для k = [1,N]:

Fk (x, u) — max

x

при условиях (3)

fi(x,u) ^ 0, i = [1, m],

© Була А. К., 2018

© Федеральное государственное автономное образовательное учреждение высшего образования «Московский фгоико-техпический ипститут (государственный университет)». 2018

с решениями х*ки-

К настоящему времени предложены многочисленные методы (см. [1|, [2|), позволяющие, используя данные такого вида, получать различного рода маргинальные оценки количественных характеристик многокритериальных моделей.

При практическом использовании многокритериальных математических моделей достаточно часто набор независимых целевых функций заменяют некоторым дополнительным критерием, переходя таким образом к задаче математических) программирования со скалярной целевой функцией, позволяющей находить, например, на множестве Парето согласованные или компромиссные в определенном смысле решения.

Ниже будет рассмотрен вариант подхода, в котором компромиссной является задача поиска на множестве (2) элемента, минимизирующих) величину рассогласования целевых функций (то есть, максимального но всей совокупности критериев, отклонения каждох'о из критериев от своего неулучшаемого «идеала»).

Постановка задачи

Формально рассматривается задача математических) программирования следующего вида:

решение которой мы будем обозначать как р**(и) и х**(и). Здесь Е*и = Е (х*ки,и) .

Задача (4) может рассматриваться как параметрическая задача второго (верхних)) уровня, поскольку в формулировке ее условия содержатся Е*и к = [1,Ж] - решения однокри-териальных задач(З), называемые задачами первого {нижнего) уровня. При этом как в задачах первого, так и второго уровня вектор параметров и € В предполагается фиксированным.

Экстремальная величина рассогласования критериев тко определяется свойствами множества Парето и является для этого множества некоторой количественной характеристи-

и

никает оптимизационная задача третьего уровня, например такая:

решением которой будут являться вектор параметров и*** € В и число р*** = р*и***.

Целью настоящей статьи является описание и обоснование некоторого подхода к решению задачи (5).

Метод решения

Решаем задачи отыскания в пространстве параметров стандартным (например, градиентным) методом поиска экстремума величины рассогласованности значений целевых функций многокритериальной модели (3) (4) (5).

Отметим, что особенностью этого подхода является тот факт, что постановка задачи (5) верхнего {третьего) уровня включает рк*и - зависимость, являющуюся решением задачи (4) второго уровня, условие которой в свою очередь содержит зависимости Е*и = Ек (х к и(и),и) У к € [1,^], определяемые решениями задач (3) нижнего {первого) уровня.

При этом зависимости р**ии Ек и У к € [1,Ж] в общем случае (даже для гладких функций Ек(х, и) и /г(х,и) ) не являются дифференцируемыми функциями, то есть непосредственное использование каких-либо численных методов, основанных на применении тейлоровских аппроксимаций, оказывается невозможным.

минимизировать р, при условиях р ^ 0,

Д(х,и) ^ 0, г = [1,т], Ек(х,и) > Е*ик - Р, к = [1,Ж],

(4)

оптимизировать по и € В выражен не р** (и),

(5)

Для преодоления этого затруднения предлагается воспользоваться сглаживающим свойством метода функций обратных связей, описанного в [1|, и аналогичного рассмотренному в [2], чтобы получить гладкие аппроксимации зависимостей р**(и) и F£(u) Vk Е [1,^] , допускающие использование аппроксимаций по формуле Тейлора до второго порядка включительно.

При этом будем предполагать, что используемые в методе обратных связей функции удовлетворяют следующим условиям:

1°. функция P(т, s) имеет Ут > 0 и Vs непрерывные производные по всем своим

аргументам до второго порядка включительно. 2°. Для всех т > 0 и Vs выполнены неравенства

дР д2Р

ds >0; SÜP >0 • (6)

3°. Р(т, s) > 0 Vs и любого т > 0, причем, кроме того,

lim Р(т, s) = ( s> 0 , (7)

Тv ' 7 \ 0, s < 0 • К '

Использование метода функций сводится к следующему. Пусть

m

Lк(x, Л,и) = Fk(x,u) Aifi(x,u) (8)

i=1

( дР N

- стандартная функция Лагранжа для задачи (3), а функция Q(^ s) = inv I (т, s) I , дР

то есть обратна к —— • Тогда, исходя их оценочных соотношений, имеющих место при ds

использовании метода гладких штрафных функций [3] для решения задачи (1) (2) связывающих прямые и двойственные переменные (множители Лагранжа):

дР ( \

А к иг = Дто дД^ fi(xк (т, U))) Vi = [1,m],

где Xк(т, и) - решение задач (3), полученное методом гладких штрафных функций. Можно построить систему уравнений

c)L к _ — —

——(x к, л к) = - Q(^ А к г) Vi = [1,m], ддх£;_ _ (9)

дб

-(x к, Л к) = к j) Vj = [1 ,n] •

В [4| показано, что в условиях (6) (7) эта система всегда совместна и из нее одновременно находятся вектор-функции Хд(т, и) и Лд (т, и) с компонентами { £к^ (т,и) = [1,п] } и { А кг(т,и) Уг = [1,ш] } и которые в свою очередь можно использовать как приближенные оценки оптимальных значений прямых хки и двойственных переменных Л Д и в задачах (3), когда последние имеют решение.

Несложно убедиться, что система уравнений (9) является условием стационарности вспомогательной функции

п т

и(т, х, Л) = Ь(х, Л) - £ К(т, ) + ^ К(т, \г), (10)

з=1 г=1

дЯ

в которой неотрицательная функция Я(т, в) удовлетворяет соотношению Q(т, в) = •

Поскольку к системе (9) применима стандартная теорема о неявных функциях, то для вектор-функций { (т, u) Vj = [1, n] } и { Xki(r,u) Vi = [1,m] } будут справедливы следующие утверждения, как показано в [3].

На седловых траекториях для задач, имеющих ограниченные оптимальные значения целевых функций, существуют конечные пределы lim х(т) и lim Л(т) , для которых

т ^+0 т^+0

lim Щт,х(т),Л(т)) = F (x*) = G (Л *),

(11)

а в случае единственности решений (регулярности) пары задач (1) и (2) справедливы также равенства

lim х(т) = х*

т^+0

lim Л(т) = Л * .

т ^+0

(12)

Рассмотрим теперь аналогичную схему решения задачи второго уровня (4), то есть получим асимптотические оценки решений этой задачи методом функций обратной связи. Рассмотрим вначале схему решения задач первого уровня.

Будем использовать для однокритериальных задач (3) вспомогательную функцию вида

Uk(т, х, Л, u) = Fk(х, u) Xifi(x, u) + КК(т, x, Л) Vk e [1, N]

(13)

i=1

в то время как функции КК(т, s) в регуляризирующем слагаемом

ЕЕ(г, х, Л) = - £ Е(г, С3) + ^ Е(т, Хг)

3=1 г=1

по-прежнему выбираются согласно условиям (6) (7).

В качестве сглаженной аппроксимации х^. точного решения каждой из задач нижне, _к

го уровня (3), можно принять { хк(т,и), Л (т, и) } - стационарную точку вспомогательной функции (13), определяемую, согласно теореме о неявных функциях [5] системой уравне-

ди.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0 Vз е [1,п],

djk) dUk

(14)

ОХ

j(k)

= 0 Vi e [1,m].

или, что то же самое,

dLk

дХ

i(k)

dLk

(x(k), Л(^ = (x(k), Л(k)) =

- Я(т,Хт) Vi = [1,m] ЯЫт) Vj = [1,n]

(15)

где LA x(k), Л(k)

dR

стандартная функция Лагранжа для задачи (3), а Qfr,s) = ~dj~.

В рассматриваемой задаче в условие задачи второго уровня (4) входят зависимости Е^к = Ек (х*ик,и) Vk е [1,^], не являющиеся дифференцируемыми функциями своих аргументов, то для этих зависимостей необходимо построить сглаженную аппроксимацию.

В качестве такой аппроксимации используем вспомогательную функцию, вычисленную в стационарной точке, то есть функцию Е.(и) = и.(т,Х(к)(т,и), Л.)(т, и),и), так как (в силу

т

оптимальному значению целевой функции к-й задачи (3).

Стандартные методы оптимизации, используемые для задач нижнего уровня, основанные на использовании значений, градиентов или иных дифференциальных характеристик,

предполагают, что помимо решения системы (14) можно находить и сами эти характеристики. Рассмотрим вначале процедуру вычисления производных функции Ед(и) по компонентам вектора параметров и, предполагая, что система (14) (или (15)) уже решена.

Поскольку Е к (и) = и^ т, хк (т, и), Л (т, и),и), то по правилу дифференцирования сложной функции имеем

и; = ^Еди^+Е ^ ^ е [М-

дик д£3

дик дАз

р -=1 д£з дир

г=1

д\г дир

Что в силу (14) дает

(Е^'ир = ^ (т, хк(т, и), Лк(т, и), и Ур е [1, г]

(16)

Отметим, что последнее упрощение было бы невозможным, если для Е,*д вместо сглаживающей аппроксимации и к (т,хк (т,и), Л (т,и),и) использовать аппроксимацию Ек(Хк(т, и),и).

Рассмотрим теперь процедуру решения задачи второго уровня (4) методом функций обратных связей.

Построим для задачи (4) вспомогательную и-функцпю, введя вектор М е Ем, множителей Лагранжа для второй группы ограничений в задаче (4), для которого \\М || = || Ц1, Ц2, ... № ||Т :

N т

и(т, р, х, Л, М, и) = -р ЦкУк(р, х, и) Аг/г(х,и)-

к=1

г=1

N

Я(т, р) - ^ Я(т, &) + ^ Я(т, Цк) + Е Я(т, Аг)

3 = 1

(17)

к=1

г=1

заменив предварительно в Уд(р, х, и) зависимость Е*д на ее сглаженную аппроксимацию Е к (и).

Условия стационарности вспомогательной функции (17) по совокупности переменных

] р, х1, x2, . . . хп , А1, А2, ... А т , Pl, Ц'2, . . . Ц'N г

будут

' ди N

1Г= -1^ »к - Q(т, р) = 0 , др к=1

ди N дЕк т дй

ы- = £ Vк-Е -£ Агй - Q(т,£з) = 0 Уз е [1,п] д£з к=1 д£з г=1 д£з

ди

— = -йг(х, и) + Q(т, ) = 0 Уг е [1, т] ,

(18)

ди д^к

= -Ук(х, и) + Q(т, Цк) = 0 Ук е [1,Ж]

Обозначим решения системы (18) как р(т, и), х(т, и), Л(т, и), и М(т, и), тогда в качестве сглаженной аппроксимации зависимости р** можно использовать функцию

и(т, и) = иут, р(т, и), х(т, и), Л(т, и),М(т, и), и

и.

По правилу дифференцирования сложной функции многих неременных имеем

ди

дир

ди ди др П ди д—

--1---—+ >--—

дир др дир —= д— дир

т ЖдХ ^ дХг дир

г=1 '

N

+ у^дид^ь. Ур е [х г

к=1 д^к дир , '

ди ди ди ди

что, с учетом —— = 0 , —— = 0 У] е [1 , п] , = 0 Уг е [1 , т] и —— = 0 Ук е [1 , Ж]

др д—— дХг д^к

дает более простое выражение:

ди = Р(Т, и)>х(Т> и), Л(т, и), М(т, и),и) УР е [1, г]. (19)

Наконец, получим формулы для компонент градиента от и(т, и) в терминах функций, используемых в формулировке многокритериальной модели (1) (2) и методе функций обратных связей.

тт ди N дУк т д/ дУк дГк _,к

Из (17) имеем —— = — --¿^ Хг —— , причем для —— = —--—— значения

дир к=1 дир г=1 дир дир дир дир

дГк _

— определяются равенствами Ук(р, х, и) = Гк(и) — р — Гк(х, и) Ук = [1, Ж].

дир

Формулы (19) позволяют решать задачу верхнего уровня, применяя какой-либо из методов первого порядка.

Рассмотрим теперь метод нахождения для функции и (и) элементов матрицы Гессе, знание которой позволяет использовать в процессе поиска стационарных точек методы второго порядка.

Применяя к этой функции правила дифференцирования сложной функции, получаем

/= у д 2и д2и др ™ д2и д—

V / и„и

дирдия дирдр дия —дирд— дия

+

д2и дХг

N я277

+

д 2 и д^к

г=1

дирдХг дия к= дирдц.к дия

Ур,д = [1,г].

Вторые частные производные вычисляются непосредственно в точке |х, р, Л, М | , а пер-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ди ди ди ди

вые производные, т.е. ——, —— У] е \1,п\, —— Уг е 11,т I и —— Ук е |1,Ж|

др д— дХг д^к

могут быть найдены но теореме о неявных функциях [5] из системы .линейных уравнений: d2U dp n д2U dj

--- + £

djhdp duq j=i

m

+ £

i=l

d2U dp n

---+ £

dXs dp duq j=\

d2U dp

+ £

+ £

+ £

л dpdjj uq

' d2U Xi

i dpdXi duq

d2u dj

djhd j uq

2U Xi

djh dXi duq

d2U dj

dXs d j uq

d2U dXi

dXs dXi uq

d2U dj

dßtdj uq

d2U dXi

+ + +

g д2 u ößk

k=i dpdßk duq

=i dßt d\i duq

g d2u dßk

k=i d jhdßk duq

+

+ g d2u dßk

k=i dXs dßk duq

+

+ g d2U dßk

k=i dßtdßk duq

d2U dpduq '

d2u

djh duq

d2U

Xs uq

d2u

ßt uq

(20)

которая в свою очередь получается при последовательном дифференцировании но неременным р и хз ] = [1,п] условий стационарности (18). Заметим, что в формулах (20) мы используем Л = [1,п] , 8 = [1,ш] , I = [1, Ж] .

В этом случае приближенное решение задачи верхнего уровня сводится к поиску экстремума по и вспомогательной функции и(т,и) = и(т,Х(т,и), Х(т,и),и^ , для реализации которого также можно использовать стандартные итерационные алгоритмы.

Например, для методе Ньютона компоненты улучшающего вектора и> находятся из системы линейных уравнений

Е U'»t»P Wt = -U'up t=l

Vp = [1,k].

Наконец заметим, что при необходимости и соответствующих предположениях о гладкости функций (1) (2), из линейных систем с той же основной матрицей могут быть найдены значения производных более высокого порядка.

2

j

j

Пример решения задачи

Проиллюстрируем особенности такой постановки задачи следующим примером. Рассмотрим достаточно наглядную многокритериальную математическую модель, в которой х = У ||т € Е3 - вектор независимых переменных, а вектор параметров

и = || и1и2ут € Е2 .

Требуется максимизировать по х при некотором и С В € Е2 функции

Е1(х,и) = х1, Е2(х,и) = и1х2 , Е3(х,и) = 3х3 (21)

при условиях: х1 ^ 0, х2 ^ 0 и хз ^ 0,

¡1(х, и) = х1 + х2 + хз ^ и2 ,

где в : { 0 < ui < 6; 0 < u2 < 10 }

Для решения используем, примененную в [4], функцию обратной связи вида

т( Л

Q(т, в) = — I в--I . Тогда система (15) (например, для к = 2) будет

и2 + Х1(2) + Х2(2) + Хз(2) =

ИЛ(2)— I1

л(2) = "о

—и1 + Л(2) = — Х2(2) " =

Л(2) = "о

(2)

1

Х1(2) " =Т

Х1(2)у 1

Х2(2)/ 1

Хз(2) " =Т

Хз(2)

Решая предварительно задачи нижнего уровня, то есть системы (15), которые в приводимом примере имеют вид (22), находим Е1, Е2 и Ез - значения сглаженных оценок целевых функций одноэкстремальных задач Е^к = Ек (х*ак, и) ^к € [1, Ж].

Затем, используя эти оценки, формируем условие задачи второго уровня системы (18), которая для данной задачи имеет вид

-и2 + Х1 + Х2 + Хз Е1 — Х1 — р Е 2 — ЩХ2 — р Е з — 3Хз — р Л1 — Щ Л1 — и 1р2 Л1 — 3Дз 1 — Д1 — Д2 — Дз

т —

т 2

т 2

т 2

т 2

л —1

Д1 — =

Д2 — =

Дз — =

Х1 — =■

т _

т _

А, Д2, Дз, Х1,

Х2 — , Х2

Хз — ^

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ч Хз,

' = 1 ^ р — =

, р У

(23)

2

1

2

2

Решение системы (23) для точки в пространстве параметров с и1 = 2 и и2 = 5 при различных значениях т приведено в табл. 1.

Т а б .л и ц а 1

т Х1 Х2 хз Р Л М2 Дз

10-1 0.036183480 1.942605273 3.056791852 6.150359244 1.417219233 0.037182321 0.744305433 0.517900602

10-2 4.116 • 10-3 1.992735259 3.005146639 6.024189515 1.219555846 4.81з • 10-3 0.613505204 0.410972589

1С-3 4.162 • 10-4 1.999258339 3.000510447 6.002509934 1.201920729 4.980 • 10-4 0.601335133 0.401084782

10-4 4.166 • 10-5 1.999925683 3.000051004 6.000251899 1.200191707 4.998 • 10-5 0.600133351 0.400108348

10-5 4.167 • 10-6 1.999992567 3.000005100 6.000025199 1.200019167 5.000 • 10-6 0.600013334 0.400010833

10-6 4.167 • 10-7 1.999999257 3.000000510 6.000002520 1.200001917 5.000 • 10-7 0.600001333 0.400001083

10-7 4.167 • 10-8 1.999999926 3.000000051 6.000000252 1.200000192 5.000 • 10-8 0.600000133 0.400000108

10-8 4.167 • 10-9 1.999999993 3.000000005 6.000000025 1.200000019 5.000 • 10-9 0.600000013 0.400000011

Заметим, что точное решение задачи второго уровня при значениях параметров и1 = 2 и и2 = 5 имеет вид

х\ * = 0; х2 * = 2; хз * =3; р * * = 6; Л * * = 1.2; Д * = 0; д2 * = 0.6; д*з * =0.4 .

Рис. 1. Графическое представление зависимости р(т,и)

Графическое представление зависимости р(т,и) показано на рис. 1. Для решения задач типа (17) в рассматриваем примере можно использовать любую стандартную градиентную схему, описанную, например, в [6].

Литература

1. Умное Е.А., Умное А.Е. Метод параметрической линеаризации, использующий штрафные функции со всюду обратимой производной для решения пар двойственных задач /7 Труды МФТИ. 2011. Т. 3, № 1(9). С. 146 152.

2. Була А.К., Умное Е.А., Умное А.Е. Оптимизация формы множества Парето в задачах многокритериального программирования /7 Труды МФТИ. 2017. Т. 9, № 4(36). С. 120 131.

3. Фиакко А., Мак-Кормик F. Нелинейное программирование. Методы последовательной безусловной минимизации. М.: Мир, 1972. 240 с.

4. Умное Е.А.. Умное А.Е. Параметрическое сглаживание в минимаксных задачах /7 Труды МФТИ. 2017. Т. 9, № 4(35). С. 149 160.

5. Кудрявцев Л.Д. Курс математического анализа. В 2-х томах. Т. 2. М.: Высшая школа, 1981. 584 с.

6. Жадан В.Е. Методы оптимизации. Ч. 2. Численные алгоритмы. М.: МФТИ, 2015. 320 с. References

1. Umnov Е.А., Umnov А.Е. Parametric linearization method using penalty functions with everywhere invert able derivation. Proceedings of MIPT . 2011. V. 3, N 1(9). P. 146 152. (in Russian).

2. Bula A.K., Umnov E.A., Umnov A.E. Optimization of the shape of the Pareto set in multicriterial programming problems. Proceedings of MIPT. 2017. V. 9, N 4(36). P. 120 131. (in Russian).

3. Fiacco A. V., McCormick G.P. Nonlinear Programming: Sequential Unconstrained Minimization Techniques. M.: Mir, 1972. P. 240. (in Russian).

4. Umnov E.A., Umnov A.E. Parametric smoothing method in minimax problems. Proceedings of MIPT . 2018. V. 10, N 1(37). P. 142 154. (in Russian).

5. Kudryavtsev L.D. A course in mathematical analysis (V. 1 2). V. 2. M.: Vysshava shcola, 1981. P. 584. (in Russian).

6. Zhadan V.G. Methods of optimizftion. Introduction in convex analysis and theory of optimization. M.: MIPT, 2014. 270 p. (in Russian).

Поступила в редакцию 19.11.2018

i Надоели баннеры? Вы всегда можете отключить рекламу.