Математическое моделирование. Оптимальное управление Вестник Нижегородского университета им. Н.И. Лобачевского, 2013, № 6 (1), с. 189-215
УДК 519.853.4+519.853.6
НЕСКОЛЬКО ПОДХОДОВ К ОБОБЩЕНИЮ МЕТОДА DIRECT НА ЗАДАЧИ С ФУНКЦИОНАЛЬНЫМИ ОГРАНИЧЕНИЯМИ
© 2013 г. С.Ю. Городецкий
Нижегородский госуниверситет им. Н.И. Лобачевского
gorosyu@gmail. com
Поступила в редакцию 22.09.2013
Предложено два подхода к обобщению метода липшицевой глобальной оптимизации без оценивания констант Липшица - метода Direct - на задачи с функциональными ограничениями. Первый использует сведение к задачам безусловной оптимизации. Второй непосредственно распространяет принципы построения Direct на задачи с ограничениями. Построено три новых метода, выполнено их обоснование, исследована сходимость, проведено численное исследование.
Ключевые слова: многоэкстремальная оптимизация, функциональные ограничения, неограниченный диапазон констант Липшица, прямое обобщение метода Direct.
Введение
Метод Direct предложен в работе [1] авторов Jones D.R., Perttunen C.D., Stuckman B.E. Метод предназначен для поиска на гиперинтервале
D = [a,b] с Rn глобального минимума липшицевой целевой функции без использования конкретных значений или оценок константы Липшица Lf .
f * = f (x*) = min f (x), x є D = [a,b] с RN (1)
Direct принципиально отличается от других методов липшицевой оптимизации, разработанных ко времени его появления, именно отказом от оценивания константы Липшица. При этом относительно L f метод предполагает, что ее значение может быть любым числом из диапазона [0, да).
Поскольку в основной части статьи будут построены обобщения метода Direct на задачи более сложного вида, во Введении кратко остановимся на принципах построения исходной версии метода.
Метод Direct использует разбиение области поиска D на гиперинтервалы Dt = [ai, bt ] по центральной схеме деления на три. Следует отметить, что эта схема первоначально была предложена Евтушенко Ю.Г. и Ратькиным В.А. для метода липшицевой многоэкстремальной оптимизации в задачах с заданным значением константы Lf. В [2] был опубликован предварительный вариант этого метода в форме схемы деления на два. В методе деления на три на каждом шаге выбирается для последующего деления на три равные части (по большему ребру)
наиболее приоритетный гиперинтервал Dt. Его выбор определяется тем, что значение нижней оценки функции f (х) в пределах Dt, вычисленное по измерению ft = f (с,) в его геометрическом центре с, = (а, + Ь,)/2 и определяемое соотношением
/;(^) = f -(^,Dt) = f (с,) -Lfdt /2 , (2)
где dt = diamDt =|| Ь, - а, ||, оказывается наименьшим по сравнению с другими гиперинтервалами при заданном значении Lf. При этом
из сравнения исключаются гиперинтервалы, в которых значения нижних оценок-минорант fi- (Lf) не могут улучшить достигнутое к данной k -й итерации наименьшее значение функции
Гк = шт{у: i = 1,...,Мк} (3)
более, чем на заданное е > 0 . Здесь Мк = 1 + 2к
- количество гиперинтервалов разбиения (к = 1,2,3,...). Таким образом, выбор приоритетного Dt (гиперинтервала, делимого на данной итерации) определялся при известной константе липшица Lf правилами:
VDІ е Щ }: ^) < у- ^), (4)
< у*-е. (5)
Заметим, что если ни одного гиперинтервала Dt, удовлетворяющего как условию (4), так и условию (5), уже не находится, то задача оказывается решенной с точностью е по значению целевой функции. В этом случае метод деления на три завершает свою работу.
В отличие от обычного метода деления на три, в методе Direct [1], описание которого можно также найти в [3], значение Lf неизвестно, что приводит к следующему изменению принципа (4), (5) выбора приоритетных гиперинтервалов (их при неизвестном Lf называют потенциально оптимальными [1]).
Гиперинтервал Dt для задачи (1) является потенциально оптимальным, если выполнены два условия: во-первых, найдется хотя бы одно значение Lf е [0, да), при котором для него окажется справедливым условие (4), т.е. гиперинтервал Dt будет иметь наименьшее значение миноранты хотя бы при одном значении Lf среди всех гиперинтервалов, имеющихся в текущем разбиении {Д.} (такие гиперинтервалы называют недоминируемыми), и, во-вторых, для них при тех же значениях Lf должен выполняться измененный аналог (7) условия (5), обеспечивающий возможность достаточно существенного улучшения рекордного значения (3).
Правило выбора потенциально оптимальных гиперинтервалов приобретает вид:
3 Lf е [0, да): VD,. е {Д }: f- (Lf) < f; (Lf), (6)
f- (Lf) < fl -л*, (7)
где значение л* для (7) в [1] и [3] принимается в виде
Л* =в|Л*|, (8)
а fl вычисляется согласно (3).
Заметим, что параметр л* определяет желаемую меру улучшения достигнутого рекордного значения и необходим для возможности влияния на слишком сильную тенденцию метода к продолжению деления малых гиперинтервалов с лучшими найденными значениями целевой функции. Для правильной работы метода необходима положительность значения л* .
Принимаемый в методе принцип отбора новых гиперинтервалов для деления должен допускать эффективную реализацию. В работе [1] найдено простое геометрическое представление, позволяющее выделять множество гиперинтервалов Dt, удовлетворяющих условиям (6) и (7). А именно, если изобразить гиперинтервалы Д. на плоскости (d, f) точками с координатами (d, f ^ где d =\ъ,- а У, f = f (c h то
множеству точек (dt, f) для недоминируемых гиперинтервалов Д соответствуют вершины правой нижней части границы выпуклой линейной оболочки множества всех точек (di , fi ) .
Для вычислительно эффективного выделения точек (dt, f) в [1] предложено использовать правило Грэхема [4].
В методе Direct на каждой итерации выполняется разбиение по принципу деления на три (по большим ребрам) всех найденных потенциально оптимальных гиперинтервалов Д с последующим проведением в новых центрах образовавшихся гиперинтервалов измерений функции. Вычисления значений функций в новых центрах могут выполняться параллельно. Останов вычислений выполняется при превышении предельного количества итераций K или предельного количества M измерений целевой функции. Заметим, что метод Direct не имеет правила останова по точности, поскольку не использует оценок константы Липшица. Метод при тестировании демонстрирует хорошие поисковые характеристики, хотя относительно медленно уточняет найденное приближение. Как показано в [3], скорость сходимости улучшается при использовании предложенной в [3] модификации метода, основанной на переходе от центральной схемы деления на три к диагональной схеме деления. Сходимость метода носит всюду плотный (в пределе) характер при существенно неравномерной концентрации точек испытаний с их относительно более плотными сгущениями в областях с меньшими значениями целевой функции.
1. Известные обобщения метода Direct
К настоящему времени разработаны следующие обобщения Direct. В монографии [3] построен более эффективный вариант метода, работающий по диагональной схеме деления на три, что улучшает скорость сходимости. В [5] получено нетривиальное обобщение метода Direct на задачи с вычислимой липшицевой производной, константа Липшица которой неизвестна и может изменяться на промежутке [0, да); метод построен для задач (1) с размерностью N = 1. В [6] метод [5] распространен на многомерные задачи с использованием новой нецентральной одноточечной схемы разбиения множества Д в (1).
Обобщений метода Direct на задачи с функциональными ограничениями к настоящему времени построено не было. В некоторых работах предлагалось для метода Direct учитывать ограничения с использованием штрафных функций, однако этот подход нельзя считать корректным, поскольку предлагаемые штрафы не являются точными. В данной работе вариант метода штрафных функций с адаптивной на-
стройкой коэффициента штрафа рассматривается дополнительно к основным предлагаемым методам в целях сопоставления.
2. Предлагаемые подходы к обобщению метода Direct на задачи с функциональными ограничениями
Задачу с функциональными ограничениями рассмотрим в следующей постановке:
Q* = inf Q(x), x е X, (9)
X = {x е D = [a,b] с Rn : g(x) < 0}, (10)
где векторы а и b конечны. Если ограничений-неравенств несколько: gt(x) < 0,..., gm(x) < 0 , то они заменяются одним эквивалентным ограничением, как в (10), где
g(x) = max{ Cjg!(x);...;Cmgm(x) }, (11)
а Cj,...,Cm - размерные положительные нормирующие коэффициент^!.
Расширенное понятие решения. Будем предполагать, что при X ^ 0 точная нижняя грань в (9), (10) достигается, и целью численных методов является определение элементов x* из множества X глобальных минимумов задачи: X* с X, x* е X*, Q(x ) = Q . В случае пустоты допустимого множества (X = 0) будем неявно трактовать решение для (9)—(11) в расширенном смысле как обеспечение минимума невязки в ограничениях
g * = inf g (x), x е D = [a,b] с Rn . (12)
При этом будем предполагать, что точная нижняя грань в (12) достигается, а целью решения задачи (9)-(11) при X = 0 является опре* ТЛ*
деление элементов x из множества X , которое в данном случае будет пониматься как множество глобальных минимумов g(x) на D :
X* сD, x* еX*, g(x*) = g*.
Общие предположения о задаче сформулируем в виде нескольких требований.
A. Выполняется указанная выше достижимость точных нижних граней в (9), (10), и, кроме этого, значения функций Q и g ограничены
сверху на D.
B. При непустоте допустимого множества X для всякого решения x* должно существовать открытое подмножество х с X, замыкание
которого х содержит x*, а функции Q и g непрерывны на этом замыкании. Если X = 0 ,
*
то для всякого расширенного решения x должно существовать открытое подмножество
X с D , замыкание которого х содержит x*, а функция g непрерывна на этом замыкании.
С. Будем предполагать, что множество решений X * , понимаемое в обычном или расширенном варианте, является глобально устойчивым (по аналогии с терминологией [7]) в том смысле, что для любой минимизирующей последовательности xk, т.е. последовательности, удовлетворяющей
при X ^ 0 условиям Q(xk) ^ Q, xk е X , а при X = 0 - условиям g(xk) ^ g*, xk е D при k ^ да , выполняется требование р(xk,X ) ^ 0 , где
Р(xk,X*) =inf{|1 xk - x*11: x* е X*}.
Заметим, что исследование сходимости ряда построенных ниже методов будет выполнено в рамках этих достаточно слабых условий. В то же время, в целях построения новых методов в рамках двух предлагаемых ниже подходов будут приняты дополнительные конкретные предположения о свойствах функций задачи, различающиеся для разных методов.
Первый подход использует различные способы сведения исходной задачи (9)-(11) к задаче без функциональных ограничений (1) с изменяемой целевой функцией, свойства которой характерны для применения метода Direct. Рассмотрено два способа сведения: метод параметризации с перестраиваемой целевой функцией и метод негладкого штрафа с адаптивной настройкой. Дополнительные требования к задаче зависят от выбранного способа сведения.
Второй подход - прямое обобщение метода Direct - не использует перехода к задачам без функциональных ограничений и основан на непосредственном распространении принципов потенциальной оптимальности метода Direct на задачи с ограничениями-неравенствами (9)-(11). Прямое обобщение метода Direct построено в предположении, что целевая функция Q - липшицева с константой Lq е [0, да), а функция ограничения g (x) также считается липшицевой с константой Lg е [0, oLq ], где а
- заданный положительный параметр.
Далее в работе последовательно рассмотрены оба подхода, на их основе построены и исследованы три новых метода. Методы с перестраиваемой целевой функцией и прямое обобщение Direct рассматриваются как основные, а метод негладкого штрафа с адаптивной настройкой приведен для сравнения с двумя первыми. Предварительные результаты по первым двум методам были представлены в [8].
0k* =
3. Метод с перестраиваемой целевой функцией на основе Direct для задач с функциональными ограничениями
При построении метода исходные дополнительные предположения о задаче (9)—(11) заключаются в том, что функции 0 и g считаются липшицевыми с равными константами Lq = Lg = L, где значение L неизвестно и L е [0, да). Перейдем к описанию метода.
Пусть Qk - текущая оценка глобальноминимального значения функции в (9), (10): min { Q(c.): g(c.) < 0 (i = 1,..,Mk)},
если 3Dt : g(c.) < 0, (13)
+ да, если V Dt : g (c.) > 0, где Mk - количество гиперинтервалов Dt на k-й итерации, а c. - их геометрические центры. Введем перестраиваемую целевую функцию fk (x), зависящую от оценки 0* :
fk(x) = max{ Q( x) - Q*; g( x)}. (14)
Заметим, что на начальном этапе поиска, когда еще не встретилось ни одной допустимой точки ci и Q* =+да, функция fk (x) равна g (x). Константа Липшица при сделанных в начале описания метода предположениях равна L , значение L неизвестно, и L е [0, да).
Вместо задачи (9)—(11) с функциями-ограничениями будем решать задачу без таких ограничений:
min fk (x), x е D = [a,b] с RN
(15)
где в процессе поиска минимума целевая функция fk (x) изменяется вместе с изменением Qk. Легко видеть, что при Qk = 0 множество глобальных минимумов в (14), (15) совпадает с множеством глобальных минимумов исходной задачи (9), (10), что дает основания для замены (9)-( 11) на задачу (13)-(15).
Заметим, что предложенный способ учета ограничений, использующий переход к задаче вида (13)—(15), применялся в [9] при построении триангуляционного метода многоэкстремальной оптимизации для класса дифференцируемых функций с липшицевыми производными по направлениям. В [9] использовалось оценивание констант Липшица для производных.
В данной работе к решению вспомогательной задачи без ограничений (13)-(15) предлагается применить обычный метод Direct после некоторой его модификации. Модификация необходима по той причине, что в задаче (13)—(15) сразу же после нахождения первой допустимой
точки рекордное значение fk функции fk (x) становится тождественно равным нулю: fk = 0 , что приводит к невозможности применения правила (8), для вычисления л* . Вторая причина, по которой необходимо изменить соотношение (8), заключается в том, что принятая в [1] и используемая в [3] его форма приводит к неин-вариантности метода Direct по отношению к аффинным преобразованиям целевой функции вида f := Af + B .
Множитель, стоящий после параметра s в выражении для л*, назовем базовым значением. В (8) базовое значение при вычислении л* определяется как | fk |. Правило вычисления желаемой меры улучшения рекорда л* на основе нового базового значения Д fk предполагает замену (8) новым соотношением:
Л* =^f*. (16)
Новое базовое значение Дfk вводится как численная оценка определяемой ниже «идеальной» величины базового значения Дf, являющегося характеристикой свойств решаемой задачи (9), (10).
Опишем правило вычисления Д f. Временно отвлечемся от (9), (10) и рассмотрим некоторую функцию P(x), заданную на множестве D. Опишем для нее правило вычисления базового значения ДP . Пусть Pmax и Ртт - наибольшее и наименьшее значения этой функции на D . Введем параметр це (0,0.5) и определим величину Рц, принимающую значения между Pmax и Рmm, таким образом, чтобы мера подмножества в D со значениями функции Р(x), не превосходящими Рц, отнесенная к мере всего множества D, была равна ц :
V({x е D: Р(x) < Рц})/¥(D) = ц. (17)
Если значение Рц известно, то идеальное базовое значение ДР вводится для функции Р( x) как разность
др = рц - р™ .
Предположим далее, что значения Pmax, Pmm и Рц нам неизвестны и должны быть оценены по известным значениям Р функции Р(x) на наборе точек ct: р = P(ct), i = 1,...,Mk.
Введем следующий алгоритм получения численной оценки ДР* величины ДР. На начальном и последующем этапах поиска определим две различные схемы оценивания с целью
сокращения вычислительных затрат. Под начальным этапом поиска будем понимать набор
итераций k = 1,...к , на которых общее количество полученных гиперинтервалов Мк удовлетворяет условиям:
Мк < М, 1 < к < -, М- > М, (18)
где М - заданный дополнительный параметр алгоритма оценивания.
На итерациях начального этапа с номерами
к < к применяется упрощенный метод оценивания, при котором полагается
ДРк = Р - Р>, (19)
Р* = тах{р(с,.): г = 1,..., Мк},
Рк = тіп ір(сі): г = ^.^Мк}. (20)
На итерации с номером к = к, определяемом условием (18), применяется более точная процедура. Она выполняется в два этапа. А именно, вначале, перед вычислением Д Р-, выполняется упорядочение по возрастанию имеющегося набора значений р = Р(сі), і = 1,...,М-, с предварительным исключением из этого набора повторяющихся значений р . Операция исключения одинаковых значений окажет существенное влияние на результат, если функция Р( х) имеет участки постоянства. Такие участки могут порождаться самим алгоритмом поиска решения в задаче (9), (10) за счет применения специальных правил формирования функции Р(х). Такие правила применены, например, в методе, описанном ниже в разделе 4. За счет операции исключения повторяющихся значений число элементов может сократиться до некоторого значения М~, где 1 < М~ < М~.
к 7 к к
Далее, если оставшийся отсортированный набор перенумеровать верхним индексом, получим:
Р~* = Р1 < Р2 <... < Рм~ = Р-**. к к
Тогда значение ДР- вычисляется по формуле
ДР- = Р— — Р-, (21)
где
р— = рМд + (р т”М+1;М-} — рм д )(мЛМ- — мц ), Мц = шк{1;[мМг ]}. (22)
Значение ДР- из (22) хорошо аппроксимирует величину Д Рд из (17) в случае достаточно равномерного размещения точек испытаний на множестве D к итерации к = к .
На итерациях с номерами к > к используется значение, определенное для итерации к = к , т.е.
ДР* = ДР~ при k > k . (23)
Описанный алгоритм вычисления базового значения ДР* далее использован во всех трех построенных методах. В качестве функции Р( x) используются различные конкретные функции, связанные с этими методами.
Базовая версия метода заключается в применении стандартного алгоритма метода Direct к задаче (15) с заменой правила (8) на правило (16), в котором базовое значение Дfk определяется с использованием процедуры (18)-(23), где в качестве функции Р^) принимается перестраиваемая функция fk (x), определяемая согласно (13), (14). Заметим, что в этом методе при проведении испытаний в центрах ci гиперинтервалов Di вычисляются и сохраняются в памяти два исходных значения: Qt = Q(ci) и gi = g(c), а значения перестраиваемой функции fk (x) в этих точках каждый раз восстанавливаются по парам этих запомненных исходных величин с использованием соотношения (14), т.е. по формуле:
f* (ci)=max{ Qi- Qk*; gi}.
Численные эксперименты показывают, что параметр s существенно влияет на характер размещения испытаний. При больших значениях s наблюдается более равномерное размещение испытаний, при малых значениях наблюдается значительная тенденция к концентрации испытаний в областях обнаруженных локальных минимумов с меньшими значениями перестраиваемой функции.
Для возможности более гибкого управления работой метода на основе описанной выше базовой версии предлагается улучшенная версия базового метода. Модификация основана на введении балансировки значений основного параметра метода s . Вариант с балансировкой является окончательной версией метода с перестраиваемой целевой функцией на базе Direct для задач с функциональными ограничениями. В окончательной версии будем использовать не одно, а несколько существенно различных значений: ~, s1 и s 2, переключая их по специальному правилу. На начальной стадии поиска при итерациях с номерами k < k (где k определяется из (18) по значению параметра M ) применяется относительно большое значение s = ~, чтобы обеспечить достаточную равномерность размещения испытаний к итерации с номером k = k , что необходимо для ис-
пользования алгоритма вычисления базового значения (18)-(23) для определения Д fk. На
итерациях с номерами k > k чередуются два значения: s 2 и s1. Значение s = s 2 обычно выбирается весьма малым и призвано обеспечить итерации «локального» характера, преимущественно уточняющие найденные оценки решений. Это значение применяется на итерациях с номерами k , кратными дополнительно введенному
параметру K. На итерациях k > k, не кратных K, применяется значение s = s1, которое выбирается промежуточным по величине между ~ и s 2 , обеспечивая итерации с «глобальным» характером поиска. Последующие вычислительные эксперименты показывают, что введенная балансировка локальной и глобальной стратегий поиска в ряде задач положительно влияет на свойства предложенного метода.
Следует указать, что идея балансировки локальной и глобальной фаз поиска в рамках единой общей стратегии размещения испытаний в целях улучшения поисковых характеристик алгоритмов глобального поиска активно разрабатывается в работах Сергеева Я.Д. с соавторами (см., например, [3, 10]).
В качестве текущей координатной оценки решения в построенном методе используется та точка испытания xk , в которой достигается текущее рекордное значение fk* перестраиваемой целевой функции. Если одинаковое рекордное значение наблюдается в точках нескольких ис*
пытаний, в качестве xk принимается последнее.
Исследование сходимости построенного метода проведем при более слабых предположениях о свойствах задачи (9)—(11), чем было указано при построении метода. При этом будем использовать общие предположения, сделанные в разделе 2.
Теорема 1. Пусть для задачи с функциональными ограничениями (9)—(11), понимаемой в расширенном смысле, выполняются общие требования А-С раздела 2, тогда метод с перестраиваемой целевой функцией на основе Direct порождает последовательность испытаний со всюду плотным в пределе характером размещения, при этом все предельные точки последова-
*
тельности оценок решения xk принадлежат
множеству решений X .
Заметим, что всюду плотный характер размещения испытаний не означает их равномерного расположения в области поиска D . Приведенные в этом и следующих разделах вычислительные эксперименты показывают сущест-
венно неравномерное распределение испытаний в зависимости от поведения функций Q и g задачи (9)—(10).
Доказательство. В силу предположения о глобальной устойчивости множества решений X * (требование «С»), а также требований «В» к структуре множества глобальных минимумов X * и функциям задачи для доказательства теоремы достаточно обосновать всюду плотное в пределе размещение точек испытаний. Это достаточно очевидно в случае пустоты допустимого множества и фактического решения в этом случае задачи (12). Если же допустимое множество X непусто, выполнение требований «А» и «В» приведет, в случае всюду плотного размещения испытаний, к появлению подпоследовательностей точек измерений, сходящихся к ка*
ждому из решений x и принадлежащих соот-
*
ветствующим подмножествам х , где x е х , а функции Q, g или (при X = 0) функция g непрерывны на х . Таким образом, последовательность рекордных измерений xk* будет минимизирующей и, в силу требования «С», ее предельные точки будут являться решениями задачи.
Докажем теперь всюду плотное в пределе размещение испытаний. Исследуемый метод основан на применении к задаче (13)-(15) правил метода Direct, порождающего всюду плотное размещение испытаний в условиях применения стандартного алгоритма. Однако, во-первых, в задаче (15) минимизируемая функция, в отличие от стандартных условий, может изменяться при переходе к очередной итерации, и, во-вторых, предложенный метод использует новое правило вычисления л* - желаемого улучшения рекордного значения: вместо (8) применяется соотношение (15).
Заметим, что применение правила (15) вместе с принятым алгоритмом вычисления базового значения функции Д fk приводит к получению, начиная с конечной итерации k, постоянного конечного значения Д fk = C > 0 , и далее с определенной периодичностью метод чередует два положительных значения: л* = s1C и
Л* = s2C , что не может нарушить всюду плотный в пределе характер размещения испытаний (см. доказательство в [1]).
Проанализируем возможное влияние изменений целевой функции. Всюду плотное размещение в стандартном Direct основано на том, что на каждой итерации происходит обязательное деление на три одного из гиперинтервалов с наибольшим диаметром в разбиении множества
Рис. і. Примеры размещения испытаний методом T&Dir с перестраиваемой целевой функцией на основе Direct для задач с функциональными ограничениями из табл. 2: задачи і (слева) и задачи 3 (справа)
D . Это связано с тем, что гиперинтервал с наименьшим значением минимизируемой функции среди гиперинтервалов, имеющих наибольший диаметр, всегда является потенциально оптимальным на данной итерации в силу определения и поэтому делится. Поскольку число гиперинтервалов с наибольшим диаметром на каждой итерации конечно, это приводит к стремлению к нулю диаметра наибольшего гиперинтервала, что эквивалентно всюду плотному размещению испытаний в пределе.
В новом методе после каждой итерации может произойти изменение минимизируемой функции, что приведет к перевычислению ее значений в центрах всех существующих гиперинтервалов разбиения (функции Q, g при этом повторно не вычисляются). На количество гиперинтервалов с определенными значениями диаметров это никак не влияет. Поэтому один из наибольших гиперинтервалов по-прежнему будет делиться на каждой итерации, что сохранит требуемый характер размещения испытаний. Теорема 1 доказана.
Иллюстрация работы метода. На рис. 1 показано размещение испытаний, выполненных новым методом, маркируемым далее как T&Dir, на примере двух задач размерности N = 2 (показано 473 и 653 первых испытания). Условные глобальные минимумы найдены с погрешностями 0.002 и 0.0004 по значениям целевых функций. Серым цветом выделена допустимая область. Заметим, что приведенные на рис. 1 результаты соответствуют экспериментам 2 и 5 из табл. 4 в разделе 6.
4. Метод на основе прямого обобщения принципов Direct на задачи с ограничениями
4.1. Обобщение принципов отбора гиперинтервалов
Задачу с ограничениями-неравенствами рассмотрим в постановке (9), (10), предполагая, что функция Q является липшицевой с константой Lq = L , значение L неизвестно, и L е [0, да). Кроме того, примем, что функция g из (10) -липшицева с константой Lg , значение константы неизвестно, но взаимосвязано с L соотношением Lg е [0, aL], где a > 0 - заданный параметр. Поскольку значение L не ограничено, константа Липшица обобщенного ограничения g (x) потенциально также может принимать сколь угодно большие значения.
Преобразование задачи. В ходе дальнейшего рассмотрения показано, что в задаче (9), (10) целесообразно выполнить предварительную модификацию целевой функции, заменив Q( x) на некоторую другую функцию
fk(x) = F (Q(xX Pk h (24)
которая изменяется при переходе от одной итерации метода к другой таким образом, что в пределе, при к ^ да , решение исходной задачи (9), (10) совпадает с решением модифицированной задачи:
min fk (x), x е X, (25)
X = {xеD =[a,b] erN :g(x)<0}. (26)
Здесь к - номер итерации, а рк в (24) - параметр, зависящий от результатов испытаний, выполненных за к итераций. Функция / (x) будет введена таким образом, чтобы ее константа Липшица совпадала с L . Найденное в результате к выполненных итераций минимальное значение функции /к (x) на допустимом множестве
X обозначим через /*:
/; = min {/к (x‘): g (x‘) < О (i = \...,Mk )}.(27) Заметим, что преобразование целевой функции в (24) выполняется таким образом, что при одинаковом наборе точек проведенных испытаний {ct : i = i,..., Mk}, содержащем допустимые точки,
значения Q* и f* в (іЗ) и (27) совпадают.
В дальнейшем, чтобы не загромождать обозначения, индекс « k » у целевой функции будем опускать, но обозначение / для минимального достигнутого значения в задаче (25), (26) сохраним.
Процесс построения метода. В отличие от Direct, в задаче (24), (25) каждый гиперинтервал Di (его диаметр - di ) с вычисленными в его центре значениями Qt= Q(ct ) и gt = g(ct ) на к-й итерации характеризуется уже не парой, а тройкой чисел (d, /і , gi), что принципиально отличает ситуацию от задачи без функциональных ограничений (і). Значение fi каждый раз определяется по паре Qt, gt соотношением (24), т.е. / = F(Q,, pk). Для отбора на очередной итерации множества гиперинтервалов { Dt} , подлежащих делению, необходимо сформулировать новый принцип отбора. Отбираемые «лучшие» гиперинтервалы, как и в методе Direct, будем называть потенциально оптимальными. Они выбираются из категории недоминируемых гиперинтервалов, которая вводится ниже по аналогии с [і, З], но с учетом наличия ограничений.
Будем временно считать, что значения L и Lg известны. Тогда минимально возможные значения функций / и g в пределах гиперинтервала Dt = [a,, bt ], построенные по результатам вычисления / и g в центральной точке ct, определятся соотношениями
/-(L) = / (L,Dt) = / -Ldt/2; g,- (Lg) = g- (Lg,Dt) = g, - Lgdt /2. (28)
Гиперинтервал Dt назовем недоминируемым в задаче с ограничениями, если он является «лучшим» по сравнению с остальными хотя бы
при каком-то одном значении константы L. При этом сравнение двух гиперинтервалов происходит по значениям нижних оценок функции f (х) для этих гиперинтервалов, но само это сравнение разрещается выполнять только для тех L, для которых окажется соблюдено условие существования в диапазоне [0, аХ] значений константы Липшица ^ для функции ограничения g (х) < 0 , при которых условия неположительности выполняются для его нижних оценок g- (Lg) в обоих сравниваемых гиперинтервалах. Формально условие недоминируемо-сти для Dt примет вид:
ЗХ е[0, да):
ft- (Х) = тш{ f.- (Х): 3е [0, аХ]: g-() < 0 (/ = 1,...,Ык)},
3е [0, аХ]: g- (Lg) < 0. (30)
Каждому недоминируемому Dt отвечает некоторый диапазон [Х (Dt), V Щ)] значений константы Х , соответствующих ему в силу условий (29), (30). Для этого диапазона значений этот гиперинтервал оказывается «лучшим». Потенциально оптимальными в задачах с ограничениями назовем такие недоминируемые гиперинтервалы Dt, для которых дополнительно выполнено условие возможности существенного улучшения рекордного значения ^ из (27):
ЗХ е [Х Щ),Г (4)]: /-(Х) < г; -^, (31) где значения положительного параметра лк выбираются согласно (15) при использовании описанного в разделе 3 алгоритма вычисления базового значения ^к с заменой функции Р(х) на преобразованную функцию из (24). Конкретный вид преобразования (24) будет уточнен позднее.
Заметим, что ниже правила выделения «лучших» гиперинтервалов подвергнутся дополнительной модификации, и в качестве делимых на итерации гиперинтервалов {Dt} будут окончательно выбираться модифицированно потенциально оптимальные, образующие некоторое подмножество потенциально оптимальных. Однако на данном этапе изложения правило модификации еще не может быть определено.
Введенное определение потенциальной оптимальности непосредственно отражает наличие ограничений в (9), (10), однако является достаточно сложным для непосредственного использования. Приведенная ниже лемма 1 позволяет упростить условия (29), (30), определяющие недоминируемые гиперинтервалы.
Лемма 1. Условия (29), (30), определяющие недоминируемый гиперинтервал Д1, эквивалентны условиям:
3 Х е[0,да):
слоя {Дй}, для которых выполняются следую-
щие условия:
Dd = Dds),
s J (s) :
(32)
ft - (Х) = min{ ^ - (Х): g-(аХ) < 0 (/ = 1,...,Мк)},
g- (аХ) < 0. (33)
Доказательство. Очевидно, что из выполнения (32), (33) вытекает справедливость (29), (30) при Lg = аХ . Обратное также верно, поскольку,
в силу (28), функция g- () нижней оценки ограничения на Д монотонно убывает по . Следовательно, из выполнения неравенства g-(Х) < 0 для некоторого е[0, аХ] вытекает его выполнение и при = аХ. Лемма 1 доказана.
Для практического использования условий отбора делимых гиперинтервалов Д1 на основе соотношений (32), (33), (31) необходимы простые конструктивные правила выделения подмножества потенциально оптимальных Д1. Ниже выводятся, а затем формализуются и предлагаются геометрические и алгоритмические правила такого отбора. Они применяются в два этапа, описание которых приведено в пунктах 4.2 и 4.3.
4.2. Этап 1 - выделение гиперинтервалов, модифицированно недоминируемых в слое
Вначале рассмотрим более простой принцип отбора, использующий понятие недоминируе-мости в слое.
Выделение гиперинтервалов, недоминируемых в слое. Гиперинтервалы текущего разбиения {Д} разделим на группы - слои. В каждый слой объединим все Д, имеющие один и тот же диаметр = й (будем обозначать их
как Д.). Формально определим слой как следующее подмножество:
Д } = и { Д е {Д }М : Лат Д = й }.
При этом примем, что в й-слое введена собственная непрерывная нумерация, а сам й-слой перед к-й итерацией содержит Jk (й) гиперинтервалов.
С учетом леммы 1 по аналогии с общим определением (29), (30) введем понятие гиперинтервалов , недоминируемых в й-слое. К этой категории отнесем те из гиперинтервалов й-
ЗХ е [0, да): f- (Х, Д .) = шт{ f- (Х, Д. ): g- (аХ, Д.) < 0 0 = 1,..., Jk (й))}, (34)
g- (аХ, д. ) < 0. (35)
Каждому недоминируемому в й-слое гиперинтервалу будет соответствовать свой диапазон [Хй, Х^] значений константы Х , подходящих по условиям (34), (35). Для выделения в слое недоминируемых гиперинтервалов
д. = дл (примем, что 5 = 1,...,Бк(й)), а также
для определения границ указанных диапазонов константы Липшица элементы слоя удобно представить точками (gJ, ^) на плоскости (g, f).
Для создания геометрического образа выполнения условий недоминируемости в слое выберем произвольную точку (gj, fj) рассматриваемой плоскости, соответствующую Д. -одному из гиперинтервалов й-слоя. Представим процесс изменения параметра Х от 0 до +да как процесс движения по плоскости (g, f) точки
(g-(аХ, Д.), f -(Х,Д.)). Из (28) следует, что движение будет происходить вдоль луча I ^, исходящего из точки (gJ, ^) в направлении вектора (-а,1), при этом значению Х соответствует смещение на вектор (-а,1)Хй /2 .
В (34), (35) сопоставление гиперинтервалов слоя происходит по значениям нижних оценок целевой функции лишь для тех значений Х , при которых для нижних оценок ограничений g- (аХ, Д.) выполнено условие неположительности. Поэтому гиперинтервалы с gJ < 0 участвуют в сравнении начиная со значения Х = 0 , а гиперинтервалы с gJ > 0 - начиная со значения
Х = ~ = 2 gj/ (ай), (36)
при котором впервые выполнится условие g - (аХ, Д.) < 0. Это значение соответствует точке пересечения луча I ^ с осью ординат на плоскости (g, f). Ордината (значение f) точки пересечения соответствует при этом значению нижней оценки целевой функции на гиперинтервале Д. при указанном значении Х = Lj. Иллюстрация приведена на рис. 2.
Рис. 2. Представление гиперинтервалов 1-слоя точками на плоскости (g, f)
Поскольку при изменении Х все точки (gj, fj) совершают абсолютно одинаковые смещения, а сравнение в (34) происходит только для точек (g-(аХ, Д.), f -(Х, Д.)), достигших левой полуплоскости g < 0 , то появление очередного недоминируемого гиперинтервала может происходить только при переходе Х через очередное значение Х*. Чтобы такое выделение действительно произошло, достаточно, чтобы величина f- (Х*, Д.) = fj - gjL /(ай) оказалась меньшей, чем у всех уже выделенных при Х < Х* недоминируемых гиперинтервалов в
й-слое. Приведенные рассуждения позволяют формально обосновать несколько лемм.
Лемма 2. Если в слое {Д.} существуют точки (gj, fj) со значениями gj < 0, то гиперинтервалы Д. = 5) со значениями gjм < 0,
/(.) = f *' = тт{:gJ <0, Д е{Д}} являются недоминируемыми в слое, и для них
= 0. Точки й-слоя со значениями gj < 0,
> f л недоминируемым в й-слое гиперинтервалам не соответствуют.
Доказательство. Предположим, что в й-слое существует группа «допустимых» гиперинтервалов Д. со значениями gj < 0. Тогда значение
Х = 0 допустимо для проведения их сравнения между собой и не допустимо для всех остальных гиперинтервалов. При Х = 0 , очевидно, f- (Х, Д.) = fj, и поэтому при сравнении в
(34), (35) будут выделены как недоминируемые в слое только те гиперинтервалы этой группы, в которых значения целевой функции / (х) в их центре окажутся наименьшими в пределах группы «допустимых» гиперинтервалов й-слоя. Лемма 2 доказана.
Если в й-слое «допустимых» гиперинтервалов нет, будем формально полагать / й = +да .
Лемма 3. Для того чтобы в й-слое {Д.} точка (gj*, /.*) с gj* > 0 соответствовала гиперинтервалу Д1(5) (где 7(5) = у *), недоминируемому в й-слое, необходимо и достаточно, чтобы fj^5) < f *л и в слое не существовало другого гиперинтервала Д*, для которого gj < gj(5), fj < fj(5). При этом нижняя граница соответствующего ему диапазона значений константы
Липшица ^ = 2gj(„)/(ай7(5)) .
Доказательство проведем в два этапа. На первом этапе покажем, что для недоминируемо-сти в й-слое необходимо выполнение условия fj^5) < f . Пусть для некоторого Д* с gj > 0
это условие нарушено, т.е. fj > f . Тогда из (28)
очевидно, что для всякого Х > 0 будут выполнены такие же неравенства для нижних оценок соответствующих гиперинтервалов fj - Хй /2 >
> f л - Хй/2, показывающие, что Д* не является лучшим ни при каком Х . В том числе это будет справедливо и для диапазона значений Х > Ху из (28), в котором допустимо сравнение этих гиперинтервалов. Таким образом, гиперинтервал Д* не удовлетворяет определению не-
доминируемости в й-слое.
Проведем второй этап доказательства считая, что fj* < f *л и gj* > 0.
Пусть Ду* - недоминируемый в й-слое. Заметим, что он может участвовать в сравнении только для значений Х начиная с Х** из (36) и выше.
Запишем условие недоминируемости (34),
(35), положив значение Х = Х** = 2gj* /(ай). При
этом g- (аХу*, Д*) = 0 . Условие g- (аХ**, Д*) < 0 после подстановки значений примет вид: gj - gj* < 0, а экстремальное условие в (34) при данном значении Х перепишется следующим образом: Vgj со значениями
gj < gj* должно быть справедливо неравенство fj* - Хй/2 < fj - Хй/2 . Это означает, что не найдется такого Д*, что gj < gj*, /7 < /7*, что и
требовалось.
Теперь докажем достаточность. Пусть для Д** не существует Д*, для которого gj < g7* , /7 < /7*. Следовательно, для всех gj < gj* обязательно выполняется > /7*. Вычитая из обе-
их частей двух последних неравенств значения
(б)
Рис. 3. (а) - набор точек (gj, f.), соответствующих слою с diamDj = d , темные точки отвечают недоминируемым в d-слое гиперинтервалам D1 = Dld^^ , ^ = 1,2,..,6 ; (б) - порождаемые для них диапазоны значений константы L
(%Ld /2 и Ld / 2 соответственно, получим следующие два соотношения:
g- (aL, Dj ) < g- (aL, Dj*)
и
/-(Х, Д*) < /-(Х, Д).
Если принять Х = Х** = 2gj* /(ай), то g- (аХ**, Д**) = 0 . В совокупности все это означает, что условия (34), (35) будут выполнены для Д** при Х = Х**, что и требовалось. Лемма 3 доказана.
Перенумеруем индексом 5 недоминируемые в й-слое гиперинтервалы Д!! = Д1(5) в порядке возрастания значений . Для гиперинтервала Д. с наибольшим номером 5 = £ (й) положим
LS (1)+1 = +<Ж .
Геометрическую интерпретацию правил отбора недоминируемых в 1-слое гиперинтервалов, представленных в леммах 2, 3, иллюстрирует рис. 3.
Таким образом, получены простые геометрические правила отбора гиперинтервалов, недоминируемых в 1-слое.
Анализ принципа отбора в слое и выбор правил модификации целевой функции. Рисунок 3 наглядно показывает, что введенный принцип отбора недоминируемых гиперинтервалов в 1-слое может приводить к выделению значительного количества гиперинтервалов
Jj м
ной точке ( gjм > 0), функции f (х) в этой точке достаточно мало.
Dj ы с нарушенным ограничением в централь-если значение целевой
Это должно создать в последующем (при размещении точек испытаний в задаче (25), (26) с / (х) = Q(x)) тенденцию к излишней их концентрации в недопустимых подобластях с малыми значениями целевой функции Q. Это подтверждают проведенные вычислительные эксперименты.
Для уменьшения этой тенденции нужно так модифицировать Q(х), чтобы ее значения в недопустимых подобластях были увеличены. Наиболее простой способ может быть основан на следующем наблюдении.
Пусть Q - глобально-оптимальное значение в исходной задаче (9), (10). Тогда функция Q( х) может быть эквивалентно заменена функцией
/(х) = тахШ(х);Q* -С}, (37)
где С > 0. Это приведет к замене малых значений целевой функции в недопустимых областях на постоянное значение Q - С .
Поскольку величина Q неизвестна, в (37) её можно заменить текущей оценкой Qk из (13), а значение С определять как заданную долю 8 > 0 от некоторого характерного значения, в качестве которого предлагается использовать базовое значение Д/, определяемого по результатам испытаний задачи. Однако на начальном этапе поиска, когда метод еще не нашел ни одной допустимой точки, значение Qk = +да, что не позволяет использовать преобразование (37). На этом этапе целесообразно положить /(х) = g (х), что приведет на начальном этапе к поиску допустимых точек.
Таким образом, конструируется перестраиваемая целевая функция вида (38), которая конкретизирует вид введенного ранее в (24) преобразования минимизируемой функции:
тах{^х); а* - Ск К
если 3 : g (с.) < 0,
g(x),
если V : g (с.) > 0,
где Ск = 8Д/к, 0?к определяется согласно (13), и задача (9), (10) заменяется на (25), (26) с целевой функцией (38). Базовое значение Д/ вычисляется с использованием алгоритма (18)-(23), описанного в разделе 3, где в качестве функции Р(х) используется функция /к (х) из
(38). к
/к (x) Ч
(38)
при модификации функции (а) и его устранение при введении принципа модифицированной недомини-руемости в 1-слое (б)
Влияние модификации целевой функции на принцип отбора гиперинтервалов в слое.
Проанализируем влияние выполненной модификации (38) на отбор гиперинтервалов в 1-слое. Для этого используем ситуацию, представленную на рис. 3, предполагая, что по оси ординат отложены значения f = Q, т.е. преобразование функции (38) еще не применялось.
Предположим, что значение Qk — С, к немного превышает значение ^, отмеченное на рис. 3. На рис. 4 это значение отмечено пунктирной линией. Тогда при переходе от Q(х) к функции
^ (х) из (38) все точки, оказавшиеся ниже этой линии (на рис. 4а они показаны незакрашенными кружками) проецируются на нее, порождая новую группу гиперинтервалов, удовлетворяющих полученным выше правилам отбора в
1-слое (на рис. 4а эти точки-проекции показаны черными кружками, находящимися строго над незакрашенными).
Из примера на рис. 4а видно, что при сохранении построенных правил отбора модификация функции приводит к обязательному выбору в 1-слое всех «недопустимых» гиперинтервалов
со значениями Qj < Q* — Ск, что представляется избыточным. Указанный побочный эффект от модификации функции следует признать отрицательным, его устранение требует введения дополнительного правила отбора.
Модифицированное правило отбора недоминируемых гиперинтервалов в 1-слое. Обратим внимание, что дополнительно выделяемые гиперинтервалы, показанные черными кружками с номерами 4-8 на рис. 4а, характеризуются тем, что при одинаковых значениях модифицированной функции им соответствуют
разные значения gj > 0, что говорит о различной степени нарушения ограничений. Целесообразно из каждой такой группы оставить только одного представителя с наименее нарушенным ограничением, тогда в примере на рис. 4а черные кружки с номерами 5-8 исключатся из списка выделенных.
Следует также учесть ситуацию, показанную на рис. 4а черными точками с номерами 1, 2, 3. Здесь для точек 1 и 2 оба значения gj < 0, т.е.
центральные точки этих гиперинтервалов допустимы, и проводить сравнение двух значений gj для них не имеет смысла. В то же время, черная точка с номером 3, имеющая одинаковое значение f с точками 1 и 2, вполне может быть исключена из отбора.
Формально опишем дополнительное правило (правило модификации), введя понятие модифицирована недоминируемых гиперинтервалов в 1-слое. Будем говорить, что гиперинтервал 1-слоя )1І* относится к этой категории, если он является
недоминируемым в 1-слое, т.е. удовлетворяет условиям (34), (35), и, кроме того:
3DdJ Ф)**: тах{0;gj}<тах{0;gj*} (39)
и
^ = Л*.
Применение правила модификации недоми-нируемости для примера, представленного на рис. 4, приводит к тому, что избыточно расширенный набор выделенных гиперинтервалов (черные точки с номерами 1-8 на рис. 4а) сокращается до набора черных точек 1-3, показанных на рис. 4б.
Таким образом, применение метода включает модификацию исходной задачи (9), (10) к форме (25), (26) с использованием преобразования (38), (13). К модифицированной задаче на каждой итерации применяется на первом (предварительном) этапе отбора делимых гиперинтервалов процедура выделения «лучших» гиперинтервалов в каждом 1-слое с использованием принципа модифицированной недоминируемо-сти в слое (34), (35), (39).
Множество выделенных по этому принципу гиперинтервалов в 1-слое будем, как и ранее,
обозначать I)1 = ^ , 5 = 1,...,Бк(1), где, по по-
строению, всегда Бк (1) > 1. Как и раньше, каждому модифицированно недоминируемому гиперинтервалу )) отвечает диапазон соответствующих ему, согласно (34), (35), значений константы Липшица ^, ^5+1), где с учетом (36)
,, I 0, при gj(, < 0,
Ь =\ "(5) (40)
' l2gj■ м/(аё) пРи gjм > 0,
а при 5 = Sk (ё) значение ЬЛ5+1 = +да .
Заметим, что в ё-слое каждому из промежутков [Ьё,Ldi+l) диапазона значений Ь е[0, да)
обычно соответствует единственный модифицировало недоминируемый в слое гиперинтервал Дл со своим уникальным значением функции /к (х) в его центре. Сразу несколько гиперинтервалов Дл в ё-слое могут одновременно соответствовать промежутку [Ьё, Ьё+1) только в
том случае, когда их центральные точки допустимы, а значения минимизируемой функции /к (х) в их центрах совпадают и являются наименьшими в этом ё-слое (примером могут являться два гиперинтервала с номерами 1 и 2 на рис. 4б). Такой группе гиперинтервалов соответствуют одинаковые значения /1 функции /к (х) в их центрах. Таким образом, каждому промежутку [Ьё, Ьё+1) в ё-слое соответствует единственное значение пары (ё, /1).
4.3. Этап 2 - выделение из множества модифицированно недоминируемых в ё-слоях потенциально оптимальных гиперинтервалов
В соответствии с выполненной выше модификацией понятия недоминируемости в ё-слое, определим понятие модифицированной потенциальной оптимальности гиперинтервалов. К этой группе будем относить потенциально оптимальные гиперинтервалы, выделяемые из совокупности всех тех гиперинтервалов, каждый из которых является модифицированно недоминируемым хотя бы в одном из ё-слоев.
Тем самым, ранее данное определение несколько изменяется с учетом дополнительного критерия отбора (39).
Формирование независимых групп гипер-интервалов-претендентов. Перед выполнением второго этапа отбора объединим все множества значений Ь для 5 = 1,...,Sk(ё) +1 по всем значениям ё, существующим на к-й итерации. После этого выполним упорядочение по возрастанию всего набора найденных значений Ь с одновременным устранением повторов. Полученный упорядоченный набор значений констант Липшица представим в виде
0 < Ь1 < Ь2 < ... < Ьт < Ьт +1 =+« . (41)
Далее для каждого промежутка [Ь., Lj+1) из всех 1-слоев выделим те модифицированно недоминируемые гиперинтервалы Г)'1, для которых [Ь., Ь.+1) п [Ь, Ь^) Ф 0. Набор таких гиперинтервалов обозначим {Г.}, £ = 1,..,£(/). По построению для значений константы Липшица Ь є [Ь., Ь.+1) модифицированно недоминируемые
при этих значениях Ь в совокупности слоев гиперинтервалы могут содержаться только в наборе {Г£} . Заметим, что один и тот же гиперинтервал Д. может входить в состав нескольких различных наборов {Г.}, соответствующих разным промежуткам [Ь., Ь.+1), т.е. разным значениям . .
Лемма 4. Потенциально оптимальные гиперинтервалы, выделенные для диапазона значений константы Ь є [Ь., Ь.+1) в пределах набора
{Г.}, £ = 1,.., £(.), будут являться модифицированно потенциально оптимальными на множестве всех гиперинтервалов {Д} текущего разбиения при диапазоне Ь є [0, да) и Ье є [0,аЬ],
причем других модифицированно потенциально оптимальных гиперинтервалов для этого диапазона не существует.
Доказательство. Все гиперинтервалы, удовлетворяющие при диапазоне значений константы Ь є [Ь.,Ь.+1) условию модификации (39), а также условию недоминирования хотя бы в одном из слоев, включены в набор {Г.}, где £ = 1,..,£(.). Поскольку диапазоны [Ь., Ь.+;)для разных значений . не пересекаются, то никакие другие гиперинтервалы не могут участвовать при этих значениях Ь в сравнениях с элементами набора {Г£} при отборе модифицированно потенциально оптимальных. Если же один из гиперинтервалов Г/ , £ = 1,.., £(.), окажется «лучшим» по значениям нижней оценки целевой функции хотя бы при одном значении Ь , то он уже будет моди-фицированно потенциально оптимальным с учетом всего исходного бесконечного диапазона изменений Ь , а также диапазона . Других моди-
фицированно потенциально оптимальных гиперинтервалов, соответствующих промежутку [Ь., Ь.+1) возникнуть не может по построению.
Лемма 4 доказана.
Заметим, что поскольку при переборе всех значений . = 1,...,тк будут просмотрены все возможные значения Ь є [0, да), то в результате
будут получены все возможные модифицирован-но потенциально оптимальные гиперинтервалы.
Независимое выделение модифицирован-но потенциально оптимальных гиперинтервалов в наборах {Д}, £ = 1,..,£(/). Согласно лемме 4, достаточно для каждого ] = 1,...,тк независимо выполнить операции выделения потенциально оптимальных гиперинтервалов Д для их последующего дробления на данной итерации, проводя взаимное сравнение гиперинтервалов отдельно в пределах каждого из наборов {Д }, £ = 1,.., £(]), а также их сопоставление с пороговым значением / — лк из (31).
На этапе 2 при каждом значении ] = 1,2,...,тк сравнение достаточно проводить на плоскости (ё1 , /) с окончательным выделением модифицированно потенциально оптимальных гиперинтервалов Д по упрощенному принципу:
Д е{Д: £ = 1,..,£(/)}, (42)
3 Ь е[1.,, Ц+,): ^
УД, £ = 1,..,£(/'): /-(Ь,Д) < /-(Ь, Д), (43) /- (Ь,Д) < /* -Лк. (44)
Следует заметить, что Ь+х в (43) может
принимать неограниченное значение +<».
Это правило непосредственно вытекает из (29)—(31), а также описанного выше принципа
построения наборов {Д} с учетом правила модификации (39). Заметим, что в силу наличия пересечений наборов {Д} одни и те же гиперинтервалы Д могут быть выделены повторно для нескольких разных значений } . При этом в итоговый набор {Д} модифицированно потенциально оптимальных гиперинтервалов их следует включать лишь однократно. После выделения гиперинтервалы этого набора подвергаются делению на три.
Для вычислительной реализации описанного выше принципа отбора (42)-(44) необходима разработка специальных алгоритмов. В основе их построения лежит несколько утверждений, сформулированных ниже в виде лемм.
Чтобы упростить обозначения, временно пе-
реобозначим промежуток [Ьj, Ь^1+1) как [Ь , Ь+),
а соответствующий набор модифицированно недоминируемых в слоях гиперинтервалов
{Д} - как {Б} . Пусть ё = ё.ат Б , а значение
функции /к (х) на текущей итерации в его цен-
тре равно f. Сопоставим каждому из гиперинтервалов Г точку (1, f) плоскости (1, f). По правилам построения п. 4.2 и согласно замечанию в конце п. 4.2, на наборе гиперинтервалов
{Г} каждому значению 1 соответствует лишь
единственная точка (1, f) на этой плоскости (хотя с ней может быть связано несколько гиперинтервалов Г). Таким образом, на наборе точек Е = {(1, f)} все значения 1 будут различны. В дальнейшем будем считать Е упорядоченным
по возрастанию значений 1.
Для геометрической интерпретации правила сопоставления точек из Е введем коническое множество с вершиной в одной из точек (1, f) є Е :
К(1, /) = {(1, ^: тіп{(1 — 1) 17 /2;
(1 — 1) Г/2} < / — / < (45)
< тах{(1 — 1) 1712; (1 — 1) Ь+/2 }]
Множество К(1', f') выделено на рис. 5 (слева) серым цветом. Ниже будет доказано, что если (1', f') є Е и (1" , f") є Е , то в зависимости от места расположения второй точки (выше или ниже) по отношению к конусу К (1', f' ), порожденному первой точкой, вторая или первая точка не может быть недоминируемой, и лишь при их взаимном вхождении в конусы друг друга они обе могут быть недоминируемыми. Три варианта размещения значения f" обозначены на рис. 5 (слева) как ^^^ . Сформулируем указанные свойства более точно.
Лемма 5. Пусть набор точек Е = {(1, f)} соответствует множеству {Г} модифицирован-но недоминируемых в слоях гиперинтервалов, соответствующих одному из выделенных в (41) диапазонов значений констант Липшица [Ь., Ь.+1) = [Ь“, Ь). Пусть также (1', f" ) є Е, (1", f" ) є Е и 1’ < 1". Тогда:
(a) если вторая точка лежит выше конуса К (1, f'), т.е.
Г > Г + (1- — 1) Ь+/2 , (46)
то для указанного диапазона [Ь, Ь) вторая точка (1" , f" ) не является недоминируемой;
(b) если вторая точка лежит ниже этого конуса, т.е.
Г < / + (1" — 1) Ь-/2, (47)
^rLj+і)
Рис. 5. Этапы выделения гиперинтервалов Dt для диапазона Ь е [Ь), Ь)
удовлетворяющего требованиям
то для указанного диапазона [Ь , Ь) первая точка (й', f' ) не является недоминируемой.
Доказательство. Рассмотрим случай (46). Нужно доказать, что при любом Ь е[Ь,Ь) нижняя оценка минимизируемой функции / (х) в пределах соответствующего второй точке гиперинтервала Б" «хуже», т.е. больше, такой же оценки для Б'. Вначале покажем, что это выполняется для Ь = Ь. Действительно, из (46) сразу же следует нужная оценка:
/" - d"Ь+/2 > f ' + (й" - й')Ь+/2 -
- й ”Ь+12 = f ’ - й 'Ь+/ 2.
Теперь найдем такое значение Ь , при котором две нижние оценки для Б" и Б' были бы равны. Для этого решаем уравнение:
/"- й” Ц 2 = f' - й 'Ь*/2. (48)
Отсюда с использованием (46)
Ь = 2(f ’’- f')/(й" - й') >
> 2 (/ ' + (й" - й') Ь+/2 - f')/ (й" - й') = Ь.
Таким образом, корень уравнения (48) лежит правее верхней границы промежутка [Ь, Ь), следовательно, на всем промежутке сохраняется строгое неравенство
/''- й "Ь/ 2 > / ' - й 'Ь/ 2,
что и требовалось. Второй случай, при выполнении (47), доказывается аналогично. Лемма 5 доказана.
Заметим, что лемма 5 опирается только на первые два требования (42), (43) и не использует (44). При этом ее применение еще не позволяет полностью удовлетворить (42), (43). Лемма 5 используется для предварительного частичного сокращения набора точек Е, соответствующего набору гиперинтервалов {Б} перед окончательным выделением из него искомого под-
множества,
(42)-(44).
Применение леммы 5 к различным парам точек из Е приводит к выбраковке части из них. В результате этого процесса на плоскости ^; f) из набора Е формируется сокращенный
поднабор оставшихся точек Е, состоящий из цепочки точек, последовательно входящих в конусы вида (45), порождаемые последующими (по возрастанию значений rf) точками этого поднабора, как показано на рис. 5 (в центре). На этом рисунке все отмеченные кружками точки относятся к набору Е , а черные точки с номерами 1, 2, 3, 4 и 5 образуют поднабор Е. К этому поднабору далее должна быть применена дополнительная процедура выбраковки, которая будет рассмотрена позднее. Она выделит окончательное подмножество точек Е*, соответствующих искомому набору гиперинтервалов (см. рис. 5, справа).
Алгоритм выделения сокращенного поднабора Е на основе леммы 5 включает несколько шагов.
Шаг 0. Если Е включает только одну точку,
то полагаем Е = Е и завершаем выполнение алгоритма, иначе переходим на шаг 1.
Шаг 1. Набор точек Е = {(ё, f)} упорядочиваем по возрастанию значений d. В первоначально пустое множество Е помещаем первую точку из Е (т.е. точку с минимальным значением rf ). Обозначаем ее как (ІЇ, f ). Следующую точку точку из Е объявляем текущей и обозначаем как ($’, f").
Шаг 2. Если для точек (ІЇ, f ) и (^', f") выполнено условие (46), переходим к шагу 5, иначе, если выполнено условие (47), переходим к шагу 3, иначе добавляем ($' , f") к множеству
Е и полагаем (й', /) = (й", /" ), переходим к шагу 5.
Шаг 3. Исключаем из Е точку (й', /'). Если Е / 0, переходим на шаг 4, иначе добавляем (й", /" ) к множеству Е и полагаем (й', /') = (й", /"), переходим к шагу 5.
Шаг 4. В качестве (й', /) принимаем точку
из Е с наибольшим значением й' , переходим на шаг 2.
Шаг 5. Если в множестве Е точка (й", /") была последней, завершаем выполнение алгоритма. Иначе выделяем из Е точку, следующую за (й", /"), объявляем ее новой текущей точкой (й", /") и выполняем переход на шаг 2.
Заметим, что в силу ранее доказанного набор точек (й; /), соответствующих множеству гиперинтервалов, удовлетворяющих требованию отбора (42), (43), гарантированно содержится в построенном в результате применения приведенного выше алгоритма поднаборе Е, однако
в Е могут еще находиться точки, гиперинтервалы которых не удовлетворяют (42), (43). Это связано с тем, что лемма 5 обеспечивает выбраковку лишь при попарном сравнении точек и не рассматривает сравнения по большим ансамблям.
Кроме того, еще не было использовано условие (44), значение Ь в котором неизвестно и связано с выполнением условия (42), (43). Можно указать очевидное необходимое условие соблюдения (44) для некоторого гиперинтервала Б1, соответствующего точке (й, /) из Е. Оно заключается в выполнении неравенства / - ЛЬ72 < /* -цк, (49)
которое геометрически означает, что точка (0, /к* -%) должна лежать не ниже пересечения с осью ординат нижней границы конуса К (й, /). Это же условие можно переформулировать иначе: точка (й, /) не должна лежать выше конуса К(0, /* -^к). Однако очевидно, что выполнение (49) не является достаточным для соблюдения (44). Примером может служить точка с номером 1 на рис. 5 (справа), которая удовлетворяет (49), но для которой нарушается требование (44) для тех значений Ь , при которых для нее выполнено (42), (43).
Таким образом, для окончательного выделения совокупности гиперинтервалов {Б(}, удовлетворяющих критериям отбора (42)—(44), к
набору E нужно применить дополнительную процедуру выбраковки, учитывающую требования (42)-(44) в совокупности. Для этого достаточно применить описанный ниже алгоритм, вытекающий из правил отбора потенциально оптимальных гиперинтервалов в стандартном методе Direct (см. обоснование в работе [1]).
Алгоритм дополнительной процедуры выбраковки включает следующие шаги.
Шаг 0. Имеем упорядоченный по возрастанию координаты d набор точек E = {(d,/)}, полученный в результате использования алгоритма применения леммы 5.
Шаг 1. Добавляем в начало набора E точку (0, fk* ), получаем расширенный набор то-
чек E.
Шаг 2. С использованием алгоритма Грехема [4] строим минимальную выпуклую оболочку расширенного набора точек E.
Шаг 3. Исключаем из E точки, не вошедшие в нижне-правый участок границы построенной выпуклой оболочки. Оставшийся набор точек обозначаем E*.
Пример сокращения E в результате применения данного алгоритма показан на рис. 5 (справа). Точки с номерами 1 и 2, ранее принадлежавшие набору E, не вошли в E*. В нем остались только точки с номерами 3, 4.
Лемма 6. Множество гиперинтервалов, соответствующих точкам набора E , совпадает с набором гиперинтервалов {Dt}, удовлетворяющих условиям (42)-(44) для диапазона
L , L+i).
Доказательство вытекает из проведенных построений и обоснования правил стандартного метода Direct в [1].
4.4. Алгоритм формирования набора всех гиперинтервалов для деления на следующей итерации метода
Шаг 0. В результате последней выполненной итерации имеем набор гиперинтервалов {Д.},
i = 1,...,Mk, текущего разбиения множества D . Набор всех гиперинтервалов разделен на группы-слои {Djd} , имеющие одинаковые диаметры d гиперинтервалов.
Шаг 1. С использованием методов, описанных в п. 4.2, и представления гиперинтервалов каждого d-слоя на плоскости (g; f) в d-слоях выделяются (с учетом вычисленных значений
функций-ограничений и функции / (х), а также условия Ь е [0, аЬ]) модифицированно недоминируемые гиперинтервалы Бй = Б*^^ ,
5 = 1,..., Бк (й), и соответствующие им диапазоны возможных значений [Ь, Ь^) константы Липшица Ь .
Шаг 2. С использованием процедуры, описанной в начале п. 4.3, на основе совокупности наборов {Б/} выполняется формирование по совокупности всех й-слоев независимых групп гипер-интервалов-претендентов {Б/}, £ = 1,.., £(/), для соответствующих непересекающихся для диапазонов значений константы Липшица
Ь е [Ь, Ь+1^ / = 1,..., тк.
Шаг 3. Для каждого диапазона [Ь/, Ь/+1), / = 1,...,тк, выполняется в два этапа обработка группы модифицированно недоминируемых гиперинтервалов {Б/ }, £ = 1,.., £(/), с использованием их представления набором точек Е(/) на плоскости (й; /). На первом этапе применяется алгоритм выделения сокращенного подна-бора Е(/) на основе леммы 5, а на втором этапе
к Е(/) применяется алгоритм дополнительной процедуры выбраковки (описанный в конце п. 4.3) с получением сокращенного поднабора точек
Е*(/). Точкам этого набора соответствует множество {Б, (/)} всех модифицированно потенциально оптимальных гиперинтервалов Б1 (/) для диапазона значений Ь е[Ь/,Ь/+1). Множества {Б, (/)} для разных / могут пересекаться.
Шаг 4. Формируется итоговый набор {Б,} всех модифицированно потенциально оптимальных гиперинтервалов для Ь е [0,+да) путем
объединения множеств {Б,(/)}, / = 1,...,тк, с устранением повторов их элементов.
Набор {Б,} содержит все гиперинтервалы для деления на следующей итерации метода.
4.5. Выполнение итерации метода
В начале поиска существует только один гиперинтервал Б1 = Б с измерениями функций Q, g в его центре. Номер итерации к = 1,
Б, = Д.
На произвольной к-й итерации имеется множество гиперинтервалов {Д} , / = 1,...,Мк, к
которому применяется алгоритм, описанный в п. 4.4, для выделения набора модифицированно потенциально оптимальных гиперинтервалов { Dt} для последующего деления.
Все выделенные гиперинтервалы Dt перед началом следующей итерации разделяются на три равные части по их большим ребрам с вычислением функций Q и g в новых центрах образованных гиперинтервалов. После этого происходит увеличение номера итерации k := k +1, корректировка значения Qk из (13) и оценки решения хк. В случае их изменения проводится перевычисление в центрах ci имеющихся гиперинтервалов значений функции fk (x) из (38) на основании хранимых ранее вычисленных значений Qt и gt, проводится коррекция по описанным алгоритмам базового значения А fk. Далее выполняется переход к следующей итерации, и вся процедура выделения { Dt} повторяется.
Останов вычислений происходит в случае достижения предельного количества итераций K или предельного количества M измерений целевой функции.
Заметим, что в зависимости от номера итерации k в методе принято использование трех различных значений набора констант s, a, 8 :
~, a, 8 ; s1, a1,81; s2, a2,82. По аналогии с методом, описанным в разделе 3, применяется следующий алгоритм их выбора.
На начальной стадии поиска, при итерациях
с номерами k < k (где k определяется из (18) по значению параметра M ), применяются значения параметров с тильдой, которые призваны обеспечить достаточно равномерное размещение точек испытаний на начальном этапе поиска. На итерациях с номерами k > k чередуются две группы значений параметров с номерами І и 2. Значения с номером 2 выбираются так, чтобы обеспечить итерации «локального» характера, преимущественно уточняющие найденные оценки решений. Такие значения применяются на итерациях с номерами k, кратными дополнительно введенному параметру K . На итерациях k > k , не кратных K , применяются значения из набора с номером І, которые должны обеспечивать итерации с «глобальным» характером поиска.
4.6. Обоснование сходимости метода и анализ характера сходимости
Как было отмечено ранее, относительно базового метода Direct в задачах без функцио-
Рис. б. Примеры размещения испытаний для задач 1 (слева) и 3 (справа) из табл. 2 методом ExDir - на основе прямого обобщения принципов метода Direct на задачи с функциональными ограничениями
нальных ограничений известно, что последовательность испытаний сходится всюду плотно. Это является прямым следствием того, что константа Липшица может принимать значения из неограниченного диапазона. Эффективность метода достигается за счет неравномерности размещения точек. Аналогичный характер сходимости устанавливается и для построенного нового метода.
Так же, как и в случае метода с перестраиваемой целевой функцией (см. раздел 3), теорему сходимости сформулируем при гораздо более мягких условиях на решаемую задачу, чем предположения, принятые при построении рассматриваемого нового метода. Она полностью аналогична теореме 1.
Теорема 2. Пусть для задачи с функциональными ограничениями (9)—(11), понимаемой в расширенном смысле, выполняются общие требования А-С из раздела 2, тогда метод на основе прямого обобщения принципов Direct порождает последовательность испытаний со всюду плотным в пределе характером размещения, при этом все предельные точки последова-
*
тельности оценок решения xk принадлежат
множеству решений X .
Доказательство в первой его части, где устанавливается (в предположении всюду плотного характера размещения испытаний) принадлежность всех предельных точек последова-
* V*
тельности оценок решения xk к множеству X , совпадает с аналогичным для теоремы 1. Для нового построенного метода остается обосновать только всюду плотный в пределе характер размещения испытаний.
Как и в стандартном методе Direct, всюду плотное размещение будет доказано, если показать, что на каждой итерации нового метода в наборе делимых на итерации гиперинтервалов {Dt} обязательно будет содержаться хотя бы один гиперинтервал наибольшего диаметра из существующих.
Рассмотрим d-слой с наибольшим существующим значением d. Согласно теории, описанной в п. 4.2, на текущей итерации из гиперинтервалов d-слоя обязательно будет выделен один или несколько модифицированно недоминируемых в слое гиперинтервалов Dd, s = 1,..., Sk (d). С каждым из них связан диапазон значений констант Липшица [Lds,Lds+l), при котором данный гиперинтервал является «лучшим» в слое. Границы диапазона определяются согласно (40). При этом для Dd при s = Sk (d) значение LS+1 = +<». В качестве иллюстрации
укажем, что на рис. 4б гиперинтервалу Dd с бесконечным значением верхней границы диапазона констант Липшица соответствует точка с номером 3.
При выделении в п. 4.3 из совокупности наборов {Dd} независимых групп гиперинтервалов {D/ }, £ = 1,.., £(j), соответствующих диапазонам L е [Lj, Lj+j), указанный выше гиперинтервал Dd=S (d) попадет в группу с последним номером j = mk, когда L е[Lm ,+<»). Таким образом, ему будет соответсвовать неограничен-
ный сверху диапазон значений L . Из-за этого согласно алгоритмам, описанным в п. 4.3, соответствующая ему на плоскости (d, f) точка
будет включена в поднабор E, а также - в E . Следовательно, сам этот гиперинтервал будет включен в набор гиперинтервалов { Dt} , делимых на текущей итерации.
Дальнейшие рассуждения полностью совпадают с оставшейся частью доказательства для стандартного метода Direct, что и завершает обоснование теоремы 2.
Численные иллюстрации, демонстрирующие характер размещения и концентрации испытаний при использовании данного метода, маркируемого далее как ExDir, показаны на рис.
б на примере тех же двух задач (1 и 3) размерности N = 2, что и при аналогичной иллюстрации для метода T&Dir с перестраиваемой целевой функцией (см. рис. 1). Показано 217 и Зб3 первых испытания, соответственно. Условные глобальные минимумы найдены с погрешностями 0.002 и 0.0004 по значениям целевых функций. Серым цветом выделена допустимая область. При расчетах использованы значения параметров метода ExDir, соответствующие экспериментам 2 и З из табл. 4, приведенной в разделе б.
5. Метод негладкого штрафа с адаптивной настройкой коэффициента штрафа
Данный метод предложен в работе как дополнительный к двум рассмотренным выше методам. В разделе б он используется для сопоставления с результатами двух первых методов, которые рассматриваются как основные.
Метод штрафов с адаптивной настройкой, так же как и метод с перестраиваемой целевой функцией из раздела 3, построен в рамках первого подхода, указанного в разделе 2. То есть, он основан на сведении задачи с функциональными ограничениями (9), (10) к серии задач поиска глобального минимума (ІЗ) вспомогательных функций fk (x) на гиперинтервале D, где fk (x) строятся иначе, чем в (14). Как и для двух предыдущих методов, примем, что выполнены общие предположения A—C о задаче, представленные в разделе 2. Поскольку решение задачи (9), (10) понимается в расширенном смысле, вспомогательную функцию на k-й итерации в отличие от обычного метода штрафов примем в виде
Л(Х) =
(З0)
g(х), если V/ = 1,...,Мк:
g (с,) > 0,
Q( х) + у к • тах{0; g (х)},
если 3 / е {1,...,Мк}: g(с,) < 0 }, где ук > 0 - коэффициент штрафа.
Примем дополнительные исходные предположения. Будем считать, что функции Q и g липшицевы на Б со значениями констант ЬQ,Ьё из неограниченного диапазона [0,да). Кроме того, пусть существуют некоторая 8 -окрестность 08 (X) допустимого множества X и положительная константа V, такая что для точек х е Б П (08 (X) \ X) выполняется оценка снизу для значений функции ограничения: g(х) > ^р(х, X), где функция р определяет расстояние от точки до множества.
Известно [7], что при X /0 и выполнении указанных условий найдется пороговое значение у , такое, что при любом ук > у глобальные минимумы в задаче (15), (50) будут являться глобальными минимумами исходной задачи. Таким образом, требуется адаптивная настройка коэффициента штрафа ук , при которой на некоторой итерации поиска пороговое значение у будет превышено.
Процедура адаптивной настройки коэффициента штрафа начинает применяться после того, как будет найдена хотя бы одна допустимая точка. Приведем описание предлагаемой процедуры. Пусть, как и ранее, вычисляется величина Q* - текущее рекордное значение, а также хк - точка испытания, обеспечившая это значение. Пусть также
/к=т^{ л(с,):,=и- мк} (51)
- минимальное найденное значение текущей минимизируемой функции (50), wk - точка испытания, обеспечившая это значение, Qk = Q(wk), ёк = g (wk).
Используем следующее правило адаптивной коррекции коэффициента штрафа. Если ёк > 0, то текущее значение коэффициента штрафа у к заведомо меньше у * и должно быть увеличено. В рассматриваемом случае Qk >
> /к > Qk, причем обычно, за исключением особых случаев, первое неравенство - строгое. Определим новое значение у к+1 из следующего условия:
Qk +y k+g = Q* (1 -P) + Pfk*,
(З2)
где параметр P может быть выбран из диапазона P < 1. Таким образом, из (32) следует правило коррекции:
y,+i = (Q*(i-P) + Pf* -Q)/gk, (33)
которое, в силу (30), может быть записано в другой эквивалентной форме:
Yу+1 = (1 -P)(Q* -Q)/gk +Pyk. (34)
При этом выбор P = 1 приведет к постоянству значений yk, а значения P < 1 приведут (в общем случае) к увеличению значений yk, тем более быстрому, чем меньше P .
Если же gk < 0, то коррекция коэффициента штрафа не выполняется: y k+1 = Y k.
Заметим, что при использовании значений P < 0 после замены коэффициента штрафа его новым значением согласно (34), значение новой функции fk+1( x) в недопустимой точке wk станет больше, чем значение этой функции в допустимой точке xkk . При положительных значениях P этого не произойдет. Таким образом, для повышения гарантий достижения порогового значения y предпочтительными представляются значения P < 0. Однако приведенные в разделе б вычислительные эксперименты показывают, что в большинстве задач такой выбор параметра существенно замедляет сходимость к решению, и обычно приходится выбирать значения P, близкие к единице.
Общая структура метода штрафа с адаптацией. К решению задачи (1З) с изменяемой функцией fk (x) из (30) будем применять стандартный метод Direct, в котором величина цк (требуемое улучшение рекордного значения на итерации) определяется согласно (1б) через базовое значение Afk. Алгоритм (17)—(23) подсчета базового значения должен быть использован с заменой шаблонной функции P(x) на функцию
fk (x) из (30). Параметрами этого алгоритма являются описанные в разделе 3 константы ц, M.
После выполнения очередной итерации новое значение коэффициента штрафа вычисляется с использованием описанной выше процедуры, зависящей от параметра P .
В процессе работы метода Direct, применяемого к решению задачи (13), (30), используется не одно, а три различных значения параметра s из (1б): ~, s1, s2. Первое значение — на началь-
ных итерациях, пока количество испытаний Mk < M. Далее происходит чередование двух последних значений, причем значение s 2 применяется на итерациях с номерами k, кратными параметру K. Этот процесс аналогичен описанному в разделе 3.
6. Результаты экспериментального исследования
Представленные в этом разделе результаты вычислительных экспериментов для трех методов, предложенных в работе, получены на выборке из 13 задач, относящихся к 7 типам, описанным в табл. 1 и табл. 2. Задачи типов 4 и 5 (см. табл. 2) могут иметь разную размерность N > 2. Использовались значения N = 2,...,5. Задачи остальных типов - двумерные. Следует обратить внимание на включение в тестовый набор задач с разрывами целевой функции (задачи 6 и 7 из табл. 2).
Для маркировки методов использованы следующие обозначения: T&Dir - метод с перестраиваемой (T - от transformation) целевой функцией на основе измененного Direct (описан в разделе 3), ExDir - метод на основе прямого расширения принципов метода Direct (раздел 4), P&Dir - метод штрафов (P - от Penalty) с адаптивной настройкой в сочетании с измененным Direct (раздел 5).
Наборы параметров методов вместе с принятыми в экспериментах вариантами их значений представлены в табл. 3. Значения параметров были выбраны исходя из их содержательного смысла а также с учетом результатов предварительных расчетов.
Проведенные предварительные эксперименты показали следующий характер влияния основных параметров на размещение методами точек испытаний. Увеличение значений параметров группы s повышает тенденцию к более равномерному их размещению, а уменьшение -к большей концентрации в окрестностях текущих оценок решения. Метод ExDir имеет две дополнительные группы параметров: а и 8. Увеличение а повышает тенденцию метода к дополнительному обследованию недопустимых областей, а отрицательные значения 8 повышают равномерность размещения испытаний в недопустимых областях за счет подавления в них информации о вариабельности целевой функции. Параметр M определяет количество испытаний, по результатам которых выполняется окончательная оценка базового значения Д fk из (16). Значение M рекомендуется незна-
Таблица 1
Набор функций, использованных в вычислительных экспериментах_________________________
Функция Формула Источник
?1 -1.5y2exp(1 - y2 - 20.25(yi - y2)2)--(0.5(yi - 1)(y2 - 1))4 x X exp(2 - (o.5(yi - l))4 - (y2 -1)4) [11], [9]
q 2 (4 - 2.1y2 + у4/з)у2 + + y1 y2 + (4y2 - 4)у2 [3], [9]
q3 0.01(V1 y2 + (y1 -я)2 + 3(y2 -я)2)--(sin( y1 )sin(2 y2))2 [3], с модификацией [9]
q 4 0.001( (y1 - 2.2)2 +(y2 -1.2)2 - 2.25) [11], [9]
q 5 100(1 -( (y1 - 2)/1.2 )2 - (0.5 y2 )2) [11], [9]
q6 10( у2 -1.5 - 1.5sin(2rc(y1 -1.75))) [11], [9]
q7 - (1.5y1 - y2 - 0.2)2 - (2sin( 2у2) + 0.2)2 + 7 [9]
qs |3 1 |3 -14 + У1 + 0.1 + 2| у 2 - 0.2 [9]
q9 - (y1 - я + 0.1)2 - (2sin( y2) + 0.2)2 + 6 [9]
qio N X(y2 - cos(18y,2)) i=1 Функция Растригина Л.А.
qii N X y\ + 0Л - y1 i=2 —
q12 (я/N)|10sin2(яу1 ) + X[(y, - 1)2(1 + 10sin2(^i+1))]+ (yn -1)2 y. = 1 + (1/4)(x, -1), i = 1,...,N [3]
qi3 10(2a)2 - 10(x1 -(1 + a))2 +Х^г'(*. -1)2, a = 0.1 —
чительно увеличивать с ростом размерности задачи, например, со значения М = 100 для N = 2 и до М = 500 или М = 1000 для N = 5 . Дополнительный параметр К управляет балансировкой, т.е. частотой применения, групп параметров, отмеченных нижними индексами 1 и 2. А именно, на итерациях с номерами к, кратными значению К , применяется группа параметров с индексом 2, а на остальных - с индексом 1. Таким образом, при К = 1 используются значения только из группы с индексом 2. Дополнительные параметры у 0 и Р < 1 применяются только в методе P&Dir, где Р влияет на правило адаптивной настройки коэффициента штрафа ук.
Сравнительные результаты по основным методам T&Dir и ExDir представлены в табл. 4. Следует обратить внимание, что для этих методов существуют значения основных парамет-
ров, подходящие для всего набора тестовых задач, хотя они и не являются оптимальными для каждой из задач в отдельности.
Эксперименты проведены в следующих условиях. Для каждой задачи была задана требуемая погрешность решения Д = Qk - Q по значению целевой функции. Вычисления в методах проводились до момента первого выполнения требования Q* - Q < Д. При этом фиксировалось количество выполненных итераций к, а также число проведенных испытаний М. Эта пара значений в формате «М (к)» указана в табл. 4 для всех экспериментов для каждого из методов. Там же приведены значения Д^ , вычисленные методами и используемые ими в (16), а также указаны значения цк - относительные доли числа испытаний, проведенных в допустимой области, по отношению к их общему количеству.
Таблица 2
Описания тестовых задач____________________________________________
Задача Постановка, размерность Функции Область поиска В Количество локальных минимумов; Qo Глобальный ми- ҐЛ * * нимум Q , X
Задача 1 тіп ^УХ gi (у) < 0 (і = 1,2,3);у є В; N = 2 Q = Ч{; gl = q4, g2 = Ч5; gз = Чб [ 0, 4 ] [-1, з ] 5; Qo = -1.00000 2 * =-1.48968 (0.94248; 0.94526)
Задача 2 тт б(у% gi(у) < 0 (і = 1,2); у є В; N = 2 Q = Ч2; gl = Ч7; g2 = Ч8 [-2.5, 2.5 ] [-1.5, 1.5 ] 7; Qo = -0.21546 Q * = -0.80467 (-0.з2520;0.78197)
Задача 3 тіп °уX gl(у) < а у є В ; N=2 Q = Чз; gl = Ч9 [ 0, 2л ] [ 0, 2л ] 8; Qo = -0.81814 Q * =-0.81911 (1.з0499; 2.27249)
Задача 4 тіп ^уХ gl(y) < а у є В; N=2,^,5 Q = Ч10; 81 = Ч11 [-1, 1 Г [-1, 1 Г 12 (при N=2); Qo = (1 - N)--0.65248 Q * = -0.97з84--(N-1) х* = 0.1; х,* = 0 (і > 2)
Задача 5 тіп Q (у), ^(у) < 0; у є В; N=2,^,5 Q = Ч12; 8і = Чіз [-10, 10 ]ЛГ [-10, 10 ]лг 27 (при N=2) Qo = 1.72974Л¥ х° = (1.з, 1,..) Q* = 0.19536/N х* = 0.9; х* = 1(і > 2)
Задача 6 тіп °>( у), gl( у) < 0, у є В; N=2 Q Г Чз. 8і < 0 Q [Чз-1,8і > 0, 8і = Ч 9 [ 0, 2л ] [ 0, 2л ] 8; Qo = -0.81814 * б =-0.81911 (1.з0499; 2.27249)
Задача 7 тіп Q( у X gl( у) < 0, у є В; N=2 Q Г Чз, X > 2А [ч3-1,х1< 2.3, 8і = Ч 9 [ 0, 2л ] [ 0, 2л ] 8; Qo = -1.81814 * 01 =-1.81911 (1.з0499; 2.27249)
Таблица 3
Базовые наборы параметров методов при проведении экспериментов
Метод Код набора параметров Список параметров метода с набором основных значений
T&Dir Т1 ц = 0.з,М, є = 0.5, Єі = 0.5, є2 = 10-4, К
ЕхБіг Е1 ц = 0.з,М, є = 0.5, а = 1, 8 = 0; Еі = 0.1, а1 = 2, 81 =-0.1;є2 = 10-4, а2 = 0.5,82 =-0.1; К
Е2 ц = 0.з,М, є = 0.5, а = 1, 8 = 0; Еі = 0.5, а1 = 2,81 = -0.1; є 2 = 10-4, а 2 = 2,82 =-0.1; К
P&Dir Р1 ц = 0.з,М, ~ = 0.5, є1 = 0.5, є2 = 10-4, К у0 = 0.1, р = 0.99
Эксперименты с номерами 1, 2 и 3, 4 демонстрируют различное влияние параметра балансировки К в задачах разных типов. Основная часть экспериментов выполнена с отключением балансировки.
Характер размещения точек испытаний методами T&Dir, ExDir для задач 1 и 3 в экспериментах 2 и 5 (табл. 4) показан на рис. 1 и рис. 6. Аналогичные результаты для задач 2, 4 и 5 приведены на рис. 7, 8.
Решения задач 4 и 5 при размерностях N = 3,4, 5 представлены в экспериментах 7-9 и
11-13 табл. 4. Комментируя результаты, представленные в табл. 4, можно отметить, что оба метода, T&Dir и ExDir, демонстрируют хорошие поисковые свойства и в значительной степени равноценны по своим возможностям.
Результаты тестирования третьего метода -P&Dir, построенного для сравнения с двумя предыдущими, приведены в табл. 5. Использовалась та же постановка экспериментов, что и для методов T&Dir и ExDir. Из результатов табл. 5 следует, что при удачной настройке коэффициента штрафа метод демонстрирует хорошие показатели по скорости определения
Таблица 4
Сравнение основных методов T&Dir и ExDir_____________________________________
№ п/п Номер задачи; размерность Заданная погреш- ность 0* - 0 Результаты применения методов
T&Dir ExDir
Параметры: основные, дополни- тельные А/k Число испытаний (итераций) Ц k Параметры: основные, дополни- тельные А/k Число испытаний (итераций) Ц k
1 ^ <N За N 0.002 T1, К = 1, M = 100 0.88 545 (69) 0.55 ,1 0 N о IS* ~ E 0.91 257 (44) 0.29
2 ^ <N За N 0.002 T1, К = 2, M = 100 0.88 473 (69) 0.49 E1, К = 2, M = 100 0.91 217 (43) 0.24
3 Зад. 2 N=2 0.001 T1, К = 1, M = 100 1.35 249 (36) 0.56 ,1 0 N О E 1.97 241 (29) 0.45
4 Зад. 2 N=2 0.001 T1, К = 2, M = 100 1.35 293 (41) 0.56 E1, К = 2, M = 100 0.91 309 (35) 0.35
5 Зад. 3 N=2 0.0004 T1, К = 2, M = 100 0.61 653 (75) 0.70 E1, К = 2, M = 100 0.85 563 (61) 0.44
6 Зад. 4 N=2 0.0001 T1, К = 1, M = 100 0.40 303 (36) 0.19 ,1 0 N О <4 І E 0.33 341 (34) 0.12
7 s 4 За N 0.0001 T1, К = 1, M = 200 1.49 673 (64) 0.11 E2, К = 1, M = 200 0.38 765 (52) 0.07
8 з 4 За N 0.0001 Т1, К = 1, M = 500 1.50 701 (86) 0.07 E2, К = 1, M = 500 1.03 1681(81) 0.04
9 За N 0.0001 T1, К = 1, M = 500 1.50 701 (97) 0.05 E2, К = 1, M = 500 1.17 2559 (94) 0.03
10 Зад. 5 N=2 0.002 ,1 0 N О T 9.93 313 (43) 0.70 ,1 0 N О IS* ~ <4 І E 10.2 372 (42) 0.51
11 s 4 За N 0.002 T1, К = 1, M = 200 9.40 11493 (560) 0.73 E2, к = 1, M = 200 16.9 1269 (83) 0.38
12 <У? ^ За N 0.015 T1, К = 1, M = 500 15.3 9267 (548) 0.81 E == == 0 , 24.0 3051 (167) 0.31
13 За N 0.015 T1, К = 1, M = 500 19.4 >100000 0.94 E == == 0 , 24.9 7685 (249) 0.26
14 N дд 2 Оs 0.0004 T1, К = 1, M = 100 0.61 1531 (141) 0.63 E1, К = 2, M = 100 0.78 903 (7) 0.41
15 Зад. 7 N=2 0.0004 T1, К = 1, M = 100 0.72 1091 (102) 0.68 E1, К = 2, M = 100 0.94 935(91) 0.49
Рис. 7. Размещение испытаний в эксперименте 4 табл. 4 для задачи 2 методами T&Dir (слева) и ЕхБк (справа)
Таблица 5
Результаты применения метода Р&Ріг_______________________________________
№ п/п Номер задачи; размерность Заданная погреш- ность 0І* - Q* Параметры: основные, дополни- тельные А/к Число испытаний (итераций) Доля допустимых испытаний ц к Конечное значение коэффициента штрафа У к
1 $ ^ 0.002 М = 100, К = 2, Ус = 0.1, р = 0.99999 1.03 911(71) 0.54 0.72
2 Зад. 1 N=2 0.002 М = 100, К = 2, У0 = 0.1, Р = 0.9999 0.88 73559 (344) 0.98 5.53
3 Зад. 2 N=2 0.001 М = 100, К = 2, У0 = 0.ь р = -0.1 1.44 293 (41) 0.61 4.34
4 Зад. 2 N=2 0.001 М = 100, К = 2, У0 = 0.1, р = 0.97 1.17 211 (29) 0.48 0.65
5 Зад. 2 N=2 0.001 О , ^ ОО ~ 'і і і 1.18 3779 (84) 0.08 0.33
6 Зад. 3 N=2 0.0004 М = 100, К = 2, У0 = 0.Ь Р = 0.952 0.71 13967 (49) 0.96 3.94
7 Зад. 3 N=2 0.0004 М = 100, К = 2, У0 = 0.1, Р = 0.99 0.02 469 (38) 0.51 0.22
8 ^ <м з 4 0.0001 М = 100, К = 2, У0 = 0.Ь Р = 0.99 0.07 393 (28) 0.57 4.51
9 ^ <М з 4 0.0001 М = 100, К = 2, У0 = 0.ь р = 0.97 1.22 6473 (122) 0.92 16.41
10 з 4 0.0001 М = 100, К = 2, У0 = 0.Ь Р = 0.996 0.88 1357 (59) 0.21 3.10
11 з 4 0.0001 М = 100, К = 2, У0 = 0.1, Р = 0.998 0.53 74377 (415) 0.003 0.76
Рис. 8. Размещение испытаний в эксперименте 10 табл. табл. 4 для задачи 4 методом ExDir (справа)
оценок решения. Однако, как видно из табл. 5, значение параметра Р адаптивной настройки штрафа, обеспечивающее хорошую работу метода, оказывается существенно различным для разных задач. Общего значения этого параметра, подходящего для всего тестового набора, не существует, что делает метод штрафов непригодным для использования в сочетании с методом Direct для задач с неограниченным диапазоном значений констант Липшица.
Последняя группа экспериментов (строки 15 и 16 в табл. 4) направлена на проверку возможности решения методами T&Dir и ExDir задач с разрывами целевой функции. Теоретически это было установлено при доказательстве теорем о сходимости. В качестве тестовых использовались задачи 6 и 7, которые были получены из задачи 3 путем добавления разрывов в целевую функцию. В задаче 6 линия разрыва проходит точно по границе допустимой области (на этой границе находится условный глобальный минимум задачи). В задаче 7 разрыв размещен вдоль линии х2 = 2.3 , проходящей в непосредственной близости (с отклонением 0.0425 по координате х2) от условного глобального минимума задачи. Таким образом, структура тестовых задач 6, 7 такова, что в ходе поиска должно происходить накопление испытаний, по крайней мере, на некоторых участках линий разрыва.
Нужно отметить, что традиционные методы липшицевой оптимизации, оценивающие значение константы Липшица в ходе поиска, в этой ситуации оказываются неработоспособными. Был проведен эксперимент с триангуляционным методом параболоидов (SMP-метод) для
4 для задачи 5 методом T&Dir (слева) и в эксперименте 6
задач с ограничениями [9]. Этот метод считает, что функции задачи имеют липшицевы производные по направлениям, однако измеряет только значения функций. Константа Липшица оценивается. В исходной задаче 3 без разрывов при заданной точности решения по координатам 0.00003 метод SMP выполнил до останова 236 испытаний (доля допустимых испытаний составила 0.43) и получил оценку условного глобального минимума с точностью 0.00001 по значению целевой функции. Оцененное им значение константы Липшица для производных составило 530.
При введении разрывов в целевую функцию, как в задаче 6, метод SMP при той же заданной точности решения по координатам остановился после 1599 испытаний, найдя лишь оценку локального минимума; оценка константы Липшица неограниченно возрастала, достигнув к моменту останова значения 1.3 -105. При втором способе добавления разрывов, как в задаче 7, и заданной точности решения по координатам
0.00003 SMP-метод параболоидов выполнил останов после 1630 испытаний с оценкой константы Липшица, равной 1.2 -1033. В обоих случаях метод выродился в равномерный перебор допустимой области и узкой зоны вдоль линий разрыва.
Результаты, приведенные в строках 15, 16 табл. 4 для предложенных в работе новых методов T&Dir и ExDir, показывают, что оба метода, в отличие от метода SMP из [9], с предложенными задачами справились, хотя затраты на получение оценки глобального минимума в задачах с разрывом, по сравнению с исходной задачей 3, возросли примерно в 1.5-2 раза. На
Рис. 9. Размещение испытаний в задачах с разрывами: слева - в эксперименте 16 табл. 4 (задача 7) для метода T&Dir; справа - в эксперименте 15 табл. 4 (задача 6) для метода ExDir
рис. 9 показано размещение испытаний для двух из четырех проведенных расчетов в указанных экспериментах.
Заключение
В работе построены и теоретически обоснованы два новых метода многоэкстремальной липшицевой оптимизации при неограниченном диапазоне значений констант Липшица в задачах с функциональными ограничениями. Они обобщают на случай наличия функциональных ограничений известный метод Direct. Тестовые испытания подтверждают хорошие поисковые характеристики методов. Показана также возможность их применения на задачах с разрывами. Третий метод, основанный на использовании адаптивного негладкого штрафа, показал свою неэффективность.
Автор выражает благодарность выпускнику ВМК ННГУ Назарову О.С. и студенту ВМК ННГУ Жунину А.Ю. за помощь в программной реализации новых методов.
Работа выполнена при финансовой поддержке Министерства образования и науки РФ, государственное соглашение о предоставлении гранта М 14.B37.21.0878.
Список литературы
1. Jones D.R., Perttunen C.D., Stuckman B.E. Lipschit-zian optimization without the Lipschitz constant // J. Optim. Theory and Appl. 1993. V. 79. № 1. P. 157-181.
2. Евтушенко Ю.Г., Ратькин В.А. Метод ноло-винных делений для глобальной оптимизации функ-
ций многих переменных // Изв. АН СССР. Техническая кибернетика. 1987. Т. 1. С. 119-127.
3. Сергеев Я.Д., Квасов Д.Е. Диагональные методы глобальной оптимизации. М.: Физматлит, 2008. 352 с.
4. Препарата Ф.Ф., Шеймос М.И. Вычислительная геометрия. Введение. М.: Мир, 1989. 478 с.
5. Sergeyev Ya.D., Kvasov D.E. A univariate global search working with a set of Lipschitz constants for the first derivative // Optimization Letters. 2009. № 3. P. 303-318.
6. Kvasov D.E., Sergeyev Ya.D. Lipschitz gradients for global optimization in a one-point-based partitioning scheme // Journal of Computational and Applied Mathematics. 2012. V. 236. P. 4042-4054.
7. Карманов В.Г. Математическое программирование: Учеб. пособие. М.: Физматлит, 2008. 264 с.
8. Городецкий С.Ю. Обобщения метода Direct на задачи с функциональными ограничениями // Высокопроизводительные параллельные вычисления на кластерных системах: Материалы XII Всероссийской конференции (26-28 ноября 2012, Н.Новгород). Н.Новгород: Изд-во ННГУ, 2012. С.101-105.
9. Городецкий С.Ю. Триангуляционные методы параболоидов в задачах многоэкстремальной оптимизации с ограничениями для класса функций с липшицевыми производными по направлениям // Вестник Нижегородского университета им. Н.И. Лобачевского. 2012. № 1(1). С. 144-155.
10. Lera D., Sergeyev Ya.D. Acceleration of univariate global optimization algorithms working with Lipschitz functions and Lipschitz first derivatives // SIAM Journal on Optimization. 2013. V. 23. № 1. P. 508-529.
11. Стронгин Р.Г., Баркалов К.А. О сходимости индексного алгоритма в задачах условной оптимизации с е-резервированными решениями // В сб.: Математические вопросы кибернетики. М.: Наука, 1999.
С. 273-278.
SEVERAL APPROACHES TO GENERALIZATION OF THE DIRECT METHOD TO PROBLEMS
WITH FUNCTIONAL CONSTRAINTS
S.Yu. Gorodetsky
Two approaches are proposed to generalize the Lipschitz global optimization method without Lipschitz constant evaluation (the DIRECT method) to the problems with functional constraints. The first approach uses the reduction to unconstrained optimization problems. The second one directly extends the DIRECT method principles to the problems with constraints. Three new methods have been constructed and justified, convergence has been investigated, and a numerical study has been made.
Keywords: multiextremal optimization, functional constraints, unconstrained range of Lipschitz constants, direct generalization of the DIRECT method.