УДК 519.676
А.С.Тихомиров
О БЫСТРЫХ АЛГОРИТМАХ ОДНОРОДНОГО МАРКОВСКОГО МОНОТОННОГО
ПОИСКА ЭКСТРЕМУМА
Институт электронных и информационных систем НовГУ, [email protected]
An estimate of the convergence rate of some homogeneous Markov monotone random search optimization algorithms is obtained. This estimate is used to construct a class of fast optimization methods. It is shown that the number of evaluations of the objective function required for achieving a given accuracy £ increases slowly (logarithmically) as £ tends to zero.
Ключевые слова: гарантирующее число шагов, пространство оптимизации, скорость сходимости
1. Введение
Работа посвящена теоретическому исследованию алгоритмов случайного поиска экстремума функции (см. [1-6]). В ней представлена оценка скорости сходимости однородного марковского монотонного случайного поиска, и с ее помощью построены быстрые алгоритмы оптимизации невырожденных целевых функций. Данная работа является продолжением работы [12] и дополняет результаты, изложенные в [3,7-12]. Доказательства всех утверждений приведены в [13].
В качестве пространства оптимизации рассмотрим пространство с какой-либо обычной метрикой р (см. [12]) и ^-мерной мерой Лебега теє. Замкнутый шар радиуса г с центром в точке х обозначим как Sr (х) = {у є Я^ : р(х, у) < г} и положим Ф(г) = теє^, (х)).
Пусть целевая функция /: Яd а Я принимает максимальное значение в единственной точке х0 = а^тах{/(х): х є Яd}, а нашей целью является отыскание точки х0 с заданной точностью є > 0. Для поиска точки максимума воспользуемся однородным марковским монотонным случайным поиском (см. [12]), описанным далее с помощью алгоритма моделирования.
Алгоритм 1
Шаг 1. 4 0 ^ х, і ^ 1.
Шаг 2. ? ^ Р(4м, •).
Шаг 3. Если /(<;) > /(4і-1), то 4і ^ ?, иначе
4 і ^ 4 і-1.
Шаг 4. і ^ і +1 и перейти к шагу 2.
Здесь х — начальная точка поиска, а Р(х, •) — марковские переходные функции (см. [3]), называемые пробными переходными функциями. Отметим, что введенный случайный поиск является монотонным в том смысле, что неравенства /(4і ) > / (4 і-1) выполняются при всех і > 0 . Ниже для вероятностей событий и математических ожиданий случайных величин, связанных со случайным поиском алгоритма 1, начинающимся в точке х є Яd , используются обозначения Рх и Ех .
Особое внимание будет уделено однородному марковскому монотонному случайному поиску, пробные переходные функции Р(х, • ) которого обладают симметричной плотностью вида р(х, у) = g(р(х, у)), где р — метрика, а g — невозрастающая функция, определенная на полуоси (0,+да). Функцию g назовем формой поиска.
При отыскании точки максимума х0 с заданной точностью є > 0 нас будет интересовать попадание поиска в множество
Мє = М(є) = {х є Sє (х0): /(х) > /(у) для любого у г Sє (х0)} .
Монотонный поиск, попав в множество М є, из него больше не выйдет. Поэтому мы будем изучать мо-
мент попадания поиска в множество Me. Обозначим те = min{i > 0: £i e Mе} — момент первого попадания поиска в множество Ме. Трудоемкость случайного поиска определяется как Exте и имеет смысл среднего числа шагов поиска до достижения им множества Ме. В [12] мы ограничились изучением трудоемкости случайного поиска. В этой работе мы исследуем другую характеристику те. Гарантирующее число шагов определяется как такое минимальное число N = N(x, f, е, у) шагов поиска, при котором достижение множества Ме гарантировано с вероятностью не меньшей у . Иначе говоря,
N(x, f, е, у) = min{i > 0: Px (£г e МЕ) > y} =
= min{i > 0 : Px (те < i) > y}. Если целочисленная функция Ni( x, f, е, y) обладает тем свойством, что для Y e (0,1) выполнено liminfea0 Px (£Ni e Mе) > y , то N1 называется асимптотически гарантирующим числом шагов поиска с надежностью Y.
Для построения быстрых алгоритмов случайного поиска на целевую функцию необходимо наложить дополнительные ограничения. Далее будем полагать,
что целевая функция f : Rd a R ограничена сверху,
измерима и удовлетворяет следующим условиям.
Условие 1. Функция f принимает максимальное
значение в единственной точке x0 = argmaX f(x): x e Rd}.
Условие 2. Функция f непрерывна в точке x0 .
Условие 3. Неравенство sup{ f (x): x g Sr (x0)} <
< f (x0) выполнено для любого r > 0 .
Условие 4. U r>0 Mr = Rd .
Ниже информация о целевой функции f будет выражаться в виде коэффициента асимметрии Ff (r) = mes(Mr )/mes(Sr (x)). Коэффициент асимметрии «сравнивает» поведение f с F-идеальной одноэкстремальной функцией f*, для которой Ff* = 1. В силу
условий, наложенных на целевую функцию, Ff (r) > 0
при всех r > 0 . Функции, у которых lim inf Ff (r) > 0
при r a 0 , будут называться невырожденными. Подробнее наложенные на f ограничения и свойства коэффициента асимметрии Ff обсуждаются в [3, 9].
2. Оценки скорости сходимости
Пусть параметры оценки {r;- }+=-ш таковы, что
0 < ri < ri_1 при всех i, ri a 0 при i a +да и ri a +да
при i a -да . Обозначим n(e) = min{i: ri < е} и
t(x) = sup{i: x e M(ri)}.
Пусть t < n и 0 < vi < 1 при t +1 < i < n . Введем величины
'sh 1 'sh 1 _ vi
Y(t,n,vt+1,...,vn) = ^ — ’ D(t’n’vt+1,K,vn) = —,
i=t+1 i i=t+1 vi
n1
К (t, n vt+1,..., vn ) = ^ —.
i=t+1 vi
Приведем вначале оценку трудоемкости случайного поиска работы [12].
Теорема 1. Пусть целевая функция / удовлетворяет условиям 1-4 и однородный марковский монотонный случайный поиск алгоритма 1 начинается в точке х г Ме. Пусть t = t(х), п = п(е) и неравенства О < V,- < 1п£{Р(у,М(г)): У 6 М(гг-1)} верны при всех t +1<, < п . Тогда трудоемкость случайного поиска удовлетворяет неравенству Е х те < у ^ п Vt+!,..., Vn ).
Получим асимптотически гарантирующее число шагов и оценки гарантирующего числа шагов для исследуемого случайного поиска. Отметим, что «простая» оценка гарантирующего числа шагов сразу следует из теоремы 1. В условиях теоремы 1, в силу неравенства Маркова, имеет место неравенство Рх (ТЕ < У (^ п, ^+!,..., Vn )/(1 _ у)) > у . Значит величина
Nм(1,n,Vt+l,к,Vn,Т) = [У(t,ПVt+l,к,Vn)/(1 _У)] (1) где через [г] обозначена целая часть числа г, служит
оценкой сверху гарантирующего числа шагов случайного поиска.
Далее получена другая оценка гарантирующего числа шагов случайного поиска, и показано ее превосходство над «простой» оценкой Жм. Обозначим
N о(1, n, V+1,K, Vn, т) =
= [У ^, п, Vt+1, к, Vn ) + Ф_Чу)Ф(1, П, Vt+1, к, Vn ))1/2], (2) где у 6 (0,1), Ф — функция распределения
стандартного нормального закона, функция Ф 1 является обратной к Ф .
Основной результат данной работы представляет следующая теорема.
Теорема 2. В условиях теоремы 1 верно неравенство Рх й N о 6 М Е ) >
> у _ Со16^ (t, n, V+l,к, Vn)/(D(t, n, Vt+l,к, Vn))3/2,
где с0 — абсолютная константа неравенства Эссеена. Следствие 1. Пусть в условиях теоремы 2 для
семейства пробных переходных функций Р (е) (зависящих от е) выполнено соотношение
Иш К О1, п, ^+1,..., Vn)/(D(t, п, Vt+l,..., '^п ))3/2 = 0, (3)
е—0
(е)
где V, = V, , и пусть величина М0 = Ыо(1, п, ^+1,..., vn, у) задается формулой (2). Тогда
Рх (4Ж0 6 М е ) > Т _ С016К (t, n, Vt+1, — , Vn )/
/(D(t, n, vn))3/2 е—>0 — Т. (4)
Соотношение (4) показывает, что величина Жо(1, п, v^+1,..., vn, у) является асимптотически гарантирующим числом шагов случайного поиска с надежностью у. Кроме того она является оценкой сверху гарантирующего числа шагов случайного поиска с надежностью у 0 = у _ с016К (t, п, v^+1,., vn) /
n, ^ +1,к, Vn ))3/2.
3. Быстрые алгоритмы случайного поиска
В этом разделе получим целый класс однородных поисков, дающих для невырожденных це-
левых функций оценки трудоемкости и гарантирующего числа шагов вида 0(1п е). Мы рассмотрим семейство однородных марковских монотонных случайных поисков алгоритма 1, пробные переходные функции которых зависят от требуемой точности решения задачи е и обладают симметричными плотностями ре (х, у) = gе (р(х, у)) с формами gе, задаваемыми следующим образом. Пусть И(г) — монотонно невозрастающая строго положительная функция, определенная на полуоси (0,+да) и такая, что функция И(г)га 1 суммируема на промежутке [1,+то). Кроме того предположим,
что И(г)га — 1 при г — 0. Не умаляя общности
будем считать, что функция И непрерывна слева.
Зафиксируем параметр а > 0 и положим при е > 0
ГИ(ае) при г < ае, g е (г) = ЦеК,() (5)
[И (г) при г > ае,
где множитель Х(е) обеспечивает условие нормировки (необходимое для плотности).
Определим теперь параметры используемой оценки. Зафиксируем коэффициент сжатия q 6 (0,1), радиус Я >0 и зададим радиусы окрестностей точки максимума следующим образом: г, = ЯqI. Положим
^(е) = Р/ (г, )Ф(г, )gе (г,_1 + г, ) .
Следующее утверждение уточняет результаты теорем 1 и 2 и следствия 1 для поисков с формами (5). Оказывается, что для этих поисков из
невырожденности целевой функции / следует выполнение условия (3). Поэтому в этих условиях выполняется соотношение (4).
Теорема 3. Пусть целевая функция / удовлетворяет условиям 1-4 и является невырожденной. Тогда для однородных марковских случайных поисков с формами (5) и начальной точкой х Ф х0 верны соотношение (4) и равенства У(!,п,^+1,...,Vn) = 0(1п2е), D(t,п,^+1,...,vn) = 0(|1п3е|),
К(t, n, vt+1,. , Vn ) /(D(t, n, Vt+1, . , Vn ))3/2 = 0(1 1пе |-1/2 ),
где t = t(х), п = n(е), г, = Яq1, V, = vг<'е) =
= Р/(г, )Ф(г,)gе (г,_1 + г,) .
Таким образом, случайные поиски теоремы 3 являются быстрыми, их трудоемкость и
гарантирующее число шагов имеют вид 0(1п2 е). Отметим, что для методов стохастической глобальной оптимизации (см., напр., [3-5]) типичным результатом является гораздо более худшая — степенная
(т. е. 0(1/еа) при а > 0) зависимость требуемого числа вычислений целевой функции от е .
В заключение покажем превосходство новой оценки Ы0 (см. (2)) над «старой» оценкой Жм (см. (1)), полученной с помощью неравенства Маркова. Из определения Ы0 видно, что в условиях теоремы 3 и для фиксированных х и у величина
Жо(1, п, vt+1,..., vn, у) асимптотически эквивалентна величине У (!, п, v^+1,..., vn) при е — 0. Асимптотика оценки Жм (см. (1)) будет хуже. Приведем
числовой пример для сравнения величины Ы0 с
_2
оценкой Жм при «большем» е = 10 . Возьмем
пространство оптимизации Я2 с метрикой рш (см. [12]), Р-идеальную функцию / х0 = (0,0) и х = (1,1). Параметры поиска и параметры оценки описаны в [13]. В качестве статистической оценки гарантирующего числа шагов использованы выборочные квантили Ы*( х, /, е, у), для
у
вычисления которых поиск повторялся 10 раз. Результаты статистического моделирования и расчетов представлены в следующей таблице.
Оценки гарантирующего числа шагов
Надеж ность Y 0,9 0,93 0,99 0,993 0,999 0,9993 0,9999
N* 196 238 338 381 481 326 627
Nq/N* 2,14 1,96 1,64 1,З4 1,зз 1,29 1,17
13 22 76 13З ЗЗЗ 978 41Q1
Видно, что новая оценка М0 во много раз лучше старой оценки Жм, а при больших значениях
надежности у преимущество становится огромным. Так как с практической точки зрения интересны как раз большие значения надежности, то превосходство новой оценки очевидно.
1. Ермаков С.М., Жиглявский А.А. // Теория вероятностей и ее применения. 1983. №1. С.129-136.
2. Ермаков С.М., Жиглявский А.А., Кондратович М.В. // Журнал вычисл. математики и мат. физики. 1989. Т.29. №2. С.163-170.
3. Zhigljavsky A., Zilinskas A. Stochastic Global Optimization. Berlin: Springer-Verlag, 2008. 262 p.
4. Spall J.C. Introduction to stochastic search and optimization: estimation, simulation, and control. Wiley, New Jersey, 2003. 618 p.
5. Spall J.C., Hill S.D., Stark D.R. Theoretical framework for comparing several stochastic optimization approaches // Probabilistic and randomized methods for design under uncertainty. L.: Springer, 2006. P.99-117.
6. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование случайного поиска // Математические модели. Теория и приложения / Под ред. М.К.Чиркова. Вып.2. СПб.: Изд-во НИИХ СПбГУ, 2002. C.70-86.
7. Тихомиров А.С. // Вестник НовГУ. Сер.: Техн. науки. 2005. №34. С.90-95.
8. Тихомиров А.С. // Вестник НовГУ. 2006. №39. С.34-37.
9. Тихомиров А. С. // Журнал вычисл. математики и мат. физики. 2006. Т.46. №3. С.379-394.
10. Тихомиров А.С. // Журнал вычисл. математики и мат. физики. 2007. Т.47. №5. С.817-828.
11. Tikhomirov A., Stojunina T., Nekrutkin V. // J. of Statistical Planning and Inference. 2007. Vol.137. Issue 12. P.4031-4047.
12. Тихомиров А.С. // Вестник НовГУ. 2007. №44. С.51-54.
13. Тихомиров А.С. Деп. в ВИНИТИ №68-В2007 от 24.01.2007. 57 c.