Научная статья на тему 'О быстрых алгоритмах однородного марковского монотонного поиска экстремума'

О быстрых алгоритмах однородного марковского монотонного поиска экстремума Текст научной статьи по специальности «Математика»

CC BY
117
35
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ГАРАНТИРУЮЩЕЕ ЧИСЛО ШАГОВ / ПРОСТРАНСТВО ОПТИМИЗАЦИИ / СКОРОСТЬ СХОДИМОСТИ

Аннотация научной статьи по математике, автор научной работы — Тихомиров А. С.

Получена оценка скорости сходимости некоторых однородных марковских монотонных алгоритмов случайного поиска экстремума. Эта оценка использована для построения класса быстрых методов оптимизации. Показано, что число вычислений целевой функции, требуемое для достижения заданной точности ε, имеет медленный (логарифмический) порядок роста при стремлении ε к нулю.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «О быстрых алгоритмах однородного марковского монотонного поиска экстремума»

УДК 519.676

А.С.Тихомиров

О БЫСТРЫХ АЛГОРИТМАХ ОДНОРОДНОГО МАРКОВСКОГО МОНОТОННОГО

ПОИСКА ЭКСТРЕМУМА

Институт электронных и информационных систем НовГУ, [email protected]

An estimate of the convergence rate of some homogeneous Markov monotone random search optimization algorithms is obtained. This estimate is used to construct a class of fast optimization methods. It is shown that the number of evaluations of the objective function required for achieving a given accuracy £ increases slowly (logarithmically) as £ tends to zero.

Ключевые слова: гарантирующее число шагов, пространство оптимизации, скорость сходимости

1. Введение

Работа посвящена теоретическому исследованию алгоритмов случайного поиска экстремума функции (см. [1-6]). В ней представлена оценка скорости сходимости однородного марковского монотонного случайного поиска, и с ее помощью построены быстрые алгоритмы оптимизации невырожденных целевых функций. Данная работа является продолжением работы [12] и дополняет результаты, изложенные в [3,7-12]. Доказательства всех утверждений приведены в [13].

В качестве пространства оптимизации рассмотрим пространство с какой-либо обычной метрикой р (см. [12]) и ^-мерной мерой Лебега теє. Замкнутый шар радиуса г с центром в точке х обозначим как Sr (х) = {у є Я^ : р(х, у) < г} и положим Ф(г) = теє^, (х)).

Пусть целевая функция /: Яd а Я принимает максимальное значение в единственной точке х0 = а^тах{/(х): х є Яd}, а нашей целью является отыскание точки х0 с заданной точностью є > 0. Для поиска точки максимума воспользуемся однородным марковским монотонным случайным поиском (см. [12]), описанным далее с помощью алгоритма моделирования.

Алгоритм 1

Шаг 1. 4 0 ^ х, і ^ 1.

Шаг 2. ? ^ Р(4м, •).

Шаг 3. Если /(<;) > /(4і-1), то 4і ^ ?, иначе

4 і ^ 4 і-1.

Шаг 4. і ^ і +1 и перейти к шагу 2.

Здесь х — начальная точка поиска, а Р(х, •) — марковские переходные функции (см. [3]), называемые пробными переходными функциями. Отметим, что введенный случайный поиск является монотонным в том смысле, что неравенства /(4і ) > / (4 і-1) выполняются при всех і > 0 . Ниже для вероятностей событий и математических ожиданий случайных величин, связанных со случайным поиском алгоритма 1, начинающимся в точке х є Яd , используются обозначения Рх и Ех .

Особое внимание будет уделено однородному марковскому монотонному случайному поиску, пробные переходные функции Р(х, • ) которого обладают симметричной плотностью вида р(х, у) = g(р(х, у)), где р — метрика, а g — невозрастающая функция, определенная на полуоси (0,+да). Функцию g назовем формой поиска.

При отыскании точки максимума х0 с заданной точностью є > 0 нас будет интересовать попадание поиска в множество

Мє = М(є) = {х є Sє (х0): /(х) > /(у) для любого у г Sє (х0)} .

Монотонный поиск, попав в множество М є, из него больше не выйдет. Поэтому мы будем изучать мо-

мент попадания поиска в множество Me. Обозначим те = min{i > 0: £i e Mе} — момент первого попадания поиска в множество Ме. Трудоемкость случайного поиска определяется как Exте и имеет смысл среднего числа шагов поиска до достижения им множества Ме. В [12] мы ограничились изучением трудоемкости случайного поиска. В этой работе мы исследуем другую характеристику те. Гарантирующее число шагов определяется как такое минимальное число N = N(x, f, е, у) шагов поиска, при котором достижение множества Ме гарантировано с вероятностью не меньшей у . Иначе говоря,

N(x, f, е, у) = min{i > 0: Px (£г e МЕ) > y} =

= min{i > 0 : Px (те < i) > y}. Если целочисленная функция Ni( x, f, е, y) обладает тем свойством, что для Y e (0,1) выполнено liminfea0 Px (£Ni e Mе) > y , то N1 называется асимптотически гарантирующим числом шагов поиска с надежностью Y.

Для построения быстрых алгоритмов случайного поиска на целевую функцию необходимо наложить дополнительные ограничения. Далее будем полагать,

что целевая функция f : Rd a R ограничена сверху,

измерима и удовлетворяет следующим условиям.

Условие 1. Функция f принимает максимальное

значение в единственной точке x0 = argmaX f(x): x e Rd}.

Условие 2. Функция f непрерывна в точке x0 .

Условие 3. Неравенство sup{ f (x): x g Sr (x0)} <

< f (x0) выполнено для любого r > 0 .

Условие 4. U r>0 Mr = Rd .

Ниже информация о целевой функции f будет выражаться в виде коэффициента асимметрии Ff (r) = mes(Mr )/mes(Sr (x)). Коэффициент асимметрии «сравнивает» поведение f с F-идеальной одноэкстремальной функцией f*, для которой Ff* = 1. В силу

условий, наложенных на целевую функцию, Ff (r) > 0

при всех r > 0 . Функции, у которых lim inf Ff (r) > 0

при r a 0 , будут называться невырожденными. Подробнее наложенные на f ограничения и свойства коэффициента асимметрии Ff обсуждаются в [3, 9].

2. Оценки скорости сходимости

Пусть параметры оценки {r;- }+=-ш таковы, что

0 < ri < ri_1 при всех i, ri a 0 при i a +да и ri a +да

при i a -да . Обозначим n(e) = min{i: ri < е} и

t(x) = sup{i: x e M(ri)}.

Пусть t < n и 0 < vi < 1 при t +1 < i < n . Введем величины

'sh 1 'sh 1 _ vi

Y(t,n,vt+1,...,vn) = ^ — ’ D(t’n’vt+1,K,vn) = —,

i=t+1 i i=t+1 vi

n1

К (t, n vt+1,..., vn ) = ^ —.

i=t+1 vi

Приведем вначале оценку трудоемкости случайного поиска работы [12].

Теорема 1. Пусть целевая функция / удовлетворяет условиям 1-4 и однородный марковский монотонный случайный поиск алгоритма 1 начинается в точке х г Ме. Пусть t = t(х), п = п(е) и неравенства О < V,- < 1п£{Р(у,М(г)): У 6 М(гг-1)} верны при всех t +1<, < п . Тогда трудоемкость случайного поиска удовлетворяет неравенству Е х те < у ^ п Vt+!,..., Vn ).

Получим асимптотически гарантирующее число шагов и оценки гарантирующего числа шагов для исследуемого случайного поиска. Отметим, что «простая» оценка гарантирующего числа шагов сразу следует из теоремы 1. В условиях теоремы 1, в силу неравенства Маркова, имеет место неравенство Рх (ТЕ < У (^ п, ^+!,..., Vn )/(1 _ у)) > у . Значит величина

Nм(1,n,Vt+l,к,Vn,Т) = [У(t,ПVt+l,к,Vn)/(1 _У)] (1) где через [г] обозначена целая часть числа г, служит

оценкой сверху гарантирующего числа шагов случайного поиска.

Далее получена другая оценка гарантирующего числа шагов случайного поиска, и показано ее превосходство над «простой» оценкой Жм. Обозначим

N о(1, n, V+1,K, Vn, т) =

= [У ^, п, Vt+1, к, Vn ) + Ф_Чу)Ф(1, П, Vt+1, к, Vn ))1/2], (2) где у 6 (0,1), Ф — функция распределения

стандартного нормального закона, функция Ф 1 является обратной к Ф .

Основной результат данной работы представляет следующая теорема.

Теорема 2. В условиях теоремы 1 верно неравенство Рх й N о 6 М Е ) >

> у _ Со16^ (t, n, V+l,к, Vn)/(D(t, n, Vt+l,к, Vn))3/2,

где с0 — абсолютная константа неравенства Эссеена. Следствие 1. Пусть в условиях теоремы 2 для

семейства пробных переходных функций Р (е) (зависящих от е) выполнено соотношение

Иш К О1, п, ^+1,..., Vn)/(D(t, п, Vt+l,..., '^п ))3/2 = 0, (3)

е—0

(е)

где V, = V, , и пусть величина М0 = Ыо(1, п, ^+1,..., vn, у) задается формулой (2). Тогда

Рх (4Ж0 6 М е ) > Т _ С016К (t, n, Vt+1, — , Vn )/

/(D(t, n, vn))3/2 е—>0 — Т. (4)

Соотношение (4) показывает, что величина Жо(1, п, v^+1,..., vn, у) является асимптотически гарантирующим числом шагов случайного поиска с надежностью у. Кроме того она является оценкой сверху гарантирующего числа шагов случайного поиска с надежностью у 0 = у _ с016К (t, п, v^+1,., vn) /

n, ^ +1,к, Vn ))3/2.

3. Быстрые алгоритмы случайного поиска

В этом разделе получим целый класс однородных поисков, дающих для невырожденных це-

левых функций оценки трудоемкости и гарантирующего числа шагов вида 0(1п е). Мы рассмотрим семейство однородных марковских монотонных случайных поисков алгоритма 1, пробные переходные функции которых зависят от требуемой точности решения задачи е и обладают симметричными плотностями ре (х, у) = gе (р(х, у)) с формами gе, задаваемыми следующим образом. Пусть И(г) — монотонно невозрастающая строго положительная функция, определенная на полуоси (0,+да) и такая, что функция И(г)га 1 суммируема на промежутке [1,+то). Кроме того предположим,

что И(г)га — 1 при г — 0. Не умаляя общности

будем считать, что функция И непрерывна слева.

Зафиксируем параметр а > 0 и положим при е > 0

ГИ(ае) при г < ае, g е (г) = ЦеК,() (5)

[И (г) при г > ае,

где множитель Х(е) обеспечивает условие нормировки (необходимое для плотности).

Определим теперь параметры используемой оценки. Зафиксируем коэффициент сжатия q 6 (0,1), радиус Я >0 и зададим радиусы окрестностей точки максимума следующим образом: г, = ЯqI. Положим

^(е) = Р/ (г, )Ф(г, )gе (г,_1 + г, ) .

Следующее утверждение уточняет результаты теорем 1 и 2 и следствия 1 для поисков с формами (5). Оказывается, что для этих поисков из

невырожденности целевой функции / следует выполнение условия (3). Поэтому в этих условиях выполняется соотношение (4).

Теорема 3. Пусть целевая функция / удовлетворяет условиям 1-4 и является невырожденной. Тогда для однородных марковских случайных поисков с формами (5) и начальной точкой х Ф х0 верны соотношение (4) и равенства У(!,п,^+1,...,Vn) = 0(1п2е), D(t,п,^+1,...,vn) = 0(|1п3е|),

К(t, n, vt+1,. , Vn ) /(D(t, n, Vt+1, . , Vn ))3/2 = 0(1 1пе |-1/2 ),

где t = t(х), п = n(е), г, = Яq1, V, = vг<'е) =

= Р/(г, )Ф(г,)gе (г,_1 + г,) .

Таким образом, случайные поиски теоремы 3 являются быстрыми, их трудоемкость и

гарантирующее число шагов имеют вид 0(1п2 е). Отметим, что для методов стохастической глобальной оптимизации (см., напр., [3-5]) типичным результатом является гораздо более худшая — степенная

(т. е. 0(1/еа) при а > 0) зависимость требуемого числа вычислений целевой функции от е .

В заключение покажем превосходство новой оценки Ы0 (см. (2)) над «старой» оценкой Жм (см. (1)), полученной с помощью неравенства Маркова. Из определения Ы0 видно, что в условиях теоремы 3 и для фиксированных х и у величина

Жо(1, п, vt+1,..., vn, у) асимптотически эквивалентна величине У (!, п, v^+1,..., vn) при е — 0. Асимптотика оценки Жм (см. (1)) будет хуже. Приведем

числовой пример для сравнения величины Ы0 с

_2

оценкой Жм при «большем» е = 10 . Возьмем

пространство оптимизации Я2 с метрикой рш (см. [12]), Р-идеальную функцию / х0 = (0,0) и х = (1,1). Параметры поиска и параметры оценки описаны в [13]. В качестве статистической оценки гарантирующего числа шагов использованы выборочные квантили Ы*( х, /, е, у), для

у

вычисления которых поиск повторялся 10 раз. Результаты статистического моделирования и расчетов представлены в следующей таблице.

Оценки гарантирующего числа шагов

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Надеж ность Y 0,9 0,93 0,99 0,993 0,999 0,9993 0,9999

N* 196 238 338 381 481 326 627

Nq/N* 2,14 1,96 1,64 1,З4 1,зз 1,29 1,17

13 22 76 13З ЗЗЗ 978 41Q1

Видно, что новая оценка М0 во много раз лучше старой оценки Жм, а при больших значениях

надежности у преимущество становится огромным. Так как с практической точки зрения интересны как раз большие значения надежности, то превосходство новой оценки очевидно.

1. Ермаков С.М., Жиглявский А.А. // Теория вероятностей и ее применения. 1983. №1. С.129-136.

2. Ермаков С.М., Жиглявский А.А., Кондратович М.В. // Журнал вычисл. математики и мат. физики. 1989. Т.29. №2. С.163-170.

3. Zhigljavsky A., Zilinskas A. Stochastic Global Optimization. Berlin: Springer-Verlag, 2008. 262 p.

4. Spall J.C. Introduction to stochastic search and optimization: estimation, simulation, and control. Wiley, New Jersey, 2003. 618 p.

5. Spall J.C., Hill S.D., Stark D.R. Theoretical framework for comparing several stochastic optimization approaches // Probabilistic and randomized methods for design under uncertainty. L.: Springer, 2006. P.99-117.

6. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование случайного поиска // Математические модели. Теория и приложения / Под ред. М.К.Чиркова. Вып.2. СПб.: Изд-во НИИХ СПбГУ, 2002. C.70-86.

7. Тихомиров А.С. // Вестник НовГУ. Сер.: Техн. науки. 2005. №34. С.90-95.

8. Тихомиров А.С. // Вестник НовГУ. 2006. №39. С.34-37.

9. Тихомиров А. С. // Журнал вычисл. математики и мат. физики. 2006. Т.46. №3. С.379-394.

10. Тихомиров А.С. // Журнал вычисл. математики и мат. физики. 2007. Т.47. №5. С.817-828.

11. Tikhomirov A., Stojunina T., Nekrutkin V. // J. of Statistical Planning and Inference. 2007. Vol.137. Issue 12. P.4031-4047.

12. Тихомиров А.С. // Вестник НовГУ. 2007. №44. С.51-54.

13. Тихомиров А.С. Деп. в ВИНИТИ №68-В2007 от 24.01.2007. 57 c.

i Надоели баннеры? Вы всегда можете отключить рекламу.