УДК 519.626
НИЖНИЕ ОЦЕНКИ ТРУДОЕМКОСТИ МАРКОВСКОГО СИММЕТРИЧНОГО СЛУЧАЙНОГО ПОИСКА НА ТОРЕ
А. С. Тихомиров
LOWER ESTIMATES FOR THE COMPUTATIONAL COMPLEXITY OF MARKOV SYMMETRIC RANDOM SEARCH ON THE TORUS
A.S.Tikhomirov
Институт электронных и информационных систем НовГУ, [email protected]
Исследуется трудоемкость марковских алгоритмов случайного поиска экстремума функции. Показано, что для широкого класса случайных поисков, обладающих естественным свойством симметрии, число вычислений целевой функции, необходимое для достижения требуемой точности £ решения задачи, не может расти медленнее, чем | lne |. Ключевые слова: случайный поиск, глобальная оптимизация, стохастическая оптимизация
The computational complexity of Markov random search algorithms designed for finding the extremum of function is investigated. It is shown that, for a wide class of random search methods which possess a natural symmetry property, the number of the objective function evaluations needed to find the extremum accurate to £ cannot increase more slowly than | ln£ |. Keywords: random search, global optimization, stochastic optimization
1. Введение
Пусть целевая функция f: X ^ R (где, например, X = Id = (0,1]d) принимает минимальное значение в единственной точке x*. Рассмотрим задачу поиска точки глобального минимума x* с заданной точностью е. Один из способов решения этой задачи состоит в применении алгоритмов случайного поиска экстремума функции (см. [1-16]). Такие методы давно и успешно используются при решении сложных задач оптимизации. Тем не менее, существует мало теоретических результатов о скорости сходимости этих алгоритмов (см. [3-7]). Данная работа посвящена исследованию трудоемкости марковских алгоритмов случайного поиска экстремума. Отметим, что алгоритм simulated annealing (алгоритм «имитации отжига»), являющийся одним из самых знаменитых алгоритмов стохастической глобальной оптимизации, принадлежит рассматриваемому семейству методов.
В качестве характеристики трудоемкости алгоритма используем число вычислений целевой функ-
ции, требуемое для достижения заданной точности е решения задачи. Причина выбора такой характеристики состоит в том, что именно вычисления целевой функции составляют основной объем вычислительной работы при выполнении исследуемых алгоритмов (подробнее см. [5]).
В данной работе представлены нижние оценки трудоемкости марковских алгоритмов случайного поиска экстремума функции. Удалось доказать, что такие алгоритмы не могут быть слишком быстрыми. Оказывается, что (при некоторых ограничениях) число вычислений целевой функции, необходимое марковским алгоритмам случайного поиска для достижения заданной точности е решения задачи, не может расти медленнее, чем | lne |. В данной работе продолжены исследования статьей [17] и [18]. Здесь рассмотрено другое, широко используемое на практике множество оптимизации (0,1]d , более широкий класс алгоритмов случайного поиска (формы переходных функций которых зависят от текущей точки поиска). Кроме того, здесь доказана точность полученных оценок трудоемкости.
Отметим также, что в задачах стохастической глобальной оптимизации удалось построить такие марковские поиски (см., например, [4, 12-16]), для которых (при некоторых ограничениях на целевую функцию, разумеется) требуемое число вычислений целевой функции логарифмически зависит от заданной точности решения задачи.
Результаты работы позволяют оценить потенциальные возможности марковских алгоритмов и сделать вывод о том, что трудоемкость некоторых построенных алгоритмов близка к оптимальной, по крайне мере по порядку зависимости от е.
2. Постановка задачи
Назовем пространством оптимизации множество оптимизации X, снабженное метрикой р. Мы ограничимся случаем d-мерного пространства
Id = (0,1]d с метрикой
р<Хy) = pœ(xy) = maxmin{| xn -yn |,i-1 xn -yn (1)
1<n<d
где x = (xp,...,xd) и y = (y 1,...,yd). Замкнутый шар радиуса r с центром в точке x обозначим через Br (x) = {y е Id : p(x, y) < r}.
Для метрики (1) пространство оптимизации (Id, р) топологически является d-мерным тором. Выбор метрики тора в кубе Id вместо обычной метрики позволяет рассматривать оптимизацию в Id и Rd параллельно. В частности, мы получаем возможность вводить в Id симметричные переходные функции, естественные для Rd (см. [12]). Тем самым удается избежать изучения «краевых эффектов», возникающих вблизи границы куба. В то же время для изучения порядков скорости сходимости случайного поиска выбор тора в качестве пространства оптимизации не является принципиальным. Действительно, пусть целевая функция f принимает минимальное значение в единственной точке x*. При x* е (0,1)d малые окрестности точки x* в кубе и торе совпадают, и результаты скорости сходимости, полученные для тора, автоматически переносятся на куб. Выбор метрики тора сказывается здесь только на конструкции поиска.
Далее предполагается, что целевая функция
f : Id ^ R измерима и принимает минимальное значение в единственной точке x* .
Случайным поиском называется произвольная последовательность случайных величин {^n }n>0 со
значениями в Id . Следуя [19] и [20], приведем общую схему марковских алгоритмов случайного поиска.
Алгоритм 1
Шаг 1. ^ x, n ^ 1.
Шаг 2. -л ^ P(| Р, • ).
ln nx~n-Р '
Г- , с вероятностью Q ,
Шаг 3. Ç ^
Здесь х — начальная точка поиска, а п — номер итерации алгоритма. Обозначение « ^ ^ Рп(§п-1 •)» читается как «получить реализацию случайной величины с распределением Рп(§ п-1 •)». Распределение Рп (§ п-1 •) зависит от номера шага п и «старой» точки поиска § п-1. В соответствии со структурой алгоритма 1, распределения Рп (§ п-1 •) будем называть пробными переходными функциями, а случайные величины — пробными точками.
После получения новой пробной точки (на втором шаге алгоритма) на третьем шаге поиск или переходит в эту точку с вероятностью Qn, или
остается в старой точке поиска § п-1.
Разные правила задания вероятностей Qn и пробных переходных функций Рп приводят к различным вариантам марковских алгоритмов случайного поиска. В частности, если вероятности Q задать в
виде
Q =
n
1, если Д < 0,
Ç n-1, с вероятностью 1 - Qn
где Qn = Qn^ ^n-Р Я-п^ f(^n-1)).
Шаг 4. n ^ n +1 и перейти к шагу 2.
1ехр(-В Д ), если Д > 0, где Дп = f (^п) - f (§п-1), а величины Рп > 0 являются параметрами алгоритма, то получим знаменитый алгоритм «имитации отжига» (см., например, [21]).
Если вероятности Qn задать таким образом:
11, если Д < 0, О =\ п
п 10, если Д > 0,
то получим марковский монотонный случайный поиск (см. [22]), играющий важную роль в дальнейшем исследовании. Такой поиск является монотонным в том смысле, что неравенства f (§п) < f (§ п-1) выполняются с вероятностью 1 при всех п > 1. Марковский монотонный поиск можно считать предельным случаем алгоритма «имитации отжига» с Рп = при всех > 1 .
Далее будем рассматривать марковский случайный поиск, пробные переходные функции Рп (х, •) которого обладают симметричными плотностями Рп (х, у) вида
Рп (Х У) = gn,x(P(x, У^ (2)
где р — метрика, а gnx — невозрастающие неотрицательные функции, определенные на интервале (0,1/2]. Функцию gnx будем называть формой переходной плотности рп , а также формой распределения Рп. Не умаляя общности, будем считать, что функции gn х непрерывны слева.
Марковский поиск алгоритма 1, пробные переходные функции которого обладают плотностями вида (2), будем называть марковским симметричным случайным поиском.
3. Характеристики случайного поиска
Случайный поиск используем для отыскания точки минимума х* с заданной точностью е (аппроксимация «по аргументу»). При аппроксимации по аргументу нас будет интересовать попадание поиска в шар Ве (х*). Через
те = тш{п > 0: е Ве(х*)}
обозначим момент первого попадания поиска в е-окрестность точки глобального минимума.
Как правило, предполагается, что для моделирования распределений Рп не требуется вычислений функции / Тем самым, на каждой итерации § п—1 ^ \ алгоритма 1 происходит ровно одно вычисление целевой функции, и распределение случайной величины те дает нам достаточно полную информацию о качестве случайного поиска. Действительно, при выполнении те шагов поиска значения
функции / вычисляются те +1 раз.
Мы рассмотрим две характеристики скорости сходимости случайного поиска. Трудоемкость случайного поиска определяется через Eте и имеет смысл среднего числа шагов поиска до достижения им множества Ве (х*).
Гарантирующее число шагов N(х, /, е, у) определяется как такое минимальное число шагов поиска, при котором достижение множества Ве (х*) гарантировано с вероятностью, не меньшей, чем у. Иначе говоря, N(х, /, е, у) = min{n > 0 : Б(хе < п) > у}.
(Полагаем N (х, /, е, у) = в случае, когда
Б(хе < п) < у при всех п > 0).
4. Нижние оценки трудоемкости
Основной результат работы представляет следующая теорема. В ней показано, что число вычислений целевой функции, необходимое марковскому симметричному случайному поиску для достижения требуемой точности е решения задачи, не может расти медленнее, чем 11пе |.
Теорема 1. Пусть целевая функция /: Iа ^ R принимает минимальное значение в единственной точке х*. Рассмотрим марковский симметричный
случайный поиск {|п}п>0 алгоритма 1, пробные переходные функции которого имеют плотности вида (2). Пусть х — начальная точка поиска, 0 < е < р(х, х*), 0 < у < 1. Тогда справедливы неравенства Eте > 1п(р(х, х*)/ е) +1, N(х, /, е, у) > у(1п(р(х, х*)/ е) +1).
Полученные неравенства позволяют оценить потенциальные возможности марковских алгоритмов и сделать вывод о том, что трудоемкость некоторых построенных алгоритмов (см., напр., [4, 12-16]) близка к оптимальной, по крайней мере по порядку зависимости от е.
5. О точности полученных оценок
Важно понять, насколько точны оценки теоремы 1. Приведем пример оптимизационной задачи и поиска, показывающий, что полученная оценка трудоемкости и оценка гарантирующего числа шагов имеют правильный порядок зависимости от е.
Рассмотрим одномерное пространство оптимизации I = (0,1], целевую функцию /(х) =| х — 1/21 и марковский монотонный симметричный случайный поиск, пробные переходные функции которого имеют вид Р(х, •) = и2|х—1/2|(х, •). Здесь через иг (х, •) обозначено равномерное распределение в шаре Вг (х)
радиуса г > 0 с центром в точке х. Оказывается, что такой поиск является быстрым. Его трудоемкость, необходимая для достижения требуемой точности е решения задачи, лишь в два раза больше оценки трудоемкости теоремы 1.
Лемма 1. Рассмотрим одномерное пространство оптимизации I = (0,1] и целевую функцию /(х) =| х —1/21. Пусть пробные переходные функции марковского монотонного симметричного случайного поиска имеют вид Р(х, •) = и2|х—1/2|(х, •). Пусть х —
начальная точка поиска, 0 <е<|х — 1/ 2 |< 1/4, 0 < у < 1. Тогда
Eте = 21п(|х —1/2 | /е) + 2,
N(х, /, е, у) < (1п(| х —1/2 | / е) +1).
1 — у
Оценки теоремы 1 имеют такой же порядок зависимости от е, как и формулы леммы 1. Поэтому оценки теоремы 1 имеют правильный порядок зависимости от е.
1. Ермаков С.М., Жиглявский А.А. О случайном поиске глобального экстремума // Теория вероятностей и ее применения. 1983. №1. С.129-136.
2. Ермаков С.М., Жиглявский А.А., Кондратович М.В. О сравнении некоторых процедур случайного поиска глобального экстремума // Журн. вычисл. математики и мат. физики. 1989. Т.29. №2. С.163-170.
3. Жиглявский А.А., Жилинскас А.Г. Методы поиска глобального экстремума. М.: Наука, 1991. 248 с.
4. Zhigljavsky A., Zilinskas A. Stochastic Global Optimization. Berlin: Springer-Verlag, 2008. 262 p.
5. Spall J.C. Introduction to stochastic search and optimization: estimation, simulation, and control. New Jersey: Wiley, 2003. 618 p.
6. Spall J.C., Hill S.D., Stark D.R. Theoretical framework for comparing several stochastic optimization approaches // Probabilistic and randomized methods for design under uncertainty. L.: Springer, 2006. P.99-117.
7. Yin G. Rates of convergence for a class of global stochastic optimization algorithms // SIAM Journal on Optimization. 1999. V.10. №1. P.99-120.
8. Ingber L. Very fast simulated re-annealing // Math. Comput. Modelling. 1989. V.12. P.967-973.
9. Лопатин А.С. Метод отжига // Стохастическая оптимизация в информатике. 2005. Вып. 1. С.133-149.
10. Граничин О.Н., Поляк Б.Т. Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах. М.: Наука, 2003. 291 с.
11. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование случайного поиска // Математические модели.
Теория и приложения. Вып.2. СПб.: Изд-во НИИХ СПбГУ, 2002. C.70-86.
12. Тихомиров А.С., Некруткин В.В. Марковский монотонный поиск экстремума. Обзор некоторых теоретических результатов // Математические модели. Теория и приложения. Вып.4. СПб.: ВВМ, 2004. С.3-47.
13. Тихомиров А.С. Об однородном марковском монотонном поиске экстремума // Журн. вычисл. математики и мат. физики. 2006. Т.46. №3. С.379-394.
14. Тихомиров А.С. О быстрых вариантах алгоритма отжига (simulated annealing) // Стохастическая оптимизация в информатике. 2009. Вып.5. С.65-90.
15. Тихомиров А.С. О скорости сходимости алгоритма simulated annealing // Журн. вычисл. математики и мат. физики. 2010. Т.50. №1. С.24-37.
16. Тихомиров А.С. О быстром варианте алгоритма отжига // Вестник НовГУ. Сер.: Техн. науки. 2010. №60. С.53-56.
17. Тихомиров А.С. Нижние оценки скорости сходимости марковского симметричного случайного поиска // Журн. вычисл. математики и мат. физики. 2011. Т.51. №9. С.1630-1644.
18. Тихомиров А.С. Нижние оценки трудоемкости марковского симметричного случайного поиска // Вестник НовГУ. Сер.: Техн. науки. 2011. №65. С.94-96.
19. Жиглявский А. А., Жилинскас А.Г. Указ. соч. С. 127.
20. Zhigljavsky A., Zilinskas A. Op. cit. P.116.
21. Ibid. P.118.
22. Ibid. P.122.
Bibliography (Transliterated)
1. Ermakov S.M., Zhigliavskii A.A. O sluchainom poiske global'nogo ekstremuma // Teoriia veroiatnostei i ee primeneniia. 1983. №1. S.129-136.
2. Ermakov S.M., Zhigliavskii A.A., Kondratovich M.V. O sravnenii nekotorykh protsedur sluchainogo poiska global'nogo ekstremuma // Zhurn. vychisl. matematiki i mat. fiziki. 1989. T.29. №2. S. 163-170.
3. Zhigliavskii A.A., Zhilinskas A.G. Metody poiska global'nogo ekstremuma. M.: Nauka, 1991. 248 s.
4. Zhigljavsky A., Zilinskas A. Stochastic Global Optimization. Berlin: Springer-Verlag, 2008. 262 p.
5. Spall J.C. Introduction to stochastic search and optimization: estimation, simulation, and control. New Jersey: Wiley, 2003. 618 p.
6. Spall J.C., Hill S.D., Stark D.R. Theoretical framework for comparing several stochastic optimization approaches // Probabilistic and randomized methods for design under uncertainty. L.: Springer, 2006. P.99-117.
7. Yin G. Rates of convergence for a class of global stochastic optimization algorithms // SIAM Journal on Optimization. 1999. V. 10. №>1. P.99-120.
8. Ingber L. Very fast simulated re-annealing // Math. Comput. Modelling. 1989. V. 12. P.967-973.
9. Lopatin A.S. Metod otzhiga // Stokhasticheskaia optimiza-tsiia v informatike. 2005. Vyp. 1. S.133-149.
10. Granichin O.N., Poliak B.T. Randomizirovannye algoritmy otsenivaniia i optimizatsii pri pochti proizvol'nykh pomekhakh. M.: Nauka, 2003. 291 s.
11. Abakarov A.Sh., Sushkov Iu.A. Statisticheskoe issledovanie sluchainogo poiska 11 Matematicheskie modeli. Teoriia i prilozheniia. Vyp.2. SPb.: Izd-vo NIIKh SPbGU, 2002. S.70-86.
12. Tikhomirov A.S., Nekrutkin V.V. Markovskii monoton-nyi poisk ekstremuma. Obzor nekotorykh teoreticheskikh rezul'tatov // Matematicheskie modeli. Teoriia i prilozheniia. Vyp.4. SPb.: VVM, 2004. S.3-47.
13. Tikhomirov A.S. Ob odnorodnom markovskom monotonnom poiske ekstremuma // Zhurn. vychisl. matematiki i mat. fiziki. 2006. T.46. №3. S.379-394.
14. Tikhomirov A.S. O bystrykh variantakh algoritma otzhiga (simulated annealing) // Stokhasticheskaia optimizatsiia v informatike. 2009. Vyp.5. S.65-90.
15. Tikhomirov A.S. O skorosti skhodimosti algoritma simulated annealing // Zhurn. vychisl. matematiki i mat. fiziki. 2010. T.50. №>1. S.24-37.
16. Tikhomirov A.S. O bystrom variante algoritma otzhiga // Vestnik NovGU. Ser.: Tekhn. nauki. 2010. №60. S.53-56.
17. Tikhomirov A.S. Nizhnie otsenki skorosti skhodimosti markovskogo simmetrichnogo sluchainogo poiska // Zhurn. vychisl. matematiki i mat. fiziki. 2011. T.51. №9. S.1630-1644.
18. Tikhomirov A.S. Nizhnie otsenki trudoemkosti markovskogo simmetrichnogo sluchainogo poiska 11 Vestnik NovGU. Ser.: Tekhn. nauki. 2011. №65. S.94-96.
19. Zhigliavskii A.A., Zhilinskas A.G. Ukaz. soch. S.127.
20. Zhigljavsky A., Zilinskas A. Op. cit. P.116.
21. Ibid. P.118.
22. Ibid. P.122.