Научная статья на тему 'Об одном алгоритме неоднородного марковского монотонного поиска экстремума'

Об одном алгоритме неоднородного марковского монотонного поиска экстремума Текст научной статьи по специальности «Математика»

CC BY
105
25
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СЛУЧАЙНЫЙ ПОИСК / ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ / СТОХАСТИЧЕСКАЯ ОПТИМИЗАЦИЯ / RANDOM SEARCH / GLOBAL OPTIMIZATION / STOCHASTIC OPTIMIZATION

Аннотация научной статьи по математике, автор научной работы — Тихомиров А. С.

Представлены численные исследования скорости сходимости неоднородного марковского монотонного алгоритма случайного поиска экстремума.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Об одном алгоритме неоднородного марковского монотонного поиска экстремума»

УДК 519.626

ОБ ОДНОМ АЛГОРИТМЕ НЕОДНОРОДНОГО МАРКОВСКОГО МОНОТОННОГО ПОИСКА ЭКСТРЕМУМА

А.С.Тихомиров

Институт электронных и информационных систем НовГУ, Alexey.Tikhomirov@novsu.ru

Представлены численные исследования скорости сходимости неоднородного марковского монотонного алгоритма случайного поиска экстремума.

Ключевые слова: случайный поиск, глобальная оптимизация, стохастическая оптимизация

Numerical investigations of the convergence rate of inhomogeneous Markov monotone algorithm of random search for extremum are given.

Keywords: random search, global optimization, stochastic optimization

1. Введение точки глобального минимума x* с заданной точно-

стью е. Один из способов решения этой задачи состоит в применении алгоритмов случайного поиска

Пусть целевая функция f: X ^ R (где, на-

пример, X = Rй) принимает минимальное значение в экстремума функции (см. [1-15]). Такие методы давно

единственной точке х*. Рассмотрим задачу поиска и успешно используются при решении сложных задач

оптимизации. Тем не менее, существует мало теоретических результатов о скорости сходимости этих алгоритмов (см. [3,4]). Теоретическое исследование скорости сходимости некоторых алгоритмов марковского поиска экстремума выполнено в работах [7-14]. Данная работа является продолжением работы [14] и посвящена численному исследованию скорости сходимости неоднородного марковского монотонного случайного поиска этой последней.

В качестве пространства оптимизации будем

рассматривать пространства X = Rd и X = [a,b]d с d-мерной мерой Лебега ц и метрикой

рш (x y) = max| xn - Уп L

1<n<d

где x = (x1,...,xd) и y = (yj,...,yd). Замкнутый шар радиуса r с центром в точке x обозначим как Br (x) = {y e X : рш (x, y) < r} . Метрика рш выбрана по соображениям простоты моделирования рассматриваемого случайного поиска.

Случайным поиском называется произвольная последовательность случайных величин {|n}n>0 со значениями в X. Следуя [3, с.124] приведем общую схему марковских монотонных алгоритмов случайного поиска.

Алгоритм 1

Шаг 1. |0 ^ x, n ^ 1.

Шаг 2. ^ ^ Pn(5n-1, •).

Шаг 3. Если f (^n) < f ^n-1^ то 5n ^n ,

иначе In ^ ^n-1 .

Шаг 4. Если n < N , то n ^ n +1 и перейти к шагу 2 , иначе — STOP.

Здесь x — начальная точка поиска, N — число шагов поиска. Обозначение « ^n ^ Pn(|n-1, •)» читается как «полечить реализацию случайной величины ^n с распределением Pn (|n-1, •)». В соответствии со структурой алгоритма 1, распределения Pn (|n-1, •) будем называть пробными переходными функциями. Отметим, что введенный случайный поиск является монотонным, в том смысле, что неравенства f (|n) < f (|n-1) выполняются при всех n > 1.

В данной работе исследуется простой вариант марковского неоднородного поиска экстремума, пробными переходными функциями которого служат равномерные распределения в шарах. Равномерное распределение в шаре Ba (x) радиуса a > 0 с центром в точке x e X обозначим через Ua (x, • ), т.е. положим Ua (x, •) = ц( • n Ba(x))/ ^(Ba(x)). Пусть k и m — натуральные числа. Выберем числа 0 < ak < a1 и положим aj = a-q1 -1 при j = 1,...,k, где

q = kak / a1 . Рассмотрим класс поисков алгоритма 1, для которых общее число шагов N равно km , а пробные переходные функции имеют вид Pn = Ua,

при j = fn / m\. Здесь через fz 1 обозначено наименьшее целое число, большее или равное z. Числа

k, а}-, т являются параметрами метода. Здесь k — число «этапов» поиска, а т — число шагов на каждом этапе, причем радиусы а}- шаров, соответствующих переходным функциям иа, , постоянны для

всех шагов одного этапа.

Простейшим алгоритмом стохастической глобальной оптимизации является метод «чистого случайного поиска» (т.е. простейшего алгоритма случайного бросания точек в множество оптимизации (см. [3, с.38])). Исследуемый метод лишь немного сложнее чистого случайного поиска. В работе [14] получена теоретическая оценка скорости сходимости для рассматриваемого случайного поиска и построены варианты поиска, являющиеся быстрыми, по крайней мере, в некотором асимптотическом смысле.

2. Числовые примеры

В теории стохастической глобальной оптимизации точные оценки скорости сходимости получены, как правило, только для очень простых методов вроде «чистого случайного поиска». Оценки скорости сходимости более сложных методов стохастической глобальной оптимизации есть далеко не всегда. Имеющиеся же оценки часто или носят асимптотический характер, или являются очень неточными. Поэтому большое значение имеет численное исследование скорости сходимости. В этой работе выполнено численное сравнение полученного алгоритма оптимизации с результатами книги [4], одной из самых известных книг о методах случайного поиска. Третий числовой пример данной статьи подтверждает теоретические результаты работы [14] и показывает, что даже очень небольшое усложнение простейшего «чистого случайного поиска» может приводить к быстрым методам стохастической глобальной оптимизации.

В [4] приведены три числовых примера использования трех видов марковских монотонных поисков (алгоритмы А, В и С) при оптимизации целевых функций, вычисляемых без случайной ошибки. Рассмотрим эти примеры. Алгоритм А является «чистым случайным поиском». Алгоритм В соответствует поиску алгоритма 1 при использовании нормального распределения вероятностей в качестве пробных переходных функций. Алгоритм С представляет собой более сложный вариант поиска, в котором при построении новой точки поиска учитывается перемещение, выполненное на предыдущем шаге алгоритма.

В следующих таблицах приведены оценки минимального значения целевых функций, полученные после применения N шагов исследуемых поисков. Точнее в таблицах даны средние значения целевых функций, полученные при М повторениях рассматриваемых алгоритмов. В [4] использовалось М = 40 . В нашей работе используется М = 500 (значение М увеличено для повышения точности оценок).

Пример 1. Здесь пространство X = [-8,8]2, X = (х1, х2),

f (х) = f (х1,х2) = 1 ((Х[4 - 16х^ + 5х1) + (X4-16x2 + 5х2})-

Функция f имеет четыре локальных минимума, один из которых является глобальным, х* = (-2,9035, - 2,9035) и /(х*) = -78,33. Начальной точкой поиска выбрана х = (4,0, 6,4) и / (х) = 537,18. Число шагов поиска (число вычислений целевой функции) N = 500. Для наглядности в таблице приведены оценки разности /(|N-1) - /(х*).

Таблица 1

Оценки f (|N_j) - f (x*) для алгоритмов A, B, C и 1

Алгоритм A Алгоритм B Алгоритм C Алгоритм 1

2,51 0,78 0,49 0,91

Пример 2. Здесь пространство X = [-4,4]10,

х = (х\, х2, • • •, х10),

5

/(х) = x2,•, хю) =^(100(х2„ - х2п-1)2 + (1-х2п-1)2)

П=1

Функция / является известной тестовой функцией Розенброка, используемой для методов локальной оптимизации. Функция / принимает минимальное

значение / (х*) = 0 в точке х* = (1,1,___,1). Начальной

точкой поиска выбрана х=(-1,2, 1, -1,2, 1,_,1) и / (х) = 121. Число шагов поиска (число вычислений целевой функции) N = 1000 .

Таблица 2

Оценки f (| N _) для алгоритмов A, B, C и 1

Алгоритм A Алгоритм B Алгоритм C Алгоритм 1

121 20,07 19,80 18,96

Пример 3. Здесь пространство X = R2,

х = (х1, х2),

/ (х) = / (х1, х2) = х4 + х2 + х1х2 + х^.

Функция / принимает минимальное значение в единственной точке х* = (0,0) и /(х*) = 0. Начальной точкой поиска выбрана х = (1,1) и / (х) = 4. Число шагов поиска (число вычислений целевой функции) N здесь принимает три значения: 100, 1000 и 10000.

Таблица 3

Оценки f (| N _) для алгоритмов B, C и 1

N Алгоритм B Алгоритм C Алгоритм 1

100 0,00053 0,328 5,7 х 10-6

1000 2,8 х 10-5 1,1 х10-5 3,7 х 10-39

10000 2,7 х 10-6 2,5 х10-7 7,2 х 10-322

Число шагов на этапе поиска равнялось 5. Начальный радиус а1 во всех случаях равнялся 1. Ко-

нечные радиусы ак равнялись 0,007, 2 х10 19 и

10-160 соответственно. Конечные радиусы выбирались близкими к ожидаемой точности поиска при аппроксимации по аргументу.

Выбранное в [4] число шагов поиска оказалось явно недостаточным для получения высокой точности решения задач примеров 1 и 2. В этих примерах поиск алгоритма А оказался хуже всех остальных вариантов поиска. В примере 1 поиск алгоритма 1 занял промежуточное положение между поиском алгоритма А и поисками алгоритмов В и С. В примере 2 поиск алгоритма 1 оказался чуть лучше остальных вариантов поиска.

Выбранные в примере 3 числа шагов поиска достаточны для получения высокой точности решения задачи. Хорошо видно, что исследуемый вариант поиска алгоритма 1 оказался значительно точнее алгоритмов В и С работы [4]. Причем при больших значениях N преимущество становится огромным. При N = 10000 алгоритм 1 с полученными параметрами в 10314 раз точнее алгоритма С и в 10315 раз точнее алгоритма В.

Представленные примеры показывают, что выбор параметров поиска очень важен для получения высокой точности решения задачи, а пример 3 демонстрирует существенное превосходство поиска алгоритма 1 с предложенными параметрами над поисками с параметрами работы [4].

Отметим в заключение, что процедура моделирования исследуемого варианта поиска алгоритма 1 очень проста. Она основана на моделировании равномерных распределений в шарах иа (х, •). Поскольку в случае метрики рш моделировать распределение иа (х, •) очень просто, то и в целом алгоритм моделирования исследуемого поиска очень легко программируются. Эта процедура проще процедур моделирования поисков алгоритмов В и С работы [4], основанных на моделировании многомерного нормального распределения, и лишь немного сложнее процедуры моделирования «чистого случайного поиска».

1. Ермаков С.М., Жиглявский А.А. О случайном поиске глобального экстремума // Теория вероятностей и ее применения. 1983. №1. С.129-136.

2. Ермаков С.М., Жиглявский А.А., Кондратович М.В. О сравнении некоторых процедур случайного поиска глобального экстремума // Журн. вычисл. математики и мат. физики. 1989. Т.29. №2. С.163-170.

3. Zhigljavsky A., Zilinskas A. Stochastic Global Optimization. Berlin: Springer-Verlag, 2008. 262 p.

4. Spall J.C. Introduction to stochastic search and optimization: estimation, simulation, and control. Wiley, New Jersey, 2003. 618 p.

5. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование случайного поиска // Математические модели. Теория и приложения. Вып.2. СПб.: Изд-во НИИХ СПбГУ, 2002. C.70-86.

6. Лопатин А.С. Метод отжига // Стохастическая оптимизация в информатике. 2005. Вып.1. С.133-149.

7. Тихомиров А.С., Некруткин В.В. Марковский монотон-

ный поиск экстремума. Обзор некоторых теоретических

результатов // Математические модели. Теория и прило-

жения. Вып. 4. СПб.: ВВМ, 2004. С.3-47.

8. Тихомиров А.С. Об однородном марковском монотонном 4.

поиске экстремума // Журн. вычисл. математики и мат. физики. 2006. Т.46. №3. С.379-394.

9. Тихомиров А.С. О скорости сходимости однородного мар- 5.

ковского монотонного поиска экстремума // Журн. вычисл. математики и мат. физики. 2007. Т.47. №5. С.817-828.

10. Тихомиров А.С. О быстрых вариантах алгоритма отжига 6.

(simulated annealing) // Стохастическая оптимизация в информатике. 2009. Вып.5. С.65-90. 7.

11. Тихомиров А.С. О скорости сходимости алгоритма simulated annealing // Журн. вычисл. математики и мат. физики. 2010. Т.50. №1. С.24-37.

12. Тихомиров А.С. О быстром варианте алгоритма отжига // 8.

Вестник НовГУ. Сер.: Техн. науки. 2010. №60. С.53-56.

13. Тихомиров А.С. Нижние оценки скорости сходимости

марковского симметричного случайного поиска // Журн. 9.

вычисл. математики и мат. физики. 2011. Т.51. №9. С.1630-1644.

14. Тихомиров А.С. О скорости сходимости одного алгорит- 10.

ма марковского неоднородного поиска экстремума //

Вестник СПб. ун-та. Сер.1. 2011. Вып.4. С.80-89.

15. Тихомиров А.С. Об одном алгоритме однородного мар- 11.

ковского монотонного поиска экстремума // Вестник

НовГУ. Сер.: Техн. науки. 2010. №55. С.31-33.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

12.

Bibliography (Transliterated)

13.

1. Ermakov S.M., Zhigljavskij A.A. O sluchajnom poiske global'nogo jekstremuma // Teorija verojatnostej i ee primenenija. 1983. №1. S.129-136.

2. Ermakov S.M., Zhigljavskij A.A., Kondratovich M.V. O 14

sravnenii nekotoryh procedur sluchajnogo poiska global'nogo jekstremuma // Zhurn. vychisl. matematiki i mat. fiziki. 1989.

T.29. №2. S.163-170. 15.

3. Zhigljavsky A., Zilinskas A. Stochastic Global Optimization.

Berlin: Springer-Verlag, 2008. 262 p.

Spall J.C. Introduction to stochastic search and optimization: estimation, simulation, and control. Wiley, New Jersey, 2003. 618 p.

Abakarov A.Sh., Sushkov Ju.A. Statisticheskoe issledovanie sluchajnogo poiska // Matematicheskie modeli. Teorija i prilozhenija. Vyp.2. SPb.: Izd-vo NIIH SPbGU, 2002. C.70-86. Lopatin A.S. Metod otzhiga // Stohasticheskaja optimizacija v informatike. 2005. Vyp.1. S.133-149.

Tihomirov A.S., Nekrutkin V.V. Markovskij monotonnyj poisk jekstremuma. Obzor nekotoryh teoreticheskih rezul'ta-tov // Matematicheskie modeli. Teorija i prilozhenija. Vyp. 4. SPb.: VVM, 2004. S.3-47.

Tihomirov A.S. Ob odnorodnom markovskom monotonnom poiske jekstremuma // Zhurn. vychisl. matematiki i mat. fiziki. 2006. T.46. №3. S.379-394.

Tihomirov A.S. O skorosti shodimosti odnorodnogo mark-ovskogo monotonnogo poiska jekstremuma // Zhurn. vychisl. matematiki i mat. fiziki. 2007. T.47. №5. S.817-828. Tihomirov A.S. O bystryh variantah algoritma otzhiga (simulated annealing) // Stohasticheskaja optimizacija v informatike. 2009. Vyp.5. S.65-90.

Tihomirov A.S. O skorosti shodimosti algoritma simulated annealing // Zhurn. vychisl. matematiki i mat. fiziki. 2010. T.50. №1. S.24-37.

Tihomirov A.S. O bystrom variante algoritma otzhiga // Vest-nik NovGU. Ser.: Tehn. nauki. 2010. №60. S.53-56. Tihomirov A.S. Nizhnie ocenki skorosti shodimosti mark-ovskogo simmetrichnogo sluchajnogo poiska // Zhurn. vy-chisl. matematiki i mat. fiziki. 2011. T.51. №9. S.1630-1644. Tihomirov A.S. O skorosti shodimosti odnogo algoritma markovskogo neodnorodnogo poiska jekstremuma // Vestnik SPb. un-ta. Ser.1. 2011. Vyp.4. S.80-89.

Tihomirov A.S. Ob odnom algoritme odnorodnogo mark-ovskogo monotonnogo poiska jekstremuma // Vestnik NovGU. Ser.: Tehn. nauki. 2010. №55. S.31-33.

i Надоели баннеры? Вы всегда можете отключить рекламу.