Научная статья на тему 'Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами'

Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами Текст научной статьи по специальности «Математика»

CC BY
94
18
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
GLOBAL OPTIMIZATION / HEURISTIC METHODS / EVOLUTIONARY ALGORITHMS / NEURAL NETWORKS / PARAMETER SETTING / PARAMETER CONTROL / PARTICLE SWARM OPTIMIZATION / ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ / ЭВРИСТИЧЕСКИЕ МЕТОДЫ / ЭВОЛЮЦИОННЫЕ МЕТОДЫ / НЕЙРОННЫЕ СЕТИ / УСТАНОВКА ПАРАМЕТРОВ / УПРАВЛЕНИЕ ПАРАМЕТРАМИ / МЕТОД РОЯ ЧАСТИЦ

Аннотация научной статьи по математике, автор научной работы — Пушкарев Кирилл Владимирович

Представлен гибридный метод глобальной оптимизации НАИЗ-PSO на основе нейросетевой аппроксимации инверсных зависимостей (координат от значений целевой функции) и метода роя частиц, служащий для нахождения глобального минимума непрерывной целевой функции многих переменных в области, имеющей вид многомерного параллелепипеда. Целевая функция рассматривается как абстрактная вычислительная процедура («чёрный ящик»).Метод использует группы пробных точек, движущихся как в методе роя частиц. Одна из возможных целей движения определяется через отображение пониженных значений целевой функции в координаты посредством модифицированных дуальных обобщённо-регрессионных нейронных сетей, конструируемых по пробным точкам.Параметрами процесса управляет эволюционный алгоритм. В алгоритме управления популяция состоит из эволюционирующих правил, заключающих в себе наборы параметров. Для оценки приспособленности особи используются две числовые характеристики: краткосрочная (очарование) и долгосрочная (достоинство). По очарованию правила отбираются для размножения и применения. Достоинством определяется выживание особи при формировании новой популяции. Двойная оценка правил решает проблему вымирания потенциально полезных особей при краткосрочном изменении ситуации.Преимущество эволюционного управления над случайным изменением параметров НАИЗ-PSO в процессе поиска, а также тенденция к уменьшению погрешности при повторном использовании базы правил показаны на тестовых задачах с целевыми функциями 100 переменных.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Global optimization via neural network approximation of inverse coordinate mappings with evolutionary parameter control

A hybrid method of global optimization NNAICM-PSO is presented. It uses neural network approximation of inverse mappings of objective function values to coordinates combined with particle swarm optimization to find the global minimum of a continuous objective function of multiple variables with bound constraints. The objective function is viewed as a black box.The method employs groups of moving probe points attracted by goals like in particle swarm optimization. One of the possible goals is determined via mapping of decreased objective function values to coordinates by modified Dual Generalized Regression Neural Networks constructed from probe points.The parameters of the search are controlled by an evolutionary algorithm. The algorithm forms a population of evolving rules each containing a tuple of parameter values. There are two measures of fitness: short-term (charm) and long-term (merit). Charm is used to select rules for reproduction and application. Merit determines survival of an individual. This two-fold system preserves potentially useful individuals from extinction due to short-term situation changes.Test problems of 100 variables were solved. The results indicate that evolutionary control is better than random variation of parameters for NNAICM-PSO. With some problems, when rule bases are reused, error progressively decreases in subsequent runs, which means that the method adapts to the problem.

Текст научной работы на тему «Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами»

ББК З818.1:В185.42 >

УДК 004.023::519.853.4

К. В. Пушкарев

Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами

Аннотация. Представлен гибридный метод глобальной оптимизации НАИЗ-ГБС на основе нейросетевой аппроксимации инверсных зависимостей (координат от значений целевой функции) и метода роя частиц, служащий для нахождения глобального минимума непрерывной целевой функции многих переменных в области, имеющей вид многомерного параллелепипеда. Целевая функция рассматривается как абстрактная вычислительная процедура («чёрный ящик»).

Метод использует группы пробных точек, движущихся как в методе роя частиц. Одна из возможных целей движения определяется через отображение пониженных значений целевой функции в координаты посредством модифицированных дуальных обобщённо-регрессионных нейронных сетей, конструируемых по пробным точкам.

Параметрами процесса управляет эволюционный алгоритм. В алгоритме управления популяция состоит из эволюционирующих правил, заключающих в себе наборы параметров. Для оценки приспособленности особи используются две числовые характеристики: краткосрочная (очарование) и долгосрочная (достоинство). По очарованию правила отбираются для размножения и применения. Достоинством определяется выживание особи при формировании новой популяции. Двойная оценка правил решает проблему вымирания потенциально полезных особей при краткосрочном изменении ситуации.

Преимущество эволюционного управления над случайным изменением параметров НАИЗ-PSO в процессе поиска, а также тенденция к уменьшению погрешности при повторном использовании базы правил показаны на тестовых задачах с целевыми функциями 100 переменных.

Ключевые слова и фразы: глобальная оптимизация, эвристические методы, эволюционные методы, нейронные сети, установка параметров, управление параметрами, метод роя частиц.

© К. В. Пушкарев, 2019

© Институт космических и информационных технологий СФУ, 2019 © Программные системы: теория и приложения (дизайн), 2019

Введение

Глобальная оптимизация целевых функций (ЦФ) многих переменных, рассматриваемых как «чёрные ящики» при минимальных требованиях к свойствам функции, является актуальной проблемой, поскольку обещает универсальный подход к решению многих практических задач (инженерных, машинного обучения и т. д.).

В настоящее время активно развивается парадигма вычислений, вдохновлённых природой, в которой вычислительные задачи решаются на основе подражания природным явлениям. В оптимизации этот подход породил направление эволюционных алгоритмов (эволюционное программирование, эволюционные стратегии, генетические алгоритмы, дифференциальная эволюция) [1,2] и дал целый ряд оптимизационных алгоритмов, основанных на различных физических, химических и биологических явлениях [3], таких как имитация отжига и метод роя частиц (PSO).

Хотя при абсолютном отсутствии требований к ЦФ эффективность всех методов в среднем по всем возможным задачам одинакова [4], представляет интерес поиск таких работающих в более узком классе практически возможных задач методов, которые извлекали бы максимальную пользу из той информации, которую они получают о ЦФ, вычисляя её значения в пробных точках. Важным шагом к этой цели видится долговременное сохранение имеющей значение для поиска глобального минимума информации о ЦФ.

Эффективность алгоритмов оптимизации существенно зависит от выбора параметров. Оптимальный выбор параметров сам по себе является задачей оптимизации, целевой функцией в которой является та или иная оценка эффективности в зависимости от параметров. Установка параметров может происходить вручную или автоматически, перед запуском алгоритма (задача настройки параметров, parameter tuning) или в процессе его работы (задача управления параметрами, parameter control) [5].

Настройка параметров вручную требует от пользователя понимания их влияния на поведение алгоритма в конкретной ситуации, что, вообще говоря, требует экспертных знаний и опыта. При этом данные о влиянии и взаимосвязи параметров, полученные в одних задачах, могут быть неприменимы к другим. Экспериментальное исследование этого влияния осложняется многократным ростом вычислительных затрат, по сравнению с исходной задачей, так как для оценки качества

набора параметров, в общем случае, требуется решить исходную задачу при данных параметрах не менее одного раза, что сопряжено с многократным вычислением исходной ЦФ.

Оптимальный набор параметров может отличаться не только в разных задачах и при разных критериях качества, но и на разных этапах вычислительного процесса [6, с. 1]. Например, для метода оптимизации роем частиц было предложено постепенное снижение коэффициента инерции или увеличение размера окрестности частицы в популяционной топологии в процессе работы алгоритма [7, с. 36, 40]. Кроме того, вызывает интерес возможность механизма управления параметрами активно влиять на процесс и обучаться. В связи с этим задача управления параметрами является особенно важной.

Тема автоматической установки параметров получила большое развитие в области эволюционной оптимизации. Обзор различных подходов представлен в [5,6]. Спектр подходов широк: от случайной вариации и детерминированных эвристик до контроллеров, основанных на нечёткой логике [8,9], предопределённых эвристических правилах [10], обучении с подкреплением [11-13] или вспомогательном метаэво-люционном алгоритме [12]. В [5] приведена классификация методов установки параметров на детерминированные (нет обратной связи от настраиваемого алгоритма, параметры меняются по заранее установленному плану), адаптивные (есть обратная связь, параметры задаются с учётом этой информации), самоадаптивные (параметры закодированы в генотипе особей настраиваемого алгоритма и эволюционируют совместно с решениями исходной задачи оптимизации).

В [14,15] был предложен эвристический метод нейросетевой аппроксимации инверсных зависимостей (НАИЗ), предназначенный для нахождения глобального минимума непрерывных ЦФ многих переменных типа «чёрного ящика» в области, имеющей вид многомерного параллелепипеда. В дальнейшем метод был включён в состав гибридного эвристического параллельного метода [16], а для управления параметрами метода НАИЗ использовались фиксированные эвристики без возможности обучения.

В данной работе представлен гибридный метод глобальной оптимизации на основе НАИЗ и РЯО с эволюционным управлением параметрами. В этом методе НАИЗ служит для управления целью, к которой стремится частица, движущаяся по правилам РЯО. Управление параметрами НАИЗ осуществляется с помощью контроллера, реализующего эволюционный алгоритм.

Особенность задачи управления параметрами в данной работе состоит в том, что параметры относятся не к алгоритму в целом, а к отдельным агентам-частицам в его составе, поэтому в каждый момент времени, вообще говоря, не существует единственного оптимального набора параметров: для каждого агента оптимальный набор может быть отличен от других.

Постановка численной задачи глобальной оптимизации состоит в следующем. Рассматривается целевая функция Ф(х): П ^ R, которая непрерывна в ограниченной области

(1) П = {х: Ь, < х, < Ui, i = ID} С Rd.

Необходимо найти приближённое минимальное значение функции Ф*тт и точку x*min, в которой достигается минимум:

(2) Фтт = min Ф(х) = Ф(Хтт),

(3) фт*п = ф(хт*п) < Фтт + £ф,

где e$ > 0 и определяет погрешность.

1. Метод нейросетевой аппроксимации инверсных зависимостей

В основе метода НАИЗ лежит итеративное понижение значения ЦФ с отображением его в координаты с помощью обобщённо-регрессионных нейронных сетей (Generalized Regression Neural Network, GRNN), аппроксимирующих инверсные зависимости (координат от значения ЦФ). GRNN обучаются по примерам вида (Ф(х),х), состоящим из значения ЦФ и координат, в которых оно достигается. Важным достоинством этих сетей является одношаговое обучение — сеть может быть сконструирована из примеров за один проход. Базовый алгоритм НАИЗ состоит в следующем:

(1) Инициализация: k := I, P—начальное множество пробных точек из области поиска, например случайно выбранных.

(2) Сеть

GRNN[k] обучается отображать значения ЦФ в соответствующие координаты по примерам {(Ф(х),х) : х е P[fc]}.

(3) Из множества P[k] выбирается точка х!^ с наименьшим значением ЦФ, это значение понижается на некоторую величину effc] (декремент) и отображается в координаты с помощью

-[к]

СЯШ: х^ = ОКШ[к] (ф(хЦ) - е1;', где -параметр

сглаживания, который регулирует гладкость аппроксимации.

(4) Новая точка включается во множество Р[к+1], если значение ЦФ в ней меньше текущего наименьшего:

(4) Р[к+1] = (Р[к] и Я[к] и {х^} , если ф(х%1) < Ф(х!1)

\ Р[к] и Я[к], иначе,

где Я[к] — множество пробных точек, созданных случайным образом.

(5) к := к + 1.

(6) Шаги 2-5 повторяются до достижения условий останова. Данные шаги для функции у = х2 проиллюстрированы на рисунке 1.

Рисунок 1. Иллюстрация принципа работы базового алгоритма НАИЗ

На рисунке 1 по пробным точкам Р1-Р5 построена аппроксимация инверсной зависимости с помощью СЯК^ С её помощью получена новая точка Рб, с учётом которой построена уточнённая аппроксимация инверсной зависимости.

Применение вышеописанного метода на практике сопряжено с рядом трудностей. Его эффективность быстро падает с ростом числа переменных. В качестве стартовой на каждой итерации используется только одна (лучшая) пробная точка, а случайное вбрасывание является недостаточно эффективным источником дополнительных пробных точек, из-за чего поиск может зайти в тупик. Для преодоления этой проблемы метод НАИЗ был включён в состав гибридного эвристического параллельного метода [16], в котором поиск глобального минимума выполняется оптимизационными агентами, которые итеративно запускают ряд алгоритмов оптимизации (поисковых инструментов), обменивающихся информацией через общее множество пробных точек.

Когда ЦФ имеет несколько близких по значению функции минимумов, то линия инверсной зависимости может пройти между ними, не приблизившись ни к одному. Для преодоления этого была предложена модификация GRNN — дуальная обобщённо-регрессионная нейронная сеть (Dual GRNN, DGRNN) [17]. У этой сети, помимо входа ф для значения ЦФ, есть дополнительный вход Хf, на который подаются координаты точки — фокуса поиска. Каждый пример при обучении DGRNN состоит из входного эталона ф, и выходного X,. Чем дальше от фокуса находится запомненный нейросетью эталон, тем ниже его активация и, соответственно, вклад в результат. Таким образом, эталоны, находящиеся вблизи фокуса, приобретают преимущество. DGRNN имеет дополнительный параметр сглаживания sx, являющийся аналогом sv для второго входа. В первом скрытом слое DGRNN формируются показатели близости входных значений к эталонам, которые перемножаются для каждой пары из входного и выходного эталона во втором слое. Полученные таким образом объединённые показатели близости используются для взвешенного суммирования выходных эталонов в третьем и четвёртом слоях.

На рисунке 2 приведена схема DGRNN для двух пар эталонов. Подписаны веса связей, отличные от 1.

Наконец, проблемой является управление параметрами: £f, sv, sx, фокусом поиска. В [16] DGRNN не использовалась, а для управления £f и sv применялись фиксированные эвристики без возможности обучения. Так, декремент лучшего значения ЦФ вычислялся по формуле f = 3^L-фЦ)/Np, где Фт1ж и фЦ — соответственно наибольшее и наименьшее значение ЦФ по множеству пробных точек на k-й итерации, Np — количество пробных точек. Для упрощения настройки sv в первом слое GRNN функция нахождения расстояния была

Рисунок 2. Схема БОР^^ для двух пар эталонов изменена на следующую:

(5)

фМ _ ф['

фтах

Это делает расстояния относительными и позволяет задавать в относительных величинах.

2. Гибридный метод НАИЗ-ГБЭ с эволюционным управлением параметрами

Для повышения эффективности метод НАИЗ был соединён с методом РБО и дополнен эволюционным управлением параметрами.

Аналогом частиц РЯО в описываемом методе являются базовые точки (БТ). Количество БТ N5 является параметром. Каждая БТ на к-й итерации характеризуется положением Ь[к], скоростью у[к] и собственной целью gjk]. Вначале

(6) Ь[1] = gг[1] = и [Ь, и],

(7) у[1] = И[-к„1 (И - Ь) ,ку1 (И - Ь)],

где Ь = (Ь1,..., Ьо), И = (и1,..., По) — границы области поиска; И [1, и] — вектор случайных чисел, равномерно распределённых в области {х: ¡1 < XI < щ, г = 1,^}; ку1 —параметр алгоритма.

БТ делятся на непересекающиеся группы по Бъд штук, в каждой

[к]

из которых определяется групповая цель g¿ , которая на каждой итерации выбирается по наименьшему значению ЦФ из списка: ggk 1],

собственные цели БТ данной группы. Затем групповая цель может быть улучшена локальным поиском и экстраполяцией траектории, как описано далее.

Во избежание стагнации процесса, с периодичностью 1геаг итераций происходит перезапуск неактивных БТ путём повторной случайной инициализации, описанной выше. БТ перезапускается на к-й итерации, если одновременно выполняются условия

(8) (9)

< Ът

Фтги,Ъ (к - ) - Ф тги,Ъ

(к) < £Ъ^ГввЬ 7

где Фтт,Ъ (к) = шт^у-^Ф(Ь[г]) —минимум значений ЦФ по всем положениям БТ с 1-й по к-ю итерацию, готп, еъ, 1Геаг —параметры алгоритма.

Для метода НАИЗ-РБО была разработана модификация БСИ^М — QDGRNN ^иапШе БОИММ). Чтобы ограничить диапазон изменения параметров, разности значений ЦФ между входом сети и эталонами ф — ф1, вычисленные внутри QDGRNN, делятся на квантили абсолютных значений разностей порядка pf 1 для отрицательных разностей и pf 2 для положительных. Величины pf 1, pf 2 являются входными параметрами нейросети и заменяют собой вф. Декремент ЦФ е / вычитается после деления, поэтому также выражается в относительных величинах и является входным параметром. Расстояния по координатам ||х/ — Х^| делятся на собственный квантиль порядка рх, который заменяет собой зх. В итоге QDGRNN выполняет следующее отображение:

(10)

(11) (12)

Я

С (фх)х-

е:

N.

е (

1

(фх)

С(

(фх)

С • С

С

(ф)

ехр I 1п0.5

ф — фi

Ф ((|ф — Фз 1 : 0 = 17 7Р/ (ф7ф^)

- >

(13)

(14)

С

(х)

Р/ (Ф7 ф0

ехр

^1п0.5 ^

1Р/17 |Р/27

если ф < ф^ если ф > фi;

||х/ — Х^|

С«||х/ — Хз||: о = 17^^ 7Рх)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

н=

х

2

/

2

(15)

где x* — выходной вектор; ф — входное значение ЦФ; Xf — входное значение фокуса; C(x) —показатели близости входных значений

к соответствующим эталонам Xj; С(фх) — объединённый показатель близости для г-й пары эталонов; Ne — количество пар эталонов; Q (A,p) —оценка квантиля порядка p по выборке A.

Управление параметрами основано на принципах эволюционных алгоритмов. Параметры задаются правилами, которые скрещиваются, мутируют и проходят отбор. Популяция состоит из Nr правил. Правило содержит условия применения (в данной работе не использовались), характеристики качества и набор значений параметров (генотип): £f, Pf l, Pf2, Px, аь, Pr.

Качество (приспособленность) каждого правила выражается в виде двух числовых характеристик: очарования (charm) и достоинства (merit). Очарование является краткосрочной оценкой правила. По этой характеристике правила отбираются для размножения и применения. Достоинство является долгосрочной оценкой и включает в себя усреднение очарования за предыдущие периоды с экспоненциальным взвешиванием. Достоинством определяется выживание особи при формировании новой популяции.

Двойная оценка правил решает проблему вымирания потенциально полезных особей при краткосрочном изменении ситуации. Пока эффективные в данный момент правила активно размножаются и применяются, правила, которые перестали быть эффективными, «спят» в ожидании возможности снова стать эффективными.

Управление параметрами происходит одновременно с поиском глобального минимума. Итерации алгоритма делятся на большие, в которых происходит обязательное применение всех правил, их оценка и эволюция, и малые, в которых только применяются правила, выбираемые по очарованию. Большими являются первая и каждая Ibig-я итерация.

Инициализация популяции происходит путём случайной генерации правил или загрузки сохранённой базы правил.

На каждой большой итерации к установленному количеству Ntop БТ применяются все правила. В г-й большой итерации выбираются точки с номерами от 1 + (г — 1) • Ntop до г • Ntop, при достижении верхней границы счёт начинается сначала. К остальным (на малой итерации ко всем) БТ применяется одно случайное правило так, что вероятность

выбора пропорциональна ктае1, где кзе1 € (0,1) — параметр алгоритма, а г — ранг правила в ряду по убыванию очарования, отсчитывающийся от нуля. Таким образом, все правила независимо от характеристик периодически испытываются для различных БТ, но правила с более высоким очарованием применяются чаще.

Применение правила в базовой точке Ь состоит в следующем:

(1) Сначала формируется присоединённое множество пробных точек

(16) Рь = {Ь + г • р: г = —К ,М8, р € Рг } ,

где Рг — шаблон данного правила; р — вектор шаблона; N — параметр алгоритма.

(2) По присоединённому множеству обучается ОБОИ^^ отображающая значения ЦФ в координаты. Значение ЦФ в БТ с помощью нейросети отображается в координаты

(17) Ь* = ОБСИШ (Ф(Ь), Ь,е/,р/1,р/2,Рх).

При этом БТ используется в качестве фокуса поиска, а значения параметров е/, рр/Ч, рр/2, рх задаются правилом. Кандидатом от правила будем называть точку Ь = Ь + аь (Ь* — Ь), где параметр аь также задаётся правилом, а прогрессом кандидата — разность р = Ф(Ь) — Ф(Ь).

Точки из присоединённого множества не только служат для обучения нейросети, но также рассматриваются как потенциальные решения.

После применения правил для каждой БТ определяется собственная цель . На каждой итерации в качестве нового значения цели выбирается лучшая по значению ЦФ точка из следующего списка: gjfc 1], кандидаты от правил для БТ на данной итерации, ЬМ . Наконец, каждая БТ сдвигается в сторону цели по правилу, аналогичному используемому в РБО:

(18) у^1 = + ^И.1 ® ^р1 — Ы*1) + ШдИ.2 <8> ^ — ,

(19) Ь[к+1] = Ык1 + У^

где к — номер итерации; ш, ш, шд — параметры алгоритма; gjfc1 — собственная цель БТ; ggfc1 — групповая цель; Ич, И.2 — векторы равномерно распределённых случайных чисел от 0 до 1; < — покомпонентное произведение векторов.

Правила оцениваются путём сравнения друг с другом по прогрессу их кандидатов для выбранных БТ на больших итерациях. Принцип состоит в том, что одно первое место по прогрессу кандидата (максимальный прогресс) даёт правилу более высокое очарование, чем ни одного первого при любом количестве вторых и т. д. Кроме того, правило, давшее только отрицательные прогрессы, получает меньшее очарование, чем правило, давшее хотя бы один положительный прогресс. Достигается это следующим образом: на большой итерации каждому правилу в результате его применения ко всем выбранным БТ сопоставляется вектор очков ... 7 ), в котором

(20) 0* = V *, s* = Гг' еСЛИ P* - 0;

* Sj * \r* + Nr, если p* < 0,

где Ntop —количество выбранных БТ (параметр алгоритма); — символ Кронекера; p* — прогресс кандидата от данного правила для г-й выбранной БТ; r* — ранг p* в списке упорядоченных по убыванию прогрессов кандидатов для г-й выбранной БТ, отсчитываемый от нуля.

Затем правила упорядочиваются по убыванию вектора очков в словарном порядке. Пусть r — ранг правила в полученном списке, отсчитывающийся от нуля, тогда очарование правила

(21) charm[fc+1] = krcd,

где kcd € (0,1) — параметр алгоритма.

Достоинство правила определяется по формуле:

(22) merit[fc+1] = merit• k^d + charm[k] + ppe[k],

где kmd € (0,1) — параметр алгоритма; a — возраст правила в итерациях (отсчитывается от 0 и увеличивается на 1 в конце каждой итерации); ppe—отношение среднего прогресса кандидатов от данного правила на итерацию к максимальному среднему прогрессу на итерацию среди всех правил.

Новые правила порождаются посредством случайной генерации, мутации и скрещивания. Вероятность выбора правила в качестве родителя для мутации и скрещивания пропорциональна его очарованию.

При случайной генерации каждый скалярный параметр правила в выбирается как равномерно распределённое случайное число

в интервале

rand' rand

. Количество векторов шаблона равномерно распределено от 1 до Д. Для определения каждого вектора шаблона

сначала генерируются равномерно распределённые случайные числа poi,... ,Pod € [-1,1]. Затем компоненты вектора шаблона определяются

по формуле: pi = kmxp min^^ (^jp) Poi, где kmxp — коэффициент, равный kmxp1 для доли kmxpf от общего числа создаваемых случайных правил и kmxp2 для остальных. Таким образом, у вектора шаблона один компонент по модулю равен kmxp (Uj — Lj), а остальные по модулю не больше этой величины. Использование двух значений kmxp позволяет генерировать случайные правила с маленькими и большими векторами шаблона.

При мутации создаётся новое правило путём случайных возмущений параметров родительского правила. Поскольку мутация в данном алгоритме порождает новую особь, то она является бесполым размножением, как в эволюционном программировании. Значение скалярного параметра потомка в результате мутации является случайной величиной с усечённым нормальным распределением

(23) во ,

где во, вр — значение параметра соответственно у потомка и родителя; Ni,u (и, а) —усечённое нормальное распределение с математическим ожиданием / и среднеквадратичным отклонением а на интервале [l,u]; ,(в) (в)

lmut, а mut —параметры алгоритма, устанавливаемые независимо для каждого параметра правил в.

Для векторов шаблона используется нормальное распределение

(24) Poj ~ n (Ppj amUt (Uj—Lj )),

где P0}ij, Ppij — значение j-го компонента i-го вектора шаблона соответственно у потомка и родителя; N (и, а) — нормальное распределение

с математическим ожиданием / и среднеквадратичным отклонением а;

(p)

а mut — параметр алгоритма.

Правила, порождённые мутацией, проходят проверку на жизнеспособность: потомок отбрасывается, если у него хотя бы один из параметров PPf 1, PPf 2, Px меньше либо равен нулю.

Скрещивание скалярных параметров происходит по формуле в0 = ивр1 + (1 — и)вр2, где во, вр1, вр2 — значение параметра соответственно у потомства, первого и второго родителя, и € [0,1] — случайный равномерно распределённый коэффициент, выбираемый для каждого параметра независимо. Скрещивание множеств векторов шаблона происходит путём случайного равномерного выбора пар векторов

шаблонов первого и второго родителя, после чего соответствующие компоненты векторов скрещиваются как скаляры, как описано выше. Количество векторов шаблона потомства определяется как случайное число с биномиальным распределением В (п 0.5), где п — сумма размеров шаблонов родителей.

На каждой большой итерации формируется новая популяция из N правил. Сначала создаётся Кпг = [(1 — кец) N\ новых правил, среди которых |_кгап^ Nпг\ случайных, |_кСГ05 Nnr\ получены скрещиванием и [кт«4 Nnr\ — мутацией. Из шаблонов новых правил удаляются векторы, норма которых меньше ера4. Затем старые правила упорядочиваются по убыванию достоинства. Из этого списка |_кеиN\ первых правил добавляются в новую популяцию (элита). Новые правила проверяются на корректность. Правило считается корректным, если р/ 1, р/2, Рх положительны и шаблон не пуст. Некорректные правила удаляются.

В качестве вспомогательных мер используются локальный поиск и экстраполяция траектории групповой цели.

Локальный поиск применяется к каждой групповой цели с установленной периодичностью /;ос итераций. В данной работе использовался модифицированный алгоритм ББОЯ [18, с. 136] с остановкой после 100 итераций или падения нормы градиента ниже 10-12. Последнее значение приближения обратной матрицы Гессе Н, сформированное алгоритмом ББОЯ, сохраняется и восстанавливается при следующем запуске локального поиска. Если групповая цель сильно сдвигается между запусками локального поиска, то запомненное значение Н становится неактуальным. Сделанная в данной работе модификация алгоритма обеспечивает забывание Н следующим образом: если на очередной итерации не происходит улучшение решения, следующее приближение обратной матрицы Гессе определяется по формуле Як+1 = к^Н + (1 — к^)Е, где к^ € [О71) — параметр алгоритма (в экспериментах, описанных в данной работе, имел значение 0.75), Е — единичная матрица. Для линейного поиска в алгоритме ББОЯ применялся метод золотого сечения с остановкой, если число итераций больше 10 или выполнены условия Вольфе с коэффициентами С1 = 10-4, С2 = 0.9 [18, с. 33]. Линейный поиск перезапускался с укорочением отрезка в 10 раз, если в текущей точке значение ЦФ больше, чем в начальной.

Для экстраполяции траектории групповой цели ё^[к] на к-й итерации формируется множество из п < N^4 последних её лучших положений

СГ = \ ёГ]7.. .7 ёГ1}, где к > к1 > • • •, Ф^1]) < • • • < Ф^),

Next — параметр алгоритма. После чего делаются пробные шаги в точки Pext = |gg[k] + (gg[fc] — ggfci]) : i = 1,™} и выбирается новая групповая

цель ggk] = arg minxe{gS[fc]}upext ф(х).

Процесс поиска глобального минимума продолжается до выполнения условий останова. Проверка условий происходит каждые Istop итераций. Остановка происходит, если выполнено любое из условий: 1) среднее убывание лучшего значения ЦФ за Istop последних итераций меньше £stop, 2) среднее перемещение точки с лучшим значением ЦФ за Istop последних итераций меньше 5 stop; 3) число итераций больше Imax. После завершения процесса итоговая популяция правил сохраняется в виде базы правил, которая может быть загружена в начале нового процесса.

3. Эксперименты

Для оценки эффективности метода были проведены эксперименты по решению тестовых задач минимизации при 100 переменных (Д = 100). За основу были взяты известные тестовые ЦФ [19]. Во всех задачах глобальный минимум расположен в точке (0, 0,...) со значением ЦФ 0.

По умолчанию выбирались области поиска от -100 до 100 по каждой координате. Для некоторых задач брались области, распространённые в литературе. Для функции Экли эффективность рассматриваемого метода существенно зависит от размера области, поэтому было выбрано две области поиска: от -100 до 100 и от -50 до 50. Это можно объяснить тем, что у функции Экли при большом удалении от глобального минимума начинает преобладать колебательная составляющая, которая практически полностью скрывает глобальную тенденцию.

Использовались следующие тестовые задачи:

(1) Функция Растригина в области [-100; 100] в:

в

Л(х) = ^ [ж2 - 10 соэ (2пх) + 10] .

¿=1

(2) Сдвинутая функция Розенброка в области [-100; 100]в:

/2(х) = ^ [100 ((х+1 + 1) - (х + 1)2)2 + х,2 .

¿=1

(3) Функция Экли в области [-100; 100]D: /з(х) = -20exp ( -0.2

Л

D 2 *2I - expf D 2 cos(2»x,)j+20 + e.

(4) Функция Экли в области [-50;50]D.

(5) Функция Гриванка в области [-600; 600]D:

D 2 D / \

«Х> = Е 4X00- П c«( x) + 1

4000

¿=1 ¿=1

(б) Функция Вейерштрасса в области [-0.5;0.5]D:

D Yk.

/5(Х) = Е

¿=1

^ ak cos (2nbk (x¿ + 0.5))

- D^X cos (nbk) ,

k=0

ak

k=0

где a = 0.5, b = 3, hmax = 20.

(7) Функция Кацууры в области [-100; 100]D:

(ч 10D-12 32 \

1 + i ^ |2j x¿ - round (2j x¿)\ 2-j I -10D-2,

j=i / где round (x) — округление к ближайшему целому.

(8) Сдвинутая функция Леви в области [-100; 100]D:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

D-1

/7(x) = sin2(nwi) + ^(w¿ - 1)2 [1 + 10sin2(nw¿ + 1)] +

¿=1

+ (wd - 1)2 [1 + sin2 (2nwD)] ,

где w¿ = 1 + 0.25x¿.

(9) Эллиптический параболоид вращения в области [-100; 100]D:

D

/8(Х) = ^ x2.

¿=1

(10) Диск в области [-100; 100]D:

D

/9(x) = 106x2 + £ x2.

(11) Изогнутая сигара в области [-100; 100]в:

в

/ю(х) = х? + 106 ^ хг2.

¿=2

(12) Сумма разных степеней в области [-100; 100]в:

в

/п(х) = Е Т|

т-|i+1

1

/12 (x) = Е 106(i-1)/(D-1)T?.

(13) Эллиптическая функция с высокой обусловленностью в области [-100; 100]D:

D

(x) ^

i=1

Классические тестовые функции часто обладают «удобными» свойствами: глобальный минимум находится в нуле или другой точке с равными координатами или минимум можно найти независимо по отдельным координатам:

(25) xmin = ( arg min Ф(т, x2,...), arg min Ф(т1, т,...),...).

\Li<x<Ui ¿2<x<U2 /

Поэтому ко всем базовым ЦФ были применены случайные сдвиги и ортогональные преобразования: /* (x) = /(M(x — x0)), x0 = U [L + 0.4 (U — L), L + 0.6 (U — L)]. Матрица M получена путём орто-нормализации матрицы случайных чисел, равномерно распределённых от 0 до 1, по алгоритму Грама-Шмидта. Аналогичный подход к созданию тестовых функций применён в [19].

Были проведены эксперименты следующих типов:

(1) Контрольные эксперименты со случайным изменением параметров. Для каждой задачи алгоритм запускался 100 раз со случайной инициализацией. База правил, M, xo при каждом запуске инициализировались случайно. Использовался описанный выше алгоритм управления параметрами, из которого была исключена эволюция. Очарованию и достоинству правил при каждой процедуре оценки присваивались случайные числа, равномерно распределённые от 0 до 1. Пополнение базы происходило только за счёт случайных правил, а мутация и скрещивание не применялись.

(2) Эксперименты для общей оценки эффективности метода. Для каждой задачи алгоритм запускался 100 раз со случайной

инициализацией. База правил, M, xo при каждом запуске инициализировались случайно.

(3) Эксперименты для выявления долговременной адаптации. Для каждой задачи было проведено 50 серий по 10 запусков алгоритма. База правил инициализировалась случайно в начале серии, после каждого запуска она сохранялась и загружалась вновь в начале следующего запуска (сквозная база правил). M, x0 инициализировались случайно перед первым и далее каждые Rt запусков в серии. Эксперименты были проведены при Rt = 0 (M, xo не обновляются внутри серии) и Rt = 1.

Для каждого запуска алгоритма определялись найденное минимальное значение ЦФ (Фт-т), количество вычислений ЦФ (Nevai), количество итераций (Niter) и количество вычислений ЦФ на итерацию

(Nepi = NeVal/Niter ).

Результаты экспериментов со случайным изменением параметров использовались для контроля эффективности предлагаемого эволюционного алгоритма управления, так как известно [20], что в некоторых случаях само по себе изменение параметров в процессе работы алгоритма оптимизации может улучшать результаты, по сравнению со статическими параметрами. В данной работе случайное изменение параметров было реализовано путём модификации эволюционного алгоритма управления, чтобы свести отличия между сравниваемыми конфигурациями к единственному фактору — способу выбора параметров.

В экспериментах использовались следующие значения параметров:

• размера и состава популяции: Nr = 100, keit = 0.25, kcros = 0.5,

kmut = °.25, krand = 0.25;

. мутации: /(e' ) = l(p'i) = l(p'2) = /(Px) = 10-2 ) = l) =

• мутации: /mut = lmut = lmut = lmut = 10 , "mut = amut =

="tl=0.05, i<mau) = 10-2, "(mu)=0.05, „mi = 5 x 10-3;

• оценки правил: kcd = 0.95, kmd = 0.9999;

• применения правил: Ibig = 10, ksei = 0.95, Ntop = 10, Ns = 1;

• случайной генерации правил: kmxp1 = 0.2, kmxp2 = 10-6, kmxpf =

05 £ = 10-6 l(ef) = 10-2 u(ef) = 10 l(Pf 1) = l(Pf2) = l(Px) 0.5, £pat = 10 , l„„„ J = 10 , U „„„J = 10, l„„„j = l„„„j = l

--pat — 10 , lrand — 10 , urand — 10, lrand — lrand — lrand — i0-2 u(pfi) — JPf 2) — u(px) — , ,(«ь) — iq-2 u(ab) — i0. 10 , urand — urand — urand — 1 lrand — 10 , urand — 10.

локального поиска: Iioc — 25, kh — 0.75;

базовых точек: Nb — 100, kv1 — 1, Sbg — 10, vmin — 10-5, -ь — 5 x 10-6, Irest — 10, w< — 0.9, wt — 0.5, ws — 0.5, Next — 10; условий останова: I stop — 100, Estop — 10-7, ¿stop — 0, Imax — ro.

4. Результаты

Итоговая статистика для экспериментов со случайным изменением (СИ) и эволюционным управлением (ЭУ) параметрами без загрузки базы правил приведена соответственно в таблицах 1 и 2.

Таблица 1. Результаты экспериментов с СИ

За- Пара-дача метр

Минимум Медиана Максимум Среднее

Среднекв. откл.

1 Ф*тт 196 326.8 448.7 329.6 58.45

9.817x10е 1.238x107 2.468x107 1.224x107 2.162x10е

400 500 1000 490 87.75

2 Ф* . тт 1.691Х10-12 3.744x10^ 3.987 1.316 1.875

7.356x10е 7.663x10е 1.257x 107 8.545x10е 1.262x10е

300 300 500 340 50.99

3 Ф* . тт 20 20 20 20 0.000 200 3

4.451x10е 4.681x10е 1.206x107 5.309x10е 1.41x10е

200 200 500 228 58.45

4 Ф*тгп 1.315Х10-8 19.81 19.91 19.2 3.378

4.42x10е 4.866x10е 1.771x 107 6.826x10е 2.828x10е

200 200 700 285 113.5

5 Ф* тт 1.221 Х10-14 3.847x 10-14 2.244x10-13 5.116x10^ 3.622x10-"

4.86x10е 5.033x10е 5.277x10е 5.033x10е 7.935x104

200 200 200 200 0

6 Ф* . тт 71.3 93.86 106.3 93.57 6.629

1.421 x 107 1.9x107 5.104x107 2.164x107 7.776 x10е

600 800 2100 893 316.6

7 Ф*тт 0.01705 0.0621 0.3598 0.079 02 0.061 23

6.731x10е 1.134x107 1.409x107 1.059x107 1.497x10е

300 500 600 459 61.8

8 Ф* . тт 4343 9905 1.225x104 9622 1535

4.692x10е 7.331x10е 9.822x107 1.137x 107 1.193x107

200 300 3900 463 474.1

9 Ф* . тт 5.492x10-" 1.843x 10-15 2.566x 10-15 1.764x 10-15 4.518x10-1е

4.961x10е 5.255x10е 5.493x10е 5.252x10е 8.844 x104

200 200 200 200 0

10 Ф*тт 3.787x 10-7 5.37x 10-7 8.014x 10-7 5.362x 10-7 8.902x10^

4.655x10е 4.913x10е 5.112x10е 4.909x10е 9.112x104

200 200 200 200 0

11 Ф* . тт 2.172x10^ 1.879x 10-7 4.297x10^ 5.649x 10-7 8.42x 10-7

4.948x10е 5.17x10е 7.846x10е 5.609x10е 9.719x105

200 200 300 218 38.42

12 Ф* . тт 1.381 x 10-10 1.144x10^ 0.000 75 1.284x 10-5 7.662x10^

3.262x107 5.563x107 1.011x108 5.803x107 1.656x107

1100 1900 3500 1976 580.2

13 Ф*тт 3.87x 10-7 1.066x10^ 4.416x10^ 1.185x10^ 5.696x 10-7

4.89x10е 5.096x10е 7.596x10е 5.137x10е 3.564x 105

200 200 300 202 14

Таблица 2. Результаты экспериментов с ЭУ без загрузки базы правил

Задача Параметр Минимум

1 Ф*тт 5.862Х 10-14

N eval 8.175Х106

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Niter 300

2 Ф*тгп 1.606Х10-12

N eval 8.071 Х106

Niter 300

3 Ф*тт 20

N eval 4.15Х106

Niter 200

4 Ф*тгп 8.689Х10-9

N eval 4.211 Х106

Niter 200

5 Ф*тгп 1.044Х 10-14

N eval 5.194Х106

Niter 200

6 Ф*тт 39.17

N eval 1.751 Х107

Niter 600

7 Ф*тгп 0.009 948

Neval 7.304 Х106

Niter 300

8 Ф*тгп 4.268

Neval 4.664Х 106

Niter 200

9 Ф*тт 4.741 Х10-16

Neval 5.094Х106

Niter 200

10 Ф*тгп 3.54Х10-7

Neval 4.857Х106

Niter 200

11 Ф*тгп 1.617Х10-9

Neval 5.512Х106

Niter 200

12 Ф*тт 8.579Х 10-11

Neval 3.623Х107

Niter 1100

13 Ф*тгп 3.427Х 10-7

Neval 5.155Х106

Niter 200

Среднее

Среднекв. откл.

3.428Х10-13 9.86Х106 300

2.991 Х10-11 9.312Х106 300 20

5.458Х106 200 19.76 7.423Х106 300

3.825Х10-14 6.228Х 106 200 73.61 2.312Х107 750 0.066 76 1.177Х 107 500 9257 1.064Х107 400

1.195Х10-15 6.505Х 106 200

5.437Х10-7 5.465Х 106 200

2.423Х10-7 6.435Х 106 200

3.468Х10-7 5.498Х107 1600 1.03Х10-6 5.95Х106 200

54.72 1.677Х 107 600 3.987 1.522Х107 500 20

1.441Х107 500 19.93 1.876Х 107 800

15.68 1.072Х 107 358 1.037

1.002Х107

339 20

6.26Х 106 239 17.58 7.969Х 106 296

4.118Х10-13 6.819Х 106 200 87.24 1.056Х108 2900 0.2953 2.132Х107 800 1.178Х104 8.407Х 107 2800 2.149Х10-15 7.379Х106 200

7.794Х 10-7 6.317Х 106 200

-6

7.641Х 10 1.014Х107 300 0.004809 1.267Х108 3800 2.895Х10-6 8.479Х106 300

5.061Х 10-14 6.193Х 106 200 72.53 3.031Х107 956 0.08215 1.175Х 107 468 7998 1.332Х107 479

1.236Х 10-15 6.483Х 106 200

5.491Х10-7 5.487Х106 200

-7

17.44 2.073Х106 73.73 1.749 1.523Х106 50.78 0.0003196 1.739Х106 63.08 6.182 3.271 Х106 118.3

-14

5.306Х 10 6.69Х 106 209

8.098Х10-5 6.038Х107 1778 1.085Х10-6 6.033Х 106 202

4.683Х 10 3.46Х105 0

9.259 1.767Х 107 498.7 0.05262 2.315Х106 81.09 3726 1.2Х107 421.5 4.056Х 10-16 4.42Х105 0

8.739Х 10-8 3.104Х105 0

9.742Х 10-7 9.355Х 105 28.62 0.000 542 7 1.812Х107 543.1

4.042Х10-7 4.624Х105 14

Результаты экспериментов с СИ и ЭУ без загрузки базы правил сопоставлены на рисунке 3-5 и в таблице 3. На рисунке 3 данные представлены в виде коробчатых диаграмм: прямоугольники показывают

область между первым (ф?) и третьим (фз) квартилями, оранжевая линия — медиана, выносные элементы охватывают область значений с отклонением не более 1.5(фз — ) ниже или выше фз, более далёкие значения (выбросы) отмечены круглыми маркерами, зелёные треугольные маркеры показывают среднее. На рисунках 4, 5 планки погрешности показывают стандартную ошибку.

Рисунок 3. Фтт в экспериментах с СИ и ЭУ без загрузки базы правил

Значимость отличий результатов по параметрам Фт,т, , проверялась с помощью двустороннего критерия Манна—Уитни1.

1 Использовалась функция scipy.stats.mannwhitneyu из библиотеки Яс1Ру [21]

Рисунок 4. Средние Меуа1 в экспериментах с СИ и ЭУ без загрузки базы правил

Рисунок 5. Средние Мерг в экспериментах с СИ и ЭУ без загрузки базы правил

Для каждого из трёх параметров в отдельности делалась поправка р-значений на множественность сравнений по методу Холма— Бонферрони2.

версии 0.19.1.

Здесь и далее использовалась функция p.adjust с параметром method = "holm" из статистической среды R [22] версии 3.4.4.

Таблица 3. Результаты сравнения Ф*тПп в экспериментах с СИ и ЭУ без загрузки базы правил

Задача Р -значение Р-значение с поправкой

1 <0.0001 <0.0001*

2 0.0893 0.6850

3 0.0856 0.6850

4 0.0004 0.0042*

5 0.7545 1

6 <0.0001 <0.0001*

7 0.2785 1

8 0.0160 0.1444

9 <0.0001 <0.0001*

10 0.2433 1

11 0.9912 1

12 0.2009 1

13 0.3242 1

Примечание: *) статистически значимые результаты (р < 0.05).

Как следует из таблицы 3, различие Ф^и между экспериментами с СИ и ЭУ является статистически значимым при уровне значимости 0.05. Значимые отличия наблюдались в задачах № 1,4, 6, 9. В этих задачах минимальные значения ЦФ в экспериментах с СИ были выше, чем с ЭУ (рисунок 3). Дополнительно следует обратить внимание на задачу № 8. В ней исправленное р-значение 0.14 оказалось выше уровня значимости, однако 15 значений в режиме с ЭУ оказались меньше 50 (наименьшее 4.268), в то время как наименьший результат с СИ составляет 4343.

В режиме с ЭУ наблюдается статистически значимое (р < 0.05) увеличение (в задачах № 2-11, 13) или уменьшение (№ 1) Меуа1 (рисунок 4). В задаче № 12 значимых отличий не выявлено. Для всех задач значимо увеличивается Мер,1 (рисунок 5).

Наиболее существенным различие между режимами с СИ и ЭУ было в задаче № 1с ЦФ Растригина. Одновременно со значительным уменьшением погрешности, в режиме с ЭУ также уменьшилось количество вычислений ЦФ и итераций, чего не наблюдалось в других задачах.

Следовательно, результаты экспериментов не противоречат гипотезе о том, что в некоторых задачах при эволюционном управлении

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Таблица 4. Результаты сравнения Фтгп между первым и последним запуском в серии в экспериментах с ЭУ и сквозной базой правил в серии

Задача Rt = 0 Rt = 1

P -значение P-значение с P -значение Р-значение с

поправкой поправкой

1 <0.0001 <0.0001* <0.0001 <0.0001*

2 0.7030 1 0.1410 0.9333

3 0.0002 0.0022* 0.0012 0.0105*

4 <0.0001 <0.0001* <0.0001 <0.0001*

5 0.5955 1 0.1333 0.9333

6 <0.0001 <0.0001* <0.0001 <0.0001*

7 0.3466 1 0.6958 1

8 0.0022 0.0180* 0.0002 0.0022*

9 0.9961 1 0.2408 1

10 0.8734 1 0.4602 1

11 0.6191 1 0.5023 1

12 0.4840 1 0.9654 1

13 <0.0001 0.0002* 0.0341 0.2728

Примечание: *) статистически значимые результаты (р < 0.05).

параметрами метода НАИЗ-РЯО Фтгп ниже, чем при случайном изменении параметров.

Итоговая статистика для последнего запуска в серии в экспериментах с ЭУ и сквозной базой правил в режимах со случайным преобразованием ЦФ в начале серии (Д4 = 0) и перед каждым запуском (Д( = 1) приведена соответственно в таблицах 5 и 6.

Результаты экспериментов с ЭУ и сквозной базой правил в серии в режимах Д4 = 0 и Д4 = 1 сопоставлены на рисунках 6-9 и в таблице 4. На рисунках 7-9 затенённые области показывают стандартную ошибку.

Значимость отличий результатов по параметрам Фтгп, Neval, Nepг между первым и последним запуском в серии проверялась с помощью двустороннего знаково-рангового критерия Уилкоксона для парных выборок3. Для каждого из трёх параметров в отдельности делалась поправка р-значений на множественность сравнений по методу Холма— Бонферрони.

3Использовалась функция scipy.stats.wilcoxon с параметром alternative = 'two-sided' из библиотеки SciPy [21] версии 0.19.1.

Таблица 5. Результаты последнего запуска в серии в экспериментах с ЭУ и сквозной базой правил при = 0

За- Пара-дача метр

Минимум Медиана Максимум Среднее

Среднекв.

—14

—14

1.634Х10-13 1.234Х107 300 3.987 1.675Х107 500 20

1.28Х107

400 19.86

2.688Х107 800

-13

—13

—14

1 Ф *

Ф * .

тт

3 Ф *

Ф

тт

Ф

тт

Ф

тт

7 Ф * .

тт

8 Ф * .

тт

9 Ф *

тт

10 Ф * .

тт

11 Ф

тт

12 Ф *

тт

13 Ф

6.395 10

1.232 10

4.134 10

5.578Х10

9.415 10

1.075Х 107 300

2.191 Х10—12 9.954Х106 300 20

4.734Х106 200

8.239Х 10—9 5.553Х106 200

1.171Х107

300

3.458Х 10—11

1.111 Х107

300 20

6.804 Х106 200

1.779Х 10—8 1.306Х107 400

—14

3.531 10

—14

6.779Х 106 200 29.23 2.017Х 107 500 0.01859 7.554Х106 400 4573 5.139Х106 200

5.241 Х10—16 7.097Х106 200 3.2х 10—7 4.731Х106 200

2.003Х 10—9 7.014Х106 200

7.689Х 10—11 3.901 Х107

1100

—7

6

9.624Х10 6.512Х10

2.001 10

7.703 Х106 200 42.8 3.231 Х107 800 0.063 55 1.332Х107 500 7670 1.515Х107 450

1.192Х 10—15 7.904 Х106 200

4.975Х 10—7 5.474 Х106 200

2.199Х 10—7 7.874 Х106 200

2.102Х 10—7 6.153Х107 1750

—7

6

7.56x10'

1.006 10

4.908 10

8.103Х106 200 52.7 7.287Х 107 1800 0.2023 2.502Х107 800 1.141Х104 8.605Х107 2200 2.145Х 10—15 8.587Х106 200

8.597Х 10—7 6.203Х 106 200

1.65Х10-5

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1.222Х107

300

0.000 694 7 1.137Х108 3600 1.968 10

—6

9.968x10 6.493x10'

2.451 10

1.162Х107

300 1.037

1.202Х107

340 20

7.36Х106 258 6.682 1.344Х107 414

4.48Х105 0

1.749

1.882Х106

56.57 0.000 609 6 2.116Х 106 75.07 9.31 4.848 Х106 154.9

—14

4.164 10

—14

7.685Х 106 200 42.91 3.696Х107 912 0.07794 1.382Х107 472 7610 1.873Х 107 570

1.198Х 10—15 7.883Х106 200

5.253Х 10—7 5.469Х 106 200

8.341Х 10—7 7.942Х106 202

1.686Х10-5

6.553Х107

1800 —7

6

200

200

200

200

3.045Х 105 0

5.748 1.242Х107 307 0.04729 3.14Х106 84.95 1625 1.412Х107 392.6 3.635Х 10—16 3.433Х105 0

1.154Х 10—7 3.423Х105 0

2.444Х 10—6 6.694Х105 14

9.707Х 10—5 1.751 Х107 523.5

3.303Х10-7 4.409Х105 0

Как следует из таблицы 4, статистически значимые отличия Фт%и между первым и последним запуском в серии при уровне значимости 0.05 наблюдались как при К1 = 0, так и при К1 = 1. При этом в задачах

2

4

5

6

Таблица 6. Результаты последнего запуска в серии в экспериментах с ЭУ и сквозной базой правил при = 1

За- Пара-дача метр

Минимум Медиана Максимум Среднее

Среднекв. откл.

1.075x10-13 1.162x107 300

1.868x10-11 1.097x 107 300 20

6.291x10е 200

2.076x 10-8 1.275x 107 400

3.014x 10-14 7.672x10е 200 43.91 3.221 x 107 800 0.061 95 1.351 x 107 500 7049 1.739x 107 600

1.149x 10-15 7.846 x10е 200

5.145x 10-7 5.495x10е 200

3.093x 10-7 7.887x10е 200

2.427x 10-7 6.262x107 1700

8.417 10-

2363x1с-1 1.241x107 300 3.987 1.804x107 500 20

1.371x 107 400 19.86 2.632x107 700

1.402x10-13 8.296x10е 200 54.41 6.958x107 1700 0.2733 2.24x107 800 1.00^ 104 6.373x 107 1700 2.311 x 10-15 8.454x10е 200

8.542x 10-7 6.564x10е 200

9.728x10^ 1.2x107 300 0.005 974 1.433x108

4200

е

1.058x10-13 1.158x107 300 0.3987 1.14x107 316 20

7.163x10е 252 7.934 1.33x107 416

4.073x 10-14 7.674x10е 200 42.82 3.442x107 848 0.08082 1.379x 107 468 6852 1.95x107 594

1.151x 10-15 7.831x10е 200

5.298x 10-7 5.498x10е 200

7.629x 10-7 7.972x10е 206

0.000 123 7 6.693x107 1854

-7

е

3.215x 10-14 3.96x105 0

1.196 1.534x10е 41.76 0.000451 7 2.146x10е 64 9.636 5.439x10е

151.5 2.919x 10-14

2.754x 105 0

4.86 9.846x10е 241.9 0.05664 3.266x10е 88.18 2034 1.118x107

299.6 4.224x10-1е

3.881 x105 0

9.497x 10-8 3.806x105 0

1.571 x 10-е 8.765x 105 23.75 0.0008358 2.334x107 689.1 4.336x 10-7 4.678x105 0

1 Фтгп 4.796x10^

N eval 1.084x107

NНет 300

2 Фтгп 1.456x 10-12

Neval 9.828x10е

Nгteт 300

3 Ф*тгп 20

Neval 4.5x10е

Nгteт 200

4 Ф*тгп 7.62x 10-9

N eval 5.842x10е

Nгteт 200

5 Ф'тгп 8.216x 10-15

Neval 7.109x10е

Nгteт 200

6 Ф*тгп 31.01

Neval 2.425x107

Nгteт 600

7 Ф*тгп 0.01514

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

N eval 7.564x10е

Nгteт 300

8 Ф'тгп 55.9

Neval 5.144x10е

Nгteт 200

9 Ф*тгп 2.653x10-1е

Neval 6.766x10е

Nгteт 200

10 Фтгп 3.488x 10-7

N eval 4.412x10е

Nгteт 200

11 Фтгп 3.557x10^

Neval 6.495x10е

Nгteт 200

12 Фтгп 2.277x10-10

Neval 3.3x107

Nгteт 900

13 Фтгп 2.684x10^

N eval 5.121x10е

Nгteт 200

-7

6.492x10'

2.753x10 7.811x10'

9.329 10

200

200

6.53x10' 200

№ 1, 3, 4, 6, 8 отличие наблюдается в обоих режимах, а в задаче № 13 только при Д4 =0. В этих задачах отчётливо видна тенденция к понижению Фтгп в серии рисунков 6, 7.

Рисунок 6. Медианы Ф^т в зависимости от номера запуска в серии в экспериментах с ЭУ и сквозной базой правил в серии

В большинстве задач Меуа1 возрастает в серии рисунка 8, при этом статистически значимыми (р < 0.05) отличия между первым и последним запуском в серии являются для задач № 1, 2, 4, 5, 6, 9, 11, 13 при = 0 и № 1, 2, 3, 4, 5, 7, 9, 11, 13 при = 1.

Значение возрастает в серии в обоих режимах во всех задачах, кроме № 10 (рисунок 9). Отличия по Мр между первым и последним запуском в серии также статистически значимы (р < 0.05) в обоих режимах во всех задачах, кроме № 10. В задаче № 10 значимых

Рисунок 7. Средние Ф*тш в зависимости от номера запуска в серии в экспериментах с ЭУ и сквозной базой правил в серии

отличий нет ни в одном режиме.

Сравнение режимов ^ = 0 и ^ = 1 между собой по результатам последнего запуска в серии с помощью критерия Манна—Уитни не показало значимых отличий по Фт,т, , (р > 0.05).

Таким образом, результаты экспериментов не противоречат гипотезе о том, что в некоторых задачах при эволюционном управлении параметрами метода НАИЗ-РЯО со сквозной базой правил Фт,т ниже, чем при создании новой базы при каждом запуске.

Рисунок 8. Средние Ыеуа1 в зависимости от номера запуска в серии в экспериментах с ЭУ и сквозной базой правил в серии

5. Выводы

Эволюционное управление параметрами повышает точность метода НАИЗ-ГЯЭ, по сравнению со случайным изменением параметров в процессе поиска. Дальнейшее уменьшение погрешности значений ЦФ в режиме со сквозной базой правил говорит о постепенной адаптации метода к решаемой задаче.

При использовании эволюционного управления и сквозной базы правил не наблюдается различий в результатах между случайным

Рисунок 9. Средние Мерг в зависимости от номера запуска в серии в экспериментах с ЭУ и сквозной базой правил в серии

преобразованием ЦФ перед первым (^ = 0) или перед каждым запуском в серии (^ = 1). Следовательно, процесс устойчив к ортогональным преобразованиям и ограниченным сдвигам ЦФ.

При случайном изменении параметров наименьшую погрешность значений ЦФ метод НАИЗ-РЯО показал в задачах № 5, 9-13 (по среднему), а также № 2 (по медиане). Из этих задач только в задаче № 9 эволюционное управление параметрами привело к статистически значимому снижению погрешности. Также в этих задачах, кроме № 13

при = 0, не обнаружилось эффекта от использования сквозной базы правил в течение 10 запусков алгоритма. Общее для этих задач то, что ЦФ являются или близки к полиномиальным, в том числе квадратичным. Например, в задаче № 5 преобразованная ЦФ Гриванка при 100 переменных почти во всей области поиска, за исключением небольшой окрестности глобального минимума, является квадратичной. Высокая успешность в этих задачах, по-видимому, достигается за счёт вспомогательного квазиньютоновского локального поиска по модифицированному методу ББСБ.

Метод показал хорошие результаты для сложной преобразованной функции Растригина (задача № 1). В этом случае эволюционное управление параметрами привело к значительному снижению погрешности, по сравнению со случайным изменением. В режиме со сквозной базой правил средняя погрешность быстро снижалась примерно с 19 в конце 1-го запуска до 10-13 в конце 7-го запуска в серии рисунка 7. Также в этом режиме хорошие результаты наблюдались для преобразованной функции Экли (задача № 4), где за 10 запусков медиана погрешности снизилась с 20 до 2 х 10-8.

Статистическая значимость полученных результатов высокая: р-значения, как правило, были существенно ниже выбранного порога 0.05.

Эволюционное управление параметрами в методе НАИЗ-РБО обладает рядом преимуществ перед непосредственной ручной настройкой. Оно позволяет сохранять опыт решения задачи или класса задач в базе правил, использовать его повторно и постепенно наращивать. Также применение эволюционного подхода открывает путь к использованию достижений из области эволюционных вычислений.

Благодаря эволюционному контроллеру, пользователю не требуется самостоятельно настраивать параметры метода НАИЗ-РБО, хотя всё ещё требуется задать области случайной генерации и мутации и другие параметры самого контроллера (метапараметры). Тем не менее, эта задача представляется более простой, чем непосредственная ручная настройка, так как после начального выбора метапараметров процесс сам адаптируется к решаемой задаче. При этом не вполне оптимальный выбор метапараметров будет замедлять, но не останавливать эволюцию. В этом случае метапараметры можно корректировать, анализируя направление эволюции по базе правил.

Вопросами для дальнейших исследований являются: 1) причины эффективности или неэффективности метода НАИЗ-РБО с эволюционным управлением параметрами в различных задачах; 2) подходы

к уменьшению количества вычислений ЦФ; 3) пути сокращения количества метапараметров.

Список литературы

[1] W. M. Spears, K.A. De Jong, T. Back, D.B. Fogel, H. De Garis. "An overview of evolutionary computation", European Conference on Machine Learning, Lecture Notes in Computer Science, vol. 667, Springer, 1993, pp. 442-459. 34

[2] F. Neri, V. Tirronen. "Recent advances in differential evolution: a survey and experimental analysis", Artificial Intelligence Review, 33:1-2 (2010), pp. 61-106. I 134

[3] N. Siddique, H. Adeli. "Nature inspired computing: an overview and some future directions", Cognitive computation, 7:6 (2015), pp. 706-714. j34

[4] D.H. Wolpert, W. G. Macready. "No free lunch theorems for optimization",

IEEE transactions on evolutionary computation, 1:1 (1997), pp. 67-82.

1 34

[5] G. Karafotias, M. Hoogendoorn, A.E. Eiben. "Parameter control in evolutionary algorithms: Trends and challenges", IEEE Transactions on Evolutionary Computation, 19:2 (2015), pp. 167-187. I3435

[6] A. Aleti, I. Moser. "A systematic literature review of adaptive parameter control methods for evolutionary algorithms", ACM Computing Surveys (CSUR), 49:3 (2016), 56. i 36'

[7] R. Poli, J. Kennedy, T. Blackwell. "Particle swarm optimization", Swarm intelligence, 1:1 (2007), pp. 33-57. 136

[8] V. D. Koshur. "Reinforcement swarm intelligence in the global optimization method via, neuro-fuzzy control of the search process", Optical Memory and. Neural Networks, 24:2 (2015), pp. 102-108. t36

[9] Sh.A. Akhmedova, V.V. Stanovov, E.S. Semenkin. "Cooperation of bio-inspired and evolutionary algorithms for neural network design", Journal of Siberian Federal University. Mathematics & Physics, 11:2 (2018), pp. 148-158.

[10] E. Semenkin, M. Semenkina. "Self-configuring genetic algorithm with modified uniform crossover operator", Advances in Swarm Intelligence, ICSI 2012, Lecture Notes in Computer Science, vol. 7331, Springer, 2012, pp. 414-421.

[11] G. Karafotias, A.E. Eiben, M. Hoogendoorn. "Generic parameter control with reinforcement learning", Proceedings of the 20 Ц Annual Conference on Genetic and. Evolutionary Computation, ACM, 2014, pp. 1319-1326. t36

[12] G. Karafotias, M. Hoogendoorn, B. Weel. "Comparing generic parameter controllers for EAs", 20 Ц IEEE Symposium on Foundations of Computational Intelligence (FOCI), IEEE, 2014, pp. 46-53. I ' 36

[13] A. Rost, I. Petrova, A. Buzdalova. "Adaptive Parameter Selection in Evolutionary Algorithms by Reinforcement Learning with Dynamic Discretization of Parameter Range", Proceedings of the 2016 on Genetic and Evolutionary Computation Conference Companion, ACM, 2016, pp. 141-142.

35

[14] В. Д. Кошур, К. В. Пушкарев. «Глобальная оптимизация на основе ней-росетевой аппроксимации инверсных зависимостей», XIII Всероссийская научно-техническая конференция «Нейроинформатика-2011», Сборник научных трудов: в 3 ч. Т. 1, ред. О. А. Мишулина, НИЯУ МИФИ, М., 2010, с. 89-98. t3S

[15] V. Koshur, K. Pushkaryov. "Global optimization via neural network

approximation of inverse coordinate mappings", Optical Memory and Neural Networks, 20:3 (2011), pp. 181-193. t36

[16] К. В. Пушкарев, В. Д. Кошур. «Гибридный эвристический параллельный метод глобальной оптимизации», Вычислительные методы и программирование, 16 (2015), с. 242-2 55 . 36 38

[17] В. Д. Кошур, К. В. Пушкарев. «Дуальные обобщённо-регрессионные нейронные сети для решения задач глобальной оптимизации», XII Всероссийская научно-техническая конференция «Нейроинформатика-2010», Сборник научных трудов: в 2 ч. Т. 2, ред. О. А. Мишулина, НИЯУ МИФИ, М., 2010, с. 219-227. t38

[18] J. Nocedal, S. J. Wright. Numerical Optimization, Second Edition, SpringerVerlag, New York, 2006. 46

[19] N. H. Awad, M. Z. Ali, P. N. Suganthan, J. J. Liang, B. Y. Qu. "Problem Definitions and Evaluation Criteria for the CEC 2017 Special Session and Competition on Single Objective Real-Parameter Numerical Optimization", 2016.® 46 48

[20] G. Karafotias, M. Hoogendoorn, A. E. Eiben. "Why parameter control mechanisms should be benchmarked against random variation", IEEE Congress on Evolutionary Computation, IEEE, 2013, pp. 349-355. 49

[21] E. Jones, T. Oliphant, P. Peterson, et al. SciPy: Open source scientific tools for Python, 2001. url 62 66

[22] R Core Team. R: A language and environment for statistical computing,

2018. url 63

Поступила в редакцию 27.04.2019 Переработана 09.05.2019

Опубликована 26.06.2019

Рекомендовал к публикации

д.т.н. В.М. Хачумов

Пример ссылки на эту публикацию:

К. В. Пушкарев. «Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами». Программные системы: теория и приложения, 2019, 10:2(41), с. 33-65. d 10.25209/2079-3316-2019-10-2-33-65 url http://psta.psiras.ru/read/psta2019_2_33-65.pdf

Эта же статья по-английски: d 10.25209/2079-3316-2019-10-2-3-31

Об авторе:

Кирилл Владимирович Пушкарев

Старший преподаватель кафедры вычислительной техники Института космических и информационных технологий Сибирского федерального университета. Научные интересы: эвристические методы глобальной оптимизации, нейронные сети.

[da 0000-0002-1138-886x e-mail: cyril.pushkaryov@yandex.ru

Sample citation of this publication:

Kirill V. Pushkaryov. "Global optimization via neural network approximation of inverse coordinate mappings with evolutionary parameter control". Program Systems: Theory and Applications, 2019, 10:2(41), pp. 33-65. (In Russian). d 10.25209/2079-3316-2019-10-2-33-65 url http://psta.psiras.ru/read/psta2019_2_33-65.pdf

The same article in English:

d 10.25209/2079-3316-2019-10-2-3-31

i Надоели баннеры? Вы всегда можете отключить рекламу.