Научная статья на тему 'Меметические алгоритмы для решения задачи глобальной нелинейной оптимизации. Обзор'

Меметические алгоритмы для решения задачи глобальной нелинейной оптимизации. Обзор Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1146
257
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АДАПТИВНЫЕ АЛГОРИТМЫ / ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ / ГИБРИДНЫЕ АЛГОРИТМЫ / МЕМЕТИЧЕСКИЕ АЛГОРИТМЫ / МУЛЬТИМЕМЕЕВЫЕ АЛГОРИТМЫ / ГИПЕРЭВРИСТИКИ / САМОАДАПТАЦИЯ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Сахаров М.К., Карпенко А.П.

Рассматриваем относительно новый и быстро развивающийся класс эвристических гибридных методов глобальной оптимизации, основанный на нео-дарвиновском принципе эволюции и концепции мема. Данный класс методов был назван меметическими алгоритмами (МА). В контексте задач оптимизации под мемом понимаем один из алгоритмов локальной оптимизации, уточняющий текущее решение исходной задачи. В широком смысле МА представляют собой гибридизацию какого-либо популяционного алгоритма глобального поиска и одного или нескольких алгоритмов локальной оптимизации. Концепция меметических алгоритмов предоставляет широкие возможности для разработки различных модификаций этих алгоритмов, которые могут отличаться частотой выполнения локального поиска, условиями его окончания и так далее. Вследствие этого возникает проблема определения наиболее перспективных направлений модификации МА. В работе даем постановку задачи нелинейной глобальной безусловной оптимизации, представлены наиболее перспективные направления модификации МА, включая гибридизацию и мета-оптимизацию. Основное содержание работы представляет классификация и обзор существующих вариантов меметических алгоритмов

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Меметические алгоритмы для решения задачи глобальной нелинейной оптимизации. Обзор»

Наука й Образование

МГТУ им. Н.Э. Баумана

Сетевое научное издание

ISSN 1994-040В

Наука и Образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2015. № 12. С. 119-142.

Б01: 10.7463/1215.0829099

Представлена в редакцию: 10.11.2015 Исправлена: 24.11.2015

© МГТУ им. Н.Э. Баумана

УДК 519.6

Меметические алгоритмы для решения задачи глобальной нелинейной оптимизации. Обзор

Сахаров М. К1'", Карпенко А. П.1 "max.sfii90gigmaii.com

:МГТУ им. Н.Э. Баумана, Москва, Россия

Рассматриваем относительно новый и быстро развивающийся класс эвристических гибридных методов глобальной оптимизации, основанный на нео-дарвиновском принципе эволюции и концепции мема. Данный класс методов был назван меметическими алгоритмами (МА). В контексте задач оптимизации под мемом понимаем один из алгоритмов локальной оптимизации, уточняющий текущее решение исходной задачи. В широком смысле МА представляют собой гибридизацию какого-либо популяционного алгоритма глобального поиска и одного или нескольких алгоритмов локальной оптимизации. Концепция меметических алгоритмов предоставляет широкие возможности для разработки различных модификаций этих алгоритмов, которые могут отличаться частотой выполнения локального поиска, условиями его окончания и так далее. Вследствие этого возникает проблема определения наиболее перспективных направлений модификации МА. В работе даем постановку задачи нелинейной глобальной безусловной оптимизации, представлены наиболее перспективные направления модификации МА, включая гибридизацию и мета-оптимизацию. Основное содержание работы представляет классификация и обзор существующих вариантов меметических алгоритмов.

Ключевые слова: глобальная оптимизация, меметические алгоритмы, гибридные алгоритмы, мультимемеевые алгоритмы, гиперэвристики, адаптивные алгоритмы, самоадаптация

Введение

В последние десятилетия, эволюционные алгоритмы (evolutionary algorithm) (ЭА) зарекомендовали себя как мощные методы поисковой оптимизации. Их популярность обусловлена тем, что они легко реализуются и могут применяться в любых сферах, поскольку в их основе лежит универсальная идея эволюции. Например, в задачах с большим числом локальных оптимумов, традиционные методы оптимизации обычно не справляются с поиском глобального оптимума. Для решения такого рода задач используют различные стохастические методы, в частности, так называемые популяционные алгоритмы, являющиеся разновидностью ЭА [1-3]. Данный класс методов включает в себя различные мета-эвристические алгоритмы поисковой оптимизации. Они зарекомендовали себя как эффективное средство решения задач глобальной нелинейной оптимизации. Отличительными

чертами таких задач часто являются высокая размерность пространства поиска, сложная топология области допустимых значений, а также нелинейность, не дифференцируемость, многоэкстремальность, овражность, отсутствие аналитического выражения и высокая вычислительная сложность оптимизируемых функций.

Основным недостатком данного класса методов является их медленная сходимость к точному решению в окрестности глобального оптимума, так как эти методы не способны использовать локальную информацию о ландшафте исследуемой функции. Это часто ограничивает их использование в масштабных реальных задачах, где время вычислений является критическим фактором. Увеличение компьютерных мощностей, несмотря на их доступность, не может способствовать повышению эффективности решения современных сложных задач оптимизации. Необходима разработка качественно новых алгоритмов.

Одним из перспективных современных направлений в области эволюционных вычислений являются меметические алгоритмы (memetic algorithms) (МА). Они представляют собой популяционные метаэвристические методы поисковой оптимизации, основанные на нео-дарвиновском принципе эволюции и концепции мема (meme), предложенной Р. Докинзом в 1976 году [4]. Мем - единица передачи культурной информации, распространяемая от одного человека к другому, посредством имитации, научения и др. В контексте МА, мем является реализацией какого-либо метода локальной оптимизации, уточняющий решение в процессе поиска. МА можно рассматривать как сочетание популяци-онного поиска глобального оптимума и процедур локального уточнения решений, которое дает синергетический эффект.

Меметические алгоритмы оказались успешными для решения задач оптимизации в различных сферах. Однако, как у всех ЭА, для эффективной работы МА необходимо проводить настройку свободных параметров, например, управлять процедурой выбора мемов, отвечающих специфике конкретной задачи. Как показали исследования [5-7], выбор ме-мов оказывает очень большое влияние на производительность МА.

Концепция меметических алгоритмов предоставляет широкие возможности для разработки различных модификаций этих алгоритмов, которые могут отличаться частотой выполнения локального поиска, условиями его окончания и так далее [8]. Практически значимые модификации меметических алгоритмов предполагают одновременное использование различных мемов. Такие алгоритмы называют мультимемеевыми.

В работе дана постановка задачи нелинейной глобальной безусловной оптимизации, описаны наиболее перспективные направления модификации МА, включая гибридизацию и мета-оптимизацию. Основное содержание работы представляет классификация и обзор существующих разновидностей меметических алгоритмов.

Рассматриваем детерминированную задачу глобальной безусловной минимизации

1. Постановка задачи

(1)

где - скалярная целевая функция, - ее искомое максимальное значение,

-мерный вектор варьируемых параметров, -мерное

арифметическое пространство.

Задана область

D = {Х | xfin < х, < xfax , i G [ 1 : | X | ] } с R\x 1 , (2)

в которой отыскивается решение задачи (1).

Заметим, что в вычислительной практике задачу глобальной условной оптимизации обычно сводят к задаче безусловной оптимизации, например, методом штрафных функций [1].

2. Концепция меметических алгоритмов

Первоначально меметические алгоритмы были предложены как один из способов повышения эффективности генетических алгоритмов [9, 10]. Однако схема комбинации глобального и локального поиска, использованная в МА, может быть применена для построения поисковых алгоритмов также на основе других популяционных алгоритмов.

Термин меметических алгоритмов был впервые предложен Маскато (P. Moscato) в 1989 году [11] для обозначения класса стохастических методов глобального поиска, которые объединяют в себе сильные стороны методов локального поиска, «заточенных» под конкретные практические задачи, и популяционных методов глобального поиска. На сегодняшний день методы данного класса успешно используются для решения задач комбинаторной, непрерывной, динамической и многокритериальной оптимизации [12-21].

В конце 1980-х большинство исследований были направлены на разработку некоторого универсального алгоритма оптимизации, который бы превосходил по своим характеристикам уже существующие [9, 10, 22]. Меметические алгоритмы дали начало принципиально новому подходу, так как они по своей сути не являются алгоритмами, но определяют целый класс методов. Долгое время было распространено мнение, что, в отличии от классических популяционных алгоритмов и других эволюционных методов, концепция меметических алгоритмов не обладает естественной природной аналогией. Из-за этого практически 10 лет большинство исследователей относились к ним скептически [22, 23].

На ранних стадиях развития эволюционных алгоритмов, эмпирические исследования говорили о том, что общие традиционные алгоритмы не могут соперничать с методами, «заточенными» под конкретные задачи. Эти наблюдения соотносились с теоретическими исследованиями, посвященными использованию моделей эволюции Болдвина (Baldwin) и Ламарка (Lamarck) в контексте задач оптимизации [25, 26]. Из этих исследований следует, что эволюционные алгоритмы следует модернизировать посредством гибридизации с «заточенными» под конкретную задачу методами локального поиска - как детерминированными, так и эвристическими. Дальнейшие теоретические работы показали, что идея эффективного алгоритма для решения так называемых black-box задач оптимизации является бесперспективной [22, 27].

В результате, различные методы локального уточнения решений стали активно внедряться в эволюционные алгоритмы путем введения специальных операторов кроссовера и мутаций, различных представлений индивидов, сложных механизмов инициализации популяций и методов локальной оптимизации. Несмотря на большое число различных модификаций МА, общей чертой всех алгоритмов является достижение баланса между глобальной и локальной стратегиями поиска.

Существует несколько причин, по которым гибридизация эволюционных алгоритмов с методами локального поиска является перспективной [22, 28, 29].

• Сложные задачи можно разбить на подзадачи, каждая из которых может решаться с различной эффективностью различными локальными методами.

• Комбинации локальных методов и эволюционных алгоритмов позволяют реализовать баланс между диверсификацией и интенсификацией поиска.

• Различная информация, полученная из подзадач, может быть использована при генерации различных операторов поиска.

• Стратегии локального поиска могут генерироваться в одно и то же время с решениями.

Важным шагом при МА-гибридизации является определение метода передачи информации между компонентами алгоритма. Необходимо задать порядок и время передачи информации, а также то, из чего состоят сами данные. По одной из классификаций [1], гибридные алгоритмы могут быть коллективными (collaborative) и интеграционными (integrative). Коллективные алгоритмы, в свою очередь, делят на последовательные (sequential) и комбинированные (intertwined). Идея последовательных алгоритмов состоит в следующем: некоторый стохастический метод выполняет первичную оптимизацию, а затем локальный метод проводит постобработку, повышая качество решения. Комбинированные методы подразумевают смешенный порядок применения методов глобального и локального поиска в соответствии с некоторой стратегией.

Другая ветвь гибридных алгоритмов - интеграционные - предполагает, что один из алгоритмов встраивается в другой. Чаще всего методы локального поиска встраиваются в метод глобального поиска. Однако существует альтернативный малораспространенный вариант интеграции эволюционного алгоритма в локальный поиск.

3. Общая схема меметических алгоритмов

Рассмотрим общую схему МА для решения задачи глобальной безусловной минимизации в общей постановке, когда фитнесс-функция также подлежит минимизации [2].

1) Полагаем номер итерации t = 0 и инициализируем начальную популяцию 5 0 = (s° ,îe[ 1 :| 5 0 I ] ) ; | 5 0 | = | 5 | .

2) Для текущего положения каждого из агентов вычисляем соответствующее значение фитнесс-функции .

3) Исходя из значений <р / £ [ 1 :| 5 {| ] , формируем промежуточную популяцию 5 ', включающую в себя | 5 ' | лучших индивидов текущей популяции 5

4) Применяем ко всем агентам популяции 5 ' операторы рассматриваемого популя-ционного алгоритма.

5) Исходя из новых текущих положений каждого из агентов , выполняем локальный поиск.

6) Для найденных новых положений Х[ агентов 5 - вычисляем соответствующие значения фитнесс-функции <р (?■) = ф- , / £ [ 1 : | 5 ' | ] .

7) На основе популяций 5 ^ 5 ' формируем новую популяцию 5 {+

8) Полагаем t = t + 1 и если условия окончания итерации не выполнены, переходим к шагу 2, в противном случае заканчиваем вычисления, принимая в качестве решения задачи лучшее текущее положение агента популяции .

В представленной схеме меметического алгоритма можно выделить несколько стадий, на которых возможно осуществить гибридизацию: инициализация популяции, мутации, формирования потомства и т.д. К примеру, инициализация может осуществляться с помощью сложной эвристики «заточенной» под задачу. На операторы популяционных алгоритмов можно наложить ограничения для улучшения эффективности поиска. Операции локального поиска могут применяться на любых промежуточных стадиях.

Эмпирические исследования показывают, что чем больше информации о задаче заложено в алгоритм, тем эффективнее он функционирует [30-32]. Наиболее популярной формой гибридизации является применение локального поиска на основе некоторого вероятностного параметра к различным индивидам.

В процессе разработки меметического алгоритма исследователям необходимо ответить на несколько основных вопросов: какую модель эволюции в контексте МА использовать - Ламарка или Болдвина; выбрать механизм сохранения разнообразия индивидов в популяции, а также механизм управления сходимостью решения.

3.1 Модели эволюции Ламарка и Болдвина в контексте МА

При интеграции локального поиска в эволюционный алгоритм исследователи сталкиваются с дилеммой: что делать с решением, полученным после стадии локального уточнения. В одном варианте улучшенный индивид заменяет индивида, из которого он был получен, а информация старого индивида теряется. Во втором варианте информация сохраняется, но значение фитнес-функции в этой точке меняется на улучшенное значение. Первая модель эволюции в МА была названа моделью Ламарка, вторая - моделью Бол-двина. В некоторых работах было показано некоторое преимущества подхода Болдвина [25, 26], однако последние исследования демонстрируют, что наиболее эффективным являются либо использование только модели Ламарка, либо стохастическая комбинация двух указанных моделей.

Безусловно, нельзя сказать, что какой-то из подходов лучше во всех случаях. Модель Ламарка позволяет, зачастую, ускорить процесс эволюции, что в ряде случаев приводит к

преждевременной сходимости. Модель Болдвина менее опасна с точки зрения преждевременной сходимости, однако сама эволюция существенно замедляется [26].

3.2 Механизмы сохранения диверсификации в популяции

При использовании слишком агрессивных локальных методов может возникнуть ряд проблем, основной из которых является потеря разнообразия в популяции. Разнообразие может быть потеряно, если, например, каждый индивид в популяции будет обработан мощным методом локальной оптимизации. Для предотвращения преждевременной сходимости были предложены различные методы. Например, если операция инициализации является эвристической, то только небольшое число индивидов должно обладать дополнительной информацией о решаемой задаче. Другим вариантом является выполнение локального поиска не над всеми индивидами, а лишь над небольшим их числом.

В работах [22, 33-35] представлено несколько методов, позволяющих поддерживать разнообразие в популяции выше некоторого минимального уровня. Одним из таких способов является модификация операции отбора, которая позволяет сохранять несколько копий индивидов. В недавних работах было представлено еще несколько методов для сохранения разнообразия и одновременно повышения эффективности работы алгоритма. В частности, было предложено использовать несколько различных локальных методов в разных областях поиска, что позволяет избежать одних и тех же локальных оптимумов. Также для контроля разнообразия, в работе [13] использованы нечеткие множества и системы. Наконец, возможна модификация оператора отбора или локального поиска с использованием адаптивного метода Больцмана [22], схожего по своей идеи с методом имитации отжига [1].

Еще один метод, предложенный в работе [33], позволяет включать в новое поколение менее успешных индивидов с некоторой ненулевой вероятностью. Причем эта вероятность возрастает экспоненциально с уменьшением разнообразия в популяции:

Здесь к - коэффициент нормализации; Д/ = /(5') — /(5 ) ; , /т^ - среднее и

минимальное достигнутые значения целевой функции соответственно. При использовании такого подхода, алгоритм, по сути, осциллирует между стадиями интенсивного локального и глобального поиска.

Существует несколько дополнительных особенностей, которые следует иметь в виду при проектировании меметических алгоритмов. Так, если исследуемая целевая функция является недифференцируемой, то локальный поиск может затянуться пока не будет гарантировано высокое качество локального оптимума. Существует большое число методов

Р(5[) =

1, д/ < о,

е

тт

3.3 Некоторые особенности проектирования МА

локального поиска, однако нет оснований предполагать, что какой-либо из этих методов является эффективным для конкретной задачи.

Очевидно, что общая схема меметических алгоритмов оставляет широкие возможности для разработки многих его вариантов.

а) Локальный поиск можно использовать не на каждой итерации, а через некоторое фиксированное или изменяющееся по определенному закону число итераций.

б) Наряду с приведенным выше правилом, можно предложить множество других правил отбора агентов в промежуточную популяцию . Эти правила могут быть как статическими, не зависящими от номера итерации, так и динамическими, изменяющимися тем или иным образом с ростом номера итерации.

в) Можно предложить большое число различных условий окончания локального поиска (опять же, как статических, так и динамических).

г) Для всех агентов популяции на всех итерациях может быть использован один и то же алгоритм локальной оптимизации или разные алгоритмы для разных групп агентов и/или для различных итераций.

На сегодняшний день существует большое число публикаций, показывающих различные варианты гибридизации метаэвристических методов с различными методами локального поиска. Зачастую, эти алгоритмы используют сложные эвристические методы локального поиска, «заточенные» под конкретные задачи. Несмотря на их высокую эффективность, они имеют весьма ограниченное применение, так как при решении большинства практически значимых задач исследователи не обладают априорной информацией о том, какой мем является наиболее оптимальным для данной задачи. Для преодоления указанного недостатка были предложены, так называемые, мультимемеевые (multi-memes) адаптивные алгоритмы [5].

4. Мультимемеевые алгоритмы

Мультимемеевые алгоритмы (ММА) были впервые предложены для решения комбинаторных задач оптимизации [36]. Сегодня эти алгоритмы успешно используются для решения различных задач непрерывной оптимизации [6, 37, 38].

Отличительной чертой данного класса методов является использование нескольких мемов в процессе поиска оптимума. Решение об использовании того или иного мема для конкретного индивида в популяции, зачастую, принимается динамически. Такой вид МА способствует конкуренции между различными методами локального поиска, «заточенными» под различные задачи. В результате эффективность работы алгоритма в целом остается высокой, не смотря на отсутствие априорной информации о решаемой задаче.

Основной задачей конструирования таких алгоритмов является задача выбора целесообразной стратегии использования того или иного мема из роя доступных мемов М = (шу,у £ [ 1 : | М| ] ) . Данная задача относится к классу задач мета-оптимизации [1]. Выбор мемов может происходить в зависимости от значений их некоторых характеристик и/или исследуемого в данный момент фрагмента области поиска [36].

Из результатов исследований [35, 39, 40] следует, что если алгоритм не получает какой-либо априорной информации о решаемой задаче, то МА может показать результат не только не лучше, но и даже хуже, чем обычные ЭА. Поскольку существует относительно немного теоретических исследований, посвященных тому, какую конфигурацию МА рекомендуется использовать для решения black-box задач оптимизации, многие исследователи склоняются именно к адаптивным алгоритмам, которые в процессе поиска самостоятельно подбирают наиболее эффективные методы локальной оптимизации для определённых областей пространства поиска.

Схему обобщенного мультимемеевого алгоритма описывает следующая последовательность шагов [2, 5].

1) Полагаем и инициализируем популяцию .

2) Для текущего положения Zf каждого из агентов s [ вычисляем соответствующее значение фитнесс-функции .

3) Исходя из значений <р i £ [ 1 :| St | ] формируем промежуточную популяцию S', включающую в себя лучших индивидов текущей популяции .

4) Применяем ко всем агентам популяции S ' операторы рассматриваемого популя-ционного алгоритма.

5) В соответствии с выбранной стратегией выбираем лучший мем для рассматриваемой области пространства поиска и текущего положения исследуемых индивидов.

6) Исходя из новых текущих положений каждого из агентов s ■ , i £ [ 1 : | S ' | ] , выполняем локальный поиск.

7) Для найденных новых положений Х[ агентов s ■ вычисляем соответствующие значения фитнесс-функции <р (XQ = ф , i £ [ 1 : | S ' | ] .

8) На основе популяций S t, S ' формируем новую популяцию S t+

9) Полагаем и если условия окончания итерации не выполнены, переходим к шагу 2, в противном случае заканчиваем вычисления, принимая в качестве решения задачи лучшее текущее положение агента популяции .

На первом шаге популяция может быть инициализирована случайным образом или с использованием различных методов генерации выборок, например, с помощью метода латинского гиперкуба. Затем для каждого члена популяции выбирается мем ту из набора доступных мемов для локального улучшения результата. Для выбора мемов могут использоваться различные стратегии. В качестве используемой для принятия решения метрики можно выбрать эффективность, с которой мем производит локальные улучшения. После локальных улучшений алгоритм продолжает работу по схеме используемого попу-ляционного метода.

На сегодняшний день выделяют четыре вида взаимодействия мемов внутри ММА [36]:

• взаимодействие на основе гиперэвристик;

• мета-обучение Ламарка;

• самоадаптирующиеся стратегии;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

• стратегии динамической диверсификации популяций;

Рассмотрим эти виды взаимодействий.

4.1 Гиперэвристические ММА

Теримин гиперэвристика (hyperheuristic) был введен при решении задач комбинаторной оптимизации для описания идеи слияния нескольких мемов, так что мем, применяемый на каждом шаге решения, может быть различным [36]. Идея использования муль-ти-мемов (multi-memes) и их адаптивного выбора была предложена группой исследователей [6, 9], которые активно использовали ее при решении комбинаторных задач. Однако выбор мемов в задачах непрерывной оптимизации также имеет большое значение. Выбор мемов происходит в зависимости от их характеристик и рассматриваемой в данный момент области решения. В работах [41-43] были предложены три категории гиперэвристик: случайная (random); жадная (greedy); с функцией выбора (choice-function).

В первой категории гиперэвристик самым простым является метод простого случайного выбора (simple random choice), когда в каждой точке принятия решения мем выбирают случайным образом из роя мемов M и вероятность выбора каждого из мемов не меняется в процессе итераций. Данная стратегия, по сути, является основой для всех остальных стратегий.

Другой известной стратегией данной категории является стратегия случайного спуска (random descent choice). Здесь на первом шаге мем выбирают из роя M случайным образом. Выбранный мем используют до тех пор, пока он не перестанет обеспечивать локальные уточнения решений. Затем случайным образом выбирается другой мем и т.д.

Вариантом последней стратегии является стратегия спуска со случайной перестановкой (random permutation descent choice). В этом варианте вначале фиксируется случайная перестановка M мемов mj,j G [ 1 : | M | ] . После того, как используемый мем ту исчерпает себя, используют следующий мем ту+! в перестановке М.

Методы жадной категории являются методами «грубой силы». При этом все мемы применяют к каждому агенту популяции , а затем выбирают мем, показавший наилучший результат. Недостатком жадных методов являются высокие затраты вычислительных ресурсов.

Гиперэвристики с функцией выбора основаны на использовании функции выбора , которая может быть построена на основе одной или нескольких метрик, отражающих различные аспекты качества мемов. Известным вариантом функции ф ( ту) является трехкомпонентная функция

ф (mj,rnfc) = Яхф ! (ту) +Я2ф2(ту,т/£) +Я3ф 3 (ту), j/ G [ 1 :1 M 1 ] J * /,

представляющая собой аддитивную свертку функций , , с веса-

ми . Полагаем, что лучшему мему соответствует большее значение функции

ф ( ту, т fc) | тt_ т где т f G M - текущий используемый мем.

Компонента формализует величину последних улучшений фитнесс-функции,

сделанных мемом , и выражает ту идею, что если данный мем показал высокую эффективность на предшествующих итерациях, то, вероятнее всего, он будет эффективным и в течении некоторого числа последующих итераций.

Вторая компонента учитывает возможный синергетический эффект от

последовательного применения мемов . Точнее говоря, эта компонента формализу-

ет величину последних улучшений фитнесс-функции, сделанных комбинацией (последовательным использование) этих мемов.

Третья компонента призвана повысить разнообразие используемых мемов

путем увеличения вероятности применения тех из них, которые давно не выполняли локальную оптимизацию. В качестве значений функции ф з(ту) может быть использовано число итераций меметического алгоритма, в течение которых мем не использовался ни разу.

Известно несколько гиперэвристик на основе функции выбора. Рассмотрим некоторые из них.

Простейшей является стратегия прямого выбора (straight choice), предполагающая, что на каждом шаге принятия решения выбирается мем , который обеспечивает наилучшее значение функции выбора :

ф (т *+1 ,mfc) = m ахуф (my,mfc) | mt=mfc, ) е [ 1 :| M|] J * /.

В стратегии ранжированного выбора (ranked choice) прежде мемы ту, у е [ 1 : | M | ] ранжируют согласно их текущим значениям функции выбора ф (ту, mf ) . Затем проводят эксперименты по локальному уточнению текущих решений с помощью нескольких лучших мемов. В качестве мема m f+1 используют мем, обеспечивший наибольшее относительное уменьшение значения фитнесс-функции.

Стратегия рулеточного выбора (roulette choice) основана на выборе мема

t+1

с вероятностью

fi = ^Т^, ^ е [ 1 : | M | ] ,1 * /,mfc = m

В стратегии декомпозиционного выбора (decomposition choice), в первую очередь, формируют набор мемов , которые обеспечивают максимальные

значения функций ф i (ту) , ф 2 (ту, mfc) , ф з(ту) и ф (ту, mfc) соответственно;

. Затем проводят эксперименты по локальному уточнению текущих решений с помощью каждого из мемов роя . Аналогично стратегии ранжированного выбора, в качестве мема используют лучший из испытанных мемов. Заметим, что в рое могут быть совпадающие мемы, так что число различных мемов в этот рое может принимать значения от единицы до четырех.

Известна также стратегия выбора с запретами (tabu-search choice), в которой на основе функции выбора сначала рой мемов сужают до роя путем формирования в каждой точке принятия решения списка запрещенных мемов (tabu-list). Затем из роя M ' ' выбирают мем m f+1 по схеме стратегии декомпозиционного выбора [14].

Гиперэвристики могут строиться также на основе идеи декомпозиции на подзадачи (sub-problem decomposition) [36]. Эта идея предполагает а) динамическое разбиение области решения на подобласти, а самой задачи оптимизации - на соответствующие подзадачи, б) выбор наиболее подходящего мема для каждой из этих подзадач. При выборе подходящего мема такие гиперэвристики использует информацию, накопленную в процессе решения задачи об эффективности каждого из мемов роя на данном участке области поиска. В результате, для каждого из этих участков применяют специализированный мем, что, как правило, значительно повышает эффективность поиска.

4.2 Мета-обучение Ламарка

Работа [7] посвящена изучению мета-обучения Ламарка в непрерывных задачах оптимизации. Термин «мета-обучение Ламарка» (meta-Lamarckian learning) был введен для описания идеи адаптивного выбора нескольких мемов в процессе решения задачи оптимизации. Простое мета-обучение Ламарка (basic meta-Lamarckian learning) предложено как базовый метод, с которым сравниваются остальные стратегии мета-обучения Ламарка. В данном методе не используют адаптацию параметров, поэтому все доступные мемы являются равноправными кандидатами для осуществления локального уточнения решения в процессе работы алгоритма.

Существует две адаптивные стратегии [36]. Метод декомпозиции на подзадачи (subproblem decomposition) основан на идее динамического разбиения сложной задачи на подзадачи и выбора наиболее подходящего мема для каждой подзадачи. При выборе подходящего мема стратегия пользуется накопленными знаниями о способностях мемов уточнять решения на конкретном участке пространства поиска. Поскольку для каждой области применяют специализированный мем, происходит более значительное улучшение всей популяции. С другой стороны, существует стратегия утяжеленной рулетки (biased roulette wheel) близкая к методу рулетки, описанному в предыдущем пункте, и отличающаяся от последнего используемой функцией выбора.

4.3 Самоадаптирующиеся ММА

В работах [44-47] были предложены самоадаптирующиеся ММА. Данный класс методов представляет собой меметическую модификацию генетического алгоритма. Каждый агент s ¿, ÎG[ 1 :| S | ] , популяции S в этом случае кодируют мультихромосомой

, первая часть которой представляет собой соответствующее решение задачи, а вторая часть - мем, с помощью которого получено данное решении. По общему правилу эволюции мультихромосом, генетические операторы применяются к каждой из указанных частей хромосомы в отдельности, не скрещивая эти части между собой. Таким образом, данные алгоритмы реализуют метод самоадаптивного управления.

Мутация мемеевой части мультихромосомы состоит в случайной замене по тому или иному правилу мема новым мемом из роя .

В работах [48, 49] описан простой механизм вертикального наследования, аналогичный таковому в классических генетических алгоритмах. Скрещивание мемеевых частей

хромосом Х, Ху, /,_/' G [ 1 : | 5|], i _/' производят по следующей схеме. Потомок Х приобретает мем m j в том случае, если оценка улучшения решения, достигнутая данным мемом, лучше такой же оценки мема myfe. В противном случае потомку передаем мем myfe. Если оценки эффективности мемов родителей m j myfe одинаковы, то потомок получает один из этих мемов, выбранный случайным образом.

4.4 Динамическая диверсификация

Данный класс методов использует показатель разнообразия популяции для активации тех или иных мемов. В работе [22] мемы т.,у G [ 1 : | М| ] активируют в зависимости от значения параметра диверсификации iv = /п^ — /mjn в популяции или ее части. Некоторые мемы ориентированы на интенсификацию поиска в области предполагаемого оптимума, другие мемы, наоборот, более широко исследуют окрестность области поиска.

В работе [33] в качестве мема использовался метод Монте-Карло. При высоком значении параметра метод использовался как алгоритм локального поиска, при малом значении метода менял значения своих свободных параметров и играл роль метода глобальной оптимизации, повышая разнообразие индивидов в популяции.

4.5 Классификация ММА по типу и уровню адаптации

В данном разделе приведена классификация ММА по типу и уровню адаптации. Классификация по типу адаптации основана на выделении различных механизмов адаптации мемов. В частности, внимание уделяется тому, используется или нет обратная связь в механизме адаптации, если используется, то как. Выделяют три категории: статическая адаптация (static), динамическая адаптация (adaptive) и самоадаптация (self-adaptive) [36].

Тип адаптации Уровень адаптации

Внешний Локальный Глобальный

Статическая Простое мета-обучение Ламарка/ простой случайный выбор

Динамическая Качественная Случайный спуск/ спуск по случайной перестановке Табу-поиск

Количественная Декомпозиция на подпроблемы / жадные методы Прямой выбор / оценочный выбор / рулетка / декомпонентый выбор / утяжеленная рулетка / динамическая диверсификация

Самоадаптация Методы самоадаптации

При статической адаптации в процессе эволюции не используют обратную связь. К данной категории относится стратегия основного мета-обучения Ламарка, а также метод простого случайного выбора. В этих стратегиях перебирают все доступные мемы, и каждый мем улучшает особь.

Динамическая адаптация имеет место, когда обратная связь оказывает влияние на выбор мемов на каждом шаге решения. Выделяют количественную (quantitative) и качественную (qualitative) адаптации.

В качественной адаптации численное значение обратной связи не оказывает влияние на выбор мемов. Выбор основывается на качестве мема. До тех пор, пока мем осуществляет уточнение решения, он продолжает использоваться на следующем шаге решения. В противном случае, выбирается новый мем. Процесс повторяется до тех пор, пока не выполнено условие останова. К этой категории относятся методы случайного спуска, спуска по случайной перестановке и табу-поиска.

Жадные алгоритмы, методы прямого выбора, оценочного выбора, методы рулетки и утяжеленной рулетки, методы декомпонентного поиска и декомпозиции на подзадачи, а также методы динамической диверсификации при выборе мемов основываются на фактическом значение обратной связи. Поэтому они являются методами количественной адаптации.

К категории самоадаптирующихся методов относятся стратегии коэволюции. Меме-тическая информация в этом случае в генетической и проходит обычные этапы эволюции.

Уровень адаптации связан с уровнем знания о прошлом мемов - о том, когда мем применялся последний раз, какова оценка улучшения произведенного мемом и т.п. Существует три уровня адаптации - внешний (external), локальный (local) и глобальный (global).

Внешний уровень адаптации относится к случаю, когда нет информации о мемах при их выборе. Во многих реальных задачах набор специализированных мемов обычно выбирают на основе прошлого опыта, на основе выбора экспертов. Простое мета-обучение Ламарка или метод простого случайного выбора являются стратегиями внешнего уровня адаптации, поскольку они используют внешние знания, накопленные из прошлых вычислений.

На локальном уровне адаптации выбор мемов происходит на основе лишь части информации о прошлом мемов. Жадные алгоритмы, методы случайного спуска и спуска по случайной перестановке принимают решение на основе улучшений, полученных на прошлом шаге. Следовательно, эти стратегии являются стратегиями локального уровня.

Метод декомпозиции на подзадачи, а также методы ко-эволюции принимают решение на основе информации, полученной от ^-ближайших особей, рассмотренных на прошлом шаге. Следовательно, они также являются стратегиями локального уровня.

К стратегиям глобального уровня относятся методы прямого выбора, оценочного выбора, методы рулетки и смещенной рулетки, метод декомпонентного выбора и табу-поиска. Эти стратегии при выборе мемов используют все знания об их прошлом.

4.6 Некоторые дополнительные аспекты проектирования ММА

В работах [9, 22, 28] рассмотрены некоторые дополнительные аспекты проектирования мультимемеевых алгоритмов. В частности, были проведены исследования влияния размера пула мемов на эффективность поиска, какие методы локального поиска следует включать в пул, влияет ли экспертное мнение по составу мемов на эффективность поиска.

Очевидно, что чем меньше число мемов, тем лучше для экономии вычислительных ресурсов, поскольку меньше ресурсов необходимо для исследования пространства поиска. Результаты вычислительных экспериментов, представленные в работе [22], показали, что пороговым значением является двадцать пять мемов в пуле. Наиболее оптимальные результаты были получены при использовании, в среднем, десяти мемов.

При отсутствие какой-либо априорной информации о задаче, выбор эффективных мемов усложняется. Оптимальной является комбинация методов различного порядка (нулевого, первого и второго).

Для включения экспертных знаний в пул мемов можно повышать вероятность выбора того или иного мема, если известно, что он с высокой вероятностью эффективно отработает на данной задаче.

5. Классификация меметических алгоритмов

В работе [50] представлена классификация МА, которая предполагает их разделение на три поколения.

Первое поколение этих алгоритмов относится к классу гибридных алгоритмов, сочетающих некоторый популяционный алгоритм глобального поиска с некоторым методом локального уточнения решения. Данные алгоритмы нельзя однозначно классифицировать как эволюционные по принципам дарвиновской эволюции, поскольку в этом случае отсутствуют следующие ключевые аспекты: передача меметической информации через поколения; операторы отбора и мутаций и т.д. При создании таких алгоритмов исследователям необходимо было ответить на несколько важных вопросов:

• как часто должен применяться локальный поиск к индивиду;

• над какими индивидами должен осуществляться локальный поиск;

• до каких пор индивид должен проходить стадию локального уточнения;

• какие вычислительные затраты допустимы для локального уточнения;

• какие мемы должны использоваться для конкретных задач.

Второе поколение МА снимает некоторые из этих вопросов. Алгоритмы из этого поколения принято называть мультимемеевыми. Данный класс методов включает в себя операции передачи меметической информации и отбора мемов. В некоторых МА информация об используемом меме передается от родителей к потомкам. В других алгоритмах используют, так называемые, гиперэвристики или принципы мета-обучения Ламарка, когда выбор нужного мема производится из набора конкурирующих мемов на основе их прошлых результатов.

Третье поколение меметических алгоритмов включает в себе алгоритмы, работающие по принципу самогенерации и самоадаптации. В отличии от второго поколения, ме-

ханизмы локального поиска адаптируются вместе с кандидатами в решения, отслеживая таким образом определенные закономерности в пространстве поиска.

Из представленного описания трех поколений МА можно сделать вывод, что мемы реализуют механизмы управления эволюцией индивидов в популяции. Уровень вовлеченности мемов зависит от показателей их эффективности, а также от значений параметров, управляющих балансировкой глобального и локального поиска.

Для нового четвертого поколения МА предполагается отказ от использования готового пула мемов. В этой модели мемы рождаются сами собой в процессе передачи информации между группами кандидатов. Мемы могут храниться в памяти системы как некоторые шаблоны, выявленные при решении задач в прошлом. Выбор мемов осуществляется на основе ассоциаций между существующими шаблонами и новыми задачами. Данный подход представляет собой «обучение» более высокого порядка, чем простой локальный поиск. МА четвертого поколения на сегодняшний день не существуют.

Заключение

Несмотря на успешные результаты применения различных меметических алгоритмов в большом числе практических исследований [51-55], существует большое число направлений для их модификации и изучения. Выделим наиболее многообещающие области для будущих исследований.

• Более подробное изучение методов адаптации локального уровня, а также методов самоадаптации, поскольку из результатов эксперимента нельзя судить об однозначном преимуществе методов глобального уровня адапатции.

• Поскольку на сегодняшний день немногое известно о поведении МА с теоретической точки зрения, особое внимание необходимо уделить исследованиям того, когда и почему конкретный мем или последовательность мемов могут быть использованы с высокой эффективностью.

• Большинство работ по адаптации МА посвящены проблеме улучшения качества решения, в тоже время недостаточное внимание уделено проблеме оценки способности мема уточнять решение на конкретном этапе.

• Помимо проблемы выбора мемов, существуют также проблемы, связанные с продолжительностью локального поиска. Решением является некий баланс вычислительного времени между локальным и глобальным поисками. Эти проблемы должны рассматриваться совместно. При фиксированном времени вычислений это позволяет распределять время между глобальным и локальным поиском в процессе решения задачи оптимизации, что увеличит эффективность алгоритмов.

• Интересным также является направление изучения механизма выбора мемов по нескольким различным критериям в задачах условной оптимизации.

Список литературы

1. Карпенко А.П. Современные алгоритмы поисковой оптимизации. Алгоритмы, вдохновленные природой. М.: Изд-во МГТУ им. Н.Э. Баумана, 2014. 446 с.

2. Карпенко А.П., Сахаров М.К. Мультимемеевая глобальная оптимизация на основе алгоритма эволюции разума // Информационные технологии. 2014. № 7. С. 23-30.

3. Goldberg D.E. Genetic Algorithms in Search, Optimization and Machine Learning. Addi-son-Wesley, 1989. P. 372.

4. Dawkins R. The Selfish Gene. Oxford University Press, 1976. P. 224.

5. Sakharov M.K., Karpenko A.P., Velisevich Ya.I. Multi-Memetic Mind Evolutionary Computation Algorithm for Loosely Coupled Systems of Desktop Computers // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2015. № 10. С. 438-452. DOI: 10.7463/1015.0814435

6. Krasnogor N., Blackburne B., Hirst J.D., Burke E.K. Multimeme Algorithms for the Structure Prediction and Structure Comparison of Proteins // In book: Parallel Problem Solving from Nature - PPSN VII / ed. by J.J.M. Guervos et al. Springer Berlin Heidelberg, 2002. P. 769-778. DOI: 10.1007/3-540-45712-7 74 (Ser. Lecture Notes in Computer Science; vol. 2439.).

7. Ong Y.S., Keane A.J. Meta-Lamarckian learning in memetic algorithms // IEEE Transactions on Evolutionary Computation. 2004. Vol. 8, no. 2. P. 99-110. DOI: 10.1109/TEVC.2003.819944

8. Ong Y.S. Artificial Intelligence Technologies in Complex Engineering Design: Ph.D. Thesis. School of Engineering Science, University of Southampton, United Kingdom, 2002.

9. Krasnogor N. Studies on the Theory and Design Space of Memetic Algorithms: Ph.D. Thesis. Faculty of Computing, Mathematics and Engineering, University of the West of England, Bristol, U.K., 2002.

10. Davis L., ed. Handbook of genetic algorithms. Van Nostrand Reinhold, New York, 1991. 385 p.

11. Moscato P. On Evolution, Search, Optimization, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms. Caltech Concurrent Computation Program 158-79, California Institute of Technology, Pasadena, California, USA. 1989. 67 p.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

12. Zhu N., Ong Y.S., Wong K.W., Seow K.T. Using memetic algorithms for fuzzy modeling // Australian Journal of Intelligent Information Processing Systems. 2004. Vol. 8, no. 3. P. 147-154.

13. Burke E.K., Kendall G., Soubeiga E. A Tabu-Search Hyperheuristic for Timetabling and Rostering // Journal of Heuristics. 2003. Vol. 9, no. 6. P. 451-470. DOI: 10.1023/B:HEUR.0000012446.94732.b6

14. Bin Li, Zheng Zhou, Weixia Zou, Dejian Li. Quantum Memetic Evolutionary Algorithm-Based Low-Complexity Signal Detection for Underwater Acoustic Sensor Networks // IEEE Transactions on Systems, Man, and Cybernetics, Part C: Applications and Reviews. 2012. Vol. 42, no. 5. P. 626-640. DOI: 10.1109/TSMCC.2011.2176486

15. Maolin Tang, Xin Yao. A Memetic Algorithm for VLSI Floorplanning // IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics. 2007. Vol. 37, no. 1. P. 62-69. DOI: 10.1109/TSMCB.2006.883268

16. Molina D., Lozano M., Herrera F. Memetic algorithm with local search chaining for continuous optimization problems: A scalability test. In ISDA // Proceedings of the 2009 Ninth In-

ternational Conference on Intelligent Systems Design and Applications (ISDA'09). IEEE Publ., 2009. P. 1068-1073. DOI: 10.1109/ISDA.2009.143

17. Ang J.H., Tan K.S., Mamun A.A. An evolutionary memetic algorithm for rule extraction // Expert Systems with Applications. 2010. Vol. 37, is. 2. P. 1302-1315. DOI: 10.1016/j.eswa.2009.06.028

18. Bhowmik P., Rakshit P., Konar A., Nagar A.K., Kim E. DETDQL: an adaptive memetic algorithm // 2012 IEEE Congress on Evolutionary Computation (CEC). IEEE Publ., 2012. P. 1-8. DOI: 10.1109/CEC.2012.6256573

19. Qin K., Suganthan P.N. Self-adaptive differential evolution algorithm for numerical optimization // Proceedings of the 2005 IEEE Congress on Evolutionary Computation. Vol. 2. IEEE Publ., 2005. P. 1785-1791. DOI: 10.1109/CEC.2005.1554904

20. Knowles J., Corne D., Wu A. A comparison of diverse approaches to memetic multiobjective combinatorial optimization // Proceedings of the 2000 Genetic and Evolutionary Computation Conference. 1st Workshop Memetic Algorithms. San Francisco: Morgan Kaufmann Publishers, 2000. P.103-108.

21. Moscato P. Memetic algorithms for molecular conformation and other optimization problems // International Union of Crystallography, Newsletter of the Commission for Powder Diffraction. 1998. No. 20. P. 32-33.

22. Neri F., Cotta C., Moscato P. Handbook of Memetic Algorithms. Springer Berlin Heidelberg, 2011. 368 p. DOI: 10.1007/978-3-642-23247-3 (Ser. Studies in Computational Intelligence; vol. 379).

23. Moscato P., Corne D., Glover F., Dorigo M. Memetic algorithms: A short introduction // In book: New Ideas in Optimization. McGraw-Hill, 1999. P. 219-234.

24. Neri F., Cotta C. Memetic algorithms and memetic computing optimization: A literature review // Swarm and Evolutionary Computation. 2012. Vol. 2. P. 1-14. DOI: 10.1016/j.swevo.2011.11.003

25. Liang K., Yao X., Newton C. Lamarckian evolution in global optimization // Proc. of the 26th Annual Conference of the IEEE Industrial Electronics Society (IECON 2000). Vol. 4. IEEE Publ., 2000. P. 2975-2980. DOI: 1Q.11Q9/IECON.2000.972471

26. Houck C., Joines J. Kay M. Utilizing Lamarckian Evolution and the Baldwin Effect in Hybrid Genetic Algorithms. NCSU-IE Technical Report 96-01. Meta-Heuristic Research and Applications Group, Department of Industrial Engineering, North Carolina State University, 1996. P. 96-101.

27. Wolpert D., Macready W. No free lunch theorems for optimization // IEEE Transactions on Evolutionary Computation. 1997. Vol. 1, no. 1. P. 67-82. DOI: 10.1109/4235.585893

28. Krasnogor N., Smith J. A tutorial for competent memetic algorithms: model, taxonomy, and design issues // IEEE Transactions on Evolutionary Computation. 2005. Vol. 9, is. 5. P. 474488. DOI: 10.1109/TEVC.2005.850260

29. Yi Mei, Ke Tang, Xin Yao. Decomposition-Based Memetic Algorithm for Multiobjective Capacitated Arc Routing Problem // IEEE Transactions on Evolutionary Computation. 2011. Vol. 15, is. 2. P. 151-165. DOI: 10.1109/TEVC.2010.2051446

30. Miller J.A., Potter W.D., Gandham R.V., Lapena C.N. An evaluation of local improvement operators for genetic algorithms // IEEE Transactions on Systems, Man and Cybernetics. 1993. Vol. 23, is. 5. P. 1340-1351. DOI: 10.1109/21.260665

31. Ishibuchi H., Yoshida T., Murata T. Balance between genetic search and local search in memetic algorithms for multiobjective permutation flowshop scheduling // IEEE Transactions on Evolutionary Computation. 2003. Vol. 7, is. 2. P. 204-223. DOI: 10.1109/TEVC.2003.810752

32. Bambha N.K., Bhattacharyya S.S., Teich J., Zitzler E. Systematic integration of parameterized local search into evolutionary algorithms // IEEE Transactions on Evolutionary Computation. 2004. Vol. 8, is. 2. P. 137-154. DOI: 10.1109/TEVC.2004.823471

33. Tang J., Lim M.H., Ong Y.S. Diversity-Adaptive Parallel Memetic Algorithm for Solving Large Scale Combinatorial Optimization Problems // Soft Computing: A Fusion of Foundations, Methodologies and Applications. 2007. Vol. 11, is. 9. P. 873-888. DOI: 10.1007/s00500-006-0139-6

34. Merz P., Freisleben B. et al. Fitness landscapes and memetic algorithm design // In book: New Ideas in Optimization / ed. by D. Corne et al. New York: McGraw-Hill, 1999. P. 245260.

35. Ong Y.S., Keane A.J. A domain knowledge based search advisor for design problem solving environments // Engineering Applications of Artificial Intelligence. 2002. Vol. 15, no. 1. P. 105-116. DOI: 10.1016/S0952-1976(02)00016-7

36. Ong Y.S., Lim M.H., Zhu N., Wong K.W. Classification of adaptive memetic algorithms: A comparative study // IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics. 2006. Vol. 36, is. 1. P. 141-152. DOI: 10.1109/TSMCB.2005.856143

37. Hart W., Krasnogor N., Smith J. Recent Advances in Memetic Algorithms. Springer Berlin Heidelberg, 2004. 410 p. DOI: 10.1007/3-540-32363-5

38. Smith J., Hart W., Krasnogor N. Editorial Introduction Special Issue on Memetic Algorithms // Evolutionary Computation. 2004. Vol. 12, no. 3. P. 273-353. DOI: 10.1162/1063656041775009

39. Hart W.E. Adaptive Global Optimization with Local Search: PhD Thesis. University of California, San Diego, 1994. 135 p.

40. Hinterding R., Michalewicz Z., Eiben A.E. Adaptation in Evolutionary Computation: A Survey // IEEE International Conference on Evolutionary Computation. IEEE Press, 1997. P. 65-69. DOI: 10.1109/ICEC.1997.592270

41. Gutin G., Karapetyan D. A selection of useful theoretical tools for the design and analysis of optimization heuristics // Memetic Computing. 2009. Vol. 1, no. 1. P. 25-34. DOI: 10.1007/s12293-008-0001-8

42. Kendall G., Cowling P., Soubeiga E. Choice function and random hyperheuristics // Proc. of the 4th Asia-Pacific Conference on Simulated Evolution and Learning (SEAL 2002), Singapore, Nov. 2002. P. 667-671.

43. Smith J. Co-evolving Memetic Algorithms: Initial Investigations // In book: Parallel Problem Solving from Nature - PPSN VII / ed. by J.J.M. Guervos et al. Springer Berlin Heidel-

berg, 2002. P. 537-546. DOI: 10.1007/3-540-45712-7 52 (Ser. Lecture Notes in Computer Science; vol. 2439.).

44. Qin K., Suganthan P.N. Self-adaptive differential evolution algorithm for numerical optimization // Proceedings of the 2005 IEEE Congress on Evolutionary Computation. Vol. 2. IEEE Publ., 2005. P. 1785-1791. DOI: 10.1109/CEC.2005.1554904

45. Smith J.E. Coevolving Memetic Algorithms: A Review and Progress Report // IEEE Transactions on Systems, Man, and Cybernetics, Part B. 2007. Vol. 37, is. 1. P. 6-17. DOI: 10.1109/TSMCB.2006.883273

46. Smith J.E. Estimating meme fitness in adaptive memetic algorithms for combinatorial problems // Evolutionary Computation. 2012. Vol. 20, is. 2. P. 165-188. DOI: 10.1162/EVC0 a 00060

47. Krasnogor N., Gustafson S. A study on the use of self-generation in memetic algorithms // Natural Computing. 2004. Vol. 3, is. 1. P. 53-76. DOI: 10.1023/B:NACQ.0000023419.83147.67

48. Smith J.E. Co-evolving memetic algorithms: A learning approach to robust scalable optimization // The 2003 Congress on Evolutionary Computation (CEC'03). Vol. 1. IEEE Press, 2003. P. 498-505. DOI: 10.1109/CEC.2003.1299617

49. Krasnogor N. Coevolution of genes and memes in memetic algorithms // Proceedings of the 1999 Genetic and Evolutionary Computation Conference Workshop Program / ed. by A. Wu. 1999. P. 371.

50. Meuth R., Lim M.H., Ong Y.S., Wunsch II D.C. A proposition on memes and meta-memes in computing for higher-order learning // Memetic Computing. 2009. Vol. 1, is. 2. P. 85-100. DOI: 10.1007/s12293-009-0011-1

51. Cao Y.J., Wu Q.H. Convergence analysis of adaptive genetic algorithm // Second International Conference on Genetic Algorithms in Engineering Systems: Innovations and Applications (GALESIA 97). (Conf. Publ. No. 446). IEEE Publ., 1997. P. 85-89. DOI: 10.1049/cp:19971160

52. Knowles J., Corne D. M-PAES: A memetic algorithm for multiobjective optimization // Proceedings of the 2000 Congress on Evolutionary Computation (CEC2000). Vol. 1. IEEE Publ., 2000. P. 325-332. DOI: 10.1109/CEC.2000.870313

53. Krasnogor N., Mocciola P., Pelta D., Ruiz G., Russo W. A runnable functional memetic algorithm framework // Proceedings of the Argentinian Congress on Computer Sciences. Universidad Nacional del Comahue, 1998. P. 525-536.

54. Tang J., Lim M.H., Ong Y.S. Parallel Memetic Algorithm with Selective Local Search for Large Scale Quadratic Assignment // International Journal of Innovative Computing, Information and Control. 2006. Vol. 2, no. 6. P. 1399-1416.

55. Hart W., Krasnogor N., Smith J.E. Memetic Evolutionary Algorithms // In book: Recent Advances in Memetic Algorithms. Springer Berlin Heidelberg, 2005. P. 3-27. DOI: 10.1007/3-540-32363-5 1 (Ser. Studies in Fuzziness and Soft Computing; vol. 166.).

Science ¿Education

of the Baumail MSTU

Science and Education of the Bauman MSTU, 2015, no. 12, pp. 119-142.

DOI: 10.7463/1215.0829099

Received: 10.11.2015

Revised: 24.11.2015

© Bauman Moscow State Technical Unversity

Memetic Algorithms to Solve a Global Nonlinear Optimization Problem. A Review

M.K. Sakharov1*, A.P. Karpenko1

max-5fii9 01? gmail.com :Bauman Moscow State Technical University, Moscow, Russia

Keywords: global optimization, memetic algorithms, hybrid algorithms, multi-memetic algorithms,

hyper-heuristics, adaptive algorithms, self-adaptation

In recent decades, evolutionary algorithms have proven themselves as the powerful optimization techniques of search engine. Their popularity is due to the fact that they are easy to implement and can be used in all areas, since they are based on the idea of universal evolution. For example, in the problems of a large number of local optima, the traditional optimization methods, usually, fail in finding the global optimum. To solve such problems using a variety of stochastic methods, in particular, the so-called population-based algorithms, which are a kind of evolutionary methods. The main disadvantage of this class of methods is their slow convergence to the exact solution in the neighborhood of the global optimum, as these methods incapable to use the local information about the landscape of the function. This often limits their use in large-scale real-world problems where the computation time is a critical factor.

One of the promising directions in the field of modern evolutionary computation are memetic algorithms, which can be regarded as a combination of population search of the global optimum and local procedures for verifying solutions, which gives a synergistic effect. In the context of memetic algorithms, the meme is an implementation of the local optimization method to refine solution in the search.

The concept of memetic algorithms provides ample opportunities for the development of various modifications of these algorithms, which can vary the frequency of the local search, the conditions of its end, and so on. The practically significant memetic algorithm modifications involve the simultaneous use of different memes. Such algorithms are called multi-memetic.

The paper gives statement of the global problem of nonlinear unconstrained optimization, describes the most promising areas of AI modifications, including hybridization and meta-optimization. The main content of the work is the classification and review of existing varieties of memetic algorithms.

The results show that, despite the successful application of various memetic algorithms in various applications, there are a large number of directions for their modification and study. These are, for example, a more detailed study of self-adaptation methods of memetic algorithms, development of methods to assess the meme ability to refine the solution at a particular stage of the working algorithm. Besides the problem of selecting memes, there are also problems associated with the duration of local search. The solution is a balance of computing time between the local and global search. For a fixed computing time it allows to allocate time between global and local

search in the solution of the optimization problem, which will increase the efficiency of the algorithms.

References

1. Karpenko A.P. Sovremennye algoritmy poiskovoi optimizatsii. Algoritmy, vdokhnovlennye prirodoi [Modern algorithms of search engine optimization. Nature-inspired optimization algorithms]. Moscow, Bauman MSTU Publ., 2014. 446 p. (in Russian)

2. Karpenko A.P., Sakharov M.K. Multi-Memes Global Optimization Based on the Algorithm of Mind Evolutionary Computation. Informacionnye Tehnologii = Information Technologies, 2014, no. 7, pp. 23-30. (in Russian).

3. Goldberg D.E. Genetic Algorithms in Search, Optimization and Machine Learning. Addi-son-Wesley, 1989, p. 372.

4. Dawkins R. The Selfish Gene. Oxford University Press, 1976, p. 224.

5. Sakharov M.K., Karpenko A.P., Velisevich Ya.I. Multi-Memetic Mind Evolutionary Computation Algorithm for Loosely Coupled Systems of Desktop Computers. Nauka i obrazovanie MGTU im. N.E. Baumana = Science and Education of the Bauman MSTU, 2015, no. 10, pp. 438-452. DOI: 10.7463/1015.0814435

6. Krasnogor N., Blackburne B., Hirst J.D., Burke E.K. Multimeme Algorithms for the Structure Prediction and Structure Comparison of Proteins. In book: Guervos J.J.M. et al, eds. Parallel Problem Solving from Nature - PPSN VII. Springer Berlin Heidelberg, 2002, pp. 769-778. DOI: 10.1007/3-540-45712-7 74 (Ser. Lecture Notes in Computer Science; vol. 2439.).

7. Ong Y.S., Keane A.J. Meta-Lamarckian learning in memetic algorithms. IEEE Transactions on Evolutionary Computation, 2004, vol. 8, no. 2, pp. 99-110. DOI: 10.1109/TEVC.2003.819944

8. Ong Y.S. Artificial Intelligence Technologies in Complex Engineering Design. Ph.D. Thesis. School of Engineering Science, University of Southampton, United Kingdom, 2002.

9. Krasnogor N. Studies on the Theory and Design Space of Memetic Algorithms. Ph.D. Thesis. Faculty of Computing, Mathematics and Engineering, University of the West of England, Bristol, U.K., 2002.

10. Davis L., ed. Handbook of genetic algorithms. Van Nostrand Reinhold, New York, 1991. 385 p.

11. Moscato P. On Evolution, Search, Optimization, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms. Caltech Concurrent Computation Program 158-79, California Institute of Technology, Pasadena, California, USA. 1989. 67 p.

12. Zhu N., Ong Y.S., Wong K.W., Seow K.T. Using memetic algorithms for fuzzy modeling. Australian Journal of Intelligent Information Processing Systems, 2004, vol. 8, no. 3, pp. 147-154.

13. Burke E.K., Kendall G., Soubeiga E. A Tabu-Search Hyperheuristic for Timetabling and Rostering. Journal of Heuristics, 2003, vol. 9, no. 6, pp. 451-470. DOI: 10.1023/B:HEUR.0000012446.94732.b6

14. Bin Li, Zheng Zhou, Weixia Zou, Dejian Li. Quantum Memetic Evolutionary Algorithm-Based Low-Complexity Signal Detection for Underwater Acoustic Sensor Networks. IEEE

Transactions on Systems, Man, and Cybernetics, Part C: Applications and Reviews, 2012, vol. 42, no. 5, pp. 626-640. DOI: 10.1109/TSMCC.2011.2176486

15. Maolin Tang, Xin Yao. A Memetic Algorithm for VLSI Floorplanning. IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, 2007, vol. 37, no. 1, pp. 6269. DOI: 10.1109/TSMCB.2006.883268

16. Molina D., Lozano M., Herrera F. Memetic algorithm with local search chaining for continuous optimization problems: A scalability test. In ISDA. Proceedings of the 2009 Ninth International Conference on Intelligent Systems Design and Applications (ISDA '09). IEEE Publ., 2009, pp. 1068-1073. DOI: 10.1109/ISDA.2009.143

17. Ang J.H., Tan K.S., Mamun A.A. An evolutionary memetic algorithm for rule extraction. Expert Systems with Applications, 2010, vol. 37, is. 2, pp. 1302-1315. DOI: 10.1016/j.eswa.2009.06.028

18. Bhowmik P., Rakshit P., Konar A., Nagar A.K., Kim E. DETDQL: an adaptive memetic algorithm. 2012 IEEE Congress on Evolutionary Computation (CEC). IEEE Publ., 2012, pp. 1-8. DOI: 10.1109/CEC.2012.6256573

19. Qin K., Suganthan P.N. Self-adaptive differential evolution algorithm for numerical optimization. Proceedings of the 2005 IEEE Congress on Evolutionary Computation. Vol. 2. IEEE Publ., 2005, pp. 1785-1791. DOI: 10.1109/CEC.2005.1554904

20. Knowles J., Corne D., Wu A. A comparison of diverse approaches to memetic multiobjective combinatorial optimization. Proceedings of the 2000 Genetic and Evolutionary Computation Conference. 1st Workshop Memetic Algorithms. San Francisco: Morgan Kaufmann Publishers, 2000, pp.103-108.

21. Moscato P. Memetic algorithms for molecular conformation and other optimization problems. International Union of Crystallography, Newsletter of the Commission for Powder Diffraction, 1998, no. 20, pp. 32-33.

22. Neri F., Cotta C., Moscato P. Handbook of Memetic Algorithms. Springer Berlin Heidelberg, 2011. 368 p. DOI: 10.1007/978-3-642-23247-3 (Ser. Studies in Computational Intelligence.; vol. 379).

23. Moscato P., Corne D., Glover F., Dorigo M. Memetic algorithms: A short introduction. In book: New Ideas in Optimization. McGraw-Hill, 1999, pp. 219-234.

24. Neri F., Cotta C. Memetic algorithms and memetic computing optimization: A literature review. Swarm and Evolutionary Computation, 2012, vol. 2, pp. 1-14. DOI: 10.1016/j.swevo.2011.11.003

25. Liang K., Yao X., Newton C. Lamarckian evolution in global optimization. Proc. of the 26th Annual Conference of the IEEE Industrial Electronics Society (IECON 2000). Vol. 4. IEEE Publ., 2000, pp. 2975-2980. DOI: 1Q.11Q9/IECON.2000.972471

26. Houck C., Joines J. Kay M. Utilizing Lamarckian Evolution and the Baldwin Effect in Hybrid Genetic Algorithms. NCSU-IE Technical Report 96-01. Meta-Heuristic Research and Applications Group, Department of Industrial Engineering, North Carolina State University, 1996, pp. 96-101.

27. Wolpert D., Macready W. No free lunch theorems for optimization. IEEE Transactions on Evolutionary Computation, 1997, vol. 1, no. 1, pp. 67-82. DOI: 10.1109/4235.585893

28. Krasnogor N., Smith J. A tutorial for competent memetic algorithms: model, taxonomy, and design issues. IEEE Transactions on Evolutionary Computation, 2005, vol. 9, is. 5, pp. 474488. DOI: 10.1109/TEVC.2005.850260

29. Yi Mei, Ke Tang, Xin Yao. Decomposition-Based Memetic Algorithm for Multiobjective Capacitated Arc Routing Problem. IEEE Transactions on Evolutionary Computation, 2011, vol. 15, is. 2, pp. 151-165. DOI: 10.1109/TEVC.2010.2051446

30. Miller J.A., Potter W.D., Gandham R.V., Lapena C.N. An evaluation of local improvement operators for genetic algorithms. IEEE Transactions on Systems, Man and Cybernetics, 1993, vol. 23, is. 5, pp. 1340-1351. DOI: 10.1109/21.260665

31. Ishibuchi H., Yoshida T., Murata T. Balance between genetic search and local search in memetic algorithms for multiobjective permutation flowshop scheduling. IEEE Transactions on Evolutionary Computation, 2003, vol. 7, is. 2, pp. 204-223. DOI: DOI: 10.1109/TEVC.2003.810752

32. Bambha N.K., Bhattacharyya S.S., Teich J., Zitzler E. Systematic integration of parameterized local search into evolutionary algorithms. IEEE Transactions on Evolutionary Computation, 2004, vol. 8, is. 2, pp. 137-154. DOI: 10.1109/TEVC.2004.823471

33. Tang J., Lim M.H., Ong Y.S. Diversity-Adaptive Parallel Memetic Algorithm for Solving Large Scale Combinatorial Optimization Problems. Soft Computing: A Fusion of Foundations, Methodologies and Applications, 2007, vol. 11, is. 9, pp. 873-888. DOI: 10.1007/s00500-006-0139-6

34. Merz P., Freisleben B. et al. Fitness landscapes and memetic algorithm design. In book: Corne D. et al, eds. New Ideas in Optimization. New York, McGraw-Hill, 1999, pp. 245260.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

35. Ong Y.S., Keane A.J. A domain knowledge based search advisor for design problem solving environments. Engineering Applications of Artificial Intelligence, 2002, vol. 15, no. 1, pp. 105-116. DOI: 10.1016/S0952-1976(02)00016-7

36. Ong Y.S., Lim M.H., Zhu N., Wong K.W. Classification of adaptive memetic algorithms: A comparative study. IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, 2006, vol. 36, is. 1, pp. 141-152. DOI: 10.1109/TSMCB.2005.856143

37. Hart W., Krasnogor N., Smith J. Recent Advances in Memetic Algorithms. Springer Berlin Heidelberg, 2004. 410 p. DOI: 10.1007/3-540-32363-5

38. Smith J., Hart W., Krasnogor N. Editorial Introduction Special Issue on Memetic Algorithms. Evolutionary Computation, 2004, vol. 12, no. 3, pp. 273-353. DOI: 10.1162/1063656041775009

39. Hart W.E. Adaptive Global Optimization with Local Search. PhD Thesis. University of California, San Diego, 1994. 135 p.

40. Hinterding R., Michalewicz Z., Eiben A.E. Adaptation in Evolutionary Computation: A Survey. IEEE International Conference on Evolutionary Computation. IEEE Press, 1997, pp. 65-69. DOI: 10.1109/ICEC.1997.592270

41. Gutin G., Karapetyan D. A selection of useful theoretical tools for the design and analysis of optimization heuristics. Memetic Computing, 2009, vol. 1, no. 1, pp. 25-34. DOI: 10.1007/s12293-008-0001-8

42. Kendall G., Cowling P., Soubeiga E. Choice function and random hyperheuristics. Proc. of the 4th Asia-Pacific Conference on Simulated Evolution and Learning (SEAL 2002), Singapore, Nov. 2002, pp. 667-671.

43. Smith J. Co-evolving Memetic Algorithms: Initial Investigations. In book: Guervos J.J.M. et al, eds. Parallel Problem Solving from Nature - PPSN VII. Springer Berlin Heidelberg,

2002, pp. 537-546. DOI: 10.1007/3-540-45712-7 52 (Ser. Lecture Notes in Computer Science; vol. 2439.).

44. Qin K., Suganthan P.N. Self-adaptive differential evolution algorithm for numerical optimization. Proceedings of the 2005 IEEE Congress on Evolutionary Computation. Vol. 2. IEEE Publ., 2005, pp. 1785-1791. DOI: 10.1109/CEC.2005.1554904

45. Smith J.E. Coevolving Memetic Algorithms: A Review and Progress Report. IEEE Transactions on Systems, Man, and Cybernetics, Part B, 2007, vol. 37, is. 1, pp. 6-17. DOI: 10.1109/TSMCB.2006.883273

46. Smith J.E. Estimating meme fitness in adaptive memetic algorithms for combinatorial problems. Evolutionary Computation, 2012, vol. 20, is. 2, pp. 165-188. DOI: 10.1162/EVCQ a 00060

47. Krasnogor N., Gustafson S. A study on the use of self-generation in memetic algorithms. Natural Computing, 2004, vol. 3, is. 1, pp. 53-76. DOI: 10.1023/B:NACO.0000023419.83147.67

48. Smith J.E. Co-evolving memetic algorithms: A learning approach to robust scalable optimization. The 2003 Congress on Evolutionary Computation (CEC'03). Vol. 1. IEEE Press,

2003, pp. 498-505. DOI: 10.1109/CEC.2003.1299617

49. Krasnogor N. Coevolution of genes and memes in memetic algorithms. In: Wu A., ed. Proceedings of the 1999 Genetic and Evolutionary Computation Conference Workshop Program. 1999, p. 371.

50. Meuth R., Lim M.H., Ong Y.S., Wunsch II D.C. A proposition on memes and meta-memes in computing for higher-order learning. Memetic Computing, 2009, vol. 1, is. 2, pp. 85-100. DOI: 10.1007/s12293-009-0011-1

51. Cao Y.J., Wu Q.H. Convergence analysis of adaptive genetic algorithm. Second International Conference on Genetic Algorithms in Engineering Systems: Innovations and Applications (GALESIA 97). (Conf. Publ. No. 446). IEEE Publ., 1997, pp. 85-89. DOI: 10.1049/cp:19971160

52. Knowles J., Corne D. M-PAES: A memetic algorithm for multiobjective optimization. Proceedings of the 2000 Congress on Evolutionary Computation (CEC2000). Vol. 1. IEEE Publ., 2000, pp. 325-332. DOI: 10.1109/CEC.2000.870313

53. Krasnogor N., Mocciola P., Pelta D., Ruiz G., Russo W. A runnable functional memetic algorithm framework. Proceedings of the Argentinian Congress on Computer Sciences. Universidad Nacional del Comahue, 1998, pp. 525-536.

54. Tang J., Lim M.H., Ong Y.S. Parallel Memetic Algorithm with Selective Local Search for Large Scale Quadratic Assignment. International Journal of Innovative Computing, Information and Control, 2006, vol. 2, no. 6, pp. 1399-1416.

55. Hart W., Krasnogor N., Smith J.E. Memetic Evolutionary Algorithms. In book: Recent Advances in Memetic Algorithms. Springer Berlin Heidelberg, 2005, pp. 3-27. DOI: 10.1007/3540-32363-5 1 (Ser. Studies in Fuzziness and Soft Computing; vol. 166.).

i Надоели баннеры? Вы всегда можете отключить рекламу.