Научная статья на тему 'Совместное применение генетических алгоритмов и методов покоординатного обучения для решения оптимизационных задач'

Совместное применение генетических алгоритмов и методов покоординатного обучения для решения оптимизационных задач Текст научной статьи по специальности «Математика»

CC BY
965
481
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Куземин Александр Яковлевич, Сорочан Михаил Владимирович, Дробинский Владимир Георгиевич

Проводится сравнение генетического алгоритма и его комбинаций с методами спуска как методами глобальной оптимизации сложных многоэкстремальных функций большой размерности. Показывается целесообразность применения комбинаций генетического алгоритма и методов спуска.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Share application of genetic algorithms and methods of unicoordinate training for solution of the optimization tasks

The paper contains outcomes of research of an value of error of calculations of the optimized function for genetic algorithm and its combinations with graded-index methods as methods of an overall optimization.

Текст научной работы на тему «Совместное применение генетических алгоритмов и методов покоординатного обучения для решения оптимизационных задач»

УДК 519.682

СОВМЕСТНОЕ ПРИМЕНЕНИЕ ГЕНЕТИЧЕСКИХ АЛГОРИТМОВ И МЕТОДОВ ПОКООРДИНАТНОГО ОБУЧЕНИЯ ДЛЯ РЕШЕНИЯ ОПТИМИЗАЦИОННЫХ ЗАДАЧ

КУЗЕМИНА.Я., СОРОЧАНМ.В., ДРОБИНСКИЙ В.Г.__________________________

Проводится сравнение генетического алгоритма и его комбинаций с методами спуска как методами глобальной оптимизации сложных многоэкстремальных функций большой размерности. Показывается целесообразность применения комбинаций генетического алгоритма и методов спуска.

1. Введение

C задачами оптимизации мы сталкиваемся постоянно. Сложность их лежит в весьма широких рамках—от оптимизации некоторой аналитически заданной функции малого числа переменных до многопараметрических зависимостей, о характере которых априори ничего не известно. Для гладких

функций f (x) с небольшим числом локальных

экстремумов хорошо работают аналитические методы решения задачи оптимизации. В тех случаях, когда вычисление аналитического вида производных по всем координатам и отыскание их корней не представляют серьезной проблемы, этот подход наиболее эффективен. Недостатком аналитических методов является ограниченная область их применимости.

Когда найти экстремум аналитическим способом невозможно, применяют различные численные алгоритмы оптимизации [3]. Они позволяют опре*

делить приближенное значение x и состоят в

S S

построении последовательности точек {x : x + D, *

*

s = 1,2,3,... }, сходящейся к x . Новые точки в последовательности могут получаться различными

S

способами. Например, в точке x (s - номер шага итераций) вычисляется градиент Vf (x), а затем берется приращение вдоль направления градиента qS x = h Vf (x) .Такие алгоритмы называются градиентными и хорошо работают при небольших N. Их недостатком является то, что существуют ситуации, когда градиент не дает истинной информации о поведении функции, например, в случае N = 2 — так называемые седловые точки, в которых по одной координате функция имеет максимум, а по

другой - минимум. В данных точках Vf (x) = 0 ,

однако они не являются точками экстремума. При больших размерностях вероятность возникновения подобных ситуаций даже для довольно простых

функций существенно возрастает. Потому возможность применения градиентных методов для оптимизации функций с большим числом параметров ограничена. Кроме того, при использовании этих методов для задач большой размерности велико число вычислений функции f (x). Отказ от вычисления производных существенно расширяет круг решаемых задач, но в то же время усложняет алгоритм. В отсутствие производной невозможно точно определить локальное поведение функции в отдельной точке. Зато, вычислив значения в нескольких точках, можно приближенно судить о поведении функции в некоторой области. При этом наличие локальных экстремумов и конечных разрывов в отдельных точках не мешает получению этой оценки, хотя и уменьшает ее достоверность.

Применительно к решению задачи оптимизации генетический алгоритм (ГА) представляет собой разновидность метода градиентного спуска, при котором исследование абстрактной “поверхности” возможных значений производится одновременно из множества исходных точек. Каждый шаг оптимизации — порождение множества точек, соответствующих различным комбинациям значений переменных, т.е.для каждой точки вычисляется отклонение текущего значения ошибки от заданного и следующий шаг оптимизации будет произведен из тех предыдущих точек, которые показали “лучший результат” в смысле минимизации ошибки. Остальные отбрасываются. Поскольку каждое следующее поколение наследует лучшие признаки предыдущего (в данном случае — направления движения в сторону минимальной ошибки, причем с учетом периодических мутаций), то в конечном счете мы получаем некоторое подмножество точек, отклонение от целевой функции для которых минимально.

2. Цель исследования

Данная работа ставит своей целью сравнение с точки зрения погрешности вычислений при решении задачи оптимизации работы генетического алгоритма и его комбинаций с методами покоординатного обучения — конфигурационным методом и методом статистического градиента. Исследование проводится для сложных многоэкстремальных функций больших размерностей.

3. Постановка задачи

Требуется найти минимум функции

f (x) ^ min

xeD ’

где D є Rn — N-мерный параллелепипед. Никаких дополнительных условий, кроме определенности в каждой точке области D, на целевую функцию не накладывается.

4. Генетические алгоритмы

Идея генетического алгоритма подсказана природой. Есть некоторая абстрактная популяция неких абстрактных особей. Они способны мутировать и

РИ, 2001, № 3

77

давать потомство. Как и в природе, действует естественный отбор — выживают не все, а только наиболее приспособленные.

Математическая модель ГА тоже заимствовала многие понятия из генетики. Задан некий ареал обитания - некоторое ограниченное, обычно односвязное подмножество N-мерного пространства

поиска - D є Rn . На данном ареале задана некоторая популяция — конечное множество N-мерных

векторов {х} — особей или цепочек вида

(хьх2,...,xn), xi,i = 1,N, называемая геном. На D задана скалярная функция соответствия — целевая функция задачи оптимизации - f (х).

Реализацию генетического алгоритма можно представить как итерационный процесс, включающий несколько этапов:

1. Генерация начальной популяции

2. Воспроизводство “потомков”:

— выбор родительской пары,

— выбор и реализация одного из операторов кроссовера,

— выбор и реализация одного из операторов мутации.

3. Создание репродукционной группы.

4. Процедура отбора и формирование на его основе нового поколения.

5. Если не выполнено условие останова, то перейти к п.2.

ГА ведет параллельный поиск в пространстве параметров, на каждой итерации улучшая всю популяцию в целом. Именно это его свойство позволяет использовать ГА для решения многоэкстремальных задач. Благодаря параллельности вычислений ГА обходит то препятствие, о которое “спотыкаются” градиентные методы — локальные экстремумы [4]. Но, занимаясь популяцией в целом, он может “удовлетвориться” точкой, лежащей далеко от гло -бального экстремума, т.е. точность результатов, полученных с помощью ГА, не поддается какой-либо оценке.

Выбор родительской пары

Существует много стратегий выбора родителей [3]. Рассмотрим некоторые из них. Первый подход самый простой — это случайный выбор родительской пары (панмиксия), когда обе особи, которые составят родительскую пару, случайным образом выбираются из всей популяции, причем любая особь может стать членом нескольких пар. Несмотря на простоту, такой подход универсален для решения различных классов задач [3]. Однако он достаточно критичен к численности популяции, поскольку эффективность алгоритма, реализующего такой подход, снижается с ростом численности популяции.

Второй способ выбора особей в родительскую пару

- так называемый пропорциональный выбор. Его суть состоит в том, что “родители” выбираются методом рулетки — чем выше приспособленность данной особи, тем больше вероятность того, что она даст потомство. Опасность данного метода заключается в быстрой сходимости к некоторому квазиоптимальному решению. Другие два способа формирования родительской пары, на которые хотелось бы обратить внимание, это инбридинг и аутбридинг. Оба эти метода построены на формировании пары на основе близкого и дальнего “родства” соответственно. Под “родством” здесь понимается геометрическое (евклидово) расстояние между членами популяции в пространстве параметров. Под инбридингом понимается такой метод, когда первый член пары выбирается случайно, а вторым с большей вероятностью будет максимально близкая к нему особь. Аутбрцдинг же, наоборот, формирует брачные пары из максимально далеких особей. Наиболее полезно применение обоих представленных методов для многоэкстремальных задач. Однако два этих способа по-разному влияют на поведение генетического алгоритма. Так, инбридинг можно охарактеризовать свойством концентрации поиска в локальных узлах, что фактически приводит к разбиению популяции на отдельные локальные группы вокруг подозрительных на экстремум участков ландшафта. Аутбридинг, наоборот, направлен на предупреждение сходимости алгоритма к уже найденным решениям, заставляя алгоритм просматривать новые, неисследованные области.

Механизм отбора

Остановимся на двух методах отбора — элитном и отборе с вытеснением. Идея элитного отбора основана на построении новой популяции только из лучших особей репродукционной группы, объединяющей в себе родителей, их потомков и мутантов. Второй метод, на котором хотелось бы остановиться, это отбор вытеснением. Отбор, построенный на таком принципе, носит бикритериальный характер

- то, будет ли особь из репродукционной группы заноситься в популяцию нового поколения, определяется не только величиной ее приспособленности, но и тем, есть ли уже в формируемой популяции следующего поколения особь с аналогичным хромосомным набором. Критерий “одинаковости” для особей звучит следующим образом: две особи одинаковые, если находятся друг от друга на расстоянии, меньшем некоторого d (в смысле евклидовой метрики). Из всех особей с одинаковыми генотипами предпочтение сначала, конечно же, отдается тем, чья приспособленность выше. Таким образом, достигаются две цели: во-первых, не теряются лучшие найденные решения, обладающие различными хромосомными наборами, а во-вторых

- в популяции постоянно поддерживается достаточное генетическое разнообразие. Вытеснение в данном случае формирует новую популяцию скорее из далеко расположенных особей, вместо особей, группирующихся около текущего найденного решения. Этот метод особенно хорошо себя показал

78

РИ, 2001, № 3

при решении многоэкстремальных задач. При этом, помимо определения глобальных экстремумов, появляется возможность выделить и те локальные максимумы, значения которых близки к глобальным [3].

Генетические операторы

Можно определить набор преобразующих генетических операторов, которые используются в ГА для получения новых пробных точек. Эти операторы являются вероятностными, т. е. результат их применения к конкретной цепочке не однозначен. Задаются они алгоритмически с использованием генератора случайных чисел. Существует два основных класса генетических операторов:

1. Операторы кроссовера —позволяют из выбранных родителей получить двух потомков путем комбинации генов родительских цепочек. Самым простым является одноточечный кроссовер: выбирается случайным образом позиция в цепочке, а затем все гены первой хромосомы, до этой позиции, достаются первому потомку, остальные, начиная с выбранной позиции, — второму. Второй родитель, соответственно, передает первому потомку часть цепочки после точки разрыва, а второму потомку — часть до точки разрыва. Естественным обобщением одноточечного кроссовера является n-точечный кроссовер, при котором существует несколько точек разрыва. В современных реализациях ГА часто применяется двухточечный вариант кроссовера. Другим вариантом кроссовера, который также довольно часто используется, является равномерный кроссовер. Он обменивает биты между хромосомами в каждой позиции независимо с некоторой вероятностью. Существует и множество других схем кроссовера, специально разработанных для различных предметных областей и разных представлений исходного пространства поиска. Отличительная особенность всех разновидностей данного оператора состоит в том, что, будучи применен к паре совпадающих цепочек, он не меняет их. В работе [3] показано, что сложно априорно решить, какой из операторов кроссовера — одно- или двухточечный более приемлем. В нашей работе применена схема из [3] — комбинация одноточечный/ двухточечный кроссовер с равными вероятностями выбора.

2. Мутация — случайным образом изменяет одну хромосому. Векторы, представленные исходной и мутировавшей цепочками, могут сильно отличаться друг от друга, что позволяет алгоритму преодолевать окрестности локальных экстремумов. Кроме того, на начальной стадии работы алгоритма именно мутация обеспечивает равномерность распределения пробных точек. В качестве одной из реализаций мутации можно рассмотреть адаптивную мутацию. Обычная мутация происходит с вероятностью, не зависящей от того, насколько широко особи распределены по своему ареалу обитания. Адаптивная мутация происходит с вероятностью, обратно пропорциональной “широте” распространения особей. Под “широтой” понима-

ется отношение объема минимального гиперпараллелепипеда со сторонами, параллельными координатным осям, включающего в себя особи, к объему D. Это позволяет избежать сходимости ГА к некоторому локальному экстремуму, поддерживая достаточное генетическое разнообразие в популяции. Кроме того, вероятность того, что данная особь мутирует, обратно пропорциональна ее приспособленности, т.е. в качестве кандидатов в “мутанты” выступают наименее ценные представители популяции.

5. Область применения ГА

Однако нередки случаи, когда ГА работает не так эффективно, как ожидалось. Предположим, есть реальная задача, сопряженная с поиском оптимального решения. Как узнать, является ли ГА хорошим методом для ее решения? До настоящего времени не существует строгого ответа, однако многие исследователи разделяют предположения, что если пространство поиска, которое предстоит исследовать, - большое, и предполагается, что оно не совершенно гладкое и унимодальное (т.е. содержит один гладкий экстремум) или не очень понятно, или если функция приспособленности с шумами, или если задача строго не требует нахождения глобального оптимума - т.е. если достаточно быстро просто найти приемлемое “хорошее” решение (что довольно часто имеет место в реальных задачах), ГА будет иметь хорошие шансы стать эффективной процедурой поиска, конкурируя и превосходя другие методы, которые не используют знания о пространстве поиска. Если же пространство поиска небольшое, то решение может быть найдено методом полного перебора, и можно быть уверенным, что наилучшее возможное решение найдено, тогда как ГА мог с большей вероятностью сойтись к локальному оптимуму, а не к глобально лучшему решению. Если пространство гладкое и унимодальное, любой градиентный алгоритм, такой как метод скорейшего спуска будет более эффективен, чем ГА. Если о пространстве поиска есть некоторая дополнительная информация (как, например, пространство для хорошо известной задачи о коммивояжере), методы поиска, использующие эвристики, определяемые пространством, часто превосходят любой универсальный метод, каким является ГА. При достаточно сложном рельефе функции приспособленности методы поиска с единственным решением в каждый момент времени, такой как простой метод спуска, могли “затыкаться” в локальном решении. Однако считается, что ГА, так как они работают с целой “популяцией” решений, имеют меньше шансов сойтись к локальному оптимуму и робастно функционируют на многоэкстремальном ландшафте. Конечно, такие предположения не предсказывают строго, когда ГА будет эффективной процедурой поиска, конкурирующей с другими процедурами. Эффективность ГА сильно зависит от таких деталей, как метод кодировки решений, операторы, настройки параметров, частный критерий успеха. Теоретическая работа, отраженная в литературе, посвященной ГА, не дает

РИ, 2001, № 3

79

оснований говорить о выработке каких-либо строгих механизмов для четких предсказаний.

6. ГА и методы покоординатного спуска

Один из способов устранения недостатка ГА — большой погрешности вычислений целевой функции состоит в том, что предлагается совместить ГА как метод глобальной оптимизации и один из методов покоординатного обучения, позволяющих уточнить решение, найденное с помощью ГА. В качестве покоординатных выбраны следующие методы.

Конфигурационный метод, описанный в [1]. Процесс

поиска начинается из начального приближения x ° ,

которое принимается за базовую точку x , характеризующуюся тем, что она является исходной точкой очередной итерации. Каждая итерация состоит из двух процедур: “пробного движения ” в Д -окрестности текущей точки испытания и “движения в допустимом направлении”, т.е. в направлении, вдоль которого гарантируется уменьшение

функции соответствия f (x). Данный метод позволяет осуществлять поиск вдоль произвольно ориентированного относительно координатных осей дна оврага.

Метод статистического градиента [2]. В целом повторяет конфигурационный метод, но пробные движения делаются не по всем направлениям, а только по выбранным m < N . То, какие направления будут выбраны, определяет некоторый параметр памяти p = (pi,p2,...,Pn) -вектор вероятностей выбора соответствующего направления, который изменяется на каждом шаге алгоритма. Вычисляется среднее приращение функции по предыдущим шагам, и если приращение по выбранным координатам превосходит его, то вероятности их выбора следует увеличить по отношении к вероятностям выбора остальных направлений, иначе дан -ные вероятности уменьшаются.

Рассмотрим первый вариант для комбинации ГА и покоординатных методов. На каждой итерации ГА наиболее приспособленная часть особей с некоторой вероятностью может быть подвержена действию покоординатных методов, причем если особь уже “скачена”, то данные методы к ней не применяются. Такой подход позволяет использовать достоинства глобального поиска с помощью ГА и уточнения покоординатными методами.

7. Тестовые функции

Оценка предлагаемых комбинаций проводилась на ряде тестовых функций. Это прежде всего одна из тестовых функций De JongX которые часто используются для проверки эффективности новых генетических алгоритмов. Кроме того, были использованы сложные многоэкстремальные функции высокой размерности, практически нерешаемые классическими методами. Для тестовых функций Tef N_1 и Tef N_2 проведены испытания для различного числа параметров - N=12, 24, 40.

De Jong 2 — Овражная функция, один глобальный экстремум:

f (x)

___________100__________

100(x2 -x2) + (1 -x1)2 +1,

-1,28 < x12 < 1,28 ,

f *(x = f (1,0; 1,0) = -100 .

Растригин 2 — 96 локальных экстремумов и 4 глобальных:

f (x) = 10 cos(2^xx1) +10 cos(2^xx2) — x2 - x2 - 20,

-5,12 < xj 2 ^ 5,12 ,

f *(x) = f (4,5; 4,5) = f (4,5; - 4,5) =

= f (-4,5; - 4,5) = -80,71.

Griewank 2 — Один глобальный и множество локальных экстремумов:

f (x) = —2—2-------1-----------,

xi + x2 , „ , „ „

--------cos(x )cos(x~) + 2

200 1 2

-20 < x12 < 20 ,

f *(x) = f (0,0; 0,0) = -1.

Растригин 10 — Один глобальный экстремум и 1010- 1 локальных:

f (x) = 100 - ^ (10cos(2^x,-) - x2) , i=1

-5,12 < ^ 5,12 ,

Иной альтернативой может служить “доводка” покоординатными методами особей “чистого” ГА после окончания его работы. В качестве дальнейшего развития этой идеи можно рассмотреть, как влияет количество особей, подвергающихся “доводке” , на точность решения задачи оптимизации. В работе по окончании ГА покоординатные методы применялись к 1/10 части популяции — лучшим особям.

f *(x) = f (0,0; 0,0;...;0,0) = 0 .

Griewank 10 — Один глобальный и множество локальных экстремумов:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

10 x2 10

f (x)=,5,40й - ncos<7 ’"9 •

-512 < Л'1,2,...,10 - 512 ,

80

РИ, 2001, № 3

f * (x) = f (0,0 ; 0,0 0,0) = -10 .

Tef N_1 - Один глобальный и множество локальных экстремумов:

_ N N

f (x) =| sin(0,03^ xi) - 2 cos(0,5n xi) +

i=l i=l

NN

+ sin(0,5^ A) + E1 A 11, -10 < xf < 10 ,

i=1 i=1

f = f (0,0 ; 0,0 ;...; 0,0) = 0 .

Tef N_2 - Один глобальный и множество локальных экстремумов:

_ N

f (x) =| £ 2 sin(2x,-) + 1,4xi |, -10 < xi < 10 ,

i=1

9. Результатні исследований

Тестирование проводилось для “чистого” ГА комбинаций ГА + конфигурационный метод и ГА + метод статистического градиента. Для задач большой размерности (N=40) проведены исследования для комбинаций ГА + “доводка” конфигурационным методом и ГА + “доводка” методом статистического градиента.

Для всех тестовых функций применялись следующие параметры:

выбор родителей — пропорциональный;

метод кроссовера - случайный выбор одно- или двухточечного с вероятностью р=0,5;

мутация — адаптивная;

формирование популяции - отбор с вытеснением;

f *(x) = f (0,0; 0,0 ;...; 0,0) = 0 .

8. Инструмент исследования

Для проведения экспериментов реализовано приложение, позволяющее проводить выбор различных параметров ГА и осуществлять исследование различных тестовых функций произвольной размерности. Для верификации ГА, реализованного в данном приложении, проведем сравнение результатов работы данного ГА и результатов, приведенных в [3] для тестовых функций Griewank 10 и Растри -гина 10. Выбранные параметры ГА—аутбридинг/ отбор с вытеснением, численость популяции — 50 особей, условие прекращения вычислений — 5000 вычислений функции соответствия. Кроссовер — равновероятный выбор одно- или двухточечного. Число брачных пар в [3]- 20, вероятность мутации — 0,01, в данной работе брачных пар — 1/4 от размера популяции и адаптивная мутация.

Растригин 10

[3] данная реализация

лучшая 6,447 14,800

худшая 17,816 179,000

среднее 9,84 87,39

Griewank 10

[3] данная реализация

лучшая -9,467 -6,2460

худшая -9,069 192,5000

среднее -9,212 86,9300

Результаты, полученные с помощью реализации ГА данного приложения, хуже с точки зрения погрешности нахождения минимума целевой функции, чем приведенные в работе [3]. В качестве причин можно указать различие в символьной модели особи в [3] и в данной работе, разное количество брачных пар и различный взгляд на понятие “близости” особей. По результатам можно сказать, что адаптивная мутация, реализованная в данном исследовании, дает большее генетическое разнообразие в популяции по сравнению с постоянной мутацией.

РИ, 2001, № 3

особи считаются эквивалентными, если находятся друг от друга на расстоянии, меньшем или равном 1;

для методов покоординатного спуска точность e равна 0,01;

методы покоординатного спуска применяются с вероятностью р=0,05;

для метода статистического градиента m =

N

~2

критерием останова выбрано заданное количество вычислений целевой функции.

Ю.Выводы

Комбинации ГА с покоординатными методами показали меньшую погрешность значения функции соответствия по сравнению с “чистым” ГА для размерностей 2-12 (табл. 1-5, 10, 11).

Для 2-мерных функций обе комбинации показали схожую погрешность, меньшую, чем погрешность вычислений ГА.

Для многопараметрических функций (Растригин 10, Tef 12_1, Tef 12_2, Tef 24_1, Tef 24_2) комби-

нация ГА+метод статистического градиента показала минимальную погрешность вычислений.

Таблица 1 De Jong 2

Размерность= 2 Особей= 64

ГА ГА + конфигурационный метод ГА + метод статистического градиента

Лучшая особь -8381 -52840 -32150

Худшая особь -2.22 -2.387 -1.214

Среднее по популяции -291,3 -1708 -1718

Вычислений функции 5017 5019 5021

81

Таблица 2 Griewank 2 Размерность= 2

Особей= 128

ГА ГА + конфигурационный метод ГА + метод статистического градиента

Лучшая особь -0,9830 -0,9984 -0,9966

Худшая особь -0,3918 -0,3854 -0,3908

Среднее по популяции -0,6667 -0,6987 -0,6940

Вычислений функции 5038 5053 5049

Таблица 3 Растригин 2

Размерность= 2 Особей= 128

ГА ГА + конфигу-рационный метод ГА + метод статистического градиента

Лучшая особь -80,52 -80,7 -80,69

Худшая особь -71,91 -78,61 -77,46

Среднее по популяции -76,61 -79,76 -79,58

Вычислений функции 5025 5036 5039

Таблица 4

Tef12_1

Размерность= 12 Особей= 128

ГА ГА + конфигу-рационный метод ГА + метод статистического градиента

Лучшая особь 0,8316 0,0008 0,0005

Худшая особь 60,32 56,2 58,43

Среднее по популяции 21,96 22,61 23,64

Вычислений функции 20104 20055 20183

Заметно падение эффективности вычислений для комбинации ГА + конфигурационный метод для 24-мерных задач (табл. 6,7).

Для функций большой размерности (N=40) комбинации ГА+метод статистического градиента, ГА+ конфигурационный метод показали более высокую погрешность, чем ГА (табл. 8,9).

Таблица 5 Tef 12_2 Размерность= 12 Особей= 128

ГА ГА + конфигу-рационный метод ГА + метод статистического градиента

Лучшая особь 5,874 3,91 3,35

Худшая особь 79,38 81,31 80,21

Среднее по популяции 34,55 34,84 33,22

Вычислений функции 20049 20684 20238

Таблица 6 Tef 24_1 Размерность=24 Особей= 256

ГА ГА + конфигу-рационный метод ГА + метод статистического градиента

Лучшая особь 1,605 3,93 0,7771

Худшая особь 110,8 117,6 114,6

Среднее по популяции 43,41 50,06 43,86

Вычислений функции 60101 63201 61031

Таблица 7 Tef 24_2 Размерность=24 Особей= 256

ГА ГА + конфигу-рационный метод ГА + метод статистического градиента

Лучшая особь 13,32 13,58 10,01

Худшая особь 159 164,1 161,6

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Среднее по популяции 68,82 75,70 71,31

Вычислений функции 60095 63848 61302

ГА с “доводкой” покоординатными методами показал меньшую погрешность по сравнению с “чистым” ГА, при росте числа вычислений функции соответствия на 5-10%.

Можно сделать общее заключение о возможности применения методов покоординатного обучения как методов “доводки” решений, полученных с

82

РИ, 2001, № 3

Таблица 8

Tef40_1

Размерность=40 Особей= 512

ГА ГА + конфи- гура- цион- ный метод ГА + метод статистического градиента ГА+ «до- вод- ка» кон- фигу- раци- он- ным мето- дом ГА + «доводка» методом ста-тис-тиче-ского гради ента

Лучшая особь 7,05 37,23 16,36 6,769 6,79

Худшая особь 191,4 193,1 192,2 246,3 246,6

Среднее по популяции 72,41 106,6 91,82 73,51 72,43

Вычис- лений функ- ции 100195 110732 106827 111806 106335

Таблица 9 Tef 40_2 Размерность= 40 Особей= 512

ГА ГА + конфи- гура- цион- ный метод ГА + метод статистического градиента ГА+ «доводка» кон-фигу -рацион-ным методом ГА + «доводка» методом ста-тис-тиче-ского гради ента

Луч- шая особь 28,41 59,97 36,99 27,06 26,95

Худ- шая особь 269,1 275,5 272,2 347,5 349,6

Среднее по популяции 116,6 155,2 137 117,3 122,6

Вычис- лений функ- ции 100211 110926 105223 111154 106160

помощью ГА. В качестве покоординатных методов желательно применять методы случайного поиска, подобные рассмотренному в статье, как более экономные с точки зрения количества вычислений оптимизируемой функции.

Таблица 10 Растригин 10

Размерность= 10 Особей= 256

ГА ГА+ конфигу-рационный метод ГА + метод статистического градиента

Лучшая особь 4,023 3,106 2,333

Худшая особь 157,2 169,5 159,8

Среднее по популяции 59,38 63,89 60,11

Вычислений функции 20094 21154 20617

Таблица 11 Griewank 10

Размерность= 10 Особей= 128

ГА ГА + конфигу-рационный метод ГА + метод статистического градиента

Лучшая особь -8,74 -8,992 -9,231

Худшая особь 186,1 185,7 182,4

Среднее по популяции 68,41 68,68 68,88

Вычислений функции 20047 20243 20091

Литература: 1.Батищев Д.И. Методы оптимального проектирования. М.: Радио и связь, 1984. 321 с. 2. Теория и применение случайного поиска/Ред. Растригин Л.А Рига.: Зинатне, 1969. 280 с. 3. Батищев Д.И, Исаев С.А. Оптимизация многоэкстремальных функций с помощью генетических алгоритмов /Межвуз. сборник “Высокие технологии в технике, медицине и образовании”. Часть 3; Воронеж, ВГТУ. 1997. C. 12-19. 4. Болдырев М.И. Генезис в финансах. Выбор оптимальных путей / Межвуз. сборник “Высокие технологии в технике, медицине и образовании”. Часть 3; Воронеж, ВГТУ. 1997. C. 21-24. 5.Акопян А.М. Генетические алгоритмы для решения задачи глобальной оптимизации/ Межвуз. сборник “Высокие технологии в технике, медицине и образовании”. Часть 3; Воронеж, ВГТУ. 1997. C. 45-51.

Поступила в редколлегию 09.04.2001

Рецензент: д-р техн. наук, проф. Сироджа И.Б.

Куземин Александр Яковлевич, канд. техн. наук, доцент кафедры информатики ХНУРЭ. Научные интересы: системный анализ, проектирование информационных систем. Адрес: Украина, 61054, Харьков, .ул. Данилевского, 16, кв 8, тел.: 43-09-36.

Сорочан Михаил Владимирович, студент 5-го курса ХНУРЭ. Научные интересы: системный анализ, объектно-ориентированный анализ и проектирование, компьютерные сети. Адрес: Украина, 61174, Харьков, пр. Л. Свободы, 51-б.

Дробинский Владимир Георгиевич, студент 5-го курса ХНУРЭ. Научные интересы: генетические алгоритмы, многокритериальная оптимизация. Адрес: Украина, 61174, Харьков, пр. Л. Свободы, 51-б, к. 732.

РИ, 2001, № 3

83

i Надоели баннеры? Вы всегда можете отключить рекламу.