Научная статья на тему 'Исследование Конструктора генетических алгоритмов'

Исследование Конструктора генетических алгоритмов Текст научной статьи по специальности «Математика»

CC BY
143
77
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Исследование Конструктора генетических алгоритмов»

вом, что не обеспечивают другие подходы [2]. Некоторые из важных проблем в низкоуровневой обработки изображений - это задача сегментации, рассмотренная в первой части статьи, и задача выявления контуров объектов, описанная во второй части. Несмотря на несхожесть этих задач, удалось сформулировать критерии, определить целевые функции и предложить рациональный метод кодирования хромосом для каждой из них. В дальнейшем планируется получить экспериментальные данные для тестовых изображений, участвовавших в обучении и для набора .

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Искусственный интеллект: В 3 кн. Кн.1. Системы общения и экспертные системы: Справочник / Под ред. Э.В. Попова. М.: Радио и связь. 1990. 464с.

2. Brian J. Ross, Frank Fueten Dmytro, Y. Yashkir. «Edge Detection of Petrographic Images Using Genetic Programming». GECCO 2000, pp. 658-665.

3. Shinn-Ying Ho, Kual-Zheng Lee. «A Simple and Fast GA-SA Hybrid Image Segmentation Algorithm». GECCO 2000, pp. 718-724.

4. Simon C. Roberts, Daniel Howard. «Genetic Programming for Image Analysis: Orientation Detection». GECCO 2000, pp. 651-657.

5. Patrick Chiu etc. «A Genetic Segmentation Algorithm for Image Data Stream and Video». GECCO 2000, pp. 666-675.

6. Harris C., B. Buxton. «Evolving Edge Detectors with Genetic Programming». Genetic Programming» 1996. MIT Press, pp. 309-314.

7. Методы генетического поиска/ Под ред. В.М. Курейчика. Таганрог: Изд-во ТРТУ. 2002. "

УДК 004.3

Л.Г. Комарцова ИССЛЕДОВАНИЕ КОНСТРУКТОРА ГЕНЕТИЧЕСКИХ АЛГОРИТМОВ

. , -

тических алгоритмов [Курейчик, 1999; I.Chambers, 1999]. Для решения задач оптимизации разработано большое количество возможных вариантов их реализации. При решении реальных задач необходимо конструировать такой генетический алгоритм (ГА), который настройкой соответствующих параметров в наилучшей степени учитывал бы специфику каждой конкретной области использования ГА. Поэтому актуальной проблемой является создание Конструктора ГА, помогающего пользователю выбирать параметры алгоритма и настраивать его на решение опре.

1. Некоторые вопросы организации Конструктора. Особенностью Конструктора является возможность применения средств ГА для выбора параметров ГА, используемого при решении определенной оптимизационной задачи. В [Комарцова, 2001; Комарцова, 2000] автором были предложены алгоритмы обучения нейронной сети (НС) и поиска конфигурации компьютерной сети на основе ГА, а также разработаны некоторые новые генетические операторы для этих алгоритмов. В процессе функционирования ГА осуществляется "естественный отбор" и реализуется направленный поиск хромосом, которые являются ценными в смысле задан-

- Fit. -

ции во многом определяется удачным выбором этой функции.

Формирование функции Fit при решении оптимизационных задач является наиболее сложной проблемой. При использовании генетических алгоритмов оптимизации на каждом шаге итерации производится оценка некоторой хромосомы H по значению Fit(H), которая вычисляется для фенотипа (вектора реальных значе-

). Fit -

димо производить декодирование хромосомы. Вычислительная сложность ГА во

- Fit.

Рассмотрим способы задания функции фитнесса, реализованные в Конструкто-.

1. Fit . -

дание ошибки обучения НС в виде зависимости от вектора весовых коэффициентов и от выходного сигнала НС.

2. . -

Fit, -

, -. , Fit , -

ляющей вычислять некоторый критерий оптимальности (результат работы имита-).

Fit

или даже невозможно. В этом случае для оценки возможных решений будем ис-

Fit - .

3. Fit .1. -

положим, что имеется некоторая обучающая выборка, состоящая из пар, первый

- ( ), - (

), -

.

На этой выборке проводится обучение нейросети, которая затем может при-Fit , -

. Fit

во многом определяется представительностью обучающей выборки и оптимальностью архитектуры НС.

Нг Обучеюая НС Fit (Я*)

Рис.1. Вычисление функции фитнесса с помощью нейросети

2. Экспериментальное исследование ГА. Оценка эффект ивности и надежности алгоритмов оптимизации является сложной проблемой, решение которой возможно при выполнении двух условий [Реклейтис, 1988]: наличия представи-

тельного множества тестовых задач и возможности сравнения алгоритмов на основе стандартных критериев оценки.

Для сравнения алгоритмов оптимизации разработано достаточно большое количество тестовых задач [Батищев, 1997; Пападимитриу, 1985], основными характеристиками которых являются: существование известной точки экстремума; наличие особенностей оптимизируемой функции (например, вид области поиска); размерность решаемой задачи; число экстремумов и т.д. В [Комарцова, 2000; Ко-марцова, 2001] на достаточно представительном наборе непрерывных тестовых функций были проведены эксперименты по сравнению эффективности ГА с известными методами оптимизации: случайного поиска и градиентного спуска.

Полученные результаты свидетельствовали о низком проценте эксперимен-

,

и метода случайного поиска, а также и для градиентного поиска при оптимизации многоэкстремальных функций. Однако, при оптимизации одноэкстремальных функций наблюдается хорошее приближение найденных экстремумов к истинному экстремуму для всех методов, а при оптимизации многоэкстремальных - для методов ГА и случайного поиска.

Были сделаны следующие выводы:

1) -

, , , область существования глобального экстремума;

2) -

тремума с помощью ГА необходимо исследовать сочетание различных параметров , -

ние его вычислительной сложности.

Первый вывод наталкивает на мысль создания двухэтапного алгоритма оптимизации: на первом этапе с помощью ГА локализуется зона поиска, а на втором этапе с помощью метода локальной оптимизации находится точное значение экстремума. Реализация этого алгоритма рассматривается в [Комарцова, 2001].

3. Выбор параметров ГА с помощью ГА. Во многих случаях решения задач оптимизации практически невозможно предсказать поведение сложных многопараметрических и многоэкстремальных функций в зоне поиска, поэтому проведенные исследования только в общем позволяют определить тенденцию влияния различных генетических операторов на эффективность ГА. При создании алгоритмов обработки информации в искусственных интеллектуальных системах на основе ГА необходимо в каждом конкретном случае обеспечить автоматический подбор таких параметров алгоритма, которые обеспечивают его наибольшую эффективность. Поставленная задача решается в разработанном Конструкторе ГА.

Работу алгоритма выбора параметров ГА будем рассматривать на примере оптимизации с помощью ГА функции с одним локальным экстремумом - функции Розенброка [Реклейтис, 1988] и с многими экстремумами - функции Растригина [Батищев, 1997].

В поставленной задаче алгоритм выбора генетических операторов относится к алгоритму комбинаторной оптимизации и разрабатывается на основе двухступен-. ( ) , возможно, другие параметры, например, размер популяции, процент скрещивания и мутации и т.д. В качестве генов в хромосоме внешнего ГА будем использовать поля, примеры которых представленны на рис.2.

Рис. 2. Представление хромосомы для внешнего ГА

На второй ступени (внутренний ГА) определяется наилучшее приближение к экстремуму для каждой хромосомы внешнего ГА.

Хромосома внутреннего ГА представлена на рис.3, на котором x1, x2, ..., xn -параметры оптимизируемой функции.

Рис. 3. Представление хромосомы для внутреннего ГА

Предложенный алгоритм записывается следующим образом.

Шаг 1. Г енерация потенциальных решений для внешнего алгоритма - задание пользователем вариантов реализации искомых параметров внутреннего ГА: вида оператора кроссинговера, мутации, селекции, отбора, числа популяций и других , . -

- k . - p .

Шаг 2. Начало работы вн ешнего алгоритма. Число итераций = p. Размер популяции = r.

Шаг 3. Селекция пар хромо сом для скрещивания.

Шаг 4. Выполнение оператора кроссинговера.

Шаг 5. Выполнен ие мутации.

Шаг 6. Генерация потенциальных решений в виде хромосом (см. рис.3) для .

Шаг 7. Начало работы внутреннего алгоритма. Число итераций =k.

Шаг 8. Выполнение итераций для каждой хромосомы популяции внешнего алгоритма с использованием генетических операторов, закодированных в хромо-

Fit.

Шаг 9. Выполнение операторов отбора хромосом в следующую популяцию Fit, .

ГА используется "мягкая" схема отбора. Количество членов популяции усекается до первоначального размера. Лучшая хромосома каждой популяции сохраняется.

Шаг 10. Проверка уел овия останова. Если условие выполняется, то выдается лучшая хромосома из всех популяций, в противном случае - переход к шагу 2.

Экспериментальное исследование данного алгоритма проводилось при следующих условиях. Число членов внешней популяции - 30 (максимальное число пар

- 10). Число членов внутренней популяции - 50. Число итераций внутреннего алгоритма - от 25 (для функции Розенброка) до 50 (для более сложной функции Рас-тригина), внешнего - от 15 до 30.

К исходной популяции во внешнем алгоритме при выполнении генетических операторов добавлялось по одному потомку от каждой пары. Общее число вычис-Fit -

ло 300000, для функции Растригина - 600000-800000. Для уменьшения вычислительной сложности алгоритмов Конструктора ГА целесообразно исследовать комбинированные алгоритмы, предложенные в [Комарцова, 2001]. Результаты работы

предложенного Конструктора при выборе генетических операторов для оптимизации функций Розенброка и Растригина представляются следующим образом.

ГА для оптимизации функции Растригина имеет следующие параметры: размер популяции - 82; вид отбора - элитный; тип мутации - инве рсия; вероятность мутации - 0.05; выбор родительской пары - дальнее родство на генотипе; кроссин-говер - рекомбинация; количество итераций - 22.

ГА для оптимизации функции Розенброка: размер популяции - 41; вид отбора

- с огран ичением; тип мутации - ген ная; вероятность мутации - 0.44; выбор родительской пары - ближнее родство на генотипе; кроссинговер - 2-х точечный; количество итераций - 15.

Применение полученных с помощью Конструктора параметров ГА, используемых для оптимизации функций Розенброка позволило сократить число итераций ~ до k=10-15 (по сравнению с k=25 в предыдущих экспериментах) и Растригина до k=20-25 (по сравнению с k =50) при той же точности.

4. . ,

подбор параметров ГА с помощью Конструктора при решении конкретных задач , -ритмы, позволяющие уменьшать время сходимости и повышать вероятность нахо-.

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Курейчик В.М. Генетические алгоритмы. Состояние. Проблемы. Перспективы// Известия РАН. Теория и системы управления. 1999. №1.

2. Practical Handbook of Genetic Algorithms // Ed. By I.Chambers. Washington. USA, CRC Press. 1999.

3. . . -

// . . .: . 2001.

1.

4. . .

// . .: -

построение. 2000. №5.

5. Рекпейтис А., Рейвиндран A. n др. Оптимизация в технике. В 2-х кн. М.: Мир. 1988.

6. Батищев ДМ., Исаев С.А. Оптимизация многоэкстремальных функций с помощью генетического алгоритма //http://www.chat.ru/~saisa/index.html.

7. Пападимитриу X., Стайглиц К Комбинаторная оптимизация. Алгоритмы и сложность.

.: , 1985.

УДК 681.3.06

Л.А. Гладков, Е.В. Корнюшенко, Е.В. Маслов АЛГОРИТМ ВЫДЕЛЕНИЯ ЯДЕР В НЕЧЕТКИХ ГРАФАХ НА ОСНОВЕ МОДЕЛИРОВАНИЯ ЭВОЛЮЦИИ*

При решении различных практических задач особое место занимают оптимизационные задачи, основанные на классических графовых алгоритмах, таких, на,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

* Работа выполнена при поддержке РФФИ, грант № 02-01-01275

i Надоели баннеры? Вы всегда можете отключить рекламу.