Научная статья на тему 'Многокритериальные эволюционные алгоритмы для автоматического генерирования искусственных нейронных сетей'

Многокритериальные эволюционные алгоритмы для автоматического генерирования искусственных нейронных сетей Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
112
24
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ / EVOLUTIONARY ALGORITHMS / ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ / ARTIFICIAL NEURAL NETWORKS / АППРОКСИМАЦИЯ / APPROXIMATION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Коромыслова А.А.

Предлагаются эволюционные алгоритмы для автоматического генерирования структур искусственных нейронных сетей. Проведен анализ и исследование их эффективности на тестовых задачах аппроксимации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE MULTIOBJECTIVE EVOLUTIONARY ALGORITHMS FOR AUTOMATIC GENERATION OF ARTIFICIAL NEURAL NETWORKS

Evolutionary algorithms for the automatic generation of artificial neural network structure are proposed. Analysis and research of performance are presented by test problems of approximation.

Текст научной работы на тему «Многокритериальные эволюционные алгоритмы для автоматического генерирования искусственных нейронных сетей»

ПИД-регулятора настраивались по непараметрической модели путем минимизации ошибки управления (измеряемой как среднеквадратическое отклонение).

Рис. 1. Схема непараметрического регулятора с обратной связью

ным уравнением четвертого порядка, ошибка управления для ПИД-регулятора - 1,123, для непараметрического регулятора - 0,46 (рис. 2). А при повышении порядка до восьмого, значение ошибки управления ПИД-регулятора и непараметрического возросли, соответственно, до 3,29 и 1,467.

В заключение хочется отметить, что рассмотрение алгоритмов, применимых в условиях непараметрической неопределенности, является довольно сложной и актуальной на сегодняшний день задачей, заслуживающей особого внимания. Было рассмотрено два типа регулятора, которые могут быть использованы для построения систем управления в данном случае. В рассмотренных примерах непараметрический регулятор продемонстрировал лучшее качество работы, чем ПИД-регулятор.

Было рассмотрено несколько систем: второго, четвертого и восьмого порядка. К имеющимся измерениям переменных была добавлена нормально распределенная помеха величиной 5 %, шаг дискретизации А/ = 0,05.

Рис. 2. Результаты работы ПИД и непараметрического регуляторов для модели четвертого порядка

Для объекта второго порядка ошибка управления ПИД-регулятора - 0,436, непараметрического - 0,172. В случае, когда объект описывается дифференциаль-

Библиографические ссылки

1. Сергеева Н. А., Старовойтова А. В. О непараметрическом моделировании линейных динамических систем // Системы автоматизации в образовании, науке и производстве : труды IX Всерос. науч.-практ. конф. Новокузнецк, 2013. C. 451-456.

2. Medvedev A. V. Non-parametric control by dynamic systems // Методы оптимизации и приложения : XV Байкальская международная школа-семинар. Т. 3. Оптимальное управление. Иркутск, 2011. С. 6-12.

References

1. Sergeeva N. A., Ctarovoytova A. V. O nepa-rametrichestom modelirovanii lineinih dinamicheskih sistem // Sistemi avtomatizacii v obrazovanii nauke I proizvodstve: Trudi IX Vserossiyskoy nauchno-prakticheskoy konferencii. Novokuzneck, 2013, p. 451-456.

2. Medvedev A. V. Non-parametric control by dynamic systems. XV Baykalskaya mezhdunarodnaya shkola-seminar. Metodi optimizacii I prilozheniya. Tom 3 Optimalnoe upravleniye, Irkutsk, 2011, p. 6-12.

© Корнет М. Е., Чабан А. В., 2014

УДК 519.6

МНОГОКРИТЕРИАЛЬНЫЕ ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ ДЛЯ АВТОМАТИЧЕСКОГО ГЕНЕРИРОВАНИЯ ИСКУССТВЕННЫХ

НЕЙРОННЫХ СЕТЕЙ

А. А. Коромыслова

Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева Российская Федерация, 660014, г. Красноярск, просп. им. газ. «Красноярский рабочий», 31

E-mail: akoromyslova@mail.ru

Предлагаются эволюционные алгоритмы для автоматического генерирования структур искусственных нейронных сетей. Проведен анализ и исследование их эффективности на тестовых задачах аппроксимации.

Ключевые слова: эволюционные алгоритмы, искусственные нейронные сети, аппроксимация.

Решетневскуе чтения. 2014

THE MULTIOBJECTIVE EVOLUTIONARY ALGORITHMS FOR AUTOMATIC GENERATION

OF ARTIFICIAL NEURAL NETWORKS

A. A. Koromyslova

Siberian State Aerospace University named after academician M. F. Reshetnev 31, Krasnoyarsky Rabochy Av., Krasnoyarsk, 660014, Russian Federation E-mail: akoromuslova@mail.ru

Evolutionary algorithms for the automatic generation of artificial neural network structure are proposed. Analysis and research ofperformance are presented by test problems of approximation.

Keywords:evolutionary algorithms, artificial neural networks, approximation.

Искусственные нейронные сети (ИНС) могут быть широко использованы в науке и технике. Однако при использовании ИНС для решения конкретной задачи возникает проблема выбора эффективной структуры нейронной сети [1]. Решение этих проблем является важным этапом применения нейросетевых технологий для практических задач, так как от этих этапов напрямую зависит качество (адекватность) полученной нейросетевой модели. Однако это требует больших затрат временных и материальных ресурсов, что приводит к необходимости автоматизировать процесс. Для этого предлагается использовать многокритериальные эволюционные алгоритмы (ЭА) [2], такие как SPEA, SPEA2 и ШвАП [3], так как они могут решать сразу две проблемы. Во-первых, генерировать небольшие ИНС, тем самым экономя вычислительные ресурсы. А во-вторых, решать поставленные задачи достаточно качественно.

При выборе структуры ИНС необходимо выбирать количество скрытых слоев и нейронов на них, также для каждого нейрона необходимо выбрать вид акти-вационной функции. Если формировать структуру нейронной сети с использованием многокритериального ЭА, необходимо закодировать ее в бинарную строку.

Каждый нейрон закодирован в четырех битах и с вероятностью 1/3 не используется в сети. Если нейрона в сети нет, то на его место в хромосому записываются нули. В противном случае для него случайным образом выбирается одна из пятнадцати функций ак-тивации[4], номер которой записывается в двоичном коде.

Скрытые слои кодируются последовательно, как указано на рисунке. Длина бинарной строки постоянна, так как кодируется для максимального количества скрытых слоев и нейронов. Для каждой выбранной структуры НС выполняется настройка ее весовых коэффициентов при помощи однокритериального ГА [5].

В качестве критериев используется усреднённая ошибка моделирования, вычисляемая по формуле

error = ^-1-г У "III- Yi I, и количество нейро-

nY -Y . \*-"=о\ 1 Ч' F

| max min |

нов в ИНС.

Далее проводилось тестирование алгоритмов на тестовых задачах аппроксимации [6] по следующим правилам:

- при каждых настройках эволюционного алгоритма выполнялось по 100 запусков;

- количество поколений 1000;

- количество индивидов 500;

- размер выборки 500;

- максимальный размер сети 5*5;

- объем обучающей выборки 70 % от общего числа точек, а тестовой - 30 %;

- результаты представлены для лучших настроек ЭА. В табл. 1 в первом столбце указаны многокритериальные алгоритмы, которые использовались при настройке ИНС [3]. Также в ней приведены значения ошибки на тестовой выборке, усреднённые по всем тестовым задачам аппроксимации, и их разброс. А в табл. 2 представлены лучшие размеры сетей для всех тестовых задач аппроксимации.

Таблица 1

Результаты работы ЭА, усреднённые по 15 тестовым задачам аппроксимации

Средняя ошибка Разброс

SPEA 0,023 [0,02; 0,049]

SPEA2 0,019 [0,014; 0,05]

NSGAII 0,017 [0,012; 0,041]

GA-ANN 0,021 [0,016; 0,063]

Способ кодирования ИНС в бинарную хромосому

По результатам тестирования было установлено, что SPEA2 решает поставленные задачи лучше, чем его предшественник SPEA, но затрачивает больше времени на вычисление. Эффективнее всего работает алгоритм NSGA II при средней мутации и равномерном скрещивании. Также по данным таблицам можно сделать вывод, что ИНС, структура которых сгенерирована SPEA, решают задачу на том же уровне, что и стандартный генетический алгоритм, но тратит меньше времени на вычисления, так как сети получаются меньшего размера. Оставшиеся два рассмотренных многокритериальных ЭА решили задачу точнее GA-ANN.

Таблица 2

Размеры лучших ИНС для некоторых задач

№ SPEA SPEA2 NSGAII GA-ANN

задачи Количество Общее Количество Общее Количество Общее Количество Общее

слоев количество слоев количество слоев количество слоев количество

нейронов нейронов нейронов нейронов

1 2 4 1 2 2 3 2 2

6 3 3 3 4 3 5 2 3

7 2 3 2 4 2 6 3 5

10 2 5 2 4 2 2 4 8

11 3 4 3 5 3 5 4 9

12 2 4 2 6 2 4 3 6

14 3 7 3 4 3 6 4 8

15 3 8 3 5 3 7 5 10

Библиографические ссылки

1. Цой Ю. Р., Спицын В. Г. Эволюционный подход к настройке и обучению искусственных нейронных сетей // Нейроинформатика : электрон. журнал. 2006. Т. 1, № 1. С. 34-61.

2. Brester Ch. Yu., Semenkin E. S. Development of adaptive genetic algorithms for neural network models multicriteria design // Вестник СибГАУ. 2013. № 4 (50). С. 99-103.

3. Коромыслова А. А. Сравнение эффективности эволюционных алгоритмов многокритериальной оптимизации // Актуальные проблемы авиации и космонавтики : сб. тезисов конференции. 2013. Ч. 1.

С. 333-334

4. Electronic textbook StatSoft [Электронный ресурс]. Режим доступа: http://www.fmi.uni-sofia.bg/fmi/statist/ education/textbook/eng/glosa.html.

5. Коромыслова А. А., Семенкина М. Е. Эволюционное проектирование нейросетевых классификаторов с выбором наиболее информативных признаков // Теория и практика системного анализа : материалы конференции. Рыбинск : ИСА РАН, РГАТА им. П. А. Соловьева, 2014. Ч. 2. С. 74-83.

6. Семенкин Е. С. [и др.] Эволюционные методы моделирования и оптимизации сложных систем. : конспект лекции. Красноярск, 2007.

References

1. Choi Y. R., Spitcin V. G. Evolutionary approach to setting up and training artificial neural networks // Electronic Journal "Neuroinformatics". 2006. Vol. 1, № 1. p. 34-61.

2. Brester Ch. Yu., Semenkin E. S. Development of adaptive genetic algorithms for neural network models multicriteria design // Vestnik SibSAU. 2013. № 4 (50). p. 99-103.

3. Koromyslova A. A. Comparison of the effectiveness of evolutionary multiobjective optimization algorithms // Proceedings of the Conference "Actual Problems of Aviation and Cosmonautics", 2013 Part 1. p. 333-334.

4. Electronic textbook StatSoft [electronic resource]. Mode of access: http://www.fmi.uni-sofia.bg/fmi/statist/ education/textbook/eng/glosa.html.

5. Koromyslova A. A., Semenkina M. E. Evolutionary design of neural network classifiers with the selection of the most informative features // Proceedings of the conference "Theory and Practice of System Analysis." -Rybinsk: ISA RAS, RGATA behalf PA Solovyov, 2014. Part 2. p. 74-83.

6 Semenkin E. S., Zhukova M. N., Zhukov V. G., Panfilov I. A., Tynchenko V. Evolutionary methods of modeling and optimization of complex systems : Summary of lectures, Krasnoyarsk, 2007.

© KopoMbicnoBa A. A., 2014

УДК 519.854.33

БИНАРИЗАЦИЯ ВЕЩЕСТВЕННЫХ ПРИЗНАКОВ ДЛЯ ПОСТРОЕНИЯ ЛОГИЧЕСКИХ ЗАКОНОМЕРНОСТЕЙ*

Е. М. Краева, И. С. Масич

Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева Россия, 660014, г. Красноярск, просп. им. газ. «Красноярский рабочий», 31 Е-таП: i-masich@yandex.ru

Рассматриваются вопросы дискретизации и бинаризации вещественных признаков для возможности их использования при построении логических классификаторов.

Ключевые слова: логические алгоритмы, распознавание, закономерности.

*Работа выполнена при финансовой поддержке гранта Президента РФ МК-1371.2013.08.

i Надоели баннеры? Вы всегда можете отключить рекламу.