Научная статья на тему 'Самонастраивающийся нейрогенетический алгоритм'

Самонастраивающийся нейрогенетический алгоритм Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
146
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННЫЕ СЕТИ / САМОНАСТРОЙКА / ГЕНЕТИЧЕСКИЙ АЛГОРИТМ / ОПТИМИЗАЦИЯ / КЛАССИФИКАЦИЯ / РАСПОЗНАВАНИЕ СИГНАЛОВ / NEURAL NETWORKS / SELF-CONFIGURATION / GENETIC ALGORITHM / OPTIMIZATION / CLASSIFICATION / SIGNAL RECOGNITION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Полонская Я.С.

При помощи разработанного алгоритма решаются задачи распознавания сигналов, эффективное решение которых позволяет повысить надёжность работы навигационных систем дальней радиосвязи и обеспечения полётов космических аппаратов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Полонская Я.С.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SELF-CONFIGURATING NEUROGENETIC ALGORITHM

The signal recognition problems are solved with the help of the developed algorithm, effective solution of such problems will make to improve the reliability of the navigation systems of long-range radio communication and flights spacecrafts.

Текст научной работы на тему «Самонастраивающийся нейрогенетический алгоритм»

Математические методы моделирования, управления и анализа данных

УДК 519.87

САМОНАСТРАИВАЮЩИЙСЯ НЕЙРОГЕНЕТИЧЕСКИЙ АЛГОРИТМ

Я. С. Полонская

Сибирский государственный университет науки и технологий имени академика М. Ф. Решетнева Российская Федерация, 660037, г. Красноярск, просп. им. газ. «Красноярский рабочий», 31

Е-mail: yanapolonskaya1413@yandex.ru

При помощи разработанного алгоритма решаются задачи распознавания сигналов, эффективное решение которых позволяет повысить надёжность работы навигационных систем дальней радиосвязи и обеспечения полётов космических аппаратов.

Ключевые слова: нейронные сети, самонастройка, генетический алгоритм, оптимизация, классификация, распознавание сигналов.

SELF-CONFIGURATING NEUROGENETIC ALGORITHM

Y. S. Polonskaya

Reshetnev Siberian State University of Science and Technology 31, Krasnoyarsky Rabochy Av., Krasnoyarsk, 660037, Russian Federation Е-mail: yanapolonskaya1413@yandex.ru

The signal recognition problems are solved with the help of the developed algorithm, effective solution of such problems will make to improve the reliability of the navigation systems of long-range radio communication and flights spacecrafts.

Keywords: neural networks, self-configuration, genetic algorithm, optimization, classification, signal recognition.

Благодаря развитию современной компьютерной техники, существует возможность эффективно анализировать большие объемы информации. Искусственные нейронные сети (ИНС), являются мощным инструментом анализа данных. В то же время, для эффективного использования ИНС необходимо решить две задачи безусловной оптимизации: одна задача связана с выбором структуры сети, а другая - подбором весовых коэффициентов [1]. При настройке нейронных сетей с помощью классических методов существует риск попадания в локальный оптимум, эффективность модели в таком случае значительно падает. Для предотвращения этого риска, в данной работе для настройки структуры нейронной сети и предварительной настройки комбинации весовых коэффициентов, перед использованием локального метода оптимизации используется самонастраивающийся генетический алгоритм (СГА), аналогичный использованному в [2]. В качестве локального метода оптимизации в данной работе выступает метод сопряженных градиентов. Эффективность использования СГА для глобальной оптимизации доказана путем сравнительного тестирования ГА с лучшими настройками и СГА на десяти тестовых функциях. Лучшая комбинация настроек генетического алгоритма так же была определенная путем тестирования: турнирная селекция с размером турнира 9, средняя мутация, двухточечное скрещивание, вероятность скрещивания: 0,95.

В каждом из тестов алгоритмам были заданы одинаковые ресурсы и область поиска решения. Размерность тестовых функций достигала 50, а наибольшая область поиска решения была задана [-80000; 80000].

Надежности обоих алгоритмов были усреднены по всем тестовым прогонам, в результате чего для стандартного ГА с лучшими настройками средний показатель надежности был равен 0,75, а для СГА 0,87.

При автоматическом проектировании нейросетей использованы 16 активационных функций нейронов. Такой подход позволяет сделать структуру нейронной сети более адаптивной. Разработанный алгоритм был проверен на наборе тестовых задач моделирования функций. Фрагмент результатов теста представлен в таблице.

С помощью разработанного алгоритма были решены 3 задачи классификации.

Эти же задачи были также решены шестью различными способами в программной системе анализа данных RapidMinerStudio [3]:

1) ИНС, оптимизированная при помощи ГА с лучшими настройками;

2) ИНС, оптимизированная при помощи ГА со стандартными настройками программы Rapid Miner;

3) стандартная ИНС;

4) ИНС с заданным оптимальным количеством слоев и нейронов на каждом слое, полученными при помощи самонастраивающегося нейрогенетического алгоритма;

5) ИНС с заданным оптимальным количеством слоев и нейронов на каждом слое (найденными самонастраивающимся нейрогенетическим алгоритмом), оптимизированная при помощи ГА со стандартными настройками; 6) ИНС с заданным оптимальным количеством слоев и нейронов на каждом слое, оптимизированная при помощи ГА с лучшими настройками.

Решетневские чтения. 2017

Результаты тестирования самонастраивающегося нейрогенетического алгоритма

Моделируемая функция Диапазон входных переменных Ошибка моделирования, %

Обучение Тест

y = х2 • sin(x) X e [-10; 10] 0,08 0,1

y = Xj2 sin sin ( Xj) + x22 sin( x2) x e[-4;3] 0,33 0,61

y = 100(x2 -X2)2-(1 -X)2 x e[-2;3] 0,22 0,29

sin^ x2 + x22 y ¡22 •y/X + x2 X e [-4л; 4л] 0,31 0,51

y = 10sinsin (;tx1 x2) + 20 (x3 - 0,5)2 +10x4 + 5x5 x e[0;1] 0,84 1,22

y = -2-exp -2 (x2 + x22) cos [2тс( + x2) x e [0; 2] 0,54 0,86

y = 0,1x2 + 0,1x2 -4coscos(0,8x1)-4coscos(0,8x2) + 8 X e [-4; 4] 0,12 0,35

f (х) = 0,05 (x -1)2 + (3 - 2,9e-2'77257x2 ) x X 1 - coscos (x (4 - 50e-2 77257x2 )) X e [-2; 2] 0,4 0,5

Первая задача состоит в классификации высокочастотных радарных сигналов, возвращаемых из ионосферы. Данные несут в себе информацию о наличии или отсутствии заряженных частиц в ионосфере Земли. База данных, содержит 351 экземпляр и 34 атрибута [4]. База данных о гидроакустических сигналах содержит 208 экземпляров и 60 атрибутов [5]. И третья задача состояла в распознавании спама в электронных письмах. База данных содержала 1000 экземпляров, и 58 атрибутов [6]. Наибольший показатель эффективности в первых двух задач был получен разработанным самонастраивающимся нейрогенети-ческим алгоритмом. Для первой задачи он составил 94,77 %, но в то же время, один из алгоритмов в программе RapidMiner показал довольно близкий результат, который составил 93,33 %. Для второй задачи наибольший показатель эффективности 86,77 %, а наилучший из показателей эффективности полученных в программе RapidMiner 80,03 %. И, наконец, для третьей задачи эффективность разработанного метода и одного из алгоритмов в программе RapidMiner совпали, и были равны 96,33 %.

Проведенные численные эксперименты демонстрируют возможность эффективного применения самонастраивающегося генетического алгоритма для структурной и параметрической оптимизации нейро-сетевых технологий.

Библиографические ссылки

1. Brester Ch. Yu., Semenkin E. S. Development of adaptive genetic algorithms for neural network models multicriteria design // Вестник СибГАУ. 2013. № 4 (50). С. 99-103.

2. Решение задачи прогнозирования экологического состояния города нейроэволюционными алгорит-

мами / Д. И. Хритоненко и др. // Вестник СибГАУ. 2015. Т. 16, № 1. С. 137-142.

3. RapidMiner Studio [Электронный ресурс]. URL: https://rapidminer.com/ (дата обращения: 10.03.2017).

4. Ionosphere Data Set. URL: http://archive.ics.uci.edu/ ml/datasets/Ionosphere (дата обращения: 15.04.2016).

5. Connectionist Bench (Sonar, Mines vs. Rocks) Data Set. URL: https://archive.ics.uci.edu/ml/datasets/ Connec-tionist+Bench+(Sonar %2C+Mines+vs.+Rocks) (дата обращения: 12.04.2016).

6. Spambase Data Set. URL: https://archive.ics. uci. edu/ml/datasets/spambase (дата обращения: 20.05.2017).

References

1. Brester Ch. Yu., Semenkin E. S. [Development of adaptive genetic algorithms for neural network models multicriteria design] // Vestnik SibSAU. 2013. № 4 (50). P. 99-103.

2. Reshenie zadachi prognozirovaniya ehkologiches-kogo sostoyaniya goroda nejroehvolyucionnymi algoritmami. [Solving the problems of forecasting the ecological state of cities of neuroevolutionary technologies] / D. I. Khritonenko et al. // Vestnik SibSAU. 2015. Vol. 16, № 1. P. 137-142.

3. RapidMiner Studio. Available at: https://rapi-dminer.com/ (accessed: 10.03.2017).

4. Ionosphere Data Set. Available at: http://archive.ics. uci.edu/ml/datasets/Ionosphere (accessed: 15.04.2016).

5. Connectionist Bench (Sonar, Mines vs. Rocks) Data Set. Available at: https://archive.ics.uci.edu/ml/ datasets/ Connectionist+Bench+(Sonar %2C+Mines+vs.+Rocks) (accessed: 12.04.2016).

6. Spambase Data Set. Available at: https://archive. ics.uci.edu/ml/datasets/spambase (accessed: 20.05.2017).

© Полонская Я. С., 2017

i Надоели баннеры? Вы всегда можете отключить рекламу.