УДК 519.6
DOI: 10.20310/1810-0198-2017-22-1-39-44
ГОМОГЕННАЯ ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ С ИЗМЕНЯЮЩЕЙСЯ АКТИВАЦИОННОЙ ФУНКЦИЕЙ НЕЙРОНА
© А.А. Арзамасцев, М.А. Кисляков, Н.А. Зенкова
Тамбовский государственный университет им. Г.Р. Державина 392000, Российская Федерация, г. Тамбов, ул. Интернациональная, 33 E-mail: [email protected]
Исследована модель гомогенной искусственной нейронной сети (ИНС) с изменяющейся активационной функцией нейрона. Программа реализована на языке Python 3. Проведенные вычислительные эксперименты по обучению искусственной нейронной сети с использованием классических методов нелинейного программирования (градиентного, Монте-Карло, покоординатного спуска) на основе эмпирических данных по анализам крови показали перспективность такого подхода для реализации ИНС-моделей в различных областях. Ключевые слова: искусственная нейронная сеть; активационная функция нейрона; программа моделирования искусственной нейронной сети; эмпирические данные результатов общего анализа крови пациентов
ВВЕДЕНИЕ
Искусственные нейронные сети (ИНС) в настоящее время широко применяются в качестве эффективного инструмента распознавания образов систем искусственного интеллекта [1-3 и др.], ядра интеллектуальной экспертной системы [4-6], а также для построения ИНС-моделей в различных предметных областях [713]. При этом важными вопросами совершенствования ИНС-моделей являются выбор структуры сети, что обеспечивает ее адаптацию к различным классам решаемых задач и активационной функции нейрона, что обеспечивает «гибкость» ИНС-модели и ее приспособляемость к различным эмпирическим данным. Конструктивный подход, основанный на наращивании числа нейронов в скрытом слое и наращивании скрытых слоев, был ранее реализован нами в работах [14-16]. Ак-тивационные функции при этом выбирались методом полного перебора из конечного множества: линейная, квадратичная, кубическая, сигмоидная и др. При этом время работы программы значительно увеличивается в результате такого перебора, реализованного во внутреннем цикле.
Основной идеей данной статьи является реализация и апробация конструктивного подхода наращивания структуры гомогенной сети при изменяющейся за счет выбора коэффициента активационной функции нейрона. Такой подход требует включения указанных коэффициентов нейронов в число оптимизируемых параметров при обучении ИНС-модели. При этом должно быть существенным образом сокращено время обучения, которое ранее затрачивалось на перебор различных активационных функций.
Целью данной работы является разработка модели гомогенной искусственной нейронной сети с изменяющейся активационной функцией нейрона и проведение на ней вычислительных экспериментов по построению модели предварительной диагностики паци-
ентов на основании результатов общеклинического исследования крови.
АКТИВАЦИОННАЯ ФУНКЦИЯ НЕЙРОНА
При реализации ИНС будем использовать однотипные нейроны с активационной функцией, выраженной следующей зависимостью:
f(x,k) =
кх 1+| /сх|,
(1)
где к - коэффициент, который будет участвовать в обучении сети и влияет на форму нелинейной зависимости (рис. 1).
Необходимо отметить, что в большинстве случаев «от функции активации нейрона требуется только нели-
Рис. 1. Активационная функция нейрона в соответствии с уравнением (1) при различных значениях коэффициента к: 1 - к = 10; 2 - к = -7,143; 3 - к = -4,286; 4 - к = -1,42; 5 -к = 1,42; 6 - к = 4,28; 7 - к = 7,143; 8 - к = 10
нейность - и более ничего. Какой бы она не была, можно так построить сеть связей и подобрать коэффициенты связей между нейронами, чтобы нейронная сеть сколь угодно точно вычисляла любую непрерывную функцию от своих входов» [17].
Программа реализации такой сети должна иметь возможность создавать гомогенные полносвязные нейронные сети с прямым распространением сигнала.
ПРОГРАММА
Программа реализована студентом направления подготовки «Прикладная математика и информатика» М.А. Кисляковым. Для ее реализации выбран язык программирования Python 3, т. к. соответствующие интерпретаторы реализованы для всех основных операционных систем, а также ввиду доступности большого числа подключаемых библиотек. Программа представляет собой подключаемый пакет, который можно использовать при создании новых приложений.
Основные элементы нейронной сети реализованы в виде классов. Так, в папке core находится файл, в котором реализованы классы Neuron и Layer. В папке network реализован класс Perceptron. Данный класс, используя Neuron и Layer, реализовывает полносвязную нейронную сеть с прямым распространением сигнала.
Класс Perceptron использует матрицы для внутреннего представления сети. Каждая матрица - это отдельный слой. Количество строчек равняется количеству нейронов в данном слое, а количество столбцов -количеству входов у нейронов.
Чтобы вычислить выход сети при данном входном векторе, программа должна выполнить следующие шаги: 1) транспонирует входной вектор; 2) умножает первую матрицу (слой) на этот вектор; при этом получается промежуточный вектор T; 3) получает новый вектор путем отправки каждой г-компоненты вектора T в функцию активации г-го нейрона; данный вектор является входным вектором для второго слоя; 4) процедура повторяется с шага 2 до тех пор, пока не будут заполнены все слои.
Выходной вектор после умножения на последнюю матрицу и прогона через функции активации нейрона является выходом сети.
Если же имеется много входных векторов, то их можно объединить в матрицу размера п х к, где n -количество данных; k - количество входов сети.
Для работы с матрицами в программе используется пакет Numpy. Данный пакет предоставляет удобные средства для работы с векторами и матрицами и позволяет автоматически распараллеливать умножение матриц на доступных ядрах системы, что ускоряет процесс вычислений.
В данный момент класс Perceptron использует следующую формулу для расчета функции ошибки:
Е (w) = SkM^W, (2)
\ п
где n - общее количество эмпирических данных, используемых для обучения сети; - табличное значение выхода; у; - соответствующий выход сети; w -вектор весовых коэффициентов.
У класса Perceptron имеется метод, возвращающий все весовые коэффициенты входов, объединенные с
коэффициентами функций активации нейронов в виде вектора. Используя функцию Е(щ) и вектор те (который является стартовой точкой для методов оптимизации), можно использовать классические методы нелинейного программирования для обучения нейронной сети. В программе реализованы следующие методы: градиентный, Монте-Карло, покоординатный спуск.
ВЫЧИСЛИТЕЛЬНЫЕ ЭКСПЕРИМЕНТЫ
Вычислительные эксперименты по обучению ИНС-моделей проводили на основе эмпирических данных по общеклиническому исследованию крови 400 пациентов (обучающая выборка). Данные предоставлены клинической лабораторией центральной реабилитационной больницы г. Рассказово, Тамбовская область.
Входами обучающей выборки являлись десять показателей общего анализа крови: НЬ - гемоглобин (г/л); скорость оседания эритроцитов (мм/ч); лейкоциты (109/л); эритроциты (1012/л); цветовой показатель; лейкоцитарная формула: базофилы; нейтрофилы палоч-коядерные; нейтрофилы сегментоядерные; лимфоциты; моноциты.
В качестве выходов ИНС были приняты различные состояния здоровья пациента, соответствующие результатам анализа крови: 1 - здоров; 2 - необходимо амбулаторное лечение; 3 - необходимо стационарное лечение; 4 - экстренная госпитализация.
Исследовали две ИНС-модели: 1) гетерогенную при использовании линейной и параболических (2-й, 3-й и 4-й степеней) активационных функций нейронов; 2) гомогенную при использовании активационной функции, представленной зависимостью (1) с изменяющимся коэффициентом.
В ходе вычислительных экспериментов осуществляли наращивание нейронов в скрытом слое так, что при добавлении каждого нового нейрона сеть переучивали и фиксировали среднеквадратичную ошибку обучения по уравнению (2). Процесс наращивания скрытого слоя продолжали до тех пор, пока среднеквадратичная ошибка не стабилизировалась на некотором постоянном значении, представляющем собой погрешность эмпирических данных. Во всех экспериментах наращивание числа слоев не приводило к уменьшению погрешности обучения. По этой причине работали с одним скрытым слоем.
На рис. 2 показан процесс уменьшения среднеквадратичной ошибки обучения гомогенной сети при наращивании нейронов с изменяющейся активационной функцией. При малом числе нейронов (1-3) ошибка уменьшается при добавлении каждого нового нейрона. Однако при п = 6-7 уменьшение ошибки становится несущественным, что говорит о нецелесообразности дальнейшего увеличения числа нейронов. Наименьшее значение погрешности будем использовать для сравнения гомогенной и гетерогенной сетей.
На рис. 3 показано сравнение эмпирических данных с расчетами по гетерогенной ИНС-модели, состоящей из линейного нейрона и параболических нейронов 2-й, 3-й, 4-й степеней. Среднеквадратичная ошибка в этом случае: 0,39. Видно, что наибольшая ошибка связана со второй группой пациентов.
На рис. 4 показано сравнение эмпирических данных с расчетами по гомогенной ИНС-модели, состоящей из 7 нейронов с изменяющимися активационными
(III)
С №
» Или......
I 1 * г
Рис. 2. Уменьшение погрешности ИНС-модели в процессе наращивания нейронов в скрытом слое
МЫ о ¿ол&ьо
I
& »
1
I
I » им ■я* ТйНр л
1 «I '1' * я «
\ ■ V ■г • .
г \ -
»1 «1 % в г
* *
1 1 У*
И 1(4 I» Ш » 1»
Рис. 3. Соответствие выходов гетерогенной ИНС-модели и эмпирических данных при использовании линейной и параболических (2-й, 3-й и 4-й степеней) активационных функций
М&Е 0ЙЭ4ВЧ73
' N=1 — . £ 72
*
* 1* . * 1
1 II й /О. Л-1 . - 1 ■
*
л" %
п У К И 9 ;о г и л; 0 3 >П 4 а
Пвдниняыв^ ноиер ыыЭгади .1 □ 1:1ч |ш "и
Рис. 4. Соответствие выходов гомогенной ИНС-модели и эмпирических данных при использовании активационной функции нейрона в виде уравнения (1) с изменяющимся коэффициентом
функциями. Видно, что в этом случае среднеквадратичная ошибка меньше и составляет 0,34. Как и в первом вычислительном эксперименте, наибольшая ошибка связана со второй группой пациентов.
Результаты, показанные на рис. 3-4, получены для сетей со следующими оптимальными параметрами. Гетерогенная сеть
Весовые коэффициенты линейного нейрона: -0,30554; -0,59568; 7,03446; -0,66168; -0,88144; -1,83575; -0,61207; 0,86319; 0,95430; 0,21493.
Весовые коэффициенты нейрона с активационной функцией параболы 2-й степени: 0,40567; 0,74150; -3,39328; -1,22817; 1,14583; 0,59043; 0,66086; -0,48981; 2,78180; -0,55223.
Весовые коэффициенты нейрона с активационной функцией параболы 3-й степени: -0,83980; -0,01944; 1,43801; -1,88428; -3,61192; 0,98067; -1,00127; 0,69994; 2,93340; 0,36078.
Весовые коэффициенты нейрона с активационной функцией параболы 4-й степени: 1,88939; 3,30556; -6,70547; -1,58278; -2,43230; 3,06407; 1,44281; -1,62312; 4,99308; -0,57637. Гомогенная сеть
Коэффициенты сети, состоящей из 7 нейронов с изменяющейся активационной функцией, показаны в табл. 1-2.
Таблица 1
Номер сигмоида Весовые коэффициенты
1 1,85976; 0,53565; -2,91340; -0,39896; 0,07566; -1,83802; 0,81564; -0,25471; -0,67867; -2,85974
2 1,90671; -0,36086; -11,67766; 2,65908; 7,45361; -1,64442; 0,47210; -0,48041; -0,93872; -1,27694
3 0,02994; -0,03441; -1,71136; 0,89697; 0,39792; -2,06186; -0,54163; 0,46280; -2,11858; -0,74272
4 1,05356; 0,87280; -5,51962; -1,49600; 3,46419 3,25260; 0,80581; -0,82256; 1,90458; -0,85415
5 -0,45695; -4,32889; 0,90688; 0,46077; 11,90315; 1,09760; 3,01489; 0,76083; -1,89361; 1,11767
6 -1,12604; -1,76835; 9,67357; -0,21908; -6,53349; 0,08313; -2,02611; 2,94998; 4,26785; -2,60337
7 -0,19526; -3,43898; -5,73084; 2,75357; 14,70915; -0,00679; -0,78549; 1,41904; 4,59320; -2,55854
Таблица 2
Номер сигмоида Коэффициенты функции активации
1 -0,88259
2 1,53629
3 1,06384
4 4,21914
5 1,49448
6 6,85422
7 2,57680
Таким образом, в ходе вычислительных экспериментов продемонстрировано, что гомогенная искусственная нейронная сеть, состоящая из однотипных нейронов с изменяющейся активационной функцией, является достаточно гибкой в отношении описания эмпирических данных.
СПИСОК ЛИТЕРАТУРЫ
1. Новиков А.С., Ежов А.А. Многослойная нейронная сеть Розенб-латта и ее применение для решения задачи распознавания подписей // Известия ТулГУ. Технические науки. 2016. № 2. С. 188-197.
2. Благовещенская Е.А., Зуев Д.В. Модификация метода RPROP для решения задач распознавания образов // Интеллектуальные технологии на транспорте. 2015. № 3. С. 46-49.
3. Жиляков Е.Г., Лихошерстный А.Ю. Метод нейросетевого распознавания объектов на аэрокосмических изображениях земной поверхности // Научные ведомости Белгородского государственного университета. Серия: Экономика. Информатика. 2011. № 13-1 (108). С. 115-120.
4. Арзамасцев А.А., Неудахин А.В., Зенкова Н.А. Автоматизированная технология построения экспертных систем с интеллектуальным ядром на основе ИНС-моделей // Открытое образование. М., 2008. Вып. 3 (68). С. 35-39.
5. Арзамасцев А.А., Зенкова Н.А., Неудахин А.В. Технология построения медицинской экспертной системы на основе аппарата искусственных нейронных сетей // Информационные технологии. 2009. № 8. С. 60-63.
6. Арзамасцев А.А., Неудахин А.В. Методика разработки экспертных систем, использующих в качестве интеллектуального ядра ИНС-модели // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2008. Т. 13. Вып. 2-3. С. 219-222.
7. Арзамасцев А.А., Фабрикантов О.Л., Зенкова Н.А., Белоусов Н.К. Оптимизация формул для расчета ИОЛ // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2016. Т. 21. Вып. 1. С. 208-213. DOI: 10.20310/1810-0198-2016-211-208-213.
8. Арзамасцев А.А., Зенкова Н.А., Чичук В.Н. Генерализация медицинских эмпирических данных с использованием ИНС-моделей // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2013. Т. 18. Вып. 1. С. 201-203.
9. Мишин А.С., Арзамасцев А.А., Зенкова Н.А. Экспертная система для прогнозирования результатов лечения больных колоректаль-ным раком, осложненных острой кишечной непроходимостью // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2012. Т. 17. Вып. 2. С. 649-658.
10. Арзамасцев А.А., Зенкова Н.А. Система психологического тестирования на основе аппарата искусственных нейронных сетей // Искусственный интеллект. 2004. № 2. С. 237-242.
11. Зенкова Н.А. Нейросетевое моделирование в психологических и социальных исследованиях // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2005. Т. 10. Вып. 1. С. 112-114.
12. Крючин О.В., Арзамасцев А.А., Зенкова Н.А., Слетков Д.В. Нейросетевое моделирование социального объекта с использованием кластерных систем // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2010. Т. 15. Вып. 5. С. 372-375.
13. Крючин О.В. Использование технологии искусственных нейронных сетей для прогнозирования временных рядов на примере валютных пар // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2010. Т. 15. Вып. 1. С. 312.
14. Арзамасцев А.А., Крючин О.В., Азарова П.А., Зенкова Н.А. Универсальный программный комплекс для компьютерного моделирования на основе искусственной нейронной сети с самоорганизацией структуры // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2006. Т. 11. Вып. 4. С. 564570.
15. Арзамасцев А.А., Крючин О.В., Королев А.Н., Зенкова Н.А. Свидетельство об официальной регистрации программы для ЭВМ № 2007610622 «Многофункциональный программный комплекс для компьютерного моделирования на основе искусственной нейронной сети с самоорганизацией структуры». Заявка № 2006614383. Дата поступления 15 декабря 2006 г. Зарегистрировано в Реестре программ для ЭВМ 8 февраля 2007 г.
16. Крючин О.В., Арзамасцев А.А. Параллельный алгоритм самоорганизации структуры искусственной нейронной сети // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2011. Т. 16. Вып. 1. С. 199-200.
17. Горбань А.Н. Обобщенная аппроксимационная теорема и вычислительные возможности нейронных сетей // Сибирский журнал вычислительной математики. 1998. Т. 1. № 1. С. 11-24.
Поступила в редакцию 2 февраля 2017 г.
Арзамасцев Александр Анатольевич, Тамбовский государственный университет им. Г.Р. Державина, г. Тамбов, Российская Федерация, доктор технических наук, профессор, зав. кафедрой математического моделирования и информационных технологий, e-mail: [email protected]
Кисляков Максим Александрович, Тамбовский государственный университет им. Г.Р. Державина, г. Тамбов, Российская Федерация, студент направления подготовки «Прикладная математика и информатика» Института математики, естествознания и информационных технологий, e-mail: [email protected]
Зенкова Наталья Александровна, Тамбовский государственный университет им. Г.Р. Державина, г. Тамбов, Российская Федерация, кандидат психологических наук, доцент кафедры математического моделирования и информационных технологий, e-mail: [email protected]
UDC 519.6
DOI: 10.20310/1810-0198-2017-22-1-39-44
HOMOGENEOUS ARTIFICIAL NEURAL NETWORK WITH A VARIABLE ACTIVATION FUNCTION OF THE NEURON
© A.A. Arzamastsev, M.A. Kislyakov, N.A. Zenkova
Tambov State University named after G.R. Derzhavin 33 Internatsionalnaya St., Tambov, Russian Federation, 392000 E-mail: [email protected]
The model of homogeneous artificial neural network (ANN) with a variable activation function of the neuron isstudied. The program is developed on Python 3. Numerical experiments for artificial neural network training using classical nonlinear programming methods (gradient, Monte Carlo, coordinate descent) on the basis of empirical data of blood tests showed that such approach can be used for the ANN-models implementation in various fields.
Key words: artificial neural network; activation function of artificial neuron; program for artificial neural network simulation; blood test results of patients
REFERENCES
1. Novikov A.S., Ezhov A.A. Mnogosloynaya neyronnaya set' Rozenblatta i ee primenenie dlya resheniya zadachi raspoznavaniya podpisey [Rosenblatt multilayer neural networks and its application for solving problems of recognition signatures]. Izvestiya Tul'skogo gosudarstvennogo universiteta. Tekhnicheskie nauki - News of the Tula State University. Technical Sciences, 2016, no. 2, pp. 188-197. (In Russian).
2. Blagoveshchenskaya E.A., Zuev D.V. Modifikatsiya metoda RPROP dlya resheniya zadach raspoznavaniya obrazov [RPROP Method Modification for Pattern Recognition]. InteUektual'nye tekhnologii na transporte — Intellectual Technologies on Transport, 2015, no. 3, pp. 46-49. (In Russian).
3. Zhilyakov E.G., Likhosherstnyy A.Yu. Metod neyrosetevogo raspoznavaniya ob"ektov na aerokosmicheskikh izobrazheniyakh zemnoy poverkhnosti [Method of objects' recognition on air-space images of earth surface]. Nauchnye vedomosti Belgorodskogo gosudarstvennogo universiteta. Seriya: Ekonomika. Informatika — Belgorod State University Scientific Bulletin. Economics. Computer Science, 2011, no. 13-1 (108), pp. 115-120. (In Russian).
4. Arzamastsev A.A., Neudakhin A.V., Zenkova N.A. Avtomatizirovannaya tekhnologiya postroeniya ekspertnykh sistem s intellektual'nym yadrom na osnove INS-modeley [Automatical technology of expert systems building with intellectual core on base of ANN (Artificial Neurons Network)-models]. Otkrytoe obrazovanie — Open Education, 2008, no. 3 (68), pp. 35-39. (In Russian).
5. Arzamastsev A.A., Zenkova N.A., Neudakhin A.V. Tekhnologiya postroeniya meditsinskoy ekspertnoy sistemy na osnove apparata iskusstvennykh neyronnykh setey [Technology of Medical Expert System Building on the Basis of the Device of Artificial Neural Networks]. Informatsionnye tekhnologii — Information Technology, 2009, no. 8, pp. 60-63. (In Russian).
6. Arzamastsev A.A., Neudakhin A.V. Metodika razrabotki ekspertnykh sistem, ispol'zuyushchikh v kachestve intellektual'nogo yadra INS-modeli [Methods of elaboration of expert systems using ANN (Artificial Neurons Network)-models as an intellectual core base]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki - Tambov University Reports. Series: Natural and Technical Sciences, 2008, vol. 13, no. 2-3, pp. 219-222. (In Russian).
7. Arzamastsev A.A., Fabrikantov O.L., Zenkova N.A., Belousov N.K. Optimizatsiya formul dlya rascheta IOL [Optimization of formulae FOR intraocular lenses calculating]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki - Tambov University Reports. Series: Natural and Technical Sciences, 2016, vol. 21, no. 1, pp. 208-213. (In Russian). DOI: 10.20310/1810-0198-2016-21-1208-213.
8. Arzamastsev A.A., Zenkova N.A., Chichuk V.N. Generalizatsiya meditsinskikh empiricheskikh dannykh s ispol'zovaniem INS-modeley [Generalization of medical empirical data using ANN-models]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki — Tambov University Reports. Series: Natural and Technical Sciences, 2013, vol. 18, no. 1, pp. 201-203. (In Russian).
9. Mishin A.S., Arzamastsev A.A., Zenkova N.A. Ekspertnaya sistema dlya prognozirovaniya rezul'tatov lecheniya bol'nykh kolorektal'nym rakom, oslozhnennykh ostroy kishechnoy neprokhodimost'yu [Expert system for results prognosis of surgery treatment of colorectal cancer patients complicated by acute intestinal obstruction]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki — Tambov University Reports. Series: Natural and Technical Sciences, 2012, vol. 17, no. 2, pp. 649-658. (In Russian).
10. Arzamastsev A.A., Zenkova N.A. Sistema psikhologicheskogo testirovaniya na osnove apparata iskusstvennykh neyronnykh setey [System of psychological testing basing on artificial neural network apparatus]. Iskusstvennyy intellect [Artificial Intellect], 2004, no. 2, pp. 237-242. (In Russian).
11. Zenkova N.A. Neyrosetevoe modelirovanie v psikhologicheskikh i sotsial'nykh issledovaniyakh [Neuro-network modeling in psychological and social researches]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki — Tambov University Reports. Series: Natural and Technical Sciences, 2005, vol. 10, no. 1, pp. 112-114. (In Russian).
12. Kryuchin O.V., Arzamastsev A.A., Zenkova N.A., Sletkov D.V. Neyrosetevoe modelirovanie sotsial'nogo ob"ekta s ispol'zovaniem
klasternykh sistem [Simulation of the social object on the basis of the artificial neural networks with use of cluster's systems]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki — Tambov University Reports. Series: Natural and Technical Sciences, 2010, vol. 15, no. 5, pp. 372-375. (In Russian).
13. Kryuchin O.V. Ispol'zovanie tekhnologii iskusstvennykh neyronnykh setey dlya prognozirovaniya vremennykh ryadov na primere valyutnykh par [Use of technology of artificial neural networks for forecasting of time series on an example of currency pairs]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki — Tambov University Reports. Series: Natural and Technical Sciences, 2010, vol. 15, no. 1, p. 312. (In Russian).
14. Arzamastsev A.A., Kryuchin O.V., Azarova P.A., Zenkova N.A. Universal'nyy programmnyy kompleks dlya komp'yuternogo modelirovaniya na osnove iskusstvennoy neyronnoy seti s samoorganizatsiey struktury [Use of technology of artificial neural networks for forecasting of time series on an example of currency pairs]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki — Tambov University Reports. Series: Natural and Technical Sciences, 2006, vol. 11, no. 4, pp. 564-570. (In Russian).
15. Arzamastsev A.A., Kryuchin O.V., Korolev A.N., Zenkova N.A. Svidetel'stvo ob ofitsial'noy registratsii programmy dlya EVM № 2007610622 «Mnogofunktsional'nyy programnyy kompleks dlya komp'yuternogo modelirovaniya na osnove iskusstvennoy neyronnoy seti c samoorganizatsiey struktury» [Accreditation Certificate about Official Registration of Program for EVM no 2007610622 "Multifunctional Program Complex for Computer Modeling basing on Artificial Neural Network with Self-Organization of Structure"]. Requirement no. 2006614383. Registered in register of programs for EVM 8 February 2007. (In Russian).
16. Kryuchin O.V., Arzamastsev A.A. Parallel'nyy algoritm samoorganizatsii struktury iskusstvennoy neyronnoy seti [Parallel algorithm of self-organization of artificial neuron network structure]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki -Tambov University Reports. Series: Natural and Technical Sciences, 2011, vol. 16, no. 1, pp. 199-200. (In Russian).
17. Gorban' A.N. Obobshchennaya approksimatsionnaya teorema i vychislitel'nye vozmozhnosti neyronnykh setey [Generalized approximation theorema and calculating abilities of neuron networks]. Sibirskiy zhurnal vychislitel'noy matematiki - Siberian Journal of Numerical Mathematics, 1998, vol. 1, no. 1, pp. 11-24. (In Russian).
Received 2 February 2017
Arzamastsev Aleksander Anatolevich, Tambov State University named after G.R. Derzhavin, Tambov, Russian Federation, Doctor of Technics, Professor, Head of Mathematical Modeling and Information Technologies Department, e-mail: [email protected]
Kislyakov Maksim Aleksandrovich, Tambov State University named after G.R. Derzhavin, Tambov, Russian Federation, Student of Training Direction "Applied Mathematics and Informatics" of Mathematics, Natural Science and Information Technologies Institute, e-mail: [email protected]
Zenkova Natalya Aleksandrovna, Tambov State University named after G.R. Derzhavin, Tambov, Russian Federation, Candidate of Psychology, Associate Professor of Mathematical Modeling and Information Technologies Department, e-mail: [email protected]
Информация для цитирования:
Арзамасцев А.А., Кисляков М.А., Зенкова Н.А. Гомогенная искусственная нейронная сеть с изменяющейся активационной функцией нейрона // Вестник Тамбовского университета. Серия Естественные и технические науки. Тамбов, 2017. Т. 22. Вып. 1. С. 39-44. DOI: 10.20310/1810-0198-2016-22-1-39-44
Arzamastsev A.A., Kislyakov M.A., Zenkova N.A. Gomogennaya iskusstvennaya neyronnaya set' s izmenyayushcheysya aktivatsionnoy funktsiey neyrona [Homogeneous artificial neural network with a variable activation function of the neuron]. Vestnik Tambovskogo universiteta. Seriya Estestvennye i tekhnicheskie nauki — Tambov University Reports. Series: Natural and Technical Sciences, 2017, vol. 22, no. 1, pp. 39-44. DOI: 10.20310/1810-0198-2017-22-1-39-44 (In Russian).