Научная статья на тему 'МЕТОД СИНТЕЗА НЕЙРОСЕТЕВОЙ ГЕНЕРАТОРНОЙ МОДЕЛИ'

МЕТОД СИНТЕЗА НЕЙРОСЕТЕВОЙ ГЕНЕРАТОРНОЙ МОДЕЛИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
23
7
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННАЯ СЕТЬ / ГЕНЕРАТОРНАЯ МОДЕЛЬ / СИГНАЛ / ОБУЧАЮЩАЯ ВЫБОРКА / НЕЙРОСЕТЕВОЕ МОДЕЛИРОВАНИЕ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Чепцов М.Н., Сонина С.Д.

В статье детально рассмотрен метод синтеза нейросетевой генераторной модели для циклических процессов. Полученная нейронная сеть предназначена для реализации прямоугольных и пилообразных импульсов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

METHOD OF SYNTHESIS OF NEURAL NETWORK GENERATOR MODEL

The article describes in detail the method of synthesis of a neural network generator model for cyclic processes. The resulting neural network is designed to implement rectangular and sawtooth pulses.

Текст научной работы на тему «МЕТОД СИНТЕЗА НЕЙРОСЕТЕВОЙ ГЕНЕРАТОРНОЙ МОДЕЛИ»

УДК 004.85

ЧЕПЦОВ М.Н., д-р техн. наук, профессор (Донецкий институт железнодорожного транспорта»)

СОНИНА С.Д., старший преподаватель (Донецкий институт железнодорожного транспорта»)

Метод синтеза нейросетевой генераторной модели

Cheptsov M.N., Doctor of Technical Science, Professor (DRTI) Sonina S.D., Senior Lecturer (DRTI)

Method of synthesis of neural network generator model

Введение

Большинство задач, связанных с системами управления на

железнодорожном транспорте, являются циклическими, т.е. требуют одинаковой реакции модели в определенные промежутки времени, например, генераторные модели.

Анализ последних исследований и публикаций

Для решения задач, которые требуют реакции на момент времени или на ряд событий объекта, в который он меняет свое состояние, в работе [1] рассмотрено несколько подходов.

1) На вход нейронной сети подается входной вектор т и вектор дискретных значений текущего времени } (Рис. 1).

выходной

входной вектор in

вектор дискретных значений текущего

времени t

Рис. 1. Структура динамической модели НС с использованием таймера

К недостаткам такой сети относится проблема формирования обучающей последовательности, в которой необходимо предусмотреть все возможные значения выходного вектора d в каждый дискретный момент времени. Однако, это не исключает возможности создания динамической нейросетевой модели для определенных случаев, когда можно сформулировать ограничения и установить процедуру первичного обучения и дообучения в процессе функционирования по сформулированным правилам.

2) На вход НС подается последовательность входных векторов int в дискретные текущие моменты времени t = 1,2,..., N и по факту

появления входного вектора int ,

значение in^ сдвигаются «вверх»

внешним устройством (рис. 2). Такая модель называется «стековой» и ее функционирование сводится к выявлению из последовательности событий таких, для которых требуется соответствующее изменение значений

выходного вектора dt. В

противоположных случаях изменение

не происходит, то есть dt = dt _1 [1].

К недостаткам сети такого типа

можно отнести значительное количество входных данных. При проектировании нейронной сети с дискретными значениями входного вектора int нуля или единицы НС

«стекового» типа может быть реализована, а в случае действительных значений входного вектора,

возможность построения НС такого типа достаточно проблематична.

Рис. 2. Структура «стековой» динамической нейронной сети

3) Для решения

узкоспециальных задач, таких как моделирование временных рядов, применяется динамическая сеть NARX, которая представляет собой сеть с обратной связью, состоящую из нескольких слоев.

Наличие обратной связи позволяет КАКХ-сети принимать решение, основываясь на предыдущих значениях выходного сигнала, а также значениях независимого (внешнего) входного дополнительного сигнала, который влияет на прогнозируемое значение.

В работах [2, 3, 4] изложены возможности создания нейронной сети, с применением метода обучения обратного распространения ошибки,

способной обеспечивать динамический режим функционирования в дискретном времени. При этом, в зависимости от длины временного сигнала,

используемого при обучении, возникает необходимость развертывания сети за счет увеличения количества слоев с каждым шагом дискретного времени.

Такой процесс приводит к различной реализации обратного распространения во времени [2].

Особенностью обучения

динамической сети является

необходимость соблюдения

последовательности примеров из обучающей матрицы.

Цель работы

Реализовать метод синтеза нейросетевой генераторной модели для циклических процессов, используя в качестве входных параметров нейронной сети значения времени в бинарном виде.

Основная часть

Рассмотрим структуру модели (рис. 3), состоящую из:

- задающего генератора импульсов;

- счетчика-делителя, на выходах которого циклически формируется значение времени в бинарном виде;

- нейронной сети НС с четырьмя входами ш[0] - ш[3] и одним выходом

У.

Рис. 3. Структура нейросетевой генераторной модели

В данном случае счетчик имеет четыре выхода, следовательно, период цикла - 16 импульсов. Частота выходных импульсов определяется как частотой задающего генератора, так и обучающей выборкой. Рассмотрим в

качестве обучающей выборки один период прямоугольного импульса, тогда для прямоугольного выходного сигнала обучающая выборка примет вид, представленный в табл. 1.

Таблица 1

Обучающая выборка_

1 ш[/ + 0] т [/ +1] т [/ + 2] т [/ + 3] У

1 2 3 4 5 6

1 0 0 0 0 1

2 0 0 0 1 1

3 0 0 1 0 1

4 0 0 1 1 1

5 0 1 0 0 1

6 0 1 0 1 1

Продолжение таблицы 1

1 2 3 4 5 6

7 0 1 1 0 1

8 0 1 1 1 1

9 1 0 0 0 0

10 1 0 0 1 0

11 1 0 1 0 0

12 1 0 1 1 0

13 1 1 0 0 0

14 1 1 0 1 0

15 1 1 1 0 0

16 1 1 1 1 0

В общем случае, для экспоненциальной функции

возбуждения нейронов, выход НС

является вектором и его размерность равна количеству нейронов выходного слоя:

_ J-1 N-1

У = 1X

]=0 п=0

1

( 5У ' + X ' 1 у

1 + е

'(М+1)т,если1 >0>>

(1)

где 5]п - значение наклона функции возбуждения п-го нейрона слоя _/'; Ьуп - значение порога;

fcynw - значение п-го весового коэффициента нейрона;

Wjn - количество весовых коэффициентов п-го нейрона слоя _/';

- значение ш-го входа нейронной сети (нулевой слой); У(]+1)Пш выход п-го нейрона при следующей итерации по слоям.

Индекс за скобкой означает количество итераций:

] = [0,1,...,/ — 1] - по слоям нейронной сети (/ - количество слоев НС);

п = [0,1, — 1] - по нейронам в каждом слое (Ц - количество нейронов в слое ] ).

Примем минимальную

конфигурацию нейронной сети: 4

входных и один выходной нейроны и проведем процесс обучения. Подставив в выражение (1) полученные значения весовых коэффициентов и наклона

функции возбуждения 1

выражение - на

Г 1 , ст.

1 + е

получим выражение:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

и заменив 1

1 + ехр(ст.)

У И = 1.0 / (1 + ехр(-(-9.66887) * (1.0 + (1.0 / (1 + ехр(-(-1.22741) * (1.0 + гп[г + 0] * *(6440.47) + т[г +1] * (6396.91) + т[г + 2] * (6367.34) + т[г + 3] * (6350.74))))) * *(-11.9885) + (1.0/1 + ехр(-(-9.83166) * (1.0 + /и[/ + 0] * (142041) + ш[/ +1] * *(-112227) + ш[/ + 2] * (339.182) + т[г + 3] * (-29340.9))))) * (-21.808) + (1.0 / (1 + + ехр((-6.96534) * (1.0 + т[г + 0] * (1322.96) + т[г +1] * (451.17) + ш[/ + 2] * *(-14.6616) + /и[7 + 3] * (-543.811))))) * (-17.0609) + (1.0 / (1 + ехр(-(-9.26417 * *(1.0 + /и[7 + 0] * (247.353) + ш[7 +1] * (1074.98) + т[г + 2] * (2537.98) + ш[7 + 3] * *(2027.45)))))* (-23.8242)))),

(2)

где i - индекс входной последовательности т.

Программная реализация

нейросетевой модели предложена в работе [5] и результат

функционирования данного ПО за пять

циклов генерации сигнала будет представлять собой прямоугольные импульсы (рис. 4).

Рис. 4. Результат функционирования нейросетевой генераторной модели за пять

циклов генерации сигнала

Применение нейронной сети в генераторной модели позволяет обеспечить ее гибкость, т.е. только за счет изменения значений У в обучающей выборке (табл. 1) и переобучения НС возможно получение

другой формы выходного сигнала. Так, для пилообразного сигнала были получены соответствующие значения выражения (2), и оно приняло следующий вид:

У И = 1.0 / (1 + ехр(-(-3.50879) * (1.0 + (1.0 / (1 + ехр( -(-7.34166) * (1.0 + гп[г + 0] * *(-0.0242835) + ш[/ +1] * (0.017591) + т[г + 2]*( -0.0135667) + ш[/ + 3] * (0.0121916))))); *(-3.80497) + (1.0/1 + exp(-(-2.18471) * (1.0 + т[г + 0]*(0.966433) + т[г +1] * *(0.915188) + т[1 + 2] * (0.974182) + т[г + 3] * (0.945628))))) * (-4.3008) + (1.0 / (1 + + exp(-(-0.297039) * (1.0 + ш[/ + 0] * (2.9285) + ш[/ +1] * (1.13 525) + т[1 + 2] * *(0.543207) + т[1 + 3] * (0.0312665))))) * (-3.66285) + (1.0 / (1 + exp(-(-5.06873 * *(1.0 + т[1 + 0] * (4.55615) + т[г +1] * (3.77642) + /П[/ + 2] * (2.09511) + т[1 + 3] * *(4.54071))))) * (-3.64606)))),

(3)

а результат функционирования

представлен на рис. 5.

Рис. 5. Результат функционирования нейросетевой генераторной модели при генерации

сигнала пилообразной формы

Неидеальная форма выходного сигнала обусловлена простотой нейронной сети, состоящей из пяти нейронов. Тем не менее, среднеквадратичное значение энергии ошибки [6], полученное в процессе обучения, составило Е(п) = 0,003977 .

Выводы

Таким образом, в работе

предложен подход, позволяющий реализовать динамический режим работы нейросетевой модели для циклических процессов, за счет распознавания значений времени, подаваемых на вход нейронной сети в бинарном виде. В качестве примеров практического применения модели предложена программная реализация генераторов прямоугольных и пилообразных импульсов.

Список литературы:

1. Мойсеенко В.И., Поддубняк В.И., Чепцов М.Н. Моделирование технологических процессов в системах железнодорожной автоматики / В.И. Мойсеенко, В. И. Поддубняк, М.Н. чепцов // Сборник научных трудов Киевского института железнодорожного транспорта. -Том 3. - 1999. - С. 66-73.

2. Хайкин С. Нейронные сети: полный курс, 2-е изд., испр.: Пер. с англ. - М.: ООО «И.Д. Вильямс», -2006. - 1104 с.

3. Minsky M.L., Papert S.A. Perceptrons / Cambridge, MA: MIT Press, 1969.

4. Werbos P.J. Backpropagation and neurocontrol: A review and prospectus / International Joint Conference on Neural Networks, - Washington - vol. I, P.109-216.

5. Чепцов М.Н., Герасина И.Г. Построение систем автоматического управления ответственными технологическими процессами / М.Н.

Чепцов, И.Г. Герасина // Сборник научных статей ДОНИЖТ. Выпуск 65, -2022, С. 12-18.

6. Чепцов М.Н., Сонина С.Д. Анализ методов оптимизация скорости обучения нейронной сети / М.Н. Чепцов, С.Д. Сонина // Сборник научных статей ДОНИЖТ. Выпуск 62, -2021, С.28-32.

Аннотации:

В статье детально рассмотрен метод синтеза нейросетевой генераторной модели для циклических процессов. Полученная нейронная сеть предназначена для реализации прямоугольных и пилообразных импульсов.

Ключевые слова: нейронная сеть, генераторная модель, сигнал, обучающая выборка, нейросетевое моделирование.

The article describes in detail the method of synthesis of a neural network generator model for cyclic processes. The resulting neural network is designed to implement rectangular and sawtooth pulses.

Keywords: neural network, generator model, signal, training sample, neural network modeling.

i Надоели баннеры? Вы всегда можете отключить рекламу.