Научная статья на тему 'Адаптивные статистические модели, синтезированные на основе инс'

Адаптивные статистические модели, синтезированные на основе инс Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
143
40
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННАЯ СЕТЬ / РЕГРЕССИОННОЕ УРАВНЕНИЕ / АДАПТИВНЫЕ МОДЕЛИ / ВЕСОВЫЕ КОЭФФИЦИЕНТЫ / АЛГОРИТМ ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Парсункин Борис Николаевич, Андреев Сергей Михайлович, Обухова Татьяна Геннадьевна, Галдин Михаил Сергеевич, Ахметов Тимур Уралович

Рассмотрен пример использования искусственной нейронной сети для определения теоретической линии регрессии на основе экспериментальных данных. Описан алгоритм обратного распространения ошибки. Приведен сравнительный анализ полученных результатов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Парсункин Борис Николаевич, Андреев Сергей Михайлович, Обухова Татьяна Геннадьевна, Галдин Михаил Сергеевич, Ахметов Тимур Уралович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The adaptive statistical models, synthesized on the basis of the neural networks

Аn example of the use of artificial neural network for the determination of the theoretical regression line, based on experimental data. The procedure of the back propagation algorithm are reviewed. A comparative analysis of the obtained results.

Текст научной работы на тему «Адаптивные статистические модели, синтезированные на основе инс»

Скорость 1.4 (ячеек за такт)

О 200 400 В00 800 1000 1200

Время (тактов)

1.

Рис. 3. Изменение скорости распространения фронта возмущения

Обобщающий подход открывает широкие перспективы для моделирования процессов ОМД. В этом случае возмущением может быть изменение положения материальной точки, скорость материальной точки, сила, напряжения, деформации. Распространение любого из этих параметров может быть смоделировано описанной в настоящей статье схемой. Богатство модели обеспечивается выбором коэффициентов к1г к2, к3, к4 формуле (1). Их варьирование позволит моделировать анизотропную среду, среду с локальными особенностями и пр.

С точки зрения скорости вычислений клеточноавтоматная модель на порядок быстрее классических

вычислительных методов, поскольку последние основываются на итерационных методах решения системы линейных уравнений большого порядка.

Таким образом, клеточно-автоматная модель открывает широкие перспективы для разработки эффективных программ расчета напряженно-деформированного состояния заготовки в процессе обработки давлением.

Список литературы

Courant R., Friedrichs K., Lewy H. Uber die partiellen Differenzenglei-chungen der mathematischen Physik // Mathematische Annalen. 1928. T. 100. №1. S. 32-74.

2. Тоффоли Т., Марголус H. Машины клеточных автоматов: пер. с англ. М.: Мир, 1991. 280 с.

3. Рубин Г.Ш., ШишовА.А. Клеточно-автоматные модели деформируемой среды // Труды восьмого конгресса прокатчиков. Магнитогорск, 2010. С. 451-453.

Bibliography

Courant R., Friedrichs K., Lewy H. Uber die partiellen Differenzenglei-chungen der mathematischen Physik // Mathematische Annalen. 1928. T. 100. №1. S. 32-74.

Toffoli T., Margolus N. The cellular automaton mashints: translation from English. M.: Mir, 1991. 280 p.

Rubin G.Sh., Shishov A.A., Gun G.S., Chukin M.V. The cellular automation models of deformed area // Proceedings of the 8-th congress of mill-men. Magnitogorsk, 2010. P. 451-453.

1.

2.

3.

УДК 519.24:004.81

Парсункин Б.Н., Андреев С.М., Обухова Т.Г., Галдин М.С., Ахметов Т.У.

АДАПТИВНЫЕ СТАТИСТИЧЕСКИЕ МОДЕЛИ, СИНТЕЗИРОВАННЫЕ НА ОСНОВЕ ИНС

Рассмотрен пример использования искусственной нейронной сети для определения теоретической линии регрессии на основе экспериментальных данных. Описан алгоритм обратного распространения ошибки. Приведен сравнительный анализ полученных результатов.

Ключевые слова: нейронная сеть, регрессионное уравнение, адаптивные модели, весовые коэффициенты, алгоритм обратного распространения ошибки.

An example of the use of artificial neural network for the determination of the theoretical regression line, based on experimental data. The procedure of the back propagation algorithm are reviewed. A comparative analysis of the obtained results.

Keywords: neural network, regression equation, the adaptive models, weight coefficients, the backpropagation algorithm.

В связи с интенсивным ростом вычислительных способностей персональных компьютеров (ПК) появилась реальная возможность программного моделирования мыслительного процесса человека при синтезе моделей исследуемых процессов.

Эффективным инструментом при решении таких задач являются искусственные нейронные сети (ИНС), содержащие несколько слоев взаимосвязанных нейронов, являющихся структурной единицей этих сетей .

Хайкин С. Нейронные сети: полный курс: пер. с англ. 2-е изд. М.: Вильямс, 2006. 1104 с.

ИНС, используемые для адекватного отражения реальных свойств исследуемых процессов, в своей основе являются адаптивными экспериментально -статистическими моделями, в которых объект исследования (управления) представляется «черным ящиком», т.е. процессом, о котором известны только входные и выходные параметры при полном отсутствии информации о внутренних взаимных связях между ними.

Среди многих интеллектуальных свойств ИНС наиболее удивительным и выдающимся является уникальная способность сети к обучению. Это в какой-то степени соответствует процессу интеллектуального

развития человеческой личности, но возможности обучения ИНС ограничены и далеки от окончательного решения.

ИНС обучается, чтобы для некоторого множества (обучающей выборки) входов давать с заданной точностью значения множества выходов, соответствующих реальным экспериментальным значениям.

Современные ИНС - это комплекс эффективных программ для ПК, которые приближенно моделируют способ работы человеческого мозга. Этот комплекс программ подобен мыслительному процессу в двух аспектах:

- знания, приобретенные ИНС, являются результатом анализа и обучения по экспериментальным данным и сведениям из внешнего мира о моделируемом процессе;

- для обучения ИНС используются межнейронные связи, которые реально выражаются в определении синаптических весов. Синаптический вес представляет собой значение масштабного коэффициента при передаче информации от одного нейрона к другому.

Суть передачи синаптических весов - логическое усиление воздействия на нейрон в направлении приближения к правильному решению и подавление (уменьшение) значения синаптического веса при увеличении отклонения полученного значения, формулируемого сетью, от реального экспериментального значения.

Обучение нейронной сети, как необходимого элемента ее создания, заключается в изменении синаптических весов, характеризующих связь между нейронами таким образом, чтобы формируемые нейронной сетью выходные значения параметра, полученные расчетным путем, были эквивалентны экспериментальным значениям. То есть нейронная сеть выдавала бы такие же результаты, которые получены при определении текущих экспериментальных данных.

Нейронная сеть реализует свою уникальную вычислительную функцию благодаря двум свойствам: использование параллельной структуры и способность обучаться и обобщать полученные результаты.

Под способностью обобщать понимается способность ИНС выдавать точные значения выходов при значениях входов (внутри интервала обучающей выборки), которые не использованы при обучении.

Недостатком ИНС при синтезе модели изучаемого процесса или объекта управления является отсутствие формализованного, выраженного в виде функциональной зависимости, представления статистической связи между входными и выходными параметрами процесса.

ИНС представляет программно определенный набор синаптических масштабных коэффициентов, определяющих информационную связь между нейронами сети принятой архитектуры. Поэтому представляет интерес использование ИНС для определения коэффициентов аппроксимирующих зависимостей регрессионных уравнений, отражающих вероятностную (статистическую) связь между входными и выходными параметрами процесса.

Рассмотрим конкретный пример использования нейросетевого метода для определения уравнения теоретической линии регрессии линейной зависимо -

сти вида у(х) = а0 + а1Х между двумя параметрами. Здесь х - аргумент, т.е. входной независимый фактор, у - выходная контролируемая переменная, характеризующая состояние процесса.

Экспериментальные данные для определения общего уравнения линейной зависимости вида у(х)= а0 + а1х представлены в таблице.

Экспериментальные данные

Номер опыта 1 2 3 4 5 б 7 в 9 10

Xi 0 10 20 30 40 50 60 70 80 90

У 20 10 20 40 45 35 70 50 80 75

Решение поставленной задачи осуществляется последовательным выполнением следующих операций.

Первый этап - это проектирование ИНС. Общих принципов проектирования ИНС, определяющих архитектуру сети, пока не существует. Размер ИНС определяется сложностью решаемой задачи и необходимостью учета всех значимых факторов и выходных параметров исследуемого процесса.

Если использовать недостаточно слоев и число нейронов в каждом скрытом слое, то ИНС будет обеспечивать недостаточную точность представления выходных параметров. При избыточности скрытых слоев и количестве нейронов в каждом слое ИНС мо -жет вообще утратить способность к обобщению.

Учитывая относительно простую задачу, для определения линейного вида предполагаемой линии регрессии используем ИНС, архитектура которой изображена на рис. 1.

Выходной слой представлен одним нейроном D. Скрытый слой содержит четыре нейрона Nb N2, N3, N4; Win - весовые коэффициенты скрытого слоя при i = 1...4, n = 1,2; K!...K4 - весовые коэффициенты выходного слоя.

Входной слой содержит два нейрона: на первый подается входной информационный сигнал X, а на второй нейрон должна быть подана константа K = const. Примем K = 1.

В качестве активационной функции, предотвращающей насыщение сумматоров скрытого слоя, используем функцию Z = ^(И) = 0,05И, где Z - выход нейрона; И - сумма произведений весовых коэффициентов (если их несколько) на входной сигнал нейрона

п

в соответствии с выражением и = £ W ■ X. Для

1 1 = 1 1П

нейрона выходного слоя в качестве активационной функции примем функцию вида У = f2(S) = 58, где п

8= 2 К• ^.

1 = 1

Для рассматриваемого случая ИНС имеем 8 = К1^1 + К2^2 + К3^3 + К4^4. Чтобы определить синаптические коэффициенты Ш1п...Ш4п и К1п...К4п, необходимо осуществить подготовку данных.

Второй этап - подготовка исходных данных ИНС. Перед выполнением операции обучения ИНС необходимо подготовить данные, по которым ИНС будет обучаться, т.е. обучающую выборку. К обучающей выборке экспериментальных данных предъявляются следующие требования:

- исходные данные должны быть, по возможности, равномерно распределены во всем интервале значений аргумента X;

- исходные данные в числовом выражении должны быть одного порядка.

Исходные данные должны соответствовать всем принятым нормам при определении экспериментально-статистических зависимостей. Рекомендуется исходные данные путем масштабирования приводить к диапазону [0.1]. В рассматриваемом случае масштабирование исходных данных целесообразно провести путем умножения их на масштабирующий коэффициент 0,01, т.е. Км = 0,01 для входных и выходных параметров.

Коэффициенты масштабирования для входных и выходных параметров могут быть различными.

Третий этап - обучение созданной ИНС. Перед выполнением операции обучения ИНС необходимо (в начальный момент) задаться исходными величинами синаптических весовых коэффициентов. Обычно начальные значения коэффициентов ИНС выбираются случайным образом в диапазоне [0,1...1,0].

Наиболее эффективным алгоритмом обучения ИНС является алгоритм обратного распространения ошибки. Обучение ИНС по этому алгоритму предусматривает обязательное последовательное выполнение следующих процедур.

1) Случайным образом выбирается обучающая пара из экспериментальных значений и значение аргумента из этой пары подается на вход сети.

2) Рассчитывается выходное значение нейросети.

3) Вычисляется разность сигналов (значений) параметров между выходным сигналом сети У* и экспериментальным значением параметра У в обучающей паре:

8 = У* - У.

4) Вычисляется функция 8. В рассматриваемом случае

8 = в(1 - У*)(1 + У*).

5) Определяется величина коррекции коэффициентов от нейронов скрытого слоя к нейронам выходного слоя (в рассматриваемом случае)

АКР = ^р(1 - Zp) (1 + Zp) Крн,

где "л - скорость обучения; Zp - значение активационной функции. Скорость обучения "п принимается в диапазоне от 0,01 до 0,1.

6) Корректируем коэффициенты выходного слоя в соответствии с выражением

Крс = Крн -

где Крс, Крн - соответственно скорректированное и исходное (начальное) значение данного коэффициента.

Расчёт коррекции и коррекция осуществляются по всем коэффициентам от нейронов скрытого слоя к нейронам выходного слоя.

Определяем величину коррекции коэффициентов (синаптических весов) от нейрона входного слоя к нейронам скрытого слоя:

AWP = ^бХ'М'рн.

Корректируем все коэффициенты нейронов скрытого слоя в соответствии с выражением

Wpc = Wpн - AWP,

где WpC, WpH - соответственно скорректированное и исходное значение скрытого слоя.

Переходим к выполнению п. 1, но с новыми скорректированными значениями всех коэффициентов, использованных в ИНС.

Цикл обучения будет повторяться до тех пор, пока величина изменения каждого весового коэффициента в каждом шаге обучения не будет меньше некоторого заданного порогового значения. Изменение значений синаптических весовых коэффициентов в процессе обучения нейросетевой модели от количества шагов итераций обучения при определении зависимости у(х) = а0 + а1х при шаге обучения ^ = 0,005

представлено на рис. 2.

При увеличении шага обучения скорость обучения ИНС растет, но одновременно увеличивается и величина случайных изменений значений весовых коэффициентов. Так, при шаге обучения ^ = 0,1 процесс обучения ИНС практически заканчивается на 3500 шаге, а при шаге обучения ^ = 0,005 процесс обучения той же ИНС по тем же экспериментальным данным (см. рис. 2) завершается на 30000 шаге. При этом случайные колебания величин весовых коэффициентов практически полностью отсутствуют.

О 5000 10000 15000 20000 25000 30000 3500

Количество шагов обучения

Рис. 2. Изменение значений весовых коэффициентов нейросетевой модели от количества шагов в процессе обучения для определения зависимости вида

у(х) = ао + а1Х при шаге обучения 0,005

В процессе обучения по алгоритму обратного распространения ошибки ИНС настраивается на ко -нечные значения всех синаптических коэффициентов.

И это характеризует окончание процесса обучения.

Определение коэффициентов уравнения у(х) осуществляется в соответствии с последовательностью выполняемых действий

где

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Y = fD•(Nl + N2 + N3 + N4),

N1 = K1.fN-CW11.fA-X + Wl2■fA■к),

N2 = + ^^22^А’К),

N3 = K3.fN-CW31.fA-X + ^^32^А’К),

N4 = К4^^41^А-Х + ^^42^А’К)

при значении функций активации ^ = 58, ^ = 0,05и, ^ = X.

В результате обучения нейросети были получены следующие значения весовых коэффициентов:

Wn = 1,48; ^^21 = 1,05; Wзl = 0,68; W41 = 0,97;

12 = 0,1; ^^22 = 0,09; Wз2 = 0,33; W42 = 0,18;

К1 = 0,8; К2 = 0,65; К3 = 0,97; К4 = 0,41.

После подстановки синаптических весовых коэффициентов получим:

У = 5-0,05-[0,8-(1,48-1-Х + 0,1-1-К) +

+ 0,65-(1,05-1-Х + 0,09-1-К) + 0,97-(0,68-1-Х +

+ 0,33-1-К) + 0,41-(0,97-1-Х + 0,18-1-К)],

при К=1

У = 0,731Х + 0,1331.

Г рафические изображе-

ния траектории теоретической линии регрессии

У(Х) = 0,731Х + 0,1331 и

теоретической линии регрессии У(Х) = 0,8018Х + 0,0973, полученной с использованием метода наименьших квадратов, представлены на рис. 3.

Анализ полученных ре -зультатов показывает, что

нейросетевой метод по точности практически совпадает с методом наименьших квадратов, принятым за эталонный.

Преимущество нейросете-вого метода заключается в том, что предложенный метод реализуется непосредственно при экспериментальном определении входных и выходных параметров процесса и обеспечивает непрерывную адаптацию математической модели при изменении технологических или производственных условий. Поэтому при изменении условий функционирования исследуемого процесса не потребуется проводить дополнительные экспери-менты. А также нейросетевой метод позволяет достаточно просто учитывать влияние различного количе-ства входных и выходных параметров в процессе эксперимента на реальном объекте.

1

0,9 ? 0,8 >-

а 0,7 н

1 0,6

Он

ей

0 0,5

1 0,4

0

X

§ 0,3

64

1 0,2 §

0,1

0

оо

У = 0,8018} І + 0,0973

• \

\ \

^ У = 0,7 31Х + 0Д331

-У •

-1 1 1 і 1 і 1 1

0 0,2 0,4 0,6 0,8

Значения входного параметра X-102

Рис. 3. Траектории линейной регрессионной зависимости, полученной нейросетевым методом при шаге обучения 0,005 (сплошная линия) и методом наименьших квадратов (пунктирная линия) по экспериментальным данным (точки на графике)

i Надоели баннеры? Вы всегда можете отключить рекламу.