ИНФОРМАЦИОННЫЕ И ВЫЧИСЛИТЕЛЬНЫЕ ТЕХНОЛОГИИ
УДК 004.891.3
НЕЙРОСЕТЕВЫЕ МОДЕЛИ ДИАГНОСТИКИ ТЕХНИЧЕСКИХ СИСТЕМ Горева Т.И.1, Порнягин Н.Н.2, Пюкке Г.А.3
1 Филиал Дальневосточного Федерального государственного университета, 683031, г. Петропавловск-Камчатский, ул. Тушканова, 11/1
2 Российский государственный университет им. И.М. Губкина, 119996, ГСП-1, г. Москва, Ленинский проспект, 65
3 Камчатский государственный технический университет, 683003, г. Петропавловск-Камчатский, ул. Ключевская, 35.
E-mail: [email protected]
Предложена нейро-сетевая модель диагностики деффектов в технических системах на примере диагностической изоварной карты электронного стабилизатора напряжения переменного тока.
Ключевые слова: нейронные сети, синаптические связи, сеть Кохонена
(с) Горева Т.С., Кузнецов С.Е., Портнягин Н.Н., 2012
INFORMATION AND COMPUTATION TECHNOLOGIES
MSC 92B20
NEURAL NETWORK MODEL DIAGNOSIS TECHNICAL SYSTEMS Goreva T.I.1, Pornjagin N.N..2, Pjukke G.A.3
1 Branch of the Far Eastern Federal State University, 683031, Petropavlovsk-Kamchatsky, Tushkanova st., 11/1
2 Gubkin Russian State University of Oil and Gas, 119996, Moscow, Leninsky prospekt.,
65
3 Kamchatka State Technical University, 683003, Petropavlovsk-Kamchatsky, Klychevskaya st. 35
E-mail: [email protected]
Proposed neural network model Defect diagnosis of technical systems as an example of diagnostic izovarnoy card electronic voltage regulator AC.
Key words: neural network, synaptic connections, network Kohonen
(c) Goreva T.I., Portnjagin N.N., Pjukke G.A., 2012
ВВЕДЕНИЕ
Многие нелинейные задачи не поддаются строгой формализации традиционными математическими методами [1]. В таких условиях, когда решение задачи аналитически в общем виде невозможно, оправдан нейросетевой подход, позволяющий обеспечить достаточно высокое качество выполнения задачи.
В ряде изначальных работ [2] и др., касающихся аппроксимации нелинейных функций заложен математический базис нейросетевой теории, определяющий универсальные аппроксимирующие свойства нейронных сетей. В большинстве случаев аналитические модели диагностирования это нелинейные соотношения, затрудняющие формирование модели объекта диагностирования по моделям составляющих компонент. Формально высказывание об универсальных аппроксимационных свойствах нелинейности представляется в виде:
2n+1
F (.11, Х2,..., x„) = £ hp
£ФР (xp)
Оно утверждает, что с помощью линейных операций и каскадного соединения можно из произвольных нелинейных элементов получить любой требуемый результат с заранее заданной точностью. Здесь hq - непрерывная функция; Фр (xp) - функция, зависящая от F.
В работе [2] в качестве процедуры обучения многослойного перцептрона приведен алгоритм обратного распространения (back propagation), обеспечивающий решение задачи статистической классификации и распознавания. В процессе обучения на вход нейронной сети (НС) поступают данные обучающей выборки при корректировке весовых коэффициентов синаптических связей с целью получения наиболее адекватного сигнала на выходе нейронной сети.
При использовании алгоритма обратного распространения сигнал ошибки на выходе НС распространяется в обратном направлении с последующей корректировкой синаптических весов нейронной сети для достижения минимальной выходной погрешности. Обученная НС обладает способностью обобщения, т. е. имеет возможность давать статистически корректный ответ на входные сигналы, принадлежащие классу обучающих данных, но не использующиеся ни при обучении, ни при тестировании.
Для решения задач аппроксимации нелинейностей важны методики разрешающие проблемы принятия решений в условиях неполных данных с учетом постоянно изменяющихся условий окружающей среды. Этим методикам отвечают возможности нейро - технологий. Нейронные сети не требуют традиционного программирования: информация обучения НС накапливается в весах, а не в программах. Это делает их устойчивыми к флуктуациям входных воздействий и обеспечивает устойчивость работоспособности сети при выходе из строя отдельных ее компонент.
На возникший дефект сеть реагирует только изменением качества функционирования при сохранении общей работоспособности (это роднит ее с высокоорганизованными биологическими системами). Изначальными процедурами построения однонаправленной сети являются задание топологии и задание правил обучения. Топология выбирается исходя из требуемой точности идентификации, содержания задачи, количества параметров процесса, размерности вектора входных данных. Настройка сети это многоходовой итерационный процесс, при котором периодически
анализируются результаты и регулируются параметры: количество ассоциативных слоев, количество нейронов в слое, выбор функции активации.
Увеличение количества слоев позволяет выявить более тонкие статистические закономерности. Но размерность сети должна соответствовать размерности данных обучающей выборки. В противном случае, способность сети к обучению будет снижаться, или наоборот, будет утрачена способность сети определять основные параметры отображения.
СТРУКТУРА НЕЙРОСЕТИ
Структура НС прямого распространения приведена на рис. 1, где уі - выход і-го нейрона ^-го слоя; ) - номер слоя; і - номер нейрона; п - количество входных нейронов.
Связи нейронов входного слоя с нейронами первого ассоциативного слоя являются выборочными и в общем случае с фиксированными значениями веса.
X, X, X, X,
1 ■
і ? О 9
і=1 i=2
XI
i = N
Фг'А"’ ■■■■■■■■
і'
с п >' і=н- С І»
У/ У:' У,.1'
J=1
J=2
Векщр ІЖіДЕШХ даннык
Входной стой
Выборочный СІЯЗН,
фиюсщюЕанные ієна.
Агсощииишыи стой,
ісеобьеішт-
щще сіязи, ігаділра-
ИИІнГіТШе БІСІ
J=L -1
J=L
Выходной
сіюй
Вынодннн
ЕЄЕН)р
Рис. 1. Структура НС прямого распространения
зз
Веса синаптических связей образуют матрицу весов связей £:
(
w
w
w
W'
12
З
12
V WL1
w
12
w
1N3
wLNL )
Связи между нейронами ассоциативных слоев (включая выходной) являются всеобъемлющими с подстройкой весов синаптических связей на обучающей стадии. Каждый выходной сигнал ]-го слоя подается на вход всех нейронов (] + 1)-го слоя. Для выхода г-го нейрона (] + 1)-го слоя можно записать:
k=1
где у{+1 - выход г-го нейрона (] + 1)-го слоя; ж^1 - вес связи к-го нейрона (] + 1)-го слоя с г-м нейроном )-го слоя; - величина внешнего смещения. Результат адаптивного суммирования является аргументом функции активации, посредством которой выполняется преобразование входных воздействий в выходной сигнал с настраиваемыми характеристиками. Настройка сети предусматривает процедуру регулирования весовых коэффициентов входов нейронов и приведение к нулю порога аргумента функции активации. На основе анализа задачи подбирается соответствующая нейро - сетевая модель.
Для обучения НС с помощью алгоритма обратного распространения минимизируется общая ошибка выхода. Корректируются величины весовых коэффициентов каждого участвующего в обучении нейрона. Обучение перцептрона состоит из тактов и эпох.
Каждый такт обучения 8-й эпохе соответствует одновременной подаче на вход сети сигнала входа эмпирической выборки и сравнении сигнала выхода эмпирической выборки с выходным сигналом НС. Если объем выборки , то в каждом такте обучения перцептрон взаимодействует с одной из пар векторов вход - выход. После реализации всего объема выборки данных вход - выход 8-я эпоха обучения заканчивается и оценивается значение суммарной выходной среднеквадратической ошибки £8 перцептрона с матрицей весовых коэффициентов ^8.
Е8 = \\Ук - Ук>'\\/М,
где Ук - истинный вектор обучающей выборки; Ук* - результат нейро-сетевой обработки выходного сигнала в 8-й эпохе. Подстройка матрицы весов ^8 с помощью минимизации среднеквадратической ошибки Е8 выполняется с помощью итерирования по эпохам обучения в соответствии с алгоритмом обратного распространения ошибки.
£8+1 = £8 - ^ + У (£8 - £8-1),
где д, V - параметры алгоритма, определяющие скорость и устойчивость итераци-
д Ех
онного процесса обучения. Величина градиента —при нахождении глобального
д£8
минимума гиперповерхности ошибки Е8 определяет направление спуска (метод градиентного спуска) на пути к глобальному минимуму, результатом которого будут новые очередные значения коэффициентов матрицы ^8+1.
Вычисление значений компонент матрицы весов при итерировании по эпохам выполняется в соответствии с выражением:
(т + 1) = (т) + АЖк
где Аж^ - изменение веса на (т + 1)-м шаге:
Ди‘к=-а (5 ^
где а - скорость обучения. Выражение новых значений весов на (т + 1)-м шаге для нейронов выходного слоя:
Аж^ = а А^укь-1,
где 8р = (ур — ур*)ф/(ар) - локальная ошибка. Для ассоциативного слоя р имеет место соотношение:
АжРк = а АРуР—1,
где АР = ф/ (агр) £ Ар+1жр+1, а = N+1 - количество нейронов (р + 1)-слоя связанных к=1
с г-м нейроном р-го слоя.
Рассмотрим задачу построения и обучения нейросети, для выполнения процедур кластеризации и идентификации при оценке показателей диагностирования методом исключения варьируемого параметра [3]. Алгоритм включает выполнение процедуры обоснования выбора структуры нейросети с целью оптимизации количества нейронов и минимизации аппаратных затрат на основе метода логического анализа диагностической модели и совокупности существующих типов сетей с подбором необходимого количества элементов, что позволяет получить нейросеть относительно небольшой размерности.
Сначала выбирается структура нейросети, руководствуясь заданными требованиями диагностической модели (1):
К = Ж£1) К2 = А (£1) К = Р1(*2)
К = ЖЫ К = ^(Ы К = Р2(К2) (1)
К1 = -^тС^т) К2 = ^т(^т) К1 = рт(К2)
К1,К - коэффициенты передачи выбранных каналов прохождения тестового сиг-
нала объекта диагностирования; £1,£т - параметры структурных единиц объекта диагностирования.
Сеть должна имеет два входа, на которые подаются значения функций передачи каналов прохождения тестового сигнала, наблюдаемых на ОД (слой I). Сеть имеет четыре выхода, соответствующие четырем состояниям (слой К): р - объект работоспособен, д - в ОД имеет место одиночный дефект, кд - в ОД имеют место кратные дефекты, нс - объект находится в неработоспособном состоянии. Имеется один внутренний слой нейронов /. В качестве функции возбуждения внутреннего (х) и выходного слоя ^к(х) выбраны пороговые функции (рис. 2).
Обучающие выборки К и К формируются на основе наблюдений за состоянием объекта диагностирования. Локализация кратного дефекта, выполняется на ОД при замене исправного компонента на неисправный. Полученные значения ошибки обучения составили не более 10%.
Проведенные эксперименты и исследования подтвердили целесообразность использования нейросетей для решения задач диагностики. Это дает возможность внедрения новейших компьютерных технологий в производство диагностических комплексов, применяемых при обслуживании технических объектов. Оценка показателей диагностирования методом исключения варьируемого параметра дает возможность решить как задачи кластеризации и классификации областей состояний объекта диагностирования.
Как показывают расчеты, для решения задач кластеризации целесообразно использовать итеративно - градиентный алгоритм обучения НС back propagation (обратного распространения), используемый нами в дальнейшем для минимизации среднеквадратического отклонения текущих выходных значений сигнала от устанавливаемых в многослойной нейронной сети.
Этапы кластеризации для НС с алгоритмом обратного распространения, при наличии обучающей выборки, включают первичное формирование кластеров путем по парного сравнения наиболее различающихся входных сигналов. Обучающая выборка строится на основе детерминированной модели при известных интервалах допустимых изменений диагностируемых параметров. Мерой различия для бинарных сигналов может служить расстояние Хемминга, для других типов сигналов - евклидово расстояние. Если входов два, то считают, что первый сигнал принадлежит классу 1
(кластеру), другой - классу 2. Строится обучающая выборка, проводится обучение сети.
Случайным образом выбирается один из оставшихся входных сигналов и вводится в НС. Если среднеквадратичное отклонение текущего выхода от одного из известных выходных сигналов обучающей выборки меньше заданного порогового значения, то входной сигнал считается принадлежащим классу соответствующего примера. В противном случае считается, что входной сигнал принадлежит новому классу. Строится обучающая выборка из трех примеров и по ней выполняется обучение и т.д. Аналогичные действия повторяются до тех пор, пока не закончатся все сочетания компонент вектора входных величин.
На втором этапе объединения для каждого сформированного на первом этапе кластера строится «центральный» или «эталонный» образ, каждый элемент которого есть среднее арифметическое соответствующих элементов всех примеров данного класса. Далее с помощью меры Хемминга или Евклида определяется расстояние между парами «центральных» образов. Если расстояние меньше некоторого порогового значения, то два класса объединяются в один. Соответствующим образом формируется новая обучающая выборка и по ней проводится обучение НС. Эту операцию повторяют до тех пор, пока не останется ни одной пары классов, расстояние между «центральными» образами которых меньше порогового значения.
Анализируя возможность программной реализация этого алгоритма на языке Ма1;ЬаЬ можно выбрать сеть Кохонена. Алгоритм обучения такой сети (рис. 3) предусматривает самообучение по правилу «победитель забирает все» и обеспечивает решение задачи автоматической классификации, т.е. отнесения предъявленного вектора входов к одному из классов. Итоговым результатом обучения являются векторы весов, показывающие на центры кластеров (центры группирования) входных образов.
Рис. 3. Структура сети Кохонена
При настройке сети все векторы весов должны быть нормализованы: ||юг-|| = 1,г = 1,2,...,т,юг = юг + п (х — юг),
где индекс г обозначает нейрон-победитель, соответствующий вектору весов юг , который ближе всех расположен к (текущему) входному вектору х, п — коэффициент скорости обучения. После выявления нейрона-победителя его выход устанавливается равным единице (у остальных нейронов устанавливаются нулевые выходы), а веса корректируются так, чтобы уменьшить квадрат величины рассогласования ||х — юг||2. Коррекции весов у других нейронов не производится. Итоговым результатом коррекций весов являются векторы весов, показывающие на центры кластеров входных образов. Для обучения сети не требуется значения целевых векторов, так как сеть обучается без учителя и в процессе обучения классифицирует входные векторы в группы схожих.
Коэффициент скорости обучения п обычно полагается равным 0,7 и может затем постепенно уменьшаться в процессе обучения. Это позволяет делать большие начальные шаги для быстрого грубого обучения и меньшие шаги при подходе к окончательной величине.
Сеть является предельно простой, но вместе с тем достаточно эффективной. Слой Кохонена часто применяется в составе других сетях в силу своей самообучаемости, и хотя поставленная задача имеет целевые векторы, использование сети Кохонена может открыть новые возможности при решении задач диагностики. Рассмотрим тестирование сети Кохонена в среде Ма1;ЬаЬ для примера оценки работоспособности объекта.
Для обучения нейросети требуется построение входного вектора Р и выходного вектора Т в качестве эталонной обучающей последовательности. Рассмотрим структуры и содержание этих векторов. Обучения НС будет производиться на примере диагностической изоварной карты электронного стабилизатора напряжения переменного тока [3], поэтому структура и содержание компонент вектора Р следующая: две строки соответствующие двум координатам изоварной карты К,К2 и N столбцов задающих объем обучающей выборки. Все состояния объекта диагностирования можно разбить на следующие области: область работоспособности; область одноч-ных дефектов; область кратных дефектов; область неработоспособных состояний.
Сеть, воспринимая входной вектор как точку с двумя координатами, должна определить к какой области он относится и дать заключение о состоянии объекта, т.е. выход сети имеет четыре варианта, соответствующие каждой из областей состояний. Структура вектора Т зависит от кодирования состояний объекта диагностирования. Если принадлежность одной из областей обозначить логической единицей, а непринадлежность - нулем, тогда сеть должна иметь следующие выходы:
- Т1 = (1;0;0;0) - работоспособное состояние (Т1);
- Т2 = (0;1;0;0) - дефект одного элемента (Т2);
- Т3 = (0;0;1;0) - дефект нескольких элементов (Т3);
- Т4 = (0;0;0; 1) - недопустимое состояние (Т4) (например, выход из строя всех элементов).
Векторы Т1, Т2, Т3, Т4 представлены в виде векторов-столбцов. Количество столбцов вектора зададим равным N - общему объему обучающей выборки. Тогда каждой из четырех строк вектора ставится в соответствие состояние ОД: Т1, Т2, Т3, Т4 Чтобы связать выходные векторы с состояниями обьекта необходимо построить конфигурацию соответствующих областей по координатам изоварной карты К1, К2.
На рис. 4 представлена структура областей состояний ОД, которая соответствует реальным картам изовар.
Рис. 4. Структура областей состояний объекта диагностирования для обучения
Если рассматривать карту изовар, как прямоугольную систему координат для двух переменных, то границы областей можно представить в полярной системе координат, тем самым, связав переменные. Пусть координаты рабочей точки РТ (0,5; 0,5) являются центром полярной системы координат, r - расстояние, j - угол поворота. Тогда связь между декартовыми координатами произвольной точки плоскости Ki, K2 и введенными параметрами определится соотношениями: Ki = рcos ф + 0,5, K2 = р sinф + 0,5. Изменяя угол в пределах 0 < j < 2p и меняя параметр r в пределах плоскости Ki, K2, т. е. в пределах 0 < r < 0,5 можно получить координаты любой из точек областей. Границы областей состояний можно определить с помощью параметра r следующим образом:
- r » 0,05 - граница области работоспособности;
- r ^ 0,05 и r ^ 0,25 - границы области однократных дефектов;
- r ^ 0,25 и r ^ 0,45 - границы области многократных дефектов;
- r ^ 0,45 и r ^ 0,475 - границы области недопустимых состояний.
Для дополнительного качества обучения, кроме включения координат границ областей состояний, можно также во входном векторе представить последовательности точек, принадлежащим разным областям и разграничить совпадающие границы областей. Такое построение увеличит объем обучающей последовательности с 605 до 759 обучающих пар, но тем самым увеличит и точность отнесения входных векторов желаемым областям состояний. Полученный объем в отношении к нейронным сетям, решающих задачи классификации и кластеризации, не является большим, и существенно не повлияет на скорость функционирования сети, в частности вероятностной НС.
При ограниченных аппаратных возможностях реализации сети, можно опустить рассмотренную дополнительную составляющую обучающей последовательности и использовать только координаты областей состояний. Программа построения разрабатываемой сети будет реализовываться в среде MatLab, применяющейся при решении математических задач. Поэтому выбор структуры нейросети можно выполнять, исходя из возможностей среды MatLab и ее специализированного пакета Neural Network Toolbox.
Пакет Neural Network Toolbox содержит средства для проектирования, моделирования, обучения и использования множества известных парадигм аппарата искус-
ственных НС: от базовых моделей персептрона до самых современных ассоциативных и самоорганизующихся сетей. Для каждого типа архитектуры и обучающего алгоритма НС имеются функции инициализации, обучения, адаптации, создания и моделирования.
В состав пакета Neural Networks Toolbox входит 150 различных функций, образуя собой своеобразный макроязык программирования, позволяющий создавать, обучать и использовать самый широкий класс нейросетей. Данные функции по своему назначению делятся на ряд групп. Функции активации и связанные с ними функции обучения нейронных сетей. Функции настройки слоев нейронов являются вспомогательными при работе с некоторыми функциями обучения НС, а также используются при настройках однослойных нейросетевых структур (персептронов, слоев Кохонена и т.п.). Функции одномерной оптимизации можно рассматривать как вспомогательные для функций обучения.
Для многих НС этапом, предваряющим процедуру их обучения, является инициализация (задания некоторых - обычно выбираемых случайным образом) весов и смещений сети. Функции преобразования входов сети преобразуют значения входов с использованием операций умножения и суммирования. Функции весов и расстояний используют при создании самоорганизующихся карт. Функции использования нейронных сетей:
- моделирующая работу НС;
- инициализации НС;
- осуществляющая обучение НС;
- информации о структуре и свойствах НС.
Пакет Neural Networks Toolbox содержит ряд блоков, которые могут быть использованы для построения НС (в виде схем) в среде Simulink, либо применяться вместе с специальной функцией gensim, для создания модели сети по существующей программе на нейрочипе, нецелесообразна вследствие, высокой их стоимости и сравнительно небольшими требованиями, предъявляемыми нейросетью к микросхеме, так как исходная структура сети содержит всего два слоя и оперирует с двумя входами. Одним из вариантов аппаратной реализации является применение микроконтроллера фирмы Analog Devices, основным преимуществом которого в решаемой задаче, является низкая стоимость.
При решении сложных плохо формализуемых задач диагностики эффективность нейросетевого подхода проявляется в полной мере и может быть успешно использована для решения задач диагностики судовых электрических средств автоматизации (СЭСА). Выполняются задачи идентификации моделей, кластеризации данных, распознавания образов. При диагностировании судовых электрических средств автоматизации (ЭСА) технические состояния структурных единиц и элементов ЭСА можно принять за распознаваемые образы, а входной набор данных представить массивами значений основных диагностических признаков. Анализ состояний ОД, отображенных в пространстве основных диагностических признаков, выполняется при разбиении плоскости Ki, K2 на подобласти состояний ОД. При этом группируются входные данные по критерию близости. Сеть выполняет кластеризацию данных, которая позволяет построить эффективный анализ состояния ОД при выполнении локализации дефектов в схемах СЭСА. Задачу диагностирования СЭСА можно свести к задаче наблюдения за величинами диагностических признаков выбранных каналов диагностирования.
При использовании нейросетевых методов существуют различные способы выделения областей, выбор наиболее оптимальных из них, обеспечивающих сходимости построенных алгоритмов, является первостепенной задачей, решаемой при нейро-сетевом подходе. В настоящее время применяются различные способы реализации запоминания областей. Наиболее употребляемые из них - это выделение областей гиперплоскостями и покрытие областей гипершарами. Для запоминания одной из ограничивающих область гиперплоскости достаточно сохранения n +1 значения, где n - размерность пространства. Соответственно для запоминания одного гипершара также требуется n +1 значение: координаты центра и радиус.
В нейронных сетях для запоминания каждой гиперплоскости или гипершара используется отдельный элементарный вычислитель, называемый нейроном, а для запоминания всех гиперплоскостей или гипершаров используется объединение составляющих нейронов в параллельную структуру - нейросеть. Именно параллельная согласованная работа всех нейронов обеспечивает быстрое решение задачи о принадлежности точки n-мерного пространства выделяемой при создании сети области.
Выберем для решения задач диагностики однонаправленные двухслойные сети, дающие хорошие результаты сходимости и точности решений. Задача формирования обучающей выборки, определение ее объема решается исходя из конкретного условия поставленной задачи. Выберем множество пар входных и выходных векторов {Xk,Yk}, k = 1,..., N, где N - размер обучающей выборки. НС считаем однородной с последовательными связями и сигмоидальными передаточными функциями. Для определения количества нейронов, необходимого числа синаптических связей и их весов исползуется соотношение:
MN/(1 + log2N) < Lw < M[(N/M) + 1] (n + M + 1)+ M,
где M = 2m - размерность входного сигнала; m - количество двухполюсных компонент схемы замещения ОД; n - размерность входного сигнала. При решении задач диагностики методом исключения варьируемого параметра пространство наблюдений состоит из двух диагностических признаков, т. е. n = 2.
Для определения количества синаптических связей при рассмотрении схемы, содержащей 20 составляющих компонент, зададимся следующими параметрами: N = 512; n = 2; M = 106 Получим 2 ■ 105 < Lw < 1012. Количество нейронов определим из соотношения: L = Lw/(n + M), тогда L = 100. Построение такой сети реально. Наиболее эффективным в данном случае является алгоритм обратного распространения (back propagation) и если функция активации нейрона дважды дифференцируема, то согласно теореме «о полноте» любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми нейронными сетями.
Рассмотрим двухслойную сеть с несколькими нейронами скрытого слоя (рис. 5).
Построим алгоритм обучения этой нейросети. Специфика этого алгоритма определяет круг задач диагностирования судовых ЭСА. Выход сети описывается выражением:
Ok = 1/(1 + exp(-wTok)),
где w - вектор весов выходного нейрона; Ok - вектор выходов нейронов скрытого слоя с элементами: ok = 1/(1 + exp(-wTxk)), где w; - вектор весов, связанных с i-м скрытым нейроном, i = 1,...,L.
Рис. 5. Нейронная сеть с корректировкой весов
Градиентная корректировка весов выполняется на основе минимизации квадратичной функции ошибки посредством соотношений:
W = W - п [дEk (W, w) /дW]; w; = W - п [дEk (W, w) /дw;],
где п = const - коэффициент скорости обучения (0 < п < 1). Тогда для сигмоидальной функции активации получим:
дEk(W, w)/дW = 0,5д/дW[>’k-1/(1 + exp(-wTok))]2 = -(yk - Ok)Ok(1 - Ok)ok.
Подставляя в исходное выражение, получим в скалярной форме:
W; := W; + п^,
где 4 = (yk - Ok)Ok(1 - Ok).
Аналогично для второго выражения в скалярной форме получим:
wj = wj + п^^О (1 - ok )xk,
где ; = 1,...,L; j = 1,...,n.
Алгоритм обучения нейросети, представленный на рис.5, используется для построения процедуры оценки состояния объектов судовых ЭСА. Наиболее употреб-лямым способом запоминание областей, является способ выделения областей гиперплоскостями.
Для запоминания отдельной гиперплоскости используется нейрон. Совокупность гиперплоскостей представляется объединением нейронов в нейросеть, выполняющую параллельную согласованную работу всех нейронов, что обеспечивает оперативное решение задачи о идентификации точки области, выделяемой при построении сети. Каждый нейрон j задает значениями весов своих входов уравнение гиперплоскости:
n(j)
aj = Е jj' = «,
;=0
где п (/) - количество входов нейрона /; о/ - величина порога функции активации, / € 1,2,..., N обеспечивает оперативное решение задачи об идентификации точки области, выделяемой при построении сети. Двухуровневая НС способна аппроксимировать любую непрерывную функцию, определенную на ограниченном множестве {х1,хп}, с любой заданной точностью е > 0:
N п0') . .
/ (*ь...., хп) = £ Ж1/(1 + ехр(- £
г=1 г'=1
где N - количество нейронов первого слоя; - вес / го входа г-го нейрона первого слоя с сигмоидальной функцией активации, г = 1, N;/ = 1,п.
В двумерном пространстве основных диагностических признаков можно выполнить разбиение изоварной картины по областям с реализацией распределенного коллективного запоминания нейронами при обучении. При этом выделение области работоспособности и областей одиночных и кратных дефектов наиболее эффективно проводится гиперплоскостями. Анализ изоварной картины мостового выпрямителя показал возможность использования нейросети для автоматизации диагностических процедур.
ЗАКЛЮЧЕНИЕ
Проведенные теоретические исследования и модельные компьютерные эксперименты позволяют сделать следующие выводы:
- проблема роста искажающей мощности в сети электропитания может быть эффективно решена методами активной цифровой фильтрации;
- выделение импульсных кондуктивных и других видов помех эффективно осуществлять, используя разложение в базисе вейвлетов;
- практическая реализация алгоритмов цифровой обработки может быть успешно осуществлена средствами микропроцессорной техники и силовой электроники.
Библиографический список
1. Горева Т.И., Пюкке Г.А., Портнягин Н.Н. Разработка метода построения аналитической модели параметрической оптимизации систем // Вестник КРАУНЦ. Физико-математические науки. -2011. - № 2 (3) - С. 33-41.
2. Горбань А. Н., Дунин-Барковский В. Л., Кардин А. Н. и др. Нейроинформатика. - Новосибирск: Наука, 1998. - 295 с.
3. Пюкке Г. А., Кузнецов С. Е., Портнягин Н. Н. Диагностирование электрических цепей методом изовар / Изв. Вузов. Электромеханика. - 1998. - № 1. - С. 35-40.
Поступила в редакцию / Original article submitted: 24.07.2012