УДК 621.391
ПРИМЕНЕНИЕ НЕЙРОСЕТЕВОГО ПОДХОДА ПРИ ДИАГНОСТИРОВАНИИ ЭЛЕКТРИЧЕСКИХ ЦЕПЕЙ УСТРОЙСТВ СУДОВЫХ ЭЛЕКТРИЧЕСКИХ СРЕДСТВ АВТОМАТИЗАЦИИ МЕТОДОМ ИСКЛЮЧЕНИЯ ВАРЬИРУЕМОГО ПАРАМЕТРА
Г.А. Пюкке, Н.Н. Портнягин (КамчатГТУ)
Рассматриваются вопросы, связанные с использованием нейросетевых моделей при построении методики диагностирования электрических цепей на основе разработанного авторами метода изоварных диагностических моделей.
The articles deals with the question of neuro supply-line model usage in the process of scheming the diagnosing method of electric circuits on the basis of izovar diagnostic models developed by the authors.
При решении сложных плохоформализуемых задач диагностики процедура формирования алгоритма последовательности необходимых действий трудновыполнима. В таких случаях эффективность нейросетевого подхода проявляется в полной мере и может быть успешно использована для решения задач диагностики электрических цепей устройств судовых электрических средств автоматизации (СЭСА). При диагностировании судовых ЭСА работоспособность структурных единиц и элементов ЭСА можно принять за распознаваемые образы, а входной набор данных представить массивами значений основных диагностических признаков. Выполняются задачи идентификации моделей, кластеризации данных, распознавания образов.
Анализ состояний объекта диагностирования (ОД), отображенных в пространстве основных диагностических признаков, выполняется при разбиении плоскости К1, К2 на подобласти состояний ОД [1]. При этом группируются входные данные по критерию близости. Сеть выполняет кластеризацию данных, которая позволяет построить эффективный анализ состояния ОД при выполнении локализации дефектов в схемах СЭСА. Как показано в работе [1], задачу диагностирования СЭСА можно свести к задаче наблюдения за величинами диагностических признаков двух выбранных каналов диагностирования. При использовании нейросетевых методов существуют различные способы выделения областей, а также выбор наиболее оптимальных из них, обеспечивающих сходимости построенных алгоритмов. В настоящее время применяются различные способы реализации запоминания областей. Наиболее употребляемые из них -это выделение областей гиперплоскостями и покрытие областей гипершарами. Для запоминания одной из ограничивающих область гиперплоскости достаточно сохранения n + 1 значения, где n - размерность пространства. Соответственно для запоминания одного гипершара также требуется п + 1 значение: координаты центра и радиус.
В нейронных сетях для запоминания каждой гиперплоскости или гипершара используется отдельный элементарный вычислитель, называемый нейроном, а для запоминания всех гиперплоскостей или гипершаров используется объединение составляющих нейронов в параллельную структуру - нейросеть. Именно параллельная согласованная работа всех нейронов обеспечивает быстрое решение задачи о принадлежности точки n-мерного пространства выделяемой при создании сети области.
Для решения задач диагностики можно выбрать однонаправленные двухслойные сети, дающие хорошие результаты сходимости и точности решений. Задачи формирования обучающей выборки и определение ее объема решаются исходя из конкретного условия поставленной задачи.
Выберем множество пар входных и выходных векторов {X, Yk}, k = 1, ..., N , где N - размер обучающей выборки. При этом считаем нейронную сеть (НС) однородной с последовательными связями и сигмоидальными передаточными функциями. Для определения количества нейронов, необходимого числа синаптических связей и их весов Lw в работе [2] приведено соотношение
MN/(1 + log2N) < Lw < M[(N/M) + 1](n + M + 1) + M,
где М = 2m - количество составляющих компонент;
m - количество двухполюсных компонент схемы замещения ОД;
n - размерность входного сигнала.
При решении задач диагностики методом исключения варьируемого параметра пространство наблюдений состоит из двух диагностических признаков, т. е. n = 2. Для определения количества
синаптических связей при рассмотрении схемы, содержащей 20 составляющих компонент, зададимся следующими параметрами: N = 512; n = 2; М = 106. Тогда получим: 2 • 105 < Lw < 1012. Количество нейронов определим из соотношения L = Lw / (n + M). Тогда L = 100. Построение такой сети реально. Как уже отмечалось, наиболее эффективным в данном случае является алгоритм обратного распространения (back propagation), и если функция активации нейрона дважды дифференцируема, то согласно теореме «о полноте» любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми нейронными сетями. Рассмотрим двухслойную сеть с несколькими нейронами скрытого слоя (рис. 1). Построим алгоритм обучения данной нейросети. Специфика этого алгоритма определяет круг задач диагностирования судовых ЭСА. Выход сети определяется выражением Ok = 1/(1 + exp (-wTok)), где w - вектор ве-
k
сов выходного нейрона; o - вектор выходов нейронов скрытого слоя со следующими элементами: ok = 1 / (1 + exp(-wtTxk)), где wi - вектор весов, связанных с i-м скрытым нейроном; i = 1, L.
Рис. 1. Нейронная сеть с корректировкой весов
Градиантная корректировка весов выполняется на основе минимизации квадратичной функции ошибки посредством следующих соотношений:
W: = W- n[5^k(W, w)/dW]; w, : = W- n[5Ek(W, w)/SW,-],
где n = const - коэффициент скорости обучения (0 < n < 1).
Тогда для сигмоидальной функции активации получим:
dEk(W, w)/dW = 0,5d/dW[yk - 1/(1 + exp(-wTok))]2 = -(yk - Ok)Ok(1 - Ok)ok.
Подставляя данную формулу в исходное выражение, получим в скалярной форме:
W : = W + nSkok,
где 5k = (yk - Ok)Ok(1 - Ok).
Аналогично для второго выражения в скалярной форме получим:
wij = wy- + n5kW-o!k(1 - ok)xk,
где i = 1, ., L; j = 1, ..., n.
Алгоритм обучения нейросети, представленный на рис. 2, используется для построения процедуры оценки состояния объектов судовых ЭСА.
Как было отмечено ранее, наиболее употребляемым способом запоминания областей является способ выделения областей гиперплоскостями. Для запоминания отдельной гиперплоскости используется нейрон. Совокупность гиперплоскостей представляется объединением нейронов в нейросеть, выполняющую согласованную работу всех нейронов, что обеспечивает оперативное решение задачи об идентификации точки области, выделяемой при построении сети. Каждый нейрон j задает значениями весов своих входов уравнение гиперплоскости
а, - УЖ X = 0,
1 і і ’
і = 1
где п(/) - количество входов нейрона у; ц - величина порога функции активации; у е {1, 2, ..., Л}, где N - количество нейронов. В работе [2] показано, что двухуровневая НС способна аппроксимировать любую непрерывную функцию, определенную на ограниченном множестве {х1, хп}, с любой заданной точностью е > 0:
N п (/)
АХи ., хп) = ^ V (1 /(1 + ехр(-£ ЖуХу)),
/ = 1 / = 1
где N - количество нейронов первого слоя; Жу - вес у-го входа /-го нейрона первого слоя с сигмоидальной функцией активации; / = 1, ..., Л; у = 1, ..., п. В двумерном пространстве основных диагностических признаков можно выполнить разбиение изоварной картины по областям с реализацией распределенного коллективного запоминания нейронами при обучении. При этом выделение области работоспособности и областей одиночных и кратных дефектов наиболее эффективно проводится гиперплоскостями. Анализ изоварной картины мостового выпрямителя показал возможность использования нейросети для автоматизации диагностических процедур.
Рис. 2. Алгоритм обучения нейросети
2
3
4
5
6
7
Обучение НС выполняется на основе построения входного вектора Рвх (где две строки соответствуют двум координатам К1, Кг пространства основных диагностических признаков, а N столбцов задают объем обучающей выборки) и выходного вектора Твых (в качестве эталонной обучающей последовательности). Выполним кодировку состояния ОД следующим образом. Каждой строке вектора Твых поставим в соответствие состояние ОД: первой строке вектора Твых - работоспособное состояние ОД (если ОД работоспособен, то значение компоненты вектора Твых(1,1 : N) = 1, в противном случае оно равно нулю; второй строке вектора Тт1х - дефект одного или нескольких элементов ОД (если работоспособность потеряна, то значение компоненты вектора Твых(2,1 : N) = 1, в противном случае оно равно нулю); третьей строке вектора Твых - выход из строя всех элементов ОД (если состояние недопустимое, то Твых(3,1 : N) = 1, в противном случае оно равно нулю). Количество столбцов вектора Твых зададим равным N - общему объему обучающей выборки.
При кодировании состояний ОД по координатам пространства основных диагностических признаков (К1, Кг) строится конфигурация соответствующих областей, которая соответствует реальным картам изовар, представленным в работе [1]. На плоскости К1, Кг введем полярную систему координат с центром в точке (0,5; 0,5) : К1 = R0 cos Fi + 0,5; Кг = R0 sin Fi + 0,5. Изменяя R0 и Fi, переберем все точки пространства диагностирования и построим векторы обучающей последовательности Р и Т. Одновременно, задав точки тестирования внутри рассматриваемых областей, дадим оценку качества обучения. В работе [2] показано, что для решения задач кластеризации, выделения и классификации областей состояний ОД на плоскости изоварных характеристик наиболее эффективным является использование сетей с радиусными базисными функциями. В пакете Neural Networks Toolbox их три - newrbe, newpnn и negrnn, отличающихся структурой и видом функции активации нейронов. Выбор нейросети можно осуществить, создав алгоритм и программу тестового опробования в соответствии с изложенной методикой. Тестовая обучающая последовательность построена на основе кластеризации, т. е. разбиении пространства диагностических признаков К1, Кг на области состояний ОД. Для выбранной сети Кохонена критерий подстройки весов выражается соотношением
|| x - Wr || = min || x - Wi ||,
где r - нейрон-победитель, соответствующий вектору весов wr; || wi || = 1; i = 1, m. На выходе нейрона-победителя устанавливается единица. При этом на выходе остальных нейронов устанавливается нуль. Веса входов корректируются из расчета минимума квадрата рассогласования: min{|| x - wr ||г}. Согласно градиентному методу
wtTwі = || wi ||г = 1, {|| x - wr ||г = xTx - 2 wtTx + 1; wrT = max wtTx; wr : = wr - n(d || x - wr ||2/dwr); d || x - wr ||2/dwr = -2(x - wr).
Тогда получим выражение для корректировки:
wr : = wr + 2n (x - wr).
На основании полученных соотношений построим алгоритм Кохонена (рис. 3).
Сначала задаются нормализованные по длине случайные векторы. Далее начинается цикл обучения с ввода очередного вектора входов. Выявляется нейрон-победитель и выполняется корректировка вектора его весов. Задается единичный выход и выполняется нормализация полученного вектора. Задаются значения для остальных нейронов и выполняется проверка правила останова. Алгоритм заканчивается, если условия останова выполняются. В противном случае все повторяется со второго шага. В результате выполнения процедуры коррекций получаются векторы весов и центры кластеров входных образов. После кластеризации предъявленных векторов входов выполняется выделение центров кластеров входов. После кластеризации состояний на примере мостового выпрямителя при наблюдениях по методу исключения варьируемого параметра можно решить задачу автоматического выделения центров кластеров. Ниже приведена программа выделения центров и опроса сети:
clusters = 12; ’Задание параметров для моделирования исходных данных’ points = 10; std_dev = 0.01;
Х = [01;01 ]; ’Задание пространства положения центров кластеров’
P = nngenc(X, clusters, points, std_dev); ’Моделирование исходных данных’ h = news([01;01], 64,1); ’Создание слоя Кохонена’
h. trainParam.epochs = 500; ’Задание количества циклов обучения’ h = init(h); ’Инициализация сети’ h = train(h, P); ’Обучение сети’ w = h. IW{1};
plot(P(1, :), P(2, :),'+'); ’Вывод исходных данных’
hold on; plot(W (1, :), W(2,: ),o); ’Вывод центров заданных кластеров’
xlabel('p(1)');
ylabel('p(2)');
p = [0.55; 0.2]; ’Задание вектора предъявления D’ y = sim(h, p); ’Опрос сети’ y = (5,1)1 'Результаты опроса сети'
Рис. З. Алгоритм Кохонена
2
з
4
5
6
7
На рис. 4 представлено пространство основных диагностических признаков и области состояний электронного стабилизатора, выделенные в результате анализа вектора условных вероятностей, а также детерминированная изоварная картина. После обучения и опроса нейросети предъявленный вектор (рис. 4, точка Б) отнесен к 5-му кластеру, соответствующему короткому замыканию 4-го элемента.
Таким образом, при решении основных задач диагностики по локализации дефектов и определении предотказных состояний судовых ЭСА методом исключения варьируемого параметра могут быть использованы нейросетевые процедуры, включенные в общий алгоритм создания нейросети, в составе программно-аппаратного комплекса диагностирования.
На рис. 5 приведен алгоритм формирования НС при решении комплексной задачи диагностирования судовых ЭСА. Сначала строится регулярная модель на основе метода исключения варьируемого параметра вышеописанным способом: составляется эквивалентная схема замещения ОД, определяются допустимые границы варьирования составляющих компонент. На основе введенных критериев выбираются два канала диагностирования. Выполняется операция класте-
ризации пространства основных диагностических признаков (пространство доступных измерений) на основе нейросети Кохонена. Выполняется снятие диагностической информации непосредственно на объекте диагностирования (измеряются основные диагностические признаки К\, К2). Производится обучение нейросети с радиальными базисными функциями. Выполняется оценка работоспособности ОД, локализация предотказных состояний и поиск возникших отказов.
0. 55 1
Рис. 4. Локализация дефекта по результатам опроса нейросети
Построение регулярной модели диагностирования на остове детерминированных соотношений методом исключения варьируемого параметра
I
Калибровка пространства диагностирования: построение вектора условных вероятностей в каждой его точке
Формирование сета Кохонена, построений обучающей выборка для нейросети
Кластеризация вектора условных вероятностей в пространстве основных диагностических признаков
Определение характеристик выделенных кластеров
Построений обучающего эталона нейросети
ОбучвниЕ радиальной нейросети
Проверка и тестирование нейросети на статистической модели
Дообучение нейросети
Использование нейросети для решения диагно сткческих задач
Рис. 5. Алгоритм построения нейросети для решения задач диагностики
Разработанный в работе [1] метод исключения варьируемого параметра позволяет в целом решать задачи диагностики. Однако для объектов диагностирования средней и высокой размерности полученные регулярные модели не всегда дают хорошие результаты по точности и однозначности идентификации. Для цепей средней и большой размерности эта задача была решена в вероятностной постановке. С целью опробования вероятностных моделей были поставлены диагностические эксперименты с нейросетью на выходе. Это дало возможность повысить адекватность полученных моделей и приблизить алгоритмическое описание процессов в схемах судовых ЭСА к реальным условиям, что повысило достоверность диагностирования.
Выполненное теоретическое обоснование целесообразности применения нейросетевого аппарата для решения задач диагностики судовых ЭСА, построение зон технических состояний ОД в пространстве основных диагностических признаков, обоснованный выбор структуры и типа нейросети при обучении по выборкам наблюдаемых признаков и кодированных состояний ОД для определения и локализации кратных дефектов на регулярных и вероятностных моделях показали состоятельность нейросетевого подхода при выполнении диагностирования методом исключения варьируемого параметра. Проведенное исследование показало высокую эффективность newpnn пакета Neural Networks Toolbox при применении ее для решения задач диагностики судовых ЭСА.
Таким образом, при анализе сложных систем приходится отказываться от высоких стандартов точности, характерных для систем небольшой размерности. В этих условиях требования адекватности диагностических моделей не гарантированы. Это объясняется, как правило, сложным характером взаимозависимости параметров компонент, их нелинейностью и вероятностным характером процессов, протекающих в системах. В частности, при неполной или ограниченной информации о надежности компонент задача идентификации попадает в ранг трудноразрешимых.
Техническая наука имеет определенные исторически сложившиеся подходы к решению задач подобного рода: численные методы, корреляционный анализ, метод статистических испытаний и др. Применение нейронных сетей позволяет в ряде случаев избежать подобных трудностей.
Анализ работ, связанных с использованием нейронных сетей для решения задач диагностирования, подтверждает их целесообразность при условии обеспечения качества и точности выполняемой задачи. Гетерогенный характер компонент современных электрических средств автоматизации затрудняет процесс построения адекватных моделей диагностирования. Решаемые задачи не поддаются строгой формализации традиционными математическими методами. В таких условиях оправдан нейросетевой подход, позволяющий обеспечить достаточно высокое качество выполнения задачи.
В работе [2], касающейся аппроксимации нелинейных функций, заложен математический базис нейросетевой теории, определяющий универсальные аппроксимирующие свойства нейронных сетей. В большинстве случаев аналитические модели диагностирования - это нелинейные соотношения, затрудняющие формирование модели объекта диагностирования по моделям составляющих компонент. Формально высказывание об универсальных аппроксимационных свойствах нелинейности представляется в виде
2n+1 n
F(xu X2, . „, Xn) = ^ hq [Yj ФР (xp )] ,
q = 1 p = 1
утверждающем, что с помощью линейных операций и каскадного соединения можно из произвольных нелинейных элементов получить любой требуемый результат с заранее заданной точностью. В данной формуле hq - непрерывная функция; Фqp(xp) - функция, зависящая от F, что открывает неограниченные возможности при использовании нейросетей для решения задач диагностирования.
Литература
1. Пюкке Г.А., Кузнецов С.Е., Портнягин Н.Н. Диагностирование электрических цепей методом изовар / Изв. вузов. Электромеханика. - 1998. - № 1. - С. 35-40.
2. Гаврилович М.В. Введение в нейроматематику. Обозрение прикладной и промышленной математики. - М.: ТВП, 1994. - 377 с.