Научная статья на тему 'Классификация состояний электрической системы промышленного предприятия с помощью исскуственных нейронных сетей'

Классификация состояний электрической системы промышленного предприятия с помощью исскуственных нейронных сетей Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
70
20
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Пантелеев В. И., Шевченко В. В.

В данной статье для классификации состояний системы электроснабжения рассмотрена нейросеть Кохонена. Описанная в этой статье нейросеть Кохонена отличается от классической использованием нестандартного сумматора и тем, что при ее настройке варьируются не веса нейронов, а их пороги.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Пантелеев В. И., Шевченко В. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The classification of electric system conditions of the industrial enterprise by neural networks

For classification of electrosupply system states the Kohonen neural net is considered. described in this paper, Kohonen neural net differs from classical use of the non-standard summator and that at its adjustment it is varied not neuron weights, but their thresholds.

Текст научной работы на тему «Классификация состояний электрической системы промышленного предприятия с помощью исскуственных нейронных сетей»

ЭЛЕКТРОЭНЕРГЕТИК

I

УДК 007.52(042.3)

КЛАССИФИКАЦИЯ СОСТОЯНИЙ ЭЛЕКТРИЧЕСКОЙ СИСТЕМЫ ПРОМЫШЛЕННОГО ПРЕДПРИЯТИЯ С ПОМОЩЬЮ ИССКУСТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ*

В.И. ПАНТЕЛЕЕВ, В.В. ШЕВЧЕНКО

Красноярский государственный технический университет

В данной статье для классификации состояний системы электроснабжения рассмотрена нейросеть Кохонена. Описанная в этой статье нейросеть Кохонена отличается от классической использованием нестандартного сумматора и тем, что при ее настройке варьируются не веса нейронов, а их пороги.

Системы электроснабжения (СЭС) современных промышленных предприятий представляют собой большие системы, управление которыми сложно описать какими-либо адекватными уравнениями. В связи с этим резко увеличивается сложность управления энергоснабжением предприятий.

Одним из подходов к решению данной проблемы является ситуационное управление сложными системами, основанное на трех принципах:

1. Система может находиться в разных состояниях.

2. Количество состояний растет с ростом сложности системы.

3. Количество возможных планов управления на порядок меньше количества состояний системы.

Для реализации данного подхода используют разбиение всего множества состояний системы на классы в соответствии с применяемыми планами управления. Далее текущее состояние системы, в соответствии с заданными признаками, относят к одному из классов и применяют соответствующий план управления.

Для того, чтобы осуществить принципы ситуационного управления, необходимо определить, что представляет собой состояние данной СЭС, само возможное множество состояний СЭС и алгоритм определения класса текущего состояния СЭС.

Множество состояний определяется из имитационной модели СЭС [1]. Для идентификации состояния можно использовать оптимальные значения некоторого набора управляющих параметров [1]. Класс, к которому относится текущее состояние, определяется из некоторого условия близости вектора управляющих параметров к подмножеству векторов одного класса. Если состояние системы определяется некоторым т-мерным вектором g = {gl,...,£т}, то два состояния считаются принадлежащими одному классу, если разность двух одинаковых компонент этих векторов меньше некоторой величины

Работа выполнена в рамках гранта Минобразования России Т02-01.1-970. © В.И. Пантелев, В.В. Шевченко Проблемы энергетики, 2004, № 5-6

я2 - я1

(1)

где і = 1, т; я і - і-я компонента к-го вектора состояния. Из неравенства (1)

вытекает, что все гиперпространство состояний системы разбивается на множество непересекающихся гиперпараллелепипедов с ребрами .

Алгоритм разбиения множества состояний системы на классы определяется функцией В(я1, ) сходства двух состояний я1 и я^ :

4і, яі )=£в к и. 4}

(2)

где 0к - функция, выражающая соотношение (1).

Ь ірк, як )=

1, если 0, если

як - як

як- як

<= ик > йк.

(3)

Согласно определению (2) функции В(gl, gJ), состояния gl и gJ

принадлежат одному классу, если В(gl, gJ) = т , другими словами, значение функции В равно максимальному. Пусть имеется некоторое множество

известных состояний СЭС gl, I = 1,...,N. Возьмём первый вектор-состояние g1 и рассмотрим его как эталон состояний 1-го класса. Далее возьмём следующий вектор состояние g и найдем значение функции В на этих векторах. Если оно равно максимуму, то отнесем его к 1-му классу. Если значение функции меньше, то определим новый 2-й класс с эталоном g2. Каждый последующий вектор-

состояние gl либо относится к одному из определенных ранее классов, либо образует новый.

Данный алгоритм можно реализовать видоизмененной нейронной сетью Кохонена. Оригинальная сеть Кохонена состоит из одного слоя нейронов (рис.1) и обучается без учителя. Обозначим через Х[, I = 1,..., М входы в нейронную сеть, а через у у, у = 1,..., N - выходы из нейронной сети. Обучение данной сети

происходит для каждого элемента всего множества входных сигналов и состоит из двух стадий:

1. На вход сети подается входной сигнал х = {х1 ,..., хт }, соответствующий одному из состояний системы. Затем выбирается нейрон с максимальным откликом

~ Х , (4)

I

где 'Му - вес 1-го входа ву-м нейроне.

к

Г1 Г2

Г3

Г4

ВХОДЫ

M

N

Рис. 1. Схема нейросети Кохонена

2. Изменяются веса нейронов по формуле

= wij + аР(у)хі - wij У (5)

где функция р(, у) характеризует расстояние ж-го нейрона доу'-го нейрона и имеет шляпообразный вид (рис. 2), а а - коэффициент, стремящийся к нулю по мере обучения.

Рис. 2. Варианты функции р

Смысл функции р при изменении весов сети состоит в том (рассмотрим вариант В рис. 2), что веса нейронов, находящихся вблизи я-го нейрона с максимальным сигналом, для которых функция р положительна, будут равны,

согласно (5), входному сигналу: ^Ц = х;. Веса нейронов, находящихся вблизи я-го нейрона, но для которых р < 0, уменьшаются на некоторую величину. Веса остальных нейронов не изменяются.

Рассмотрим данный алгоритм с геометрической точки зрения. Для этого выходной сигнал с ц-го нейрона

представим в виде скалярного произведения

Уї = (, х)

(7)

вектора весов ]-го нейрона

={т^1І ,..., М>щ }

(8)

на вектор входного сигнала х = {х^,..., х^ }. Тогда величины выходных сигналов

геометрически будут представляться нормированными проекциями векторов w у на вектор х (рис. 3).

Рис. 3. Геометрическое представление состояний и весов нейронов (вар.1)

Учитывая формулу изменения весов нейронов (5), процесс обучения будет представляться тремя вариантами:

1. Нейрон находится на расстоянии меньше чем §1 от нейрона с максимальным сигналом (рис. 2), тогда его вес wу будет стремиться к х.

2. Нейрон находится на расстоянии от 81 до 52 + 51, тогда его вес Wj будет удаляться от х.

3. Нейрон находится на расстоянии больше §2 + 81, тогда его вес wу не будет изменяться.

На рис. 4 представлены три варианта весов-векторов до и после обучения.

^1, х) > ^2, х)

До обучения

После обучения

Рис. 4. Геометрическое представление состояний и весов нейронов (вар.2)

Сеть Кохонена используется, главным образом, для выявления кластерной структуры во входных данных. Варьируя вид функции р , можно усиливать или размывать границы между кластерами. Отнесение входного вектора к тому или иному классу можно делать на основе некоторого критерия схожести кластерных структур. Поскольку нас интересует только вопрос классификации входных векторов, естественно сделать так, чтобы при подаче на вход векторов из одного класса максимальный выходной сигнал был бы с одного и того же нейрона. Такому условию будет удовлетворять сеть с функцией р, отличной от нуля, только при совпадении аргументов:

Легко заметить (см. рис. 4 как иллюстрацию), что два сильно

могут иметь одинаковую проекцию на одно направление. Поэтому сеть Кохонена, как она описана выше, не подходит для наших целей.

Видоизменим сеть следующим образом: топологию оставим такой же, но выходной сигнал будем считать не по формуле (6), а по формуле

(9)

2 1

отличающихся, согласно выражению (1), вектора, - хі — хі > , і = 1,..., М , -

(10)

Обучение сети будет состоять из двух этапов:

1. Всем весам -фу задается нулевое значение.

2. Изменение весов при подаче на вход сети каждого элемента всего

множества входных сигналов - согласно алгоритму для обычной сети Кохонена.

Вышеописанная нейросеть была сделана в виде программы, написанной на С++ВшМег. Для проверки программы данные были взяты из [1] и приведены в таблице 1. Количество нейронов было выбрано равным 100. При обучении коэффициент а изменялся в геометрической прогрессии - 0,5”, где и-порядковое значение обучающей итерации. Первым значением и является 0, так как если очередной набор входных данных не попадает ни в один из имеющихся классов, то выбирается очередной нейрон с нулевыми весами, который, изменяясь, становится индикатором нового класса.

Таблица 1

Номер состояния Оптимальные значения управляющих параметров

*1 *2 *3 *4 *5 *6

1 8 0,699 0,742 0,943 0,623 0

2 9 0,681 0,685 0,981 0,597 0

3 9 0,674 0,638 0,994 0,560 0,677

4 8 0.710 0,756 0,990 0,618 0,725

5 8 0.677 0,645 0,994 0,592 0,674

6 8 0,719 0,731 0,981 0,635 0,748

7 8 0,717 0,694 0,937 0,658 0,749

8 8 0,808 0,845 0,868 0,670 0,873

9 8 0,706 0,680 0,932 0,595 0

10 8 0,698 0,651 0,872 0,619 0

11 8 0,713 0,729 1,000 0,619 0

12 8 0,670 0,706 0,986 0,584 0

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

13 8 0,684 0,723 0,990 0,596 0

14 8 0,689 0,730 0,934 0,582 0

15 8 0,720 0,719 0,989 0,636 0

16 8 0,684 0,642 0,876 0,625 0

17 9 0,684 0,666 0,957 0,593 0

18 10 0,686 0,631 0,531 0,584 0,685

19 8 0,696 0,669 0,987 0,582 0

20 8 0,692 0,716 0,985 0,621 0,703

21 9 0,667 0,614 0,971 0,573 0,659

22 8 0,700 0,678 0,863 0,617 0

23 8 0,733 0,771 0,960 0,590 0

24 8 0,702 0,719 0,974 0,571 0

25 8 0,690 0,695 0,994 0,578 0

26 9 0,660 0,674 0,942 0,536 0,651

27 10 0,669 0,679 0,510 0,558 0,668

28 8 0,770 0,816 0,948 0,632 0

29 8 0,749 0,768 0,754 0,653 0

30 8 0,726 0,731 0,958 0,613 0

Таким образом, по мере обучения нейросети, порядковое значение нейронов с ненулевыми весами становится номером класса состояния, выделенного нейросетью. Результаты классификации, полученные на данных из таблицы 1, записаны в таблицу 2. Обучающая выборка из 30 состояний была разделена на 11 классов. Из таблицы видно, что были изменены веса 13-ти нейронов, а 7-й и 9-й нейроны не идентифицировали ни одного состояния из обучающей выборки. Так произошло потому, что в процессе обучения состояния, первоначально изменившие веса этих нейронов, после обучения оказались ближе к весам других нейронов.

Таблица 2

Результаты классификации

номер состоя ния 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

номер класса 1 2 3 4 5 4 4 6 1 8 1 1 1 1 1 8 2

номер состоя ния 18 19 20 21 22 23 24 25 26 27 28 29 30

номер класса 10 11 4 3 8 1 1 1 3 10 12 13 1

Сравнивая результаты классификации, полученные данным способом, с результами [1], полученными на том же множестве состояний, видно, что они различаются. Одним из объяснений различий в классификациях является то, что веса нейронов в процессе обучения меняются в геометрической прогрессии, и предыдущие значения весов нейронов нигде не запоминаются. Изменение весов нейрона в геометрической прогрессии приводит к тому, что обучение нейрона идет только на нескольких первых обучающих состояниях. Количество состояний, практически изменяющих веса, можно увеличить, заменив геометрическую прогрессию на гармонический ряд - а = 1/ n .

Summary

For classification of electrosupply system states the Kohonen neural net is considered . described in this paper, Kohonen neural net differs from classical use of the non-standard summator and that at its adjustment it is varied not neuron weights, but their thresholds.

Литература

1. Филатов С.Н. Управление режимами реактивной мощности и напряжения электрических систем промышленных предприятий. - Красноярск, 1997.

2. Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. -Новосибирск: Наука, 1996.

3. Терехов С. А. Лекции по теории и приложениям искусственных нейронных сетей. - Снежинск, 1994.

Поступила 11.03.2004

i Надоели баннеры? Вы всегда можете отключить рекламу.