Научная статья на тему 'Модель адаптивной системы управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации'

Модель адаптивной системы управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
231
34
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АКТИВНО-АДАПТИВНЫЕ ЭЛЕМЕНТЫ / ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ / ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ / МЕТОД ЛЕВЕНБЕРГА-МАРКВАРДТА / СИСТЕМА ЭЛЕКТРОСНАБЖЕНИЯ / КОМПЕНСИРУЮЩЕЕ УСТРОЙСТВО / ACTIVE-ADAPTIVE ELEMENTS / ARTIFICIAL NEURAL NETWORKS / NEURAL NETWORK TRAINING / LEVENBERG-MARQUARDT METHOD / POWER SUPPLY SYSTEM / COMPENSATING DEVICE

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Петухов Роман Алексеевич, Сизганова Евгения Юрьевна, Сизганов Никита Вячеславович, Филатов Алексей Николаевич

В данной работе предложена структура системы управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации, рассмотрены особенности нейронных сетей и представлена численно-математическая модель на основе искусственной нейронной сети для адаптивного управления потоком реактивной мощности, автоматизировано и программно реализовано обучение нейросети. Применен метод Левенберга-Марквардта для обучения искусственной нейронной сети, разработана структура системы управления потоком реактивной мощности и регулирования уровней напряжения. Разработан и программно реализован алгоритм обучения искусственной нейронной сети, основанный на методе Левенберга-Марквардта. Предложена адаптивная система управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации на основе синтеза искусственной нейронной сети и собственной логики СТАТКОМ.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Петухов Роман Алексеевич, Сизганова Евгения Юрьевна, Сизганов Никита Вячеславович, Филатов Алексей Николаевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

MODEL OF ADAPTIVE CONTROL SYSTEM OF REACTIVE POWER FLOW AT THE BALANCE AFFILIATION BOUNDARY OF AN ENTERPRISE AND A GRID OPERATOR

The paper proposes the structure of the reactive power flow control system at a balance affiliation boundary of an enterprise and a grid operator. It deals with the features of neural networks and presents a numerical mathematical model based on an artificial neural network for adaptive control of reactive power flow. Training of the neural network is automated and implemented in software. Levenberg-Marquardt method is used for neural network training. The structure of the control system of reactive power flow and voltage levels is designed. A Levenberg-Marquardt method-based algorithm for neural network training is developed and implemented in software. The authors have proposed an adaptive control system of reactive power flow at the balance affiliation boundary of an enterprise and a grid operator based on the synthesis of the artificial neural network and STATCOM own logic.

Текст научной работы на тему «Модель адаптивной системы управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации»

Оригинальная статья / Original article УДК 621.321

DOI: http://dx.d0i.0rg/l0.21285/1814-3520-2018-12-185-201

МОДЕЛЬ АДАПТИВНОЙ СИСТЕМЫ УПРАВЛЕНИЯ ПОТОКОМ РЕАКТИВНОЙ МОЩНОСТИ НА ГРАНИЦЕ БАЛАНСОВОЙ ПРИНАДЛЕЖНОСТИ ПРЕДПРИЯТИЯ И СЕТЕВОЙ ОРГАНИЗАЦИИ

© Р.А. Петухов1, Е.Ю. Сизганова2, Н.В. Сизганов3, А.Н. Филатов4

124Сибирский федеральный университет,

660041, Российская Федерация, г. Красноярск, пр. Свободный, 79.

3ООО «НПЦ Магнитной гидродинамики»,

660074, Российская Федерация, г. Красноярск, ул. Академика Киренского, 9 а, пом. 225.

РЕЗЮМЕ: В данной работе предложена структура системы управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации, рассмотрены особенности нейронных сетей и представлена численно-математическая модель на основе искусственной нейронной сети для адаптивного управления потоком реактивной мощности, автоматизировано и программно реализовано обучение нейросети. Применен метод Левенберга-Марквардта для обучения искусственной нейронной сети, разработана структура системы управления потоком реактивной мощности и регулирования уровней напряжения. Разработан и программно реализован алгоритм обучения искусственной нейронной сети, основанный на методе Левенберга-Марквардта. Предложена адаптивная система управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации на основе синтеза искусственной нейронной сети и собственной логики СТАТ-КОМ.

Ключевые слова: активно-адаптивные элементы, искусственные нейронные сети, обучение нейронных сетей, метод Левенберга-Марквардта, система электроснабжения, компенсирующее устройство

Информация о статье: Дата поступления 17 октября 2018 г.; дата принятия к печати 16 ноября 2018 г.; дата онлайн-размещения 28 декабря 2018 г.

Для цитирования: Петухов Р.А., Сизганова Е.Ю., Сизганов Н.В., Филатов А.Н. Модель адаптивной системы управления потоком реактивной мощности на границе балансовой принадлежности предприятия и сетевой организации. Вестник Иркутского государственного технического университета. 2018;22(12): 185—201. DOI: 10.21285/1814-3520-2018-12-185-201

MODEL OF ADAPTIVE CONTROL SYSTEM OF REACTIVE POWER FLOW AT THE BALANCE AFFILIATION BOUNDARY OF AN ENTERPRISE AND A GRID OPERATOR

Roman A. Petukhov, Evgeniya Yu. Sizganova, Nikita V. Sizganov, Aleksey N. Filatov

Siberian Federal University,

79, Svobodny pr., Krasnoyarsk 660041, Russian Federation

1Петухов Роман Алексеевич, старший преподаватель кафедры электротехнических комплексов и систем, e-mail: rom_pet1@mail.ru

Roman A. Petukhov, Senior Lecturer of the Department of Electrotechnical Complexes and Systems, e-mail: rom_pet1@mail.ru

2Сизганова Евгения Юрьевна, кандидат технических наук, доцент кафедры электротехнических комплексов и систем, e-mail: seu_eset@mail.ru

Evgeniya Yu. Sizganova, Cand. Sci. (Eng.), Associate Professor of the Department of Electrotechnical Complexes and Systems, e-mail: seu_eset@mail.ru

3Сизганов Никита Вячеславович, инженер-исследователь отдела математического моделирования, e-mail: vitz1234@gmail.com

Nikita V. Sizganov, Engineer-Researcher of the Department of Mathematical Modeling, e-mail: vitz1234@gmail.com

4Филатов Алексей Николаевич, кандидат технических наук, доцент кафедры электротехнических комплексов и систем, e-mail: AFilatov@sfu-kras.ru

Aleksey N.F., Cand. Sci. (Eng.), Associate Professor of the Department of Electrotechnical Complexes and Systems, e-mail: AFilatov@sfu-kras.ru

Scientific Production Center of Magnetic Hydrodynamics LLC,

9a, Akademika Kirenskogo St., office 225, Krasnoyarsk 660074, Russian Federation

ABSTRACT: The paper proposes the structure of the reactive power flow control system at a balance affiliation boundary of an enterprise and a grid operator. It deals with the features of neural networks and presents a numerical mathematical model based on an artificial neural network for adaptive control of reactive power flow. Training of the neural network is automated and implemented in software. Levenberg-Marquardt method is used for neural network training. The structure of the control system of reactive power flow and voltage levels is designed. A Levenberg-Marquardt method-based algorithm for neural network training is developed and implemented in software. The authors have proposed an adaptive control system of reactive power flow at the balance affiliation boundary of an enterprise and a grid operator based on the synthesis of the artificial neural network and STATCOM own logic.

Keywords: active-adaptive elements, artificial neural networks, neural network training, Levenberg-Marquardt method, power supply system, compensating device

Information about the article: Received October 17, 2018; accepted for publication November 16, 2018; available online December 28, 2018.

For citation: Petukhov R.A., Sizganova E.Yu., Sizganov N.V., Filatov A.N. Model of adaptive control system of reactive power flow at the balance affiliation boundary of an enterprise and a grid operator. Vestnik Irkutskogo gosudarstvennogo tehnicheskogo universiteta = Proceedings of Irkutsk State Technical University. 2018; 22(12):pp. 185-201. (In Russ.) DOI: 10.21285/1814-3520-2018-12-185-201

Введение

В [1] показано, что для возможности автоматизированная система контроля и регулирования потоков реактивной мощно- учета электроэнергии (АСКУЭ) должна расти (РМ) при обеспечении допустимых ботать как человеко-машинная система [2], (ГОСТ 32144-20135) уровней напряжения в сочетающая использование эффективных распределительных сетях промышленных современных средств вычислительной тех-предприятий и устойчивости нагрузки необ- ники с деятельностью человека-инженера, ходима разработка централизованной и роль которого заключается в принятии окон-адаптивной системы управления парамет- чательного решения по заданию экономич-рами средств регулирования, способной ного режима работы СЭС предприятия в мгновенно оценивать параметры текущего масштабе реального времени как в ручном, режима, находить актуальные причинно- так и в диалоговом режимах [3]. Применение следственные законы функционирования искусственной нейронной сети для достиже-электрической системы, управлять группой ния достаточной быстроты принятия реше-разнообразных элементов системы, с боль- ний управления, при этом схожести эвристи-шим количеством свойств, также меняю- ческого алгоритма искусственной нейрон-щихся со временем. Для успешного адап- ной сети (ИНС) с мышлением человека (при тивного управления потоками реактивной достаточной эффективности обучения) дает мощности (УПРМ) системы электроснабже- нужное решение задачи УПРМ в большин-ния промышленного предприятия (СЭС ПП) стве практически значимых случаев [4].

Структура системы управления

Для моделирования адаптивного управления потоками реактивной мощности и уровнями напряжения в электрической сети требуются следующие исходные данные:

ленного предприятия с указанием значений активных и реактивных сопротивлений линий, асинхронных двигателей, трансформаторов, СТАТКОМ;

• диапазоны регулирования реактивной мощности СТАТКОМ;

• схема замещения электрической сети системы электроснабжения промыш-

• диапазоны регулирования коэффициентов трансформации трансформаторов с устройством регулирования под нагрузкой (РПН);

• пределы допустимых изменений напряжения во всех узлах электрической сети.

Создать модель адаптивного управления, в соответствии с физическими параметрами элементов схемы замещения электрической сети СЭС ПП адекватными реальным объектам, позволяет программный комплекс Matlab. Кроме того, в Simulink Matlab достаточно просто совместить информационную сеть с электротехнической, при этом предоставив управление искусственной нейронной сети (ИНС), но в силу учета особенностей блоков моделей FACTS, реализованных в программном комплексе Simulink Matlab, необходима обработка выходных значений нейронной сети для корректной интерпретации блоками сигналов управления ИНС.

На рис. 1 представлена структура системы управления, для которой входными параметрами являются значения напряжений трех фаз на границе балансовой принадлежности (ивн). Кроме того, для создания адаптивной модели поведения ИНС необходимо иметь обратную связь с объектом управления, а именно: с напряжениями трех фаз в каждой контрольной точке электроснабжения предприятия (инн).

Прежде чем передать сигналы управления от ИНС на активно-адаптивные элементы модели, необходимо обработать выходной сигнал для корректной работы блоков имитационной модели:

- задать задержку во времени приблизительно в 0,5 с. для предотвращения возникновения резонансов и усугубления переходных процессов на стороне 10 кВ главной понизительной подстанции (ГПП) и успешного управления СТАТКОМ;

- установить в дополнительном контуре перед ТРДН блок обработки сигналов

(рис. 1), который сравнивает текущее состояние РПН с состоянием, которое необходимо принять по команде ИНС, затем подает сигнал на вход управления РПН для переключения на отпайку выше или ниже. Необходимость этого обусловлена тем, что блок ТРДН с РПН имеет ограничения в логике при использовании управления им из вне, кроме того, у РПН существует физическая задержка, обоснованная скоростью переключения между отпайками приблизительно равная 3 с. Недостаток внешней управляющей логики в РПН в том, что при наличии двух входных сигналов Вверх и Вниз, положение отпайки меняется только тогда, когда значение входного сигнала изменяется с 0 на 1 (с учетом физического ограничения в 3 с, заданного в параметрах блока). Процесс повторяется до тех пор, пока РПН не примет необходимое значение ИНС.

После задержки в 0,5 с. задается эталонное напряжение необходимое ИНС для успешного управления СТАТКОМ. Кроме схемы управления, представленной на рис. 1, СТАТКОМ имеет свою собственную логику. На рис. 2 показана однолинейная схема СТАТКОМ и его упрощенная схема управления.

Элементами схемы управления СТАТКОМ являются:

• фазовая автоподстройка частоты (PLL), которая синхронизируется по входному напряжению прямой последовательности V1. Выходное значение (градус 0=ш^ используется для вычислений продольной и поперечной составляющей переменного тока и напряжения (обозначены на рисункеVd, Vq и

• измерительные системы, измеряющие активные и реактивные составляющие напряжения прямой последовательности в цепи постоянного тока, которой схема и управляет, а также напряжение в цепи постоянного тока Vdc;

5ГОСТ 32144-2013 Электрическая энергия. Совместимость технических средств электромагнитная. Нормы качества электрической энергии в системах электроснабжения общего назначения. Введ. 2014-07-01. / GOST 321442013. Electric energy. Electromagnetic compatibility of technical equipment. Standards of power quality in public power supply systems. Introduced 1 July 2014.

Рис. 1. Структура системы управления Fig. 1. Control system structure

Рис. 2.Схема управления СТАТКОМ Fig. 2. STATCOM control circuit

• внешний контур регулирования, состоящий из регуляторов постоянного и переменного напряжения. Выход регулятора переменного напряжения - это эталонный ток ^ для регулятора тока (^ - поперечный напряжению ток, регулирующий поток реактивной мощности). Выход регулятора постоянного напряжения - это эталонный ток для регулятора тока (1с1 - совпадающий по фазе с напряжением ток, регулирующий поток активной мощности);

• внутренний контур, состоящий из регулятора тока, управляет амплитудой и фазой напряжения ^2с1 генерируемого преобразователем с широтно-импульсной

модуляцией (РММ) из и ^ эталонных токов, созданных с помощью регуляторов постоянного и переменного напряжения соответственно. Взаимодействие регулятора тока с регулятором с прямой связью определяет выходное напряжение У2 (У2с^) из измерений VI и реактивного сопротивления утечки трансформатора.

Таким образом, синтезированная структура системы управления позволяет ИНС оперативно реагировать на изменения на границе балансовой принадлежности и подстраивать под них активно - адаптивные элементы с учетом всех вышеописанных ограничений.

Особенности нейронных сетей для адаптивного управления

Особенность применения нейронных сетей связана с тем, что они используют механизм обучения. Пользователь нейронной сети подбирает представительные данные, а затем запускает алгоритм обучения, который автоматически настраивает параметры сети. При этом от пользователя, конечно, требуется какой-то набор эвристических знаний о том, как следует отбирать и подготавливать данные, выбирать нужную архитектуру сети и интерпретировать результаты [5-7].

Структура нейронных сетей тесно связана с используемыми алгоритмами обучения. В общем случае можно выделить три фундаментальных класса нейросетевых архитектур, широко применяемых для надежного и эффективного управления [8].

В однослойных сетях прямого распространения нейроны располагаются по слоям. В простейшем случае в такой сети существует входной слой источника, информация от которого передается на выходной слой нейронов (не наоборот), при этом под единственным слоем подразумевается слой вычислительных элементов (нейронов). При подсчете числа слоев не принимаются во внимание узлы источника, так как они не выполняют вычислений. Для каждого нейрона сети помимо синаптических связей с элементами входного вектора настраивается

связь с фиктивным единичным входом (коэффициент смещения). Так как выходные переменные могут принимать как бинарные, так и аналоговые значения, выбор вида ак-тивационных функций ограничен только областью допустимых значений выходных сигналов, принятой для нормализации.

Многослойные сети прямого распространения характеризуются наличием одного или нескольких скрытых слоев, узлы которых называются скрытыми нейронами или скрытыми элементами. Функция последних заключается в посредничестве между внешним входным сигналом и выходом нейронной сети. Добавляя один или несколько скрытых слоев, можно выделить статистики высокого порядка. Такая сеть позволяет выделять глобальные свойства данных с помощью локальных соединений за счет наличия дополнительных синапти-ческих связей и повышения уровня взаимодействия нейронов. Способность скрытых нейронов выделять статистические зависимости высокого порядка особенно существенна, когда размер входного слоя достаточно велик.

Рекуррентные нейронные сети отличаются от сети прямого распространения наличием, по крайней мере, одной обратной связи. Например, рекуррентная сеть может состоять из единственного слоя нейронов,

каждый из которых направляет свой выходной сигнал на входы всех остальных нейронов слоя. Наличие обратных связей в сетях оказывает непосредственное влияние на способность таких сетей к обучению и на их производительность. Более того, обратная

связь подразумевает использование элементов единичной задержки, что приводит к нелинейному динамическому поведению, если, конечно, в сети содержатся нелинейные нейроны [8].

Численно-математическая модель на основе ИНС для адаптивного управления

Нейронная сеть прямого распространения (НСПР) состоит из слоев нейронов, следующих друг за другом. На входе каждый последующий слой использует выходы предыдущего (скрытого) слоя. Исключением является входной слой, принимающий непосредственно входные сигналы [9, 10]. Основная функция скрытых слоев - выделение статистики высокого порядка. Обучение НСПР - это процесс определения значений весов сети на основе примеров, образующих обучающее множество для сети с п входами и т выходами, состоит из N вход-выходных значений - обучающих примеров. Структура обучающего множества имеет вид:

(X.Y) = №,Ю)1=ТЙ ,

(1)

где XI £ Яп - входной вектор из /-го примера,й £Кт - вектор ожидаемых значений (указаний учителя).

Степень близости вектора-ответа сети у{ на /-м примере и соответствующего вектора указаний учителя у{ при текущем векторе весов нейронной сети ж £ , где м - количество весовых коэффициентов НСПР, характеризуется мгновенным функционалом качества обучения6:

Я1 = Я{Е1(м)) = е1(м)^^81(м), (2)

где е^ж) = у^ж) - у1 £ Ят - вектор отклонений выходов сети от указаний учителя,

V ER

тхт

- положительно определенная

матрица, задающая взвешенную норму век-тораг^ш). Обычно V - единичная матрица,

что сводит функционал к евклидовой норме вектора отклонений:

Q{^i(w)) = Ej(w)Ei(w) = (yi(w)

У1У(УМ - У1) = - й)-(3)

Степень соответствия сети данным из обучающего множества задается интегральным функционалом качества обуче-ния6:

ВД = ^^Ш^Шы) - ю2 .(4)

Для случая с одним выходом (т = 1) и с учетом его обозначения как ¥(х, ш)функ-ционал принимает следующий вид:

Е(™) = ИМ™) = ИШ^) - п)2 = Ит*и*) - П)2- (5)

Цель обучения НСПР - определение такого вектора весов м*, чтобы функционал (5) принимал минимальное значение, что превращает процесс обучения сети в решение задачи безусловной оптимизации:

w* = arg min E(w).

WERW

(6)

Многовыходная нейронная сеть с выходами может быть заменена совокупностью т одновыходных сетей, что позволяет без ограничения общности рассмотреть методы обучения лишь для случая сетей с т = 1.

Для решения (6) существует множество методов, из которых можно выделить

6Сараев П.В. Суперпозиционное линейно-нелинейное нейроструктурное модели-рование: дис. ... д-ра техн. наук: 05.13.18. Липецк. 2012. / Saraev P.V. Superposition linear-nonlinear neurostructural modeling: Doctoral Dissertation in technical sciences: 05.13.18. Lipetsk. 2012.

метод обратного распространения ошибки. Несмотря на широкое применение, его главными недостатками являются медленная сходимость и негативное влияние локальных минимумов поверхности Е(ж) [11].

Для устранения указанных недостатков обычно используется информация высокого порядка об E(w). В рамках квадратичной аппроксимации ошибки в окрестности точки w функционал имеет вид

Е(ш + Дш) « Е(ш) + +

1аштЧ2Е(Ш)АШ. (7)

На основе квадратичной аппроксимации разработаны широко известные методы Гаусса-Ньютона и Левенберга-Марк-вардта (ЛМ-метод), которые сводят задачу (6) для (7) к уравнению:

ЧЕ(ш) + Ч2Е(Ш)ДШ = 0. (8)

При этом

пиг л 9e(w) г л d(y(w)-y) vE(w) = —--г(ш) = ■

dw

dw

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

f ч dF(x,w) f v

(9)

42E(W) =

fd£(w)\ de(w)

dw

dw

+ Ii=1s(w)V2e(w).

(10)

Ключевое различие между этими методами - подход к вычислению матрицы Гессе У2Е^). Если представить (10) в виде

H = JTJ + S,

(11)

где Э - информация о вторых производных, то для метода Гаусса-Ньютона Э = 0, в то время как в ЛМ-методе Э аппроксимируется эвристическими правилами.

Исходя из (8-11), метод ЛМ-метод заключается в решении уравнения относительно Д^):

0Т] + А1)Д^) = -Ге^) (12)

или в другой интерпретации:

ит] + А1)8=]те~&)

(13)

где А - коэффициент затухания Левенберга, б - вектор, состоящий из величин приращения весов.

Найденный вектор б позволяет изменить вектор весов w. Элементы вектора w обычно упорядочиваются сначала по слою, затем по нейронам, и, наконец, по весу каждого нейрона и его смещению.

Параметр А задается изначально и определяет поведение алгоритма, делая его более похожим на градиентный метод или метод Гаусса-Ньютона. В самом начале обучения, когда функция Р(х, w) подобрана грубо, удобно использовать метод наискорейшего спуска, поэтому А выбирается относительно большим. По мере уточнения коэффициентов w более эффективным становится метод Гаусса-Ньютона (при этом А становится малой величиной; при А = 0 метод вырождается в метод Гаусса-Ньютона). Так ЛМ-метод реализует адаптивную модель перехода между классами методов с явной аппроксимацией Э и без нее.

В классическом методе Гаусса-Ньютона требуется невырожденность матрицы Н. Для гарантированного обращения Н К. Левенберг предложил подправлять элементы главной диагонали путем добавления к нейматрицы А1, где I - единичная матрица).

После того, как при заданном А вектор б будет вычислен, необходимо решить следующее: принимать модификацию или ее отклонить. Для этого рассчитывают Е^ + 8) и сравнивают полученное значение с Е^). Если Е^ + 8) < Е , то уменьшают X и изменяют веса w + 8, иначе X увеличивают и метод применяют заново для нового X.

Для настройки величины X часто используется вспомогательная величина V, (обычно V = 10). Если А необходимо увеличить, то А умножается на V, иначе - делится. Умножение повторяется до тех пор, пока Е^ + 8) > Е^). Как только выполняется

неравенство Е(ш + 5) < Е(ж), считается, что один обучающий цикл (эпоха) нейросети завершился.

Таким образом, процедура, реализующая обучающий цикл НСПР, имеет вид [12]:

1) построить матрицу Якоби Л;

2) рассчитать градиент ошибки д =

ГеМ;

3) рассчитать приближенную матрицу Гессе с помощью матрицы Якоби Н* =

]т];

4) решить уравнение (Н* + Л1)8 = д относительно неизвестного вектора б;

5) вычислить Е^+б);

6) если Б^+б)>Е^), то А:= vА и перейти на шаг 4, иначе !•=- , •= Е(м +

8) и закончить цикл обучения.

Одним из дополнительных критериев останова в ЛМ-методе является то, что А становится слишком большим. Недостатки ЛМ-метода: 1) высокая чувствительность к начальным значениям весовых коэффициентов;

2) за счет использования данных из всей выборки возможно переобучение шума [12];

3) высокая вычислительная сложность, под которой подразумевается большая длительность вычислений при большом количестве обучающих примеров N и/или весовых коэффициентов м.

Для решения проблем ЛМ-метода существуют следующие подходы:

1. Модификация. Для увеличения сходимости к оптимальному решению предложены модификации различной сложности (примеры: настройка параметра = 0.01г~(ш)тг~(ш) [13], использование геодезического ускорения [14], включение в метод регуляризации Байеса [15] и др.).

2. Оптимизация вычислительного процесса, направленная на сокращение времени вычислений одной эпохи.

3. Распараллеливание - процесс, который непосредственно не влияет на вычислительную сложность, но позволяет более эффективно использовать ресурсы компьютера.

Автоматизация и программная реализация обучения нейросети

Искусственные нейронные сети в Matlab представляют новое направление в практике создания технических систем. Возможности нейронных сетей выполнять операции сравнения по образцу и классификации объектов, недоступные для традиционной математики, позволяют создавать искусственные системы для решения задач распознавания образов, диагностики заболеваний, автоматического анализа документов и многих других нетрадиционных приложений.

До создания искусственной нейронной сети необходимо подготовить обучающую выборку, при этом она должна полно и разносторонне представлять описываемый феномен, включать в себя различные возможные ситуации. Хорошо, когда данных много, но это само по себе тоже не всегда помогает.

Для формирования обучающей выборки ИНС подготовлен зацикленный

Matlab-скрипт7, i=1;

while i~=300,

в котором случайным образом генерируются и записываются в вектор выходных значений /-го шага:

1) позиция РПН от -9 до 9 - Tap

point = rand; if point > 0.5

Tap = round(rand*10)-1; else Tap = -1*(round(rand*10)-1); end

Bixodi(i,1) = [Tap];

2) необходимое на низкой стороне ГПП(10кВ) напряжение - Vref

point = rand; if point > 0.5

Vref = 1+rand/2; elseVref = 1-rand/2; end

Bixodi(i,2) = [Vref];

3)напряжение на границе балансовой принадлежности - Uv

point = rand; if point > 0.5 Uv = 1+rand/2; else Uv = 1-rand/2; end

4) По завершении симуляции имитационной модели подготавливается вектор входных значений /-го шага цикла,

sim('C:\Diss\cex_4new.slx') Uvn(1 ,:)=[Uvn_(length(Uvn_),1), Uvn_(length(Uvn_),2), Uvn_(length(Uvn_),3)];

Unn(1,:)=[Unn_1(length(Unn_1),1), Unn_1(length(Unn_1),2), Unn_1(length(Unn_1),3)]

Unn(2,:)=[Unn_2(length(Unn_2),1), Unn_2(length(Unn_2),2), Unn_2(length(Unn_2),3)];

Unn(3,:)=[Unn_3(length(Unn_3),1), Unn_3(length(Unn_3),2), Unn_3(length(Unn_3),3)];

Unn(4,:)=[Unn_4(length(Unn_4),1), Unn_4(length(Unn_4),2), Unn_4(length(Unn_4),3)];

Unn(5,:)=[Unn_5(length(Unn_5),1), Unn_5(length(Unn_5),2), Unn_5(length(Unn_5),3)];

Unn(6,:)=[Unn_6(length(Unn_6),1), Unn_6(length(Unn_6),2), Unn_6(length(Unn_6),3)];

Unn(7,:)=[Unn_7(length(Unn_7),1), Unn_7(length(Unn_7),2), Unn_7(length(Unn_7),3)];

выполняется проверка корректного управления, а именно:

• отклонение напряжения на стороне 0,4кВ не выходит за рамки допустимого

ГОСТ 32114-20135;

• коэффициент мощности не более

0,4.

if (abs(Unn-380) <=

(380*0.05))&&(tg_fi< 0.4)

Bxodi(i,:)=[Uvn(1 ,:),Unn(1 ,:),Unn(2,:),U nn(3,:),Unn(4,:),Unn(5,:),Unn(6,:),Unn(7,:)]; i = i+1; disp(i);

при корректном управлении моделью векторы /-го шага сохраняются в два массива «вход» и «выход».

save('MCorr.mat');

end;

end.

Цикл повторяется, пока обучающая выборка не составит 300 примеров корректного управления.

Реализовано обучение ИНС на алгоритме Левенберга-Марквардта, предназначенном для оптимизации параметров нелинейных регрессионных моделей. Предполагается, что в качестве критерия оптимизации используется среднеквадратичная ошибка модели на обучающей выборке.

Для того чтобы контролировать обобщающие способности модели - все данные разделены на три выборки Train, Test, Validation в соотношении 70%: 15%: 15%. Обучение происходило на Train, периодически проверяя качество модели на Test. Для финальной непредвзятой оценки использовалась Validation.

Чтобы избежать переобучения ИНС во время обучения, даже если данных мало, применяется техника регуляризации.

Идея дообучать ИНС перманентно все время на новых поступающих данных -сама по себе правильная, в реальных биологических системах все именно так и происходит. Тем не менее, для обычных искусственных нейронных сетей на современном этапе технического развития такая практика

7Сизганов Н.В. Управление потоками реактивной мощности в системе электроснабжения с активно-адаптивными элементами: магистерская дис. ...: 13.04.02. Красноярск, 2016. 91 с. / Sizganov N.V. Control of reactive power flows in the power supply system with active-adaptive elements: Master's Degree thesis ...: 13.04.02. Krasnoyarsk, 2016. 91 p.

является рискованной: сеть может переобучиться или подстроиться под самые последние поступившие данные - и потеряет свои обобщающие способности.

Для того чтобы систему можно было использовать на практике, ИНС нужно:

1)обучить,

2) протестировать качество обучения на тестовых и валидационных выборках,

3) выбрать удачный вариант сети, зафиксировать веса ИНС,

4) использовать обученную ИНС на практике, веса в процессе использования не менять.

Представленная в данной работе ИНС имеет всего два слоя, что достаточно для малого объема исходных данных с одним скрытым слоем, содержащим 24 нейрона по количеству входных напряжений (рис. 3).

Matlab-скрипт для обучения ИНС выглядит следующим образом7:

// задаются входные и выходные массивы для обучения (x,t); x = Bxodi'; t = Bixodi';

//выбирается функция обучения нейронной сети ('trainlm' - метод Левен-берга-Марквардта);

trainFcn = 'trainlm';

//указывается количество нейронов в сети с 2 слоями;

hiddenLayerSize = 24; net = fitnet(hiddenLayerSize,trainFcn); //реализуетсярегуляризация; net.input.processFcns = {'removecon-stantrows','mapminmax'};

net.output.processFcns = {'removecon-stantrows','mapminmax'};

//перемешиваетсяобучающая выборка в случайном порядке и разбивается на Train, Test, Validation;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

net.divideFcn = 'dividerand'; net.divideMode = 'sample'; net.divideParam.trainRatio = 70/100; net.divideParam.valRatio = 15/100; net.divideParam.testRatio = 15/100; //в качестве критерия оптимизации используется среднеквадратичная ошибка модели на обучающей выборке - 'mse'; net.performFcn = 'mse'; //обучается нейронная сеть на Train-выборке;

[net,tr] = train(net,x,t); //тестируется нейронная сеть на Test-выборке; У = net(x); e = gsubtract(t,y); performance = perform(net,t,y) //проверяется нейронная сеть на Validation-выборке;

trainTargets = t .* tr.trainMask{1}; valTargets = t .* tr.valMask{1}; testTargets = t .* tr.testMask{1}; trainPerformance = per-form(net,trainTargets,y)

valPerformance = perform(net,valTar-

gets,y)

testPerformance = perform(net,testTar-

gets,y)

//выводится на монитор структура

ИНС;

view(net)

//создается объект Simulink на основе полученной ИНС; gensim(net); end.

Рис. 3. Структура искусственной нейронной сети Fig. 3. Structure of an artificial neural network

Результат обучения отражен на графике (рис. 4). Обучение заканчивается при достижении минимального значения сред-

неквадратичной ошибки на Validation-вы-борке, что соответствует лучшей эффективности ИНС.

Рис. 4. График эффективности обучения ИНС Fig. 4. Graph of artificial neural network training efficiency

Результаты имитационного моделирования

Для использования ИНС в Simulink, созданный в МаАаЬ-скрипте блок ИНС7 был подключен через обработчик выходного сигнала к активно-адаптивным элементам сети и приборам измерения (рис. 5).

Рассмотрено три режима работы на границе балансовой принадлежности пред-

приятия и энергосистемы (рис. 6)7:

• номинальный (рис. 6 а);

• 0,85 номинального напряжения (рис. 6 Ь);

• 1,15 номинального напряжения (рис. 6 с).

Рис. 5. Модель системы электроснабжения предприятия с управлением ИНС Fig. 5. Model of an enterprise power supply system controlled by an artificial neural network

U. kB

фаза фаза A В С

фаза

10

20

30

40

50

60

U, kB

фаза А фаза В

фаза С

10

20

30

40

50

60

U. kB

фаза А фаза В

фаза С

10

20

30

40

50

60

a

b

c

Рис. 6. Напряжение на границе балансовой принадлежности предприятия и сетевой организации: а - номинальное, b - 0,85 от номинального, c - 1,15 от номинального Fig. 6. Voltage at the balance affiliation boundary of the enterprise and the network organization: a - nominal, b - 0.85 of nominal, c - 1.15 of nominal

Проанализировано влияние изменения напряжения на границе балансовой принадлежности на работу ИНС и изменение напряжений на стороне 10 кВ главной понизительной подстанции (ГПП) (рис. 7) и на стороне 0,4 кВ трансформаторных подстанций (ТП) (рис. 8). Представленные графики (рис. 6-8) показывают величину напряжения трех фаз в каждой контрольной точке системы.

Из графиков (рис. 7) видно, что ИНС

даже при номинальном значении напряжения подает сигналы активно-адаптивным элементам на повышение напряжения, но из данных графиков не ясна причина такого поведения ИНС.

Для анализа поведения ИНС стоит обратить внимание на напряжение низкой ступени цеховых трансформаторных подстанций (рис. 8), где установлена обратная связь с моделью СЭС ПП во всех контрольных точках.

U, kB

за В за С

фс

1—

10

20

30

40

50

60

U, kB

а А а В а С

1 фаз

10

20

30

40

50

60

U, kB

(Ьазэ А

фа за В за С

10

20

30

40

50

60

а

b

c

Рис. 7. Напряжения на стороне 10 кВ ГПП в зависимости от напряжения на границе раздела балансовой принадлежности: а - при номинальном, b - при 0,85 от номинального,

c - при 1,15 от номинального Fig. 7. Voltages on the 10 kV side of the main step-down substation depending on the voltage at the balance affiliation boundary: a - at nominal voltage, b - at 0.85 of nominal, c - at 1.15 of nominal

Видно, что даже при номинальном напряжении на границе балансовой принадлежности в системе слишком большие потери в сети 0,4 кВ. На стороне низкого напряжения ТП в среднем и = 0,325 кВ, что составляет 81,25% от опорного напряжения сети, что не соответствует показателям качества электрической энергии согласно ГОСТ 32144-20135 ИНС в режиме реального времени определяет изменения напряжения и дает сигнал на СТАТКОМ для его увеличения, затем осуществляет плавное

переключение РПН до достижения допустимой величины напряжения. Стоит отметить, что во всех трех режимах ИНС справляется с поставленной задачей поддержания качества напряжения в контрольных точках системы, однако при большой нехватке напряжения на границе балансовой принадлежности (15%) при переключении положения отпайки РПН происходит резонанс напряжений. Не смотря на все меры предосторожности, предпринятые в данной работе, резонанс длится приблизительно 1,5 с. Время

U.B

400

350 300 250

О 10 20 30 40 50 60

c

Рис. 8. Напряжение на стороне 0,4 кВ ТП в зависимости от напряжения на границе раздела балансовой принадлежности: а - при номинальном, b - при 0,85 от номинального, c - при 1,15 от номинального Fig. 8. Voltages on the 0.4 kV side of the transformer substation depending on the voltage at the balance affiliation boundary: a - at nominal voltage, b - at 0.85 of nominal, c - at 1.15 of nominal

резонанса могло быть и меньше, но коммутация 1 отпайки длится 3 с. и предотвратить ее после запуска невозможно.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Согласно Приказу Минэнерго РФ8, максимальное значение коэффициента реактивной мощности ^д ф), потребляемой в часы больших суточных нагрузок электрической сети при уровне напряжения в точке поставки потребителя электрической энергии 110 кВ (154 кВ) не должен превышать значение 0,5.

В результате моделирования полу-

чены графики изменения коэффициента мощности в зависимости от уровня напряжения на границе балансовой принадлежности предприятия и сетевой организации (рис. 9)7.

Как видно из представленных графиков (рис. 9), разработанная модель адаптивного управления потоком реактивной мощности и регулирования уровней напряжения, на основе синтеза ИНС и собственной логики СТАТКОМ с поставленной задачей успешно справляется.

tgq>, o.e.

1

o.s ■ 0.6 ■ 0.4 ■ 0.2

□ I

o"

te<P

tgtp, o.e.

10

20

30

a

40

50

60

te<P

1

o.s ■ 0.6 ■ 0.4 0.2

0|

0

10

20

30

40

50

60

tgtP, o.e.

tE(P

1

o.s ■ 0.6 ■ 0.4

0.2

o-o"

10

20

30

40

50

60

Рис. 9. График изменения коэффициента мощности: a - при номинальном напряжении, b - при 0,85 от

номинального напряжения, c - при 1,15 от номинального напряжения Fig. 9. Graph of power factor change: a - at rated voltage, b - at 0.85 of rated voltage, c - at 1.15 of rated voltage

b

c

Заключение

1. На основе синтеза ИНС и собственной логики СТАТКОМ разработана структура системы управления потоками реактивной мощности и регулирования уровней напряжения, в которой ИНС оперативно реагирует на изменения уровня напряжения на границе балансовой принадлежности предприятия и энергосистемы, а активно-адаптивные элементы подстраиваются под эти изменения с учетом всех ограничений.

2. Использована полносвязная структура ИНС прямого распространения с одним скрытым и одним выходным слоем, которая позволяет ИНС работать быстро и эффективно.

3. Разработан и программно реализован алгоритм обучения ИНС, основанный на методе Левенберга-Марквардта, предназначенном для оптимизации параметров нелинейных регрессионных моделей. В качестве критерия оптимизации использована

8О порядке расчета значений соотношения потребления активной и реактивной мощности для отдельных энерго-принимающих устройств (групп энергопринимающих устройств) потребителей электрической энергии: Приказ Минэнерго РФ от 23.06.2015. № 380. / On the calculation order of active and reactive power consumption ratio values for separate power receiving devices (groups of power receiving devices) of electric energy consumers: the Order of the Ministry of Energy of the Russian Federation of 23 June 2015. No. 380

среднеквадратичная ошибка модели на обучающей выборке, автоматизация набора которой осуществлена в среде МаАаЬ.

4. В результате моделирования показано, что синтезированная система адаптивного управления потоками реактивной

мощности позволяет на границе балансовой принадлежности предприятия организовать регулирование уровня напряжения, обеспечивая определяемый ГОСТ 32144-20135, и поддерживает требуемое значение коэффициента реактивной мощности ^д ф).

Библиографический список

1. Петухов Р.А., Сизганова Е.Ю., Сизганов Н.В., Филатов А.Н. К вопросу автоматизации управления потоками реактивной мощности в системах электроснабжения // Вестник Иркутского государственного технического университета. 2018. Т. 22. № 7. С. 123— 146. https://doi.org/10.21285/1814-3520-2018-7-123-146

2. Guo Z. et al. (2019) Cloud Computing Platform Design and Machine Learning-Based Fault Location Method in Automatic Dispatching System of Smart Grid. In: Liang Q., Mu J., Jia M., Wang W., Feng X., Zhang B. (eds) Communications, Signal Processing, and Systems. CSPS. Lecture Notes in Electrical Engineering. 2017. Vol. 463. Springer, Singapore DOIhttps://doi.org/10.1007/978-981-10-6571-2_259

3. Han D., Sun W., FanX. Dynamic energy management in smart grid: a fast randomized first-order optimization algorithm IJEPES, 94 (2018), 10.1016/j.ijepes.2017.07.003

4. Gwang W.K., Lee K.Y. Coordination control of ULTC transformer and STATCOM based on an artificial neural network, IEEE Trans. on Power System. 2005. Vol. 20 (2). P. 580-586.

5. Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6.М.: ДИАЛОГ-МИФИ, 2002. 496 с.

6. Anil K. Jain, Jianchang Mao, K.M. Mohiuddin - Artificial Neural Networks: A Tutorial, Computer.1996. Vol. 29.No. 3.P. 31-44.

7. Комякова О.А. Возможности искусственных нейронных сетей как аппарата для прогнозирования расхода электрической энергии на предприятиях железнодорожного транспорта // Омский научный вестник. Серия: Приборы, машины и технологии. 2013. №

2. С. 264-266.

8. Хайкин С. Нейронные сети: полный курс. 2-е изд. / пер. с англ. М.: Изд. Дом «Вильямс», 2006. 1104 с.

9. Пархоменко С.С., Леденева Т.М. Обучение нейронных сетей методом Левенберга-Марквардта в условиях большого количества данных // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. 2014. № 2.С. 98-106.

10. Кохонен Т. Толковый словарь «нейронных» терминов. Самоорганизующиеся карты / пер. с англ. М.: БИНОМ. Лаборатория знаний, 2013. С. 532.

11. Хайкин С. Преимущества и ограничения обучения методом обратного распространения // Нейронные сети. М.: Вильямс, 2006.С. 304-314.

12. Sousa C. Neural network learning by the LevenbergMarquardt algorithm with Bayesian regularization (part

1). 2009. URL: http:// crsouza.blog-spot.com/2009/11/neural-networklearning-by-leven-berg_18.html.

13. Suratgar A.A., Tavakoli M.B., Hoseinabadi A. Modified Levenberg-Marquardt method for neural networks training.

14. Transtrum M.K., Sethna J.P. Improvements to the levenberg-marquardt algorithm for nonlinear least-squares minimization // Journal of Computational Physics. 2012.

15. Sousa C. Neural network learning by the LevenbergMarquardt algorithm with Bayesian regularization (part

2). 2009. URL: http:// crsouza.blog-spot.com/2009/11/neural-networklearning-by-leven-berg.html.

References

1. Petuhov R.A., SizganovaE.Yu., Sizganov N.V., Filatov A.N. To the problem of automated control of reactive power flows in electrical energy supply systems. Vestnik Irkutskogo gosudarstvennogo tekhnicheskogo universi-teta [Proceedings of Irkutsk State Technical University], 2018, vol. 22, no. 7, pp. 123-146. (In Russian) https://doi.org/10.21285/1814-3520-2018-7-123-146

2. Guo Z. et al. (2019) Cloud Computing Platform Design and Machine Learning-Based Fault Location Method in Automatic Dispatching System of Smart Grid. In: Liang Q., Mu J., Jia M., Wang W., Feng X., Zhang B. (eds) Communications, Signal Processing, and Sys-tems. CSPS. Lecture Notes in Electrical Engineering. 2017. Vol. 463. Springer, Singapore

DOI https://doi.org/10.1007/978-981-10-6571-2_259

3. Han D., Sun W., Fan X. Dynamic energy management in smart grid: a fast randomized first-order optimization algorithm IJEPES, 94 (2018), 10.1016/j.ijepes. 2017.07.003

4. Gwang W.K., Lee K.Y. Coordination control of ULTC transformer and STATCOM based on an artificial neural network, IEEE Trans. on Power System. 2005, vol. 20 (2), pp. 580-586.

5. Medvedev V.S., Potemkin V.G. Nejronnye seti. MATLAB 6. [Neural networks]. Moscow: DIALOG-MIFI Publ., 2002, 496 p. (In Russian)

6. Anil K. Jain, Jianchang Mao, K.M. Mohiuddin - Artificial Neural Networks: A Tutorial, Computer. 1996, vol.

29, no. 3, pp. 31-44.

7. Komyakova O.A. Application of artificial neural networks as a tool for electricity load forecasting in railway enterprises. Omskij nauchnyj vestnik: Seriya: Pribory, mashiny i tekhnologii [Omsk Scientific Bulletin. Series: Devices, Machines and Technologies], 2013, no. 2, pp. 264-266. (In Russian)

8. Hajkin S. Neural networks: full course, 2006, 1104 p. (Russ. ed.: Nejronnye seti: polnyj kurs. Moscow: Dom «Vil'yams» Publ., 2006, 1104 p.)

9. Parhomenko S.S., Ledeneva T.M. Training neural networks of the method Levenberg-Marquardt in larger amount of data. Vestnik Voronezhskogo gosudarstven-nogo universiteta. Seriya: Sistemnyj analiz i infor-macionnye tekhnologii [Proceedings of Voronezh state University. Series: System Analysis and Information Technologies], 2014, no. 2, pp.98-106. (In Russian)

10. Kohonen T. Dictionary of "neural" terms. Self-organizing maps, 2013, 532 p. (Russ. ed.: Tolkovyj slovar' «nejronnyh» terminov. Samoorganizuyushchiesya karty. Moscow: BINOM. Laboratoriya znanij, 2013, 532 p.)

Критерии авторства

Петухов Р.А., Сизганова Е.Ю., Сизганов Н.В., Филатов А.Н. проанализировали полученные результаты. Авторы несут ответственность за плагиат.

Конфликт интересов

ABTopbi заявляют об отсутствии конфликта интеpесов.

11. Hajkin S. Advantages and limitations of the training method of back propagation. Nejronnye seti [Neural Networks], Moscow: Vil'yams Publ., 2006, pp. 304-314. (In Russian)

12. Sousa C. Neural network learning by the LevenbergMarquardt algorithm with Bayesian regularization (part

1). 2009. URL: http:// crsouza.blog-spot.com/2009/11/neural-networklearning-by-leven-berg_18.html.

13. Suratgar A.A., Tavakoli M.B., Hoseinabadi A. Modified Levenberg-Marquardt method for neural networks training.

14. Transtrum M.K., Sethna J.P. Improvements to the Levenberg-Marquardt algorithm for nonlinear least-squares minimization // Journal of Computational Physics. 2012.

15. Sousa C. Neural network learning by the LevenbergMarquardt algorithm with Bayesian regularization (part

2). 2009. URL: http:// crsouza.blog-spot.com/2009/11/neural-networklearning-by-leven-berg.html.

Authorship criteria

Petukhov R.A., Sizganova E.Yu., Sizganov N.V., Filatov A.N. analyzed the obtained results. The authors bear the responsibility for plagiarism.

Conflict of interests

The authors declare that there is no conflict of interests regarding the publication of this article.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.