Математическое описание алгоритма управления топливоподачей дизель-генераторной электростанции переменной скорости вращения
О.С. Хватов, А.Б. Дарьенков, И.С. Поляков
Установки типа "дизель-генератор" (далее Д-Г), являются наиболее распространенными среди автономных электрогенерирующих установок. Наиболее перспективным направлением их развития является построение систем Д-Г переменной скорости вращения вала. В установках данного типа скорость вращения вала дизеля т, изменяется в зависимости от мощности Р, потребляемой нагрузкой. Изменение т позволяет достичь оптимального потребления топлива, увеличить моторесурс Д-Г и снизить вредные выбросы в атмосферу [1,2].
Сложностью при построении Д-Г установок рассматриваемого типа является определение аналитической зависимости оптимальной частоты вращения от мощности нагрузки. Вообще, зависимость ыопт = /(Р) может
быть легко определена по так называемой многопараметровой характеристике дизеля. Однако, многопараметровая характеристика для каждого конкретного дизеля носит индивидуальный характер, и производители дизелей, как правило, не предоставляют таких характеристик. Кроме того, многопараметровая характеристика дизеля изменяется в зависимости от условий внешней среды, от степени износа дизеля и от марки топлива.
В состав системы управления топливоподачей входит задатчик эффективного режима (далее ЗЭР) Д-Г установки [3]. Анализируя показания датчиков расхода топлива и мощности электрической нагрузки, ЗЭР определяет задание на положение топливной рейки, соответствующее оптимальному расходу топлива. Следовательно, ЗЭР должен обладать свойствами самообучающихся систем управления [4]. Структурная схема ЗЭР приведена на рис. 1.
Аппаратная часть ЗЭР построена на основе ассоциативной вычислительной системы. Ее главное отличие от обычной вычислительной системы последовательной обработки информации состоит в использовании ассоциативной памяти (далее АП), а не памяти с адресуемыми ячейками.
Рис. 1. - Структурная схема ЗЭР АП от обычной отличается способностью накапливать опыт и выдавать решение задачи без проведения расчетов.
Для построения АП ЗЭР наиболее целесообразным представляется использовать тип нейронных сетей известных как радиально-базисные нейронные сети (или RBFN - radial basis function network). Эти сети имеют такие преимущества, как относительная простота и способность решать задачу аппроксимации табличной функции многих переменных, дополненной процедурой интерполяции (экстраполяции) [5,6].
Сеть с радиальными базисными функциями в наиболее простой форме (рис. 2) представляет собой сеть с тремя слоями: обычным входным слоем, выполняющим распределение данных образца для первого слоя весов, скрытым слоем и выходным слоем [7]. Отображение от входного слоя к
скрытому слою является нелинейным, а отображение скрытого слоя в выходной - линейно. Структурная схема нейронной сети АП приведена на рис. 2.
Скрытый слой
Рис. 2. - Структурная схема нейронной сети АП Передаточная функция каждого из нейронов может быть представлена в виде:
у = Щи), и — =1 Wijxij + В] , (1)
где хі]- и Жі]- - соответственно сигналы на /-ом входе 7-го нейрона и
соответствующий ему весовой коэффициент; функция Ди) называется функцией активации. Дополнительный вход В^ и соответствующий ему вес
используются для инициализации 7-го нейрона - смещения функции активации нейрона по горизонтальной оси, которое формирует порог чувствительности нейрона.Представленная структурная схема описывается следующей системой:
X,, — X,
а
опт
— — Р • К
11 х 12 нагр • Кнорм
Х21 — ІИ^11 • Хц + Ві)
Х22 — іНф12 • Х12 + В2 )
— ЩЖ21 • Х21 + Ж22 • Х22 + В3 )
(2)
Как видно из системы уравнений (2), принятая структура нейронной сети не требует значительных вычислительных мощностей от аппаратной реализации ЗЭР.
Задача аппроксимации состоит в подборе соответствующего количества радиальных функций ^(|х - В|) и их параметров, а также в таком подборе
весов Ж/1=1,2,...К), при котором решение системы уравнений (1) будет наиболее близким к точному [8,9]. Поэтому проблему подбора параметров радиальных функций и значений весов сети можно свести к минимизации целевой функции, которая записывается в форме:
г
E = кк
I=1
]=1
(3)
где К - количество нейронов; р - количество обучающих пар (х., );
х( - входной вектор; д. - соответствующая входному вектору ожидаемая величина.
Процесс минимизации, получивший название обучения нейронной сети, ведется методом градиентного спуска, что означает подстройку весовых коэффициентов следующим образом:
/п) = -1®Е-1] 1 дп„
Ам>] = -л^ (4)
у ,
где wij - весовой коэффициент связи, соединяющий I - й нейрон слоя (п-
1) с] - м нейроном слоя п; 1 - коэффициент скорости обучения, 0 <1< 1.
Как показано в (4),
дЕ дЕ ду ^]
д^и дУ д*1 д^ц
(5)
где у1 - выход нейрона у; S] - взвешенная сумма его входных сигналов
(аргумент активационной функции).
Первый множитель в (5) легко раскладывается следующим образом:
дЕ _ у дЕ дук д|^' дЕ дук ^^(п+1) /^\
дУ\ к дУк дs к дУ] к дУк ^к 1
Второй множитель в (5) является производной этой функции по ее аргументу. В случае гиперболического тангенса
2
дУі- = 1 - г (7)
*1 . ( )
. /
Третий множитель в (5) , очевидно, равен выходу нейрона
дм-ц
предыдущего слоя У .
В (6) суммирование по к выполняется среди нейронов слоя (п+1).
Введя новую переменную
№ =— ^, (8)
1 дУ, Ъ, У ’
получаем рекурсивную формулу для расчетов величин 3(п слоя п по величинам 3,+1 более старшего слоя (п+1):
ду,
' (9)
д*1
Тогда (4) можно записать в виде:
Ам] = -1-5{П ■ у(п-1). (10)
Процесс обучения АП ЗЭР при помощи процедуры основанной на корректировке весов в соответствии с (10) носит название алгоритма обратного распространения ошибки. Для рассматриваемой задачи он строится в следующем порядке:
1. Подать на вход нейронной сети текущее значение мощности нагрузки, для которого производится поиск "оптимальной" скорости вращения. Рассчитать значение выхода сети сорасч в режиме прямого
распространения ошибки по формулам системы уравнений (2).
2. Рассчитать величину ошибки выходного слоя по формуле:
(2) ( \ду1
3, расч Юопт
3. Рассчитать изменения весов выходного слоя: Дм, —щ, •
4. Определить величины ошибок для скрытого слоя нейронов сети АП:
3(1)=1 м,<2) ^,
] ^ 1 1 >дs]
Ам(') = -1^?) ■ х(п.
5. Скорректировать все веса нейронной сети АП для шага V.
= 1‘-1) + А]
6. По формуле (3) рассчитать величину ошибки нейронной сети -целевой функции процесса обучения.
Рассмотренный алгоритм обучения АП приведен на рис. 3. Он действует итеративно, его шаги принято называть эпохами обучения. Начальная конфигурация сети, а именно величины весов нейронных связей и порогов нейронов, выбирается случайным образом. Процесс обучения прекращается либо когда пройдено определенное количество эпох, либо когда ошибка достигнет некоторого допустимого уровня.
Одним из наиболее серьезных вопросов, возникающих при построении АП ЗЭР заключается в необходимом количестве логических пар значений функции ыопт = /(Р), составляющих обучающее множество. Подробно процесс их поиска описан в [10].
Слишком большой либо слишком малый размер обучающей выборки может привести к переобучению нейронной сети. Слишком малая ошибка (при слишком большом размере обучающей выборки) означает излишне точное соответствие нейронной сети конкретному набору обучающих примеров, при котором сеть теряет способность к обобщению, т.е. возможности правильно реагировать на неизвестные ей данные.
Проверка результата процесса обучения АП (рис. 4) была проведена на обучающих множествах, составленных из 10 и 100 значений. Ошибка в этих случаях составляет соответственно 0.084% и 0.6% соответственно. Во втором случае нейронная сеть АП дает ложный результат в области малых значений мощности нагрузки вследствие переобучения. Так же большой размер
обучающей выборки затягивает процесс обучения из-за увеличения числа необходимых вычислений ЗЭР.
Рис. 3. - Алгоритм обучения нейронной сети АП
Можно сделать вывод, что для корректной работы ЗЭР не требуется большого объема данных об искомой зависимости ыопт = / (Р). В
рассматриваемом примере оказалось достаточным для работы АП множества, состоящего из 10 значений.
(Оопт.отн.ед T 1 Г Г Т 1 1 1 1
-f \ I J
1 1 1 Рнагр.отн.ед 1 1 г
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Рис. 4. - Результат работы АП, обученной на множестве из 10 значений
Литература:
1. Хватов, О.С. Интеллектуальные средства управления
высокоэффективной дизель-генераторной установкой переменной частоты вращения [Текст]: О.С. Хватов, А.Б. Дарьенков // Известия ТулГУ. Технические науки. Вып. 3 в 5 ч. Тула: Изд.-во ТулГУ. 2010 Ч.4. С.126-131.
2. Хватов, С.В. Математическая модель единой электростанции
автономного объекта на базе ДВС с переменной скоростью вращения [Текст]: / Хватов С.В., Дарьенков А.Б., Самоявчев И.С., Хватов О.С.// Материалы научно-технической конференции Актуальные проблемы
электроэнергетики / НГТУ. Н.Новгород. 2010. С. 58-63.
3. Дарьенков, А.Б. Автономная высокоэффективная электрогенерирующая станция [Текст]: Дарьенков, А.Б., Хватов О.С. // Труды Нижегородского государственного технического университета / Н. Новгород: НГТУ, 2009, Т.77,- с.68-72.
4. Rakhtala, S.M., PEM fuel cell voltage-tracking using artificial neural network / Electrical Power & Energy Conference (EPEC), 2009 IEEE, с. 1 - 5
5. van Najarian, K. On learning and computational complexity of FIR radial basis function networks. Part I. Learning of FIR RBFN's / Acoustics, Speech, and Signal Processing, 2001. Proceedings. (ICASSP '01). 2001 IEEE International Conference on, vol.2, с. 1321 - 1324.
6. Lucks, M.B. A radial basis function network (RBFN) for function approximation / Circuits and Systems, 1999. 42nd Midwest Symposium on, vol.2, с. 1099 - 1101.
7. Галушка, В.В., Молчанов, А.А., Фатхи, В.А. Применение
многослойных радиально-базисных нейронных сетей для верификации реляционных баз данных [Электронный ресурс]: «Инженерный вестник Дона», 2012, №1. - Режим доступа:
http://www.ivdon.ru/magazine/archive/n1y2012/686 (доступ свободный) - Загл. с экрана. - Яз. рус.
8. Хватов, О.С. Интеллектуальная система управления дизель-
генератором переменной скорости вращения [Текст]: Хватов О.С.,
Дарьенков А.Б., Поляков И.С., Орлов О.И. // Материалы научно-технической конференции "Актуальные проблемы электроэнергетики" / Н.Новгород: НГУ, 2011, с. 23-28.
9. Болдырев, С.В. Применение гибридных самоорганизующихся
нейронных сетей и быстрого дискретного вейвлет-преобразования для построения систем классификации сигналов [Электронный ресурс]: // «Инженерный вестник Дона», 2012, №2. - Режим доступа:
http://www.ivdon.ru/magazine/archive/n2y2012/773 (доступ свободный) - Загл. с экрана. - Яз. рус.
10. Sankar, K. Pal, Multilayer Perceptron, Fuzzy Sets, and classification / Sankar K. Pal, Sushmita Mitra // IEEE Transaction on Neural Networks, Vol.3, N5, 1992.