Научная статья на тему 'Повышение робастности нейросетевой модели мониторинга ГТД на основе редукции'

Повышение робастности нейросетевой модели мониторинга ГТД на основе редукции Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
121
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
MODEL ROBUSTNESS / NEURAL NETWORKS / STAND TESTS / MONITORING OF A GAS-TURBINE ENGINE / REDUCTION OF A NEURAL NETWORK / РОБАСТНОСТЬ МОДЕЛИ / НЕЙРОННЫЕ СЕТИ / СТЕНДОВЫЕ ИСПЫТАНИЯ / МОНИТОРИНГ ГТД / РЕДУКЦИЯ НЕЙРОННОЙ СЕТИ

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Новикова Светлана Владимировна, Кремлева Эльмира Шамильевна

В статье представлен способ повышения робастности нейросетевой модели мониторинга газотурбинного двигателя при стендовых испытаниях за счет уменьшения количества малозначащих связей нейронной сети (нейросетевой редукции). Способ основан на преобразовании задачи обучения нейросети к задаче многокритериальной оптимизации, включающей в себя критерий минимизации ошибки и критерий минимизации абсолютных значений весовых связей нейросети. Последнее требование приводит к выделению малозначащих связей, которые могут быть удалены без потери точности. В результате, способность модели к обобщению значительно возрастает, увеличивается робастность, уменьшается ошибка расчета мониторируемых параметров.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Новикова Светлана Владимировна, Кремлева Эльмира Шамильевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

REDUCTION -BASED INCREASE OF ROBUSTNESS OF A NEURAL-NET MODEL OF GAS-TURBINE ENGINE MONITORING

The article presents a technique of increasing the robustness of a neural-net model of gas-turbine engine monitoring during stand tests due to decreasing the number of insignificant links in the neural network (neural network reduction). The technique is based on converting the problem of neural network learning into that of multi-criteria optimization which includes the error minimization criterion and the criterion of minimizing the absolute values of the weight links of a neural network. The latter requirement leads to reveal of insignificant links which can be deleted without any loss of accuracy. As a result, the ability of the model to summarize increases greatly, robustness increases as well, the calculation error of monitored parameters decreases.

Текст научной работы на тему «Повышение робастности нейросетевой модели мониторинга ГТД на основе редукции»

ЛЕТАТЕЛЬНЫЕ АППАРАТЫ, АВИАЦИОННЫЕ ДВИГАТЕЛИ И МЕТОДЫ ИХ ЭКСПЛУАТАЦИИ

УДК 621.438, 004.855 ББК З363.3, 32.813, 22.18

ПОВЫШЕНИЕ РОБАСТНОСТИ НЕЙРОСЕТЕВОЙ МОДЕЛИ МОНИТОРИНГА ГТД НА ОСНОВЕ РЕДУКЦИИ

Светлана Владимировна Новикова доктор технических наук, профессор Казанский национальный исследовательский технический университет им.

А. Н. Туполева-КАИ Казань, Россия [email protected] Эльмира Шамильевна Кремлева Казанский национальный исследовательский технический университет им.

А. Н. Туполева-КАИ Казань, Россия [email protected]

В статье представлен способ повышения робастности нейросетевой модели мониторинга газотурбинного двигателя при стендовых испытаниях за счет уменьшения количества малозначащих связей нейронной сети (нейросетевой редукции). Способ основан на преобразовании задачи обучения нейросети к задаче многокритериальной оптимизации, включающей в себя критерий минимизации ошибки и критерий минимизации абсолютных значений весовых связей нейросети. Последнее требование приводит к выделению малозначащих связей, которые могут быть удалены без потери точности. В результате, способность

модели к обобщению значительно возрастает, увеличивается робастность, уменьшается ошибка расчета мониторируемых параметров.

Ключевые слова: робастность модели, нейронные сети, стендовые испытания, мониторинг ГТД, редукция нейронной сети.

UDK 621.438, 004.855 BBK 3363.3, 32.813, 22.18

REDUCTION -BASED INCREASE OF ROBUSTNESS OF A NEURAL-NET MODEL OF GAS-TURBINE ENGINE MONITORING

Svetlana Vladimirovna Novikova Doctor of Technical Sciences, professor Kazan National Research Technical University after A.N.Tupolev-KAI,

Kazan, Russia [email protected] Jel'mira Shamil'evna Kremleva Kazan National Research Technical University after A.N.Tupolev-KAI,

Kazan, Russia [email protected]

The article presents a technique of increasing the robustness of a neural-net model of gas-turbine engine monitoring during stand tests due to decreasing the number of insignificant links in the neural network (neural network reduction). The technique is based on converting the problem of neural network learning into that of multi-criteria optimization which includes the error minimization criterion and the criterion of minimizing the absolute values of the weight links of a neural network. The latter requirement leads to reveal of insignificant links which can be deleted without any loss of accuracy. As a result, the ability of the model to summarize increases greatly, robustness increases as well, the calculation error of monitored parameters decreases.

Key words: model robustness, neural networks, stand tests, monitoring of a gasturbine engine, reduction of a neural network.

Проектирование газотурбинного двигателя (ГТД) включает в себя этап стендовых испытаний, на котором контролируются технологические параметры ГТД в различных режимах, прямо или косвенно. Так как протекающие в двигателе процессы носят нестационарный характер, его параметры зависят от внешних условий, причем вид такой зависимости часто не определен, состав измеряемых параметров в частном случае может быть неполным и т. д., то задачу контроля состояния ГТД можно отнести к задачам в условиях неполной и нечеткой информации [Новикова, 2006, с. 37-38]. Подобные задачи в настоящее время успешно решаются при помощи интеллектуальных нейросетевых систем и моделей [Жернаков, 2001; Емалетдинова, 2013].

Робастность модели, то есть устойчивость результатов моделирования к возмущениям входных данных, является одним из важнейших требований при моделировании технических систем. При нейросетевом моделировании понятие робастности часто заменяется специфическим термином «способность к обобщению», буквально означающем сохранение сетью точности вычислений для наборов данных, не участвующих в непосредственном обучении. Способность к обобщению достигается правильной настройкой синаптических весов в процессе обучения.

Оценку робастности или способности к обобщению нейросетевой модели будем проводить на основе вычисления специфической меры сложности сети, обозначаемой как VCdim, и получившей название «мера Вапника-Червоненкиса». В работе [Vapnik, 1971, P. 270] доказано, чем меньше значение меры, тем выше робастность сети. Доказано также, что значение VCdim обратно пропорционально количеству связывающих нейроны синаптических весов. Следовательно, для увеличения робастности модели требуется уменьшить количество межнейронных связей при сохранении точности вычислений.

Для построения нейросетевой модели необходимо обладать набором измеренных параметров моделируемого объекта в виде кортежей «вход-выход». Используется следующая информация, полученная в процессе стендовых испытаний ГТД [Ыоу1коуа, 2016, рр. 263-265]:

• и1(?) - частота вращения ротора низкого давления в момент

• п1(?-/*А?) - частота вращения ротора низкого давления с временной задержкой i*Аt, i=1..Ь/Аt (Ь - ширина временного окна);

• п2(0 - частота вращения ротора высокого давления в момент ^

• п2(^'*А^ - частота вращения ротора высокого давления с временной

задержкой i*Аt, i=1..L/Аt (Ь - ширина временного окна);

*

• Т4 (^ - температура газов за турбиной в момент ^

*

• Т4 - частота вращения ротора высокого давления с временной задержкой i*Аt, i=1..L/Аt (Ь - ширина временного окна).

Описанные параметры используются в качестве входной информации. Выходной информацией является режим работы ГТД, условно обозначенный как:

• 0 - установившийся режим;

• 1 - переходной режим;

• 2 - режим разгона;

• 3 - режим дросселирования.

Для выявления оптимальной структуры и топологии нейронной сети было проведено несколько разведывательных экспериментов. В результате был сделан выбор в пользу многослойного персептрона с одним скрытым слоем. Входной слой содержит шесть нейронов по количеству входных параметров, выходной -единственный нейрон (вид режима функционирования ГТД). Функции активации слоев сети выбирались из условия их непрерывности и дифференцируемо-сти, так как именно такой выбор функций гарантирует, что построенная нейронная сеть будет являться универсальным аппроксиматором [Осовский, 2002, с. 5055], и может моделировать зависимости любой сложности. В результате, функ-

ция активации скрытого слоя определена в виде гиперболического тангенса, выходного слоя - линейной функции.

Тогда функционирование обученной нейросетевой модели с выбранными характеристиками описывает следующая формула:

У =

( N

^ х, -1

I

1 =1

w

Л Л

-1

214> -1

+ 1

-1

(1)

У У

Здесь:

N - количество нейронов входного слоя;

М - количество нейронов скрытого слоя;

х, - входные параметры модели;

у - выходной параметр модели;

w(1)- синаптические веса скрытого (первого) слоя I = 1, N, , = 1, М,

определенные на этапе обучения;

w 12)- синаптические веса выходного (второго) слоя, определенные на этапе обучения;

Редукцию нейросетевой модели будем проводить на этапе обучения, включив в качестве критерия успешности обучения дополнительное условие: значения весов всех слоев сети в процессе обучения должны быть скорректированы так, чтобы:

1) функция ошибки сети на обучающем множестве была минимальна;

2) абсолютные значения синаптических коэффициентов были минимальны (в дальнейшем это приведет к их исключению и упрощению структуры нейросети).

Тогда процесс обучения описывает двухкритериальной оптимизационной задачей вида:

Г Г

Е(0)(')(w) = -2

I w((2

1=1

чч

N

21 w.í,)■

2 > w^,>х,<''-1

е "- -1

N

21w<1,хУ' -1

е

+ 1

-1

- (

(I)

у у

^ Ш1П

(2)

1=1

е

г=1

е

2

=1

1 N M (wm)2 1 m (w12112

£<■>( w)=2 1: v' x+2 i,- j л (3)

2-1 j= (i+:«>)■) 2м(i(w?)2)

k=1 4 k=1

здесь l = 1, q - номер обучающего примера, d(l) - эталонный выходной

вектор с номером l. В представленной модели условие (2) отвечает за минимизацию ошибки на обучающем множестве, а (3) - за уменьшение абсолютных значений весов.

Многокритериальная задача (2)-(3) на каждой итерации обучения решается методом последовательных уступок, при этом условие (1) считается важнее, чем условие (2).

Для решения задачи редукции нейросетевой модели был разработан алгоритм на основе многокритериального обучения:

1. По имеющемуся массиву исходных данных задать:

1.1. q - количество обучающих примеров;

1.2. о - порог отсечения малозначащих весов;

1.3. s - величина ошибки нейросетевой модели;

1.4. МАХ - предельное количество эпох обучения.

2. Счетчик эпох обучения установить в 1: k=1.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3. Положить номер обучающего примера l равным 1.

4. Для l-того обучающего примера сформулировать многокритериальную оптимизационную задачу вида (2)-(3).

5. Решить оптимизационную задачу (2). В качестве численного алгоритма минимизации выбрать метод переменной метрики с моментом [Nocedal, 2006].

5.1. Найти вектор pn направления оптимизации для синаптических весов

выходного слоя w^n, j = 1,M методом переменной метрики.

5.2. Определить шаг r¡n для коррекции весов выходного слоя в направлении pn методом направленной минимизации.

5.3. Пересчитать значения синаптических весов выходного слоя:

WÍ2)n+1 = Wgn +r„P„ +a(w(1)n - wJ2)n-1)

где С£[0,1] - коэффициент момента. 5.4. Найти вектор рп направления минимизации для весов скрытого слоя

w(j)п / = , } = 1,М методом переменной метрики.

5.5. Определить шаг 7]п для коррекции весов скрытого слоя в направлении рп методом направленной минимизации.

5.6. Пересчитать значения весов скрытого слоя по формуле:

w

(1) п+1

м>(1)п + ] р +а(wmп - м>(1)п-1)

} I п± п V } у /

(1) п У

;(1) п-1-У

6. Решить оптимизационную задачу (3). В качестве численного алгоритма минимизации выбрать метод градиентного спуска [Мурга, 2013, с. 96-98]. В качестве начальной точки работы алгоритма принять оптимальную точку, найденную на шаге 5 в процессе минимизации критерия Е(0)(/) .

6.1. Пересчет весов выходного слоя:

1 + 2!(<) п+1 )2'

к ф }

■± О^1 "+7 [

(2) п+1 ~ (2 )п+1 w(,) = !

У1 У1

1 -]

11+'

У = 1М

6.2. Пересчет весов скрытого слоя:

w

(1)п

w

(1)п+1

1 +

1 - 7]

21 п+1 )2 к ф } _

/ = , у = 1,м

7. Если /<д, то 1=1+1. Возврат к шагу 4. Иначе - к шагу 8.

8. Редуцировать нейросетевую модель:

8.1. Синаптические связи с весом меньше о по абсолютному значению считать незначащими и удалить из сети;

8.2. Если в результате удаления синаптических связей нейрон скрытого слоя окажется несвязанным с входными или выходным нейронами, удалить несвязанный нейрон.

9. Завершить вычисления, если:

а) Ошибка сети Е(0) меньше заданной погрешности е:

1 i

E(0)(w) = (y(l)(w)-d(l))2 <s (4)

2 1=1

б) Достигнуто максимальное количество эпох обучения: &=MAX.

Иначе вернуться к шагу 3.

Для сравнения эффективности разработанного алгоритма с существующими методиками редукции нейронных сетей были выбраны следующие:

• метод OBD (Optimal Brain Damage);

• метод штрафной функции.

Далее были проведены вычислительные эксперименты, в ходе которых нейронные сети изначально одинаковой топологии подвергались редукции тремя методами (предложенным алгоритмом и двумя стандартными). В результате эксперименты продемонстрировали преимущество предложенного алгоритма по точности как на обучающем, так и на тестовом множестве (Табл. 1).

Таблица 1 - Результаты работы алгоритма в сравнении со стандартными методами

Метод редукции Ошибка обучения (средняя) Ошибка обобщения (средняя) Количество эпох обучения

Разработанный алгоритм 1% 1,5% 15 198

ODB 4% 5% 20 000

Метод штрафной функции 2% 3% 20 000

Такой результат говорит о том, что алгоритм повышает робастность модели без потери точности и, как следствие, уменьшает ошибку при расчете контролируемых параметров ГТД. В результате редукции будет снижено значение коэффициента меры сложности сети УС&т, и тем самым повышена робастность нейросетевой модели ГТД.

Выводы: разработанный алгоритм редукции нейронных сетей повышает робастность модели, построенной на ее основе. Алгоритм превосходит стандартные методы по точности и скорости обучения.

Библиографический список

1. Емалетдинова Л. Ю. Алгоритмы построения нейросетевой модели динамического объекта регулирования и настройки параметров пид-регулятора / Л. Ю. Емалетдинова, Е. Д. Царегородцева // Известия высших учебных заведений. Авиационная техника. 2013. № 3. С. 27-33.

2. Жернаков С. В. Применение нейросетей для отладки параметров ГТД в процессе эксплуатации // Нейрокомпьютеры и их применение: VII Всеросс. конф. с междунар. участием. М.: ИПУ, 2001. С. 161-165.

3. Мурга О. К. Методы оптимизации: учеб. пособие. - 2-е изд., испр. и доп. / О. К. Мурга, А. А. Еремеева. Казань: Изд-во КНИТУ-КАИ, 2013. 189 с. ISBN 978- 5-75791230-1

4. Новикова С. В. Применение алгоритма адаптивной коррекции для регулирования газотурбинного двигателя в условиях помех // Известия высших учебных заведений. Авиационная техника. Казань, Изд-во КГТУ им. Туполева, 2006. №4. С. 37-40

5. Осовский С. Нейронные сети для обработки информации / Пер. с польского И. Д. Рудинского. М.: Финансы и статистика, 2002. 344 с.

6. Nocedal Jeorge; Wright Stephen J. Numerical Optimization. 2nd edition. USA: Springer, 2006. ISBN 978-0-387-30303-1.

7. Novikova S. V. Structural Optimization of the Neural Network Model for the Gas Turbine Engine Monitoring // Russian Aeronautics (Iz. VUZ), 2016. Vol. 59, No. 2, pp. 263-270.- ISSN 1068-7998. DOI 10.3103/S1068799816020185.

8. Vapnik V. N., Chervonenkis A. On the uniform convergence of relative frequencies of events to their probabilities. //Theory of Probability end its Applications, 1971, Vol.16, Pp. 264-280.

References

1. Emaletdinova L. Ju. Algorithms for constructing a neuro-net model of a dynamic control object and settings of pid-regulator parameters / L. Ju. Emaletdinova, E. D. Caregorodceva // Proceedings of higher educational establishments. Aviation engineering. 2013. № 3. P. 27-33. (in Russian)

2. Murga O.K. Optimization methods: text-book. - 2nd edition / O. K. Murga, A. A. Eremeeva. Kazan: KNRTU-KAI, 2013. 189 p. ISBN 978- 5-7579-1230-1. (in Russian)

3. Nocedal Jeorge; Wright Stephen J. Numerical Optimization. 2nd edition. USA: Springer, 2006. ISBN 978-0-387-30303-1. (in English)

4. Novikova S. V. Structural Optimization of the Neural Network Model for the Gas Turbine Engine Monitoring // Russian Aeronautics (Iz. VUZ), 2016. Vol. 59, No. 2, pp. 263-270. - ISSN 1068-7998. DOI 10.3103/S1068799816020185. (in English)

5. Novikova S.V. Application of the adaptive correction algorithm for adjusting a gasturbine engine under noise conditions // Proceedings of higher educational establishments. Aviation engineering. Kazan, KSTU named after Tupolev, 2006. №4. P. 37-40. (in Russian)

6. Osovskij S. Neural networks for information processing / Translated from Polish by I.D. Rudinskij. М.: Finansy i statistika, 2002. 344 p. (in Russian)

7. Vapnik V. N., Chervonenkis A. On the uniform convergence of relative frequencies of events to their probabilities. //Theory of Probability end its Applications, 1971, Vol.16, Pp. 264-280 (in English)

8. Zhernakov S. V. Application of neural networks for fine-tuning of GTE parameters during operation // Neurocomputers and their application: 7th All-Russian international conference. М.: IPU, 2001. P. 161-165. (in Russian)

i Надоели баннеры? Вы всегда можете отключить рекламу.