Научная статья на тему 'Применение нейронных сетей для прогнозирования параметров энергетических установок с лазерным зажиганием'

Применение нейронных сетей для прогнозирования параметров энергетических установок с лазерным зажиганием Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
466
42
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ / ARTIFICIAL NEURAL NETWORK / РАКЕТНЫЙ ДВИГАТЕЛЬ / ROCKET ENGINE / ЛАЗЕРНОЕ ЗАЖИГАТЕЛЬНОЕ УСТРОЙСТВО / LASER IGNITION DEVICE / ПРОГНОСТИЧЕСКАЯ МОДЕЛЬ / PROGNOSTIC MODEL

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Пастухов Алексей Андреевич

В статье рассмотрена возможность применения искусственных нейронных сетей в задачах прогнозирования значений параметров модельной установки с лазерным зажиганием. Представлены основные этапы построения нейросетевой прогностической модели. Приведен пример синтеза нейронной сети с целью указанного прогнозирования. Показаны эффективность рассматриваемого подхода и возможность его применения для построения прогноза значений параметров различных элементов ракетных двигателей.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Пастухов Алексей Андреевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Predicting the parameters of energy installations with laser ignition: neural network models

The article considers the possibility of using artificial neural networks for prediction of the parameters of the model energy installation with laser ignition. The main stages of creating a prognostic model based on artificial neural network have been presented. Input data were analyzed by principal component method. The synthesized neural network was built up to predict the parameter value of the model in question. The artificial neural network was trained by back-propagation algorithm. The efficiency of the artificial neural networks and their applicability to prediction of the parameter values of the various elements of rocket engines were demonstrated.

Текст научной работы на тему «Применение нейронных сетей для прогнозирования параметров энергетических установок с лазерным зажиганием»

МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ ФИЗИЧЕСКИХ ПРОЦЕССОВ

А.А. Пастухов

Национальный исследовательский университет «Московский институт электронной техники»

ПРИМЕНЕНИЕ НЕйРОННых СЕТЕй ДЛЯ ПРОГНОЗИРОВАНИЯ ПАРАМЕТРОВ ЗНЕРГЕТИЧЕСКИх установок с лазерным ЗАЖИГАНИЕМ

В статье рассмотрена возможность применения искусственных нейронных сетей в задачах прогнозирования значений параметров модельной установки с лазерным зажиганием. Представлены основные этапы построения нейросете-вой прогностической модели. Приведен пример синтеза нейронной сети с целью указанного прогнозирования. Показаны эффективность рассматриваемого подхода и возможность его применения для построения прогноза значений параметров различных элементов ракетных двигателей.

ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ, РАКЕТНЫЙ ДВИГАТЕЛЬ, ЛАЗЕРНОЕ ЗАЖИГАТЕЛЬНОЕ УСТРОЙСТВО, ПРОГНОСТИЧЕСКАЯ МОДЕЛЬ.

DOI: 10.5862/JPM.218.2 УДК: 004.032.26

Введение

Стремительные темпы развития современных лазерных установок (высокая мощность и малый вес) диктуют и новый спектр их применения в самых разных областях науки и техники. В частности, представляется возможным осуществлять поджиг компонентов топлива с помощью специального лазерного устройства. Такое использование лазера является альтернативой традиционному способу инициации горения топлива в ракетном двигателе.

Это приспособление, называемое лазерным зажигательным устройством (ЛЗУ), было разработано в Государственном научном центре (ГНЦ) Федерального государственного унитарного предприятия (ФГУП) «Центр Келдыша» совместно с научно-производственным объединением (НПО) «Энергомаш». С 2011 года в НПО «Энергомаш» начались работы по стендовой отработке ЛЗУ [1].

Процесс разработки и принятия реше-

ния об использовании новых элементов ракетных двигателей, таких как лЗУ, требует проведения большого количества стендовых натурных испытаний, связанных с существенными финансовыми и временными затратами. Ситуация также усугубляется сложностью испытываемой системы, в которой настраиваемых параметров установки более пятнадцати, наблюдаемых — порядка десяти; кроме того, требуется выполнение около сотни попутных измерений. С преодолением всех вышеперечисленных трудностей, за период с 2011 по 2013 год было проведено всего 34 испытания.

Для сокращения материальных и временных затрат представляется актуальным применение математических методов и алгоритмов для прогнозирования отклика на входное воздействие как системы в целом, так и отдельных ее элементов, позволяющее сократить количество натурных испытаний.

целью настоящего исследования является синтез обучаемой нейронной сети для

прогнозирования значении параметров модельной энергетической установки с лазерным зажиганием.

Преимущества обучаемой нейронной сети

В представленной работе прогностическая модель работы системы построена на использовании обучаемой нейронной сети [2], которая обладает следующими преимуществами.

Во-первых, сеть отличается простотой каждого вычислительного элемента (нейрона). Нейрон представляет собой взвешенный сумматор, выход которого определяется как

У = /(и), и = £ wlxl + х0,

I=1

где х. — 1-й вход нейрона, ж — синаптиче-ский вес связи 1-го входа нейрона, / — ак-тивационная функция.

Вход х0, представляющий собой фиксированный входной сигнал +1 и соответствующий ему вес м>0, называют смещением нейрона.

Возможна индивидуальная настройка каждого нейрона, позволяющая строить компактные математические модели для решения задач прогнозирования и выявления нелинейных функциональных связей. Наличие большого числа связей между нейронами, с одной стороны, требует увеличения количества вычислений, но с другой стороны, позволяет довольно точно аппроксимировать функции любой сложности.

Во-вторых, для сети характерна гибкость. Нейронная сеть — совокупность нейронов, соединенных взвешенными связями. Существует множество видов нейронных сетей, которые различаются между собой топологией связей, видом нейронов и т. п. Кроме того, возможно построение новых типов нейронных сетей путем, например, создания гибридов из уже существующих типов. Это позволяет решать разнообразные задачи, в том числе задачу прогнозирования.

В-третьих, имеется возможность уточнения модели при поступлении новых данных. Существует модульный принцип обучения искусственной нейронной сети, при

котором не происходит переобучения всей системы при поступлении новых данных, а изменению подвергаются лишь отдельные нейроны и связи. Это важно, так как обучение является сложным процессом и при полном переобучении существует вероятность потери сетью обобщающих способностей.

В настоящей работе в качестве прогнозируемого параметра была выбрана температура газа в замерной шайбе модельной установки с лазерным зажигательным устройством. Выбор этого параметра обусловлен тем, что его значение определяет результат (исход) эксперимента в целом (успех либо неуспех). Кроме того, данные по указанной температуре газа имеются для всех испытаний (датчик ни разу не выходил из строя).

Этапы построения нейросетевой прогностической модели

Приведем перечень этапов построения этой модели.

1. Подготовка исходных данных.

2. Анализ факторного пространства и выбор переменных.

3. Подготовка факторного пространства.

4. Построение модели нейронной сети.

5. Обучение нейронной сети.

Подготовка исходных данных. Этот этап

во многом определяет адекватность построенной модели. По данным, полученным в ходе испытаний, строится факторное пространство, включающее в себя измеряемые параметры модельной установки. Факторное пространство представляется в реляционном виде и разбивается на три группы.

Первая группа включает признаки и параметры, значения которых известны до проведения эксперимента. Цель формирования этой группы — обеспечение модели входными параметрами, позволяющими надежно различать условия разных экспериментов. В первую группу включены четыре параметра; обозначим ее как

А = {Д, Д, Д, Д},

где А. — вектор-столбцы А. = (а.), при этом I — порядковый номер эксперимента,

I = 1, 2, ..., п (п — общее количество экспериментов);

а! е [15,18; 24,91] — температура горючего до мерного участка (измерялась в градусах цельсия);

а^ е [74,11; 198,60] — давление горючего перед мерным участком (кгс/см2);

а3 е [0,1016; 2,1500] — расход окислителя (кг/с);

а4 е [0,1065; 0,3200] — расход горючего (кг/с).

Вторая группа включает значения параметров, измеряемых в ходе испытания, которые не являются критичными для получения результата (например, температура в служебных отсеках установки). Эти параметры обеспечивают избыточность исходных данных и используются для отработки и настройки модели. В эту группу включено четыре параметра, обозначим ее

В = {В1В2 В3 B4},

где В. — вектор-столбцы В. = (Ь{), при этом I — порядковый номер эксперимента, I = 1, 2, ..., п (п — общее количество экспериментов);

Ь1 е [0,325; 58,51] — соотношение расходов компонентов (кг/с);

Ьг е [226, 71; 322,6]] — давление в емкости окислителя (кгс/см2);

Ь е [74,82; 203,14] — давление в емкости горючего (кгс/см2);

Ь е [117,46; 161,66] — давление в емкостях охлаждающей жидкости (кгс/см2).

Назовем X = А и В множеством входных параметров. Его можно задать матрицей

х =

Ь1

ы

кЛ

Ь у

где к — число параметров первой группы факторного пространства, I — число параметров второй группы. Число строк матрицы равно п, число столбцов т = к + I. В данном случае п = 29, т = 8.

третья группа параметров включает экспериментальные значения величин, измерение которых определяет результат. Они служат выходными данными в модели

эксперимента. В данной работе был выбран единственный прогнозируемый выходной параметр — температура газа в замерной шайбе. Группу У = {у} назовем множеством выходных параметров. Здесь / — порядковый номер эксперимента, / = 1, 2, ..., п (п — общее количество экспериментов); у1 е [- 64,02; 993,52] — температура газа в замерной шайбе, °С.

Множество выходных параметров представляется в виде

У =

í У1 ^

Уп

где п = 29.

Таким образом, факторным пространством модели является множество V = X и У.

Анализ факторного пространства и выбор переменных. Для построения нейронной сети факторное пространство можно преобразовать таким образом, чтобы оно было представлено сокращенным количеством «эффективных» признаков. В результате должна остаться только часть данных, несущая максимальное количество информации. Это позволяет сократить количество входных признаков факторного пространства с минимальными потерями информации, что в свою очередь впоследствии может способствовать упрощению архитектуры нейронной сети. Кроме того, сокращение количества признаков позволяет спроецировать многомерное факторное пространство на пространство меньшей размерности, что значительно упрощает процедуру его анализа.

Возникает вопрос о существовании оптимального обратимого линейного преобразования пространства исходных данных, позволяющего сократить его размерность. Простое сокращение некоторого количества параметров факторного пространства приведет к тому, что среднеквадратичная ошибка такого преобразования будет равна сумме дисперсий исключенных элементов. Следовательно, преобразование должно иметь малую дисперсию своих отдельных компонентов.

Анализ главных компонент (в теории информации он называется преобразованием Карунена — Лоэва) [2] позволяет максимизировать скорость уменьшения дисперсии и таким образом максимизировать вероятность правильного выбора исключаемых параметров.

Математическое содержание метода главных компонент — это спектральное разложение ковариационной матрицы, которое совпадает с сингулярным разложением матрицы исходных данных [3].

Сингулярным разложением матрицы исходных данных X называется ее представление в виде произведения:

X = 5-Е-Ст, (1)

где 5 — ортогональная матрица, образованная собственными векторами з. матрицы X - Хт, соответствующими собственным значениям Х 1, то есть X - Хт з 1 = Хз1; С — ортогональная матрица, образованная собственными векторами с. матрицы Хт - X, соответствующими собственным числам Х ¡, то есть Хт - Хс1 = Х¡а; Е — положительно определенная диагональная матрица с элементами

а1 > ... >а. > ... >аг > 0,

где и. = л^Х.'; I = 1 2, ..., г = гапк(Х). В данном случае г = 8.

Столбцы матрицы 5 называются левыми сингулярными векторами. Строки матрицы

Результаты анализа вклада собственных зш

С называются правыми сингулярными векторами.

Возвращаясь к разложению (1) с учетом того, что элементы матрицы Е упорядочены по убыванию, получаем, что наибольший вклад в матрицу Х вносят первые столбцы матрицы 5 и первые строки матрицы С, так как им соответствуют наибольшие значения матрицы Е.

Связь между сингулярным разложением и методом главных компонент определяется формулами:

т = 5 - Е, (2)

где т — матрица счетов, содержащая проекции исходных данных на подпространство главных компонент;

Р = С, (3)

где Р — матрица нагрузок, она есть матрица перехода из исходного пространства переменных Х в пространство главных компонент.

Количество экспериментальных реализаций — малое (всего 29), а это критично для обучения нейронных сетей с большим количеством настраиваемых параметров, поэтому представляется целесообразным сокращение количества параметров факторного пространства.

Факторное пространство, включающее данные по 29 испытаниям, проецируется на пространство главных компонент. Ре-

Таблица 1 ний величин, полученных при 29 испытаниях

N V Доля в общей дисперсии, % Совокупное собственное значение Совокупная доля в дисперсии, %

1 3,324898 41,56122 3,324898 41,5612

2 1,906212 23,82764 5,231109 65,3889

3 1,258792 15,73490 6,489902 81,1238

4 0,978690 12,23363 7,468592 93,3574

5 0,344825 4,31031 7,813417 97,6677

6 0,183848 2,29810 7,997265 99,9658

7 0,002400 0,03000 7,999666 99,9958

8 0,000334 0,00418 8,000000 100,0000

Обозначения: N — количество собственных значений (совпадает с номером компоненты), V — собственное значение величины.

Рис. 1. Результаты проецирования пространства факторов на пространство главных компонент: N — количество собственных значений, V — собственное значение величины

зультаты представлены в табл. 1 и на рис. 1. Видно, что 81,12 % общей дисперсии обеспечивается первыми тремя главными компонентами. Компоненты 7 и 8 практически не вносят никакого вклада. Более 90 % от общей дисперсии обеспечивается первыми четырьмя главными компонентами, но в данном случае цель применения метода состоит в максимально возможном

сокращении числа признаков факторного пространства.

Таким образом, целесообразно рассматривать только первые три главные компоненты.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Для того чтобы понять, какие факторы следует оставить в пространстве признаков, анализируется матрица факторных нагрузок (табл. 2). Видно, что первый фактор имеет

таблица 2

Матрица факторных нагрузок для трех главных компонент

0,360048 0,044197 0,161626

0,655228 0,703099 -0,227213

Х3 -0,841152 0,440810 -0,257437

Х4 0,558408 -0,181547 -0,713014

Х5 -0,839159 0,424273 -0,241175

-0,597731 -0,345838 -0,633068

Х7 0,661975 0,694228 -0,242636

Х8 0,496894 -0,633303 -0,297604

Обозначения: Х1, Х2, ..., Х8 — столбцы множества входных параметров X; Ж1, В2, — соответственно первая, вторая и третья главные компоненты.

Таблица 3

Корреляционная матрица факторного пространства

Х1 Х2 Х3 Х4 ^5 Х6 Х7 ^8

1,000000 0,149644 -0,231507 0,204460 —0,301840 -0,173092 0,153268 —0,056537

0,149644 1,000000 -0,198955 0,342744 —0,198955 -0,483203 0,999401 —0,001569

Х3 -0,231507 -0,198955 1,000000 -0,342020 0,983270 0,488857 -0,203656 -0,601238

Х4 0,204460 0,342744 -0,342020 1,000000 -0,405599 0,160197 0,364045 0,456364

Х5 -0,301840 -0,198955 0,983270 -0,405599 1,000000 0,463971 -0,198496 -0,511579

-0,173092 -0,483203 0,488857 0,160197 0,463971 1,000000 -0,475425 0,030348

Х7 0,153268 0,999401 -0,203656 0,364045 -0,198496 -0,475425 1,000000 0,007380

Х8 -0,056537 -0,01569 -0,601238 0,456364 -0,511579 0,030348 0,007380 1,000000

Обозначения: Х1, Х2, ..., Х8 — столбцы множества входных параметров X. Жирным шрифтом выделены значения, превышающие по модулю 0,4.

высокие корреляции с элементами 3 и 5 матрицы исходных данных X, второй фактор — с элементом 2, третий — с элементом 4 (значения выделены жирным шрифтом).

Здесь следует отметить, что переменная 5 (соотношение расходов компонентов) имеет достаточно высокие корреляции с элементами 3 и 4. Это демонстрирует корреляционная матрица факторного пространства, представленная в табл. 3.

такой результат не удивителен, так как переменная 5 представляет собой отношение переменной 3 к переменной 4.

таким образом, в конечное факторное пространство для модели включены три переменные: 2, 3 и 4. Переменная 5 исключена из рассмотрения, так как равна отношению переменной 3 к переменной 4.

Подготовка факторного пространства. Прежде чем использовать факторное пространство в качестве данных для построения нейронной сети, необходимо произвести его подготовку, которая состоит в решении проблемы насыщения нейронов. При достижении насыщения значение, вычисляемое нейроном, становится близким к краю области значений функции активации, что приводит к замедлению обучения и параличу нейронной сети.

Данные, используемые при обучении нейронной сети, нормируются таким образом, чтобы вход нейрона не попал в об-

ласть малой производной функции активации [5], в качестве которой используется сигмоидальная функция. В данном случае входные параметры принимают как положительные, так и отрицательные значения, поэтому в качестве функции активации выбран гиперболический тангенс

Эта функция непрерывно дифференцируема на всей числовой оси

/'(X) = 1 - Ш2(X)

и позволяет решать проблему шумового насыщения, что необходимо для корректного функционирования алгоритмов обучения.

Кроме того, желаемый отклик нейрона выходного слоя должен быть смещен на некоторую величину от границы области значений функции активации внутрь. Это достигается путем инициализации смещения нейрона ненулевыми значениями.

Последний этап подготовки данных включает начальную инициализацию свободных параметров (весов) нейронной сети. Инициализация проводилась методом Нгу-ен — Видроу [6].

Далее можно приступать к непосредственному построению модели нейронной сети.

Построение модели нейронной сети. В работе [7] был проведен анализ нейронных сетей нескольких типов применительно к решению различных задач. Для решения задачи прогнозирования подходят два типа сетей: многослойный персептрон (MLP — multilayer perception) и сеть радиально-базисных функций (RBF — radial basis function). В общем случае сети RBF дают более точный результат, но требуют большого количества экспериментальных данных. При относительно малой размерности обучающей выборки (что имеет место в данном исследовании) предпочтение следует отдать сетям типа MLP.

Главная задача при построении модели нейронной сети — это определение количества нейронов скрытого слоя.

Оценка количества связей сети определяется по формуле, которая следует из теорем Арнольда — Колмогорова — Хехт-Нильсена [8]:

mN т (N Л, 1Ч

< Lw < m I — + 1 (n + m + 1) + m, (4)

L =

L

1 + log2 N

m

где п, т — размерности входного и выходного сигнала соответственно; N — число элементов обучающей выборки; Ьк — общее количество связей нейронной сети.

Если учесть, что все нейроны каждого слоя соединены со всеми нейронами следующего слоя и связи между нейронами внутри одного слоя отсутствуют, а также принять во внимание выражение (4), то тогда число нейронов в скрытом слое определяется следующими формулами [9]:

n + m

22

1 + log2 22 22

< L < 116;

4.

(5)

(6) (7)

1 + 22

Таким образом, число связей сети Ьк лежит в диапазоне 4 < Ьк <116. С помощью формулы (6) получим, что число Ь скрытых нейронов сети лежит в диапазоне 1 < Ь < 29 (округлены до целого значения).

В работе [2] отмечено, что для хорошего обобщения достаточно, чтобы размер обучающего множества удовлетворял соотношению:

N = 0(Ж / в), (8)

где Ж — общее количество свободных параметров, в — допустимая точность ошибки классификации, N — размер обучающего множества.

К сожалению, как отмечалось выше, в нашем исследовании имеется всего 29 экспериментальных реализаций. Поэтому для достижения хотя бы значения е « 0,35 при трех входных параметрах, количество нейронов скрытого слоя должно быть не более двух. В связи с этим примем количество нейронов скрытого слоя Ь равным двум. топология полученной нейронной сети показана на рис. 2.

После формирования топологии нейронной сети можно приступать к послед-

Рис. 2. Топология нейронной сети для прогнозирования температуры газа в замерной шайбе установки с лазерным зажигательным устройством; X. — г-й вход сети, У — выход сети, ю| — вес связи г-го нейрона к-го слоя с у-м нейроном

(к + 1)-го слоя

нему этапу построения неиросетевои прогностической модели — обучению.

Обучение нейронной сети. В математической интерпретации задача обучения нейронной сети сводится к нахождению функциональной зависимости

^ у, 1 = 1, 2, ..., 29,

где X. — 1-я строка матрицы входных параметров X; у. — 1-я строка матрицы выходных параметров (в данном случае г-й элемент вектор-столбца) У

Достигается это минимизацией целевой функции ошибки нейронной сети, вычисляемой методом наименьших квадратов:

&})=2£ - у*)2, (9)

2 к=1

а)

У. °с

800

<

600 400 200 О

о

о о

) о о>а

О

о о

1

где гк — значение к-го выхода нейронной сети, ук — целевое значение к-го выхода нейронной сети, п — число нейронов в выходном слое, ю & — вес связи, соединяющий нейрон г с нейроном

Построение прогноза температуры газа в замерной шайбе

Для создания прогностической модели использовалось 22 набора данных из имеющихся 29, полученных в результате испытаний ЛЗУ, 3 набора использовались для независимого тестирования сети, а оставшиеся 4 — для валидации обучения.

Каждый набор включает в себя пару: входной вектор (строка из матрицы входных параметров X) и выходное значение

0 200 400 600 800

т, °с

с)

200 400 600 800 т, °с

> о О о о о

О г о

<%р о

, '1

200 400 600 800

т, °с

0 200 400 600 800

т, °с

Рис. 3. Графики регрессии обучения нейронной сети (зависимости фактических величин У от целевых Т): результаты обучения (а), проверки на переобучение (Ь) и проверки на тестовом множестве (с), а также общий результат (С); 1 — прямая У = Т, 2 — прямая, проходящая через центр облака данных; символы — данные испытаний

Таблица 4

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Результаты обучения нейронной сети

График на рис. 3 Я У(Т), ос

а) 0,62102 0,35 Т + 3,0* 102

Ь) 0,75051 0,64 Т + 2,9 *102

с) 0,68722 0,33Т + 3,0* 102

Т) 0,62025 0,36Т + 3,1 * 102

Обозначения: Я — показатель отношения «значение выхода нейронной сети / целевое значение», У(Т) — приближенная линейная зависимость фактических величин от целевых величин Т.

(соответствующее значение из вектора выходных параметров У).

Обучение проводилось с использованием алгоритма обратного распространения ошибки, который представляет собой модификацию метода градиентного спуска [2]; приращение значений весовых коэффициентов на каждой итерации определялось по формуле

АюУ =-п , (10)

где Иу — весовой коэффициент связи, соединяющей г-й нейрон слоя к —1 с у-м нейроном слоя к; 0 < п < 1 — коэффициент скорости обучения.

В соответствии с алгоритмом, процедура обучения завершается либо по достижении ошибки заданного значения, либо по окончании пятидесяти эпох обучения.

На рис. 3 представлены графики регрессии обучения нейронной сети, построенные с помощью инструментального средства NN1001 пакета МЛТЬЛВ.

В табл. 4 приведены результаты анализа графиков 2 на рис. 3 для синтезированной

Таблица 5

Проверка прогноза температуры газа для реализаций, которые не участвовали в обучении нейронной сети

Точка на рис. 4 Значение, °С Отклонение от значения

Т У Т - У, °С 2*102 Т - У / (Т + У), %

1 506,3 492,7 13,6 3

2 285,6 202,3 83,3 34

3 651,2 929,3 -278,1 35

нейронной сети, в том числе соотношения фактических и целевых значений.

При Я = 1 существует точная линейная зависимость между выходом нейронной сети и целевым значением, если же Я близко к нулю, то между этими значениями линейной зависимости нет [10].

Рис. 4. Графическая оценка результата прогнозирования температуры для тестового множества: Т — целевое значение, У — фактическое значение, спрогнозированное сетью, линия — тренд; точки 1 — 3 — элементы тестового множества

Для тестового множества (три экспериментальные реализации, которые не участвовали в обучении) был получен результат, представленный на рис. 4 и в табл. 5.

Заключение

Следует констатировать, что полученная модель малопригодна для точного предсказания значения параметра, поскольку, как и ожидалось, относительные отклонения значений из тестового и обучающего множеств от целевого значения составили в среднем около 35 %. Такая высокая величина связана с малым количеством обучающих примеров.

Однако целью данного исследования являлась только демонстрация применимости аппарата искусственных нейронных сетей в данной предметной области, а не создание точной модели. Выполнение последней задачи невозможно, если мы располагаем таким малым количеством экспериментальных реализаций.

Следует особо отметить, что с увеличе-

нием числа проведенных натурных испытаний (в том числе с отрицательным исходом) появляется возможность расширить факторное пространство и, как следствие, улучшить построенную модель.

таким образом, в настоящей работе представлено построение нейросетевой прогностической модели на базе экспериментальных данных, способной выделять функциональные связи между параметрами без какой-либо информации об их предыстории. Построенная модель позволяет прогнозировать выходной параметр, соответствующий результатам испытания модельной установки с лазерным зажиганием, причем с заранее оцененной точностью.

Полученные результаты указывает на принципиальную возможность создания прогностических моделей узлов и агрегатов испытываемых ракетных двигателей. Модель можно создать с помощью аппарата искусственных нейронных сетей и использования довольно обширной базы данных проведенных испытаний.

СПИСОК ЛИТЕРАТУРЫ

[1] Хромцова А. Лазеры зажигают двигатели // Российский космос. Август. 2013. № 8(92). С. 2-4.

[2] Хайкин С. Нейронные сети: полный курс. 2-е изд. Пер. с англ. М.: ИД «Вильямс», 2008. 1104 с.

[3] Айвазян С.А., Бухштабер В.М., Енюков и.С., Мешалкин Л.Д. Прикладная статистика. Классификация и снижение размерности. М.: Финансы и статистика, 1989. 607 с.

[4] Богачев К.Ю. Практикум на ЭВМ. Методы приближения функций. М.: Изд-во ЦПИ при механико-математическом ф-те МГУ, 2002. 192 с.

[5] Медведев В.С., Потемкин В.Г. Нейронные сети. М.: Диалог МИФИ, 2001.496 с.

[6] LeCun Y. Efficient learning and second-

order methods. MA: MIT Press, 1993. 71 p.

[7] Родионов П.Е. Методика извлечения знаний в задачах анализа рядов динамики с использованием нейронных сетей: дис. ... канд. техн. наук: 05.13.17: Москва, 2003. 169 с.

[8] Hecht-Nielsen R. Counterpropagation networks// Appl. Optics. 1987. Vol. 26. No. 23. Pp. 4979 -4984.

[9] Девятых Д.В., Гергет О.М., Михаленко и.В. Применение искусственных нейронных сетей для прогнозирования развития перинатального поражения нервной системы // Известия ВолгГТУ. 2013. Вып. 16. № 8 (111). С. 77-80.

[10] Beale M.H., Hagan M.T., Demuth H.B. Neural Network Toolbox User's Guide [http://www. mathworks.com/help/pdf_doc/nnet/nnet_ug.pdf] // MathWorks, Inc. 2014. Pp. 2-27-28.

СВЕДЕНИЯ ОБ АВТОРЕ

ПАСтуХОВ Алексей Андреевич — аспирант кафедры высшей математики № 1 Национального исследовательского университета «МИЭТ».

124498, Российская Федерация, г. Москва, Зеленоград, пр. 4806, д. 5 pastuhov1992@gmail.com

PastukhovA.A. PREDICTING THE PARAMETERS OF ENERGY INSTALLATIONS WITH LASER IGNITION: NEURAL NETWORK MODELS.

The article considers the possibility of using artificial neural networks for prediction of the parameters of the model energy installation with laser ignition. The main stages of creating a prognostic model based on artificial neural network have been presented. Input data were analyzed by principal component method. The synthesized neural network was built up to predict the parameter value of the model in question. The artificial neural network was trained by back-propagation algorithm. The efficiency of the artificial neural networks and their applicability to prediction of the parameter values of the various elements of rocket engines were demonstrated.

ARTIFICIAL NEURAL NETWORK, ROCKET ENGINE, LASER IGNITION DEVICE, PROGNOSTIC MODEL.

REFERENCES

[1] A. Khromtsova, Lasers ignite the engines, Ross. Cosmos. 8(92) (2013) 2-4.

[2] S. Khajkin, Nejronnye seti: polnyj kurs [Neural networks: a complete course,], 2nd Ed., ID «Vil'yams», Moscow, 2008.

[3] S.A. Ajvazyan, V.M. Bukhshtaber, I.S. Enyukov, L.D. Meshalkin, Prikladnaya statistika. Klassifikatsiya i snizhenie razmernosti [Applied statistics. Classification and dimension reduction], Finansy i statistika, Moscow, 1989.

[4] K.Yu. Bogachev, Praktikum na EVM. Metody priblizheniya funktsij [Computer workshop. Methods of function approximation]. Izd-vo TsPI pri mekhaniko-matematicheskom f-te MGU, Moscow, 2002.

[5] V.S. Medvedev, V.G. Potemkin, Nejronnye seti [Neural networks]. Dialog MIFI, Moscow, 2001.

[6] Y. LeCun, Efficient learning and second-order methods. MIT Press,Cambridge, MA, 1993.

[7] P.E. Rodionov, Metodika izvlecheniya znanij v zadachakh analiza ryadov dinamiki s ispol'zovaniem nejronnykh setej: dis. ... kand. tekhn. nauk: 05.13.17 [Methods of extraction of knowledge for the analysis of time series using neural networks], Moscow, 2003.

[8] R. Hecht-Nielsen, Counterpropagation networks, Appl. Optics. 26 (23) (1987) 4979-4984.

[9] D.V. Devyatykh, o.M. Gerget, I.V. Mikhalenko, Primenenie iskusstvennykh nejronnykh setej dlya prognozirovaniya razvitiya perinatal'nogo porazheniya nervnoj sistemy [Aartificial neural network implementation for newborn nervous system perinatal damage diagnosing], Izvestiya VolgGTU. 16 (8) (111) (2013) 77-80.

[10] M.H. Beale, M.T. Hagan, H.B. Demuth, Neural Network Toolbox User's Guide, MathWorks, Inc., available at: http://www.mathworks.com/help/ pdf_doc/nnet/nnet_ug.pdf, 2014, pp. 2-27-28.

THE AUTHOR

PASTuKHoV Alexey A.

National Research University of Electronic Technology

5 Pass. 4806, Zelenograd, Moscow, 124498, Russian Federation

pastuhov1992@gmail.com

© Санкт-Петербургский политехнический университет Петра Великого, 2015

i Надоели баннеры? Вы всегда можете отключить рекламу.