Научная статья на тему 'Моделирование нейронной сети для решения задачи классификации элементов корпуса летательного аппарата'

Моделирование нейронной сети для решения задачи классификации элементов корпуса летательного аппарата Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
115
16
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЛЕТАТЕЛЬНЫЙ АППАРАТ / НЕЙРОННАЯ СЕТЬ / МЕТОД ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ / МНОГОСЛОЙНЫЙ ПЕРСЕПТРОН / КЛАССИФИКАЦИЯ / ОПТИМИЗАЦИЯ АЭРОДИНАМИЧЕСКИХ РАСЧЕТОВ / AIRCRAFT / NEURAL NETWORK / BACKPROPAGATION / MULTILAYER PERCEPTRON / CLASSIFICATION / OPTIMIZATION OF AERODYNAMIC CALCULATIONS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Булгаков Владислав Николаевич, Рацлав Роман Алексеевич, Сапожников Денис Алексеевич, Чернышев Игорь Владимирович

Реализована модель нейронной сети для выполнения классификации элементов поверхностей летательного аппарата. Сгенерирована выборка, содержащая параметры поверхностей объектов классификации. Для того чтобы избежать ошибок, связанных с разными шкалами измерения, признаки были масштабированы. По синтетическим данным проведено обучение нейронной сети. Верификация предлагаемой модели проведена также с помощью синтетических данных. Оптимальная конфигурация нейронной сети определена экспериментально. В качестве критерия оптимальности была использована доля правильных ответов тестовой и обучающей выборок. Были проведены калибровка и модификация отдельных параметров модели. Результаты классификации тестовой выборки оптимальной сетью сведены в матрицу ошибок. Наиболее значимый результат достигнут при отделении класса эллипсоидов. Отдельные блоки матрицы показывают, что нейронная сеть безошибочно отделяет классы эллипсоидов и гиперболоидов. Предложены идеи для дальнейшей модификации алгоритма в целях повышения доли правильных ответов при отделении класса параболоидов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Булгаков Владислав Николаевич, Рацлав Роман Алексеевич, Сапожников Денис Алексеевич, Чернышев Игорь Владимирович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Modeling a neural network to solve the problem of classifying air frame elements

The paper introduces a neural network implemented to classify air frame surface elements. Within the research, we generated a sample containing the surface parameters of classification objects. In order to avoid errors associated with different measurement scales, the criteria were scaled. According to synthetic data, the neural network was trained, and the proposed model was verified. The optimal configuration of the neural network was determined experimentally. As a criterion of optimality, we used the proportion of correct answers from the test and training samples, and carried out calibration and modification of individual model parameters. The classification results of the test sample by the optimal network were summarized in the error matrix. The most significant result was achieved when distinguishing the class of ellipsoids. Separate blocks of the matrix show that the neural network accurately distinguishes the classes of ellipsoids and hyperboloids. The study proposes some ideas for further modification of the algorithm in order to increase the proportion of correct answers when distinguishing the class of paraboloids.

Текст научной работы на тему «Моделирование нейронной сети для решения задачи классификации элементов корпуса летательного аппарата»

УДК 533.6

DOI: 10.18698/2309-3684-2018-4-5771

Моделирование нейронной сети для решения задачи классификации элементов корпуса летательного аппарата

© В.Н. Булгаков1'2, Р.А. Рацлав2, Д.А. Сапожников1'2, И.В. Чернышев1'2

1АО «ВПК «НПО машиностроения», г. Реутов, Московская обл., 143966, Россия 2МГТУ им. Н.Э. Баумана, Москва, 105005, Россия

Реализована модель нейронной сети для выполнения классификации элементов поверхностей летательного аппарата. Сгенерирована выборка, содержащая параметры поверхностей объектов классификации. Для того чтобы избежать ошибок, связанных с разными шкалами измерения, признаки были масштабированы. По синтетическим данным проведено обучение нейронной сети. Верификация предлагаемой модели проведена также с помощью синтетических данных. Оптимальная конфигурация нейронной сети определена экспериментально. В качестве критерия оптимальности была использована доля правильных ответов тестовой и обучающей выборок. Были проведены калибровка и модификация отдельных параметров модели. Результаты классификации тестовой выборки оптимальной сетью сведены в матрицу ошибок. Наиболее значимый результат достигнут при отделении класса эллипсоидов. Отдельные блоки матрицы показывают, что нейронная сеть безошибочно отделяет классы эллипсоидов и гиперболоидов. Предложены идеи для дальнейшей модификации алгоритма в целях повышения доли правильных ответов при отделении класса параболоидов.

Ключевые слова: летательный аппарат, нейронная сеть, метод обратного распространения ошибки, многослойный персептрон, классификация, оптимизация аэродинамических расчетов.

Введение. В большинстве случаев летательный аппарат (ЛА) представляет собой комбинацию поверхностей первого и второго порядков. Чаще других встречаются цилиндрические, конические, эллиптические (в частности, сферические) поверхности, плоские профили, элементы двуполостных и эллиптических параболоидов [1]. На данный момент существуют методы определения аэродинамических характеристик, которые работают с телами, заданными в виде массива точек, связанных между собой в четырехугольные ячейки расчетной поверхности сетки [2-4]. Для задания начального приближения на этой сетке используют метод Ньютона, определяющий давление на элементе поверхности как функцию угла встречи потока с поверхностью тела [1]. В то же время на разных элементах с одинаковым углом встречи давление может быть разным. Информации, которую несет одна ячейка, недостаточно для определения типа принадлежащей ей поверхности. Проблема отделения классов конуса, цилиндра,

сферы, плоского профиля была решена в работе [5] с применением древовидного классификатора. Тем не менее даже с его помощью нельзя однозначно разделить линейным образом классы эллипсоида, гиперболоида и параболоида, хотя для их отделения были разрабата-ны дополнительные признаки. В данной работе описывается процесс моделирования искусственной нейронной сети (ИНС) прямого распространения [6-14] с использованием многослойного персептрона [15-20], обучаемого методом обратного распространения на основе прецедентов для определения класса [21] поверхности летательного аппарата с учетом информации о соседних ячейках.

Цель работы — создать классификатор, способный с достаточной точностью распознать и классифицировать элементы ЛА по классам эллипсоида, параболоида и гиперболоида без разработки дополнительных признаков на основе имеющейся информации.

Подход к решению. Для решения задачи классификации элементов летательного аппарата была построена искусственная нейронная сеть прямого распространения с одним скрытым слоем на базе многослойного персептрона. В качестве функции активации была использована fAKT = th(x). Выбор в качестве функции активации гиперболического тангенса, а не логистического сигмоида обусловлен областью определения входных сигналов (-1, 1) и предполагаемым ускорением сходимости обучения [6]. Ввиду того что объектом классификации является минимальный щит, состоящий из 9 точек, описываемый 27 координатами, входной слой будет представлен 28 нейронами: 27 — для признакового описания объекта, а 1 — нейрон смещения (bias) [10]. Подробнее объект классификации будет описан ниже. Между нейронами входного и скрытого слоев существуют синаптические связи. Для каждой связи определен свой вес. Веса записывают в матрицу размерностью [/хH], где I — число нейронов входного слоя, H — число нейронов скрытого слоя. Матрица имеет вид

Wih =

w

11

w

12

w

1h

w.

21

V wI1

w

22

w

2 H

w

I2

w

IH J

Здесь Иу — весовой коэффициент при передаче сигнала от у-го

нейрона входного слоя г-му нейрону скрытого слоя.

Сигнал проходит нейроны входного слоя без изменений (функция активации входного нейрона линейная) [7]. Нейроны скрытого слоя принимают сигналы от нейронов входного слоя и суммируют их согласно соотношению

и!

н

+™ы' №е ^

з=1

(1)

н1 где ин — сигнал в г-м нейроне скрытого слоя; и ^ — сигнал, исходящий из 7-го нейрона входного слоя; м>ы — вес связи между г-м нейроном и нейроном смещения на входном слое.

Скрытый слой представлен Н нейронами, один из которых — нейрон смещения. Количество нейронов на скрытом слое мы будем варьировать для обучения и во избежание переобучения нейросети, точное их количество определим далее экспериментальным путем. Нейроны скрытого слоя также соединены синаптически с нейронами выходного слоя:

(

Но

11

12

10

Л

21

V №Н 1

22

20

УН 2 — №Н0)

Сигнал в каждом скрытом нейроне проходит через функцию активации, соответственно незначительное перемещение сигнала не окажет существенного влияния на значение сигнала в нейронах выходного слоя [8].

Выходной слой представлен тремя нейронами по числу представленных классов. Сигналы от всех скрытых нейронов суммируются в каждом выходном нейроне и проходят через функцию активации согласно соотношению

и0

Н

7=1

АКТ

(и!)

+ , № е W

Н0

(2)

Результатом работы алгоритма будет вектор длины три й = }, I = 1,3, < 1.

Решение принимается на основе стратегии «победитель получает все» [5]: объект относится к тому классу, чей выходной нейрон обладает сигналом, наиболее близким к единице. Схема нейронной сети представлена на рис. 1.

Объект классификации. Объекты классификации — четырехугольные ячейки сетки на телах разной формы. Очевидно, что по четырем точкам невозможно однозначно определить класс, к которому относится наш объект. Известно, что с помощью инвариантов обобщенного уравнения поверхности по набору из девяти точек мы можем однозначно определить класс поверхности. Поэтому в качестве

основной информации, с которой наша нейронная сеть будет работать, мы будем использовать координаты девяти точек, которые взяты с вершин четырех соседних площадок, образуя минимальный щит для классификации (рис. 2). В отличие от метода, предложенного в работе [5], при использовании ИНС не возникает необходимости в разработке новых признаков.

Рис. 1. Схема нейронной сети

8

Рис. 2. Объект классификации

Обучающая выборка. Для обучения нейронной сети использовали типичные для решения данной задачи учебные данные. Для их создания случайным образом генерировали коэффициенты канонических уравнений поверхностей. С этих поверхностей были взяты координаты четырехугольных ячеек, котрорые затем зашумлялись, что означает искажение зашумляемого параметра не более чем на 1 %. Такие действия предназначены для приближения к реальным отклонениям в процессе взятия координат с математической модели летательного аппарата. Полученные зашумленные данные вместе с порядковым номером класса поверхности построчно записывают в выборку. Для достаточно точного обучения нейронной сети сгенерирована выборка из 500 элементов. Выборка для тестирования сети состоит из 100 элементов.

В качестве примера генерирования данных возьмем элемент эллиптического параболоида. Уравнение поверхности с единичными коэффициентами запишем в виде

Л,2 2

У , z

х = — +--.

2 2

В сферической системе координат с зенитом, отсчитываю щимся от оси Х, это уравнение будет примет вид

х = r cos 0; y = r sin 0 cos j; z = r sin 0 sin j;

1 2 2 2 1 2 2 2 r cos 0 = — r sin 0 cos j + — r sin 0 sin j;

22

12 cos 0 = — r sin 0;

2

cos 0

r = 2

sin20

Для создания девяти случайных точек сгенерируем шаги по угловым координатам — Д0, Дф и r как функцию от них

У(ф, е+2Д9) r (ф+Дф, е+2Д9) r (ф+2Дф, е+2де)" r (ф, е+Де) r (ф+Дф, е+Де) r (ф+2Дф, е+Де) r (ф, е) r (ф+Дф, е) r (ф+2Дф, е)

В декартовой системе координат мы получим:

cos2 е

х = 2-

sin20

у = 2

г = 2

008 0 008 ф

зт 0 008 0 зт ф зт 0

Для каждой координаты случайно сгенерируем коэффициенты поверхности а, Ь (в диапазоне [0; 10] для обучающей выборки), сдвиговые константы л^, Уо, го (диапазоны зависят от конкретного типа поверхности) и шумы Wx, Wy, Wz в диапазоне [0,99 ;1,01], что

соответствует отклонению в 1 % (погрешность построения сеток, как правило, на порядки ниже этого значения [6]), и применим к каждой точке операторы сдвига, сжатия и зашумления:

/ х Wx 0 0 0 "1 0 0 х0 "1 0 0 0" х

/ У 0 W У 0 0 0 1 0 У0 0 а 0 0 У

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

/ г 0 0 ^ 0 0 0 1 г0 0 0 Ь 0 г

1 0 0 0 1 0 0 0 1 0 0 0 1 1

Коэффициенты и сдвиги генерируют для всего набора точек, шумы — отдельно для каждой точки.

После всех проделанных операций сжатия и сдвигов мы получаем набор точек, каждая из которых удовлетворяет уравнению поверхности, а шумы создают отклонение для имитации сетки взятой с реального тела.

Масштабирование данных. Поскольку объекты описываются независимыми признаками, которые теоретически могут изменяться по различным шкалам, возникает необходимость приведения данных к одной шкале, так, например, элементы сферических затуплений находятся в носовой области летательного аппарата, и их удаленность от начала координат существенно меньше, чем у плоских профилей, располагающихся в срединной области и в хвосте. Нейронная сеть при обучении на таких данных может счесть удаленность от начал координат атрибутом, важным для классификации, и принять решение исходя из этого обстоятельства, что в общем случае неверно [9].

Данные для обучения ИНС приводили к одной шкале таким образом, что любой к-й параметр имел математическое ожидание, равное нулю, и дисперсию, равную единице.

хк =

г г хк — Хср

Х

где х1к — приведенное значение г-го параметра к-го объекта; х1ср —

среднее значение г-го параметра по всем объектам выборки; х^ — максимальное (по модулю) значение г-го параметра по всем объектам выборки [7].

Сравнение обучения тестовой выборки с масштабированием и без него показано на рис. 3. На оси абсцисс отмечено число нейронов скрытого слоя.

1,0 г 0,9 -

| 0,5 -§0,4 -

ОД -

_I_I_

0 5 10 15

Количество нейронов скрытого слоя

Рис 3. Зависимость доли правильных ответов ИНС: --с масштабированием;--без масштабирования

Прямое распространение. В качестве основополагающей концепции для моделирования нейронной сети используем персептрон. Эта модель восприятия информации состоит из датчиков, ассоциативных элементов и реагирующих элементов. Кроме того, она включает в себя матрицу взаимодействия W, которая определяется последовательностью прошлых элементов сети. Сигнал движется от входных (сенсорных) элементов к выходным (реагирующим) элементам через скрытые элементы, т. е. используется модель сети с прямым распространением сигнала. Сигнал распространяется между слоями согласно формулам (1, 2). Ответы нейронной сети сверяются с целевыми значениями, определяется ошибка, для корректировки которой и необходимо обучение. Обучение осуществляется с помощью метода обратного распространения ошибки, что позволяет отнести нашу искусственную нейронную сеть к классу многослойного персептрона.

Концепция обучения. Для обучения нейронной сети используют синтетическую выборку, описанную выше. Каждый обучающий пример согласуется с правильным ответом (обучение «с учителем»).

Цель обучения — изменение весовых коэффициентов для максимизации доли правильных ответов [10].

Обучение происходит в процессе 500 эпох (проходов по обучающей выборке).

Завершающим этапом обучения искусственной нейронной сети будет тестирование и выявление признаков неправильной работы сети. В ходе тестирования можно оценить ее способность обобщать полученные знания. Под обобщением подразумевается способность сети выполнять задачу распознавания класса поверхностей, данные которых аналогичны предоставленным сети данным в процессе обучения, но все же отличаются от них.

Нейроны скрытого слоя. Согласно теореме Колмогорова — Арнольда [15], любая функция нескольких переменных может быть представлена в виде нейронной сети с полными прямыми связями с одним скрытым слоем. Теорема, однако, не устанавливает точной зависимости числа нейронов скрытого слоя от числа нейронов входного и выходного слоев. Для определения оптимальной конфигурации нейронной сети будем варьировать количество нейронов скрытого слоя в каждом эксперименте. Оптимальной будем считать ту конфигурацию, при которой разность долей правильных ответов для обучающей и тестовой выборок стремится к минимуму, а доля правильных для тестовой выборки — к максимуму.

Алгоритм обучения. В момент инициализации нейронной сети ее весовые коэффициенты задавали в виде случайных значений в диапазоне (—1,1). Изменение весовых коэффициентов происходит по алгоритму обратного распространения ошибки. Для каждого обучающего объекта нейронная сеть выдает ответ в форме вектора длины, соответствующей количеству нейронов выходного слоя. Ответ сравнивается с целевым вектором С, у которого корректному классу соответствует значение 1, остальным — значение -1. Вычисляется ошибка для каждого выхода [6]. В соответствии со значением ошибки градиентарным методом корректируются значения весовых коэффициентов. Ошибку вычисляют по формуле

значение производной функции

ЛО

активации для и1 .

Веса обновляются следующим образом:

О

<+1 = < + р8ОиО, и,

< + рЬ°и°, и ,

где р — скорость обучения; весовые коэффициенты определены между скрытым и выходным слоями.

На скрытом слое нам неизвестен целевой вектор, соответственно, мы не можем получить ошибку скрытого слоя в явном виде. Используем ошибку выходного слоя для определения ошибки скрытого слоя:

\ =

( O

\

ZcO O

ki

\ i=1

(fAKT (ukk)).

(4)

Веса между входным и скрытым слоями обновляются аналогичным образом:

W;;

n+1

= w» + pbHükk, Wjj eW

TIH

Анализ результатов. Как было сказано выше, объем обучающей выборки составил 500 экземпляров, объем тестовой выборки — 100 экземпляров. Количество эпох для обучения составило 500.

Из данных рис. 4 можно сделать вывод, что сеть успевает обучиться за число эпох, существенно меньше чем 500. После прохождения 120-130 эпох сеть практически не обучается. Также существует локальный максимум, соответствующий значению в 80 эпох, после которого происходит некоторая корректировка сети в сторону ухудшения значений.

100 200 300 400 Количество нейронов скрытого слоя

500

Рис. 4. Зависимость доли правильных ответов ИНС от количества эпох обучения

Количество нейронов скрытого слоя определялось экспериментально. Зависимость доли правильных ответов от числа нейронов скрытого слоя для обучающей и тестовой выборок приведена на рис. 5. Максимум доли правильных ответов для тестовой выборки, как и минимум разности долей правильных ответов для двух выбо-

рок, приходится на число нейронов скрытого слоя, равное 5 и 6. В дальнейшем будем использовать конфигурацию с 6 нейронами скрытого слоя.

Количество нейронов скрытого слоя

Рис 5. Зависимость доли правильных ответов ИНС от числа нейронов скрытого слоя: --обучающая; —— — тестовая

Для тестовой выборки построим матрицу ответов Т, где в г-й строке на 7-й позиции разместим количество элементов класса г, отнесенных классификатором к классу 7. Соответственно, на диагонали будет располагаться количество элементов, классифицированных правильно:

' 37 1 о 1

т = 0 26 8

V 0 6 2У

Из матрицы видно, что элементы класса 1 (эллипсоид) хорошо отделились от элементов остальных классов, а основная доля ошибок приходится на элементы классов 2 (эллиптический параболоид) и 3 (эллиптический гиперболоид). Доли правильных ответов приведены в таблице.

Доли правильных ответов для каждого класса

Класс Доля правильных ответов

1 0,974

2 0,765

3 0,780

Следует отметить, что ни один из объектов класса эллипсоид не был отнесен к классу гиперболоид (и наоборот), в то время как в работе [1] не удалось найти подходящий критерий для отделения этих

классов. Если рассмотреть блок Т1'3, являющийся матрицей ответов для подзадачи отделения этих двух классов в рамках предложенной нейронной сети, то можно заметить, что в данном случае сеть не допустила ошибок:

,1,3 (37 01

T 1,3 _

V0 21,

Это свойство сети можно использовать для модификации метода, изложенного в работе [5].

Кроме того, средняя доля правильных ответов, составившая 0,84, незначительно меньше доли правильных ответов [5], равной 0,95, однако нейронная сеть не требовала теоретического подбора признаков и модификации признакового пространства. Ожидается, что дальнейшая модификация нейронной сети (подбор весовых коэффициентов функции активации, целевое динамическое изменение скорости обучения для весов между скрытым и выходным слоями) значительно увеличит долю правильных ответов.

Выводы. Построена ИНС, которая с высокой точностью обеспечивает отделение классов элементов летательного аппарата, для которых ранее не было обеспечено линейное разделение.

Определена структура нейронной сети и обучены ее весовые коэффициенты.

Достигнутая доля правильных ответов (84 %) при отделении трех классов позволяет использовать ИНС данной конфигурации в задачах классификации элементов корпуса летательного аппарата для дальнейшего целевого определения параметров обтекания с высокой точностью.

Доля правильных ответов при отделении классов эллипсоида от гиперболоида, составившая на тестовой выборке 100 %, позволяет применять ИНС для модификации существующих алгоритмов отделения данных классов.

ЛИТЕРАТУРА

[1] Краснов Н.Ф. Основы аэродинамического расчета. Аэродинамика тел вращения, несущих и управляющих поверхностей. Аэродинамика летательных аппаратов. Москва, Высшая школа, 1981, 496 с.

[2] Shinkyu J., Kazuhisa C., Shigeru O. Data minig for aerodynamic design space. Journal of Aerospace Computing, Information and Communication, 2005, vol. 2, no. 11, pp. 452-496.

[3] Paul G.T. Advanced Computational Fluid and Aerodynamics. Cambridge, Cambridge University Press, 2016, 578 p.

[4] Wei Wei, Rong Mo, Qingming Fan. Knowledge extraction for aerodynamic simulation data compressor rotor. Procedia Engineering, 2011, no. 15, pp. 1792-1796.

[5] Котенев В.П., Рацлав Р.А., Сапожников Д.А., Чернышев И.В. Метод классификации элементов поверхности летательного аппарата для численно-аналитического решения задач аэродинамики. Математическое моделирование и численные методы, 2017, № 3, с. 83-104.

[6] Каллан Р. Основные концепции нейронных сетей. Москва, Издательский дом «Вильямс», 2001, 287 с.

[7] Хайкин С. Нейронные сети: полный курс. Москва, Издательский дом «Вильямс», 2006, 1104 с.

[8] Джонс М.Т. Программирование искусственного интеллекта в приложениях. Москва, ДМК Пресс, 2011, 312 с.

[9] Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. Москва, Горячая линия — Телеком, 2006, 452 с.

[10] Гольдштейн Б.С., Ехриель И.М., Рерле Р.Д. Интеллектуальные сети. Москва, Радио и связь, 2000, 500 с.

[11] Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. Москва, Горячая линия — Телеком, 2002, 382 с.

[12] Галушкин А.И. Теория нейронных сетей. Кн. 1: учебное пособие для вузов. Москва, ИПРЖР, 2000, 416 с.

[13] Gallant S.L. Neutral Network Learning and Expert Systems. Cambridge, Massachusetts, MIT Press., 1993, 364 p.

[14] Sanger T.D. Optimal unsupervised learning in a single-layer linear feedforward neural network. Neural Networks, 1989, no. 2, pp. 459-473.

[15] Колмогоров А.Н. О представлении непрерывных функций нескольких переменных в виде суперпозиции непрерывных функций одного переменного. Доклады АН СССР, 1958, т. 114, № 5, с. 953-956.

[16] Напалков А.В., Прагина Л.Л. Мозг человека и искусственный интеллект. Москва, Издательство МГУ, 1985, 120 с.

[17] Пероуз Р. Новый ум короля: о компьютерах, мышлении и законах физики. Москва, Едитория УРСС, 2003, 384 с.

[18] Minsky M., Papert S. Perceptrons: An Introduction to Computational Geometry. Cambridge, Massachusetts, MIT Press., 1969, 258 p.

[19] David L.P., Alan K.M. Artificial intelligence. Cambridge University Press, 2017, 760 p.

[20] Rosenblatt F. Principles of Neurodynamics. New York, Spartan Books. 1962, 616 p.

[21] Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning. Ed. 2, New York, Springer, 2009, 745 p.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Статья поступила в редакцию 27.06.2018

Ссылку на эту статью просим оформлять следующим образом:

Булгаков В.Н., Рацлав Р.А., Сапожников Д.А., Чернышев И.В. Моделирование нейронной сети для решения задачи классификации элементов корпуса летательного аппарата. Математическое моделирование и численные методы, 2018, № 4, с. 57-71.

Булгаков Владислав Николаевич — аспирант кафедры «Вычислительная математика и математическая физика» МГТУ им. Н.Э. Баумана, инженер отдела аэродинамики в АО «ВПК «НПО машиностроения», автор работ в области численных,

аналитических и статистических методов исследования течения газа при обтекании поверхности летательных аппаратов. e-mail: v.n.bulgakov@vpk.npomash.ru

Рацлав Роман Алексеевич — студент кафедры «Вычислительная математика и математическая физика» МГТУ им. Н.Э. Баумана.

Сапожников Денис Алексеевич — аспирант кафедры «Вычислительная математика и математическая физика» МГТУ им. Н.Э. Баумана, инженер 2-й категории отдела аэродинамики в АО «ВПК «НПО машиностроения», автор работ в области численных, аналитических и статистических методов исследования течения газа при обтекании поверхности летательных аппаратов. e-mail: d.a.sapozhnikov@vpk.npomash.ru

Чернышев Игорь Владимирович — студент кафедры «Вычислительная математика и математическая физика» МГТУ им. Н.Э. Баумана, техник АО «ВПК «НПО машиностроения».

Modeling a neural network to solve the problem of classifying air frame elements

© V.N. Bulgakov12, R.A. Ratslav2, D.A. Sapozhnikov1'2, I.V. Chernyshev12

JSC "MIC "NPO Mashinostroyenia", Moscow Region, Reutov, 143966, Russia 2Bauman Moscow State Technical University, Moscow, 105005, Russia

The paper introduces a neural network implemented to classify air frame surface elements. Within the research, we generated a sample containing the surface parameters of classification objects. In order to avoid errors associated with different measurement scales, the criteria were scaled. According to synthetic data, the neural network was trained, and the proposed model was verified. The optimal configuration of the neural network was determined experimentally. As a criterion of optimality, we used the proportion of correct answers from the test and training samples, and carried out calibration and modification of individual model parameters. The classification results of the test sample by the optimal network were summarized in the error matrix. The most significant result was achieved when distinguishing the class of ellipsoids. Separate blocks of the matrix show that the neural network accurately distinguishes the classes of ellipsoids and hyperboloids. The study proposes some ideas for further modification of the algorithm in order to increase the proportion of correct answers when distinguishing the class of paraboloids.

Keywords: aircraft, neural network, backpropagation, multilayer perceptron, classification, optimization of aerodynamic calculations

REFERENCES

[1] Krasnov N.F. Osnovy aerodinamicheskogo rascheta. Aerodinamika tel vrash-cheniya, nesushchikh i upravlyayushchikh poverkhnostey. Aerodinamika le-tatelnykh apparatov [Fundamentals of aerodynamic calculation. Aerodynamics of bodies of revolution, bearing and control surfaces. Aerodynamics of aircraft]. Moscow, Vysshaya shkola Publ., 1981, 496 p.

[2] Shinkyu J., Kazuhisa C., Shigeru O. Data minig for aerodynamic design space. Journal of Aerospace Computing, Information and Communication, 2005, vol. 2, no. 11, pp. 452-496.

[3] Paul G.T. Advanced Computational Fluid and Aerodynamics. Cambridge, Cambridge University Press, 2016, 578 p.

[4] Wei Wei, Rong Mo, Qingming Fan. Knowledge extraction for aerodynamic simulation data compressor rotor. Procedia Engineering, 2011, no. 15, pp. 1792-1796.

[5] Kotenev V.P., Raclav R.A., Sapozhnikov D.A., Chernyshev I.V. Matemati-cheskoe modelirovanie i chislennye metody - Mathematical Modeling and Computational Methods, 2017, no. 3, pp. 83-1044.

[6] Callan R. The Essence of Neural Networks. Prentice Hall Europe, 1999, 232 p. [In Russ.: Callan R. Osnovnye kontseptsii nejronnyh setey. Moscow, Vilyams Publ., 2001, 287 p.].

[7] Haykin S. Neural Networks: A Comprehensive Foundation. Prentice Hall, 2nd ed., 1998, 842 p. [In Russ.: Haykin S. Neyronnye seti: polny kurs. Moscow, Vilyams Publ., 200, 1104 p.].

[8] Jones M.T. AI Application Programming. Programming Series, 2005, 496 p. [In Russ.: Jones M.T. Programmirovanie iskusstvennogo intellekta v prilozhe-niiakh. Moscow, DMK-Press Publ., 2011, 312 p.].

[9] Rutkovskaya D., Pilinskiy M., Rutkovskiy L. Neyronnye seti, geneticheskie algoritmy i nechetkie sistemy [Neural networks, genetic algorithms and fuzzy systems]. Moscow, Goryachaya liniya - Telekom Publ., 2006, 452 p.

[10] Goldstein, B.S., Ehriel, I.M., Rerle, R.D. Intellektualnye seti [Intelligent Networks]. Moscow, Radio i svyaz Publ., 2000, 500 p. (In Russ.)

[11] Kruglov V.V., Borisov V.V. Iskusstvennye neyronnye seti. Teoriya i praktika [Iskusstvennye nejronnye seti. Teoriya i praktika]. Moscow, Goryachaya liniya -Telekom Publ., 2002, 382 p.

[12] Galushkin A.I. Teoriya neyronnykh setey. Kn. 1: Uchebnoe posobie dlya vuzov [Theory of neural networks. Book 1: textbook for universities]. Moscow, IPRZHR Publ., 2000, 416 p.

[13] Gallant S.L. Neutral Network Learning and Expert Systems. Cambridge, Massachusetts, MIT Press., 1993, 364 p.

[14] Sanger T.D. Optimal unsupervised learning in a single-layer linear feedforward neural network. Neural Networks, 1989, no. 2, pp. 459-473.

[15] Kolmogorov A.N. Doklady AN SSSR (Proceedings of the USSR Academy of Sciences), 1958, vol. 114, no. 5, pp. 953-956.

[16] Napalkov A. V., Pragina L. L. Mozg cheloveka i iskusstvenny intellekt [Human brain and artificial intelligence]. Moscow, MSU Publ., 1985, 120 p.

[17] Penrose R. The Emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics. Popular Science Ser., Oxford University Press, 1 ed., 2002, 640 p. [In Russ.: Penrose R. Novyy um korolya: o kompyuterakh, myshlenii i zakonakh fiziki. Moscow, Editoriya URSS Publ., 2003, 384 p.].

[18] Minsky M., Papert S. Perceptrons: An Introduction to Computational Geometry. Cambridge, Massachusetts, MIT Press., 1969, 258 p.

[19] David L. P., Alan K. M. Artificial intelligence. Cambridge University Press, 2017, 760 p.

[20] Rosenblatt F. Principles of Neurodynamics. New York, Spartan Books. 1962, 616 p.

[21] Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning. New York, Springer, 2nd ed., 2009, 745 p.

Bulgakov V.N., post-graduate student, Department of Computational Mathematics and Mathematical Physics, Bauman Moscow State Technical University, Engineer, Department of Aerodynamics, JSC "MIC "NPO Mashinostroyenia". Author of academic papers in the field of numerical, analytical and statistical methods of studying the gas streaming in the aircraft surface flow. e-mail: v.n.bulgakov@vpk.npomash.ru

Ratslav R.A., student, Department of Computational Mathematics and Mathematical Physics, Bauman Moscow State Technical University.

Sapozhnikov D.A., post-graduate student, Department of Computational Mathematics and Mathematical Physics, Bauman Moscow State Technical University, Engineer of the 2nd category, Department of Aerodynamics, JSC "MIC "NPO Mashinostroyenia". Author of academic papers in the field of numerical, analytical and statistical methods of studying the gas streaming in the aircraft surface flow. e-mail: d.a.sapozhnikov@vpk.npomash.ru

Chernyshev I.V., student, Department of Computational Mathematics and Mathematical Physics, Bauman Moscow State Technical University, technician, Department of Aerodynamics, JSC "MIC "NPO Mashinostroyenia".

i Надоели баннеры? Вы всегда можете отключить рекламу.