Научная статья на тему 'КЛАССИФИКАЦИЯ ОБЪЕКТОВ ВОЕННОЙ ТЕХНИКИ С ИСПОЛЬЗОВАНИЕМ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ НА РАДИОЛОКАЦИОННЫХ ИЗОБРАЖЕНИЯХ, СФОРМИРОВАННЫХ В УСЛОВИЯХ ШУМОВЫХ ПОМЕХ'

КЛАССИФИКАЦИЯ ОБЪЕКТОВ ВОЕННОЙ ТЕХНИКИ С ИСПОЛЬЗОВАНИЕМ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ НА РАДИОЛОКАЦИОННЫХ ИЗОБРАЖЕНИЯХ, СФОРМИРОВАННЫХ В УСЛОВИЯХ ШУМОВЫХ ПОМЕХ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
137
31
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ГЛУБОКАЯ СВЕРТОЧНАЯ НЕЙРОННАЯ СЕТЬ / ШУМОВАЯ ПОМЕХА / РАДИОЛОКАЦИОННОЕ ИЗОБРАЖЕНИЕ / ТОЧНОСТЬ КЛАССИФИКАЦИИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Купряшкин И. Ф., Мазин А. С.

В статье решена задача определения зависимости точности классификации радиолокационных изображений объектов десяти классов (из открытой части стандартного набора Moving and Stationary Target Acquisition and Recognition) от отношения «шумовая помеха / сигнал» (от -20 до 20 дБ). В отличие от традиционного подхода к ее решению на основе методов статистического анализа получение оценок точности классификации проводилось с использованием восьмислойной глубокой сверточной нейронной сети. Установлено, что срыв распознавания (снижение точности классификации до 30 % и менее) объектов авто- и бронетехники в РЛС с субметровым разрешением требует создания помехи с фоновым уровнем, как минимум на 10 дБ превышающим средний уровень отметок объектов. Также показано, что использование предобученных сетей с архитектурами MobileNetV1 и Xception не приводит к улучшению точности классификации.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Купряшкин И. Ф., Мазин А. С.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CLASSIFICATION OF MILITARY EQUIPMENT TARGETS ON RADAR IMAGES GENERATED IN NOISE INTERFERENCE CONDITIONS USING A CONVOLUTIONAL NEURAL NETWORK

The paper proposes the solution to the problem of determining the relationship between the accuracy of classification of radar images of targets belonging to ten classes (from the public portion of Moving and Stationary Target Acquisition and Recognition standard data set) and the signal-to-noise ratio (from -20 to 20 dB). Unlike the traditional approach to solving the above problem based on statistic analysis methods, the classification accuracy was estimated using an eight-layer deep convolutional neural network. It is found out that target recognition failure (a decrease in the classification accuracy down to 30 % and lower) regarding sub-meter radar imagery of motor and armoured vehicles requires interference with a background level higher than the average background level of target echoes by at least 10 dB. The study also proves that using pre-trained networks with the MobileNetV1 and Xception architectures fails to improve the classification accuracy.

Текст научной работы на тему «КЛАССИФИКАЦИЯ ОБЪЕКТОВ ВОЕННОЙ ТЕХНИКИ С ИСПОЛЬЗОВАНИЕМ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ НА РАДИОЛОКАЦИОННЫХ ИЗОБРАЖЕНИЯХ, СФОРМИРОВАННЫХ В УСЛОВИЯХ ШУМОВЫХ ПОМЕХ»

https://doi.org/10.38013/2542-0542-2022-1-71-81 УДК 621.396.96

Классификация объектов военной техники с использованием сверточной нейронной сети на радиолокационных изображениях, сформированных в условиях шумовых помех

И. Ф. Купряшкин, А. С. Мазин

Военный учебно-научный центр Военно-воздушных сил «Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина», Воронеж, Российская Федерация

В статье решена задача определения зависимости точности классификации радиолокационных изображений объектов десяти классов (из открытой части стандартного набора Moving and Stationary Target Acquisition and Recognition) от отношения «шумовая помеха / сигнал» (от -20 до 20 дБ). В отличие от традиционного подхода к ее решению на основе методов статистического анализа получение оценок точности классификации проводилось с использованием восьмислойной глубокой сверточной нейронной сети. Установлено, что срыв распознавания (снижение точности классификации до 30 % и менее) объектов авто- и бронетехники в РЛС с субметровым разрешением требует создания помехи с фоновым уровнем, как минимум на 10 дБ превышающим средний уровень отметок объектов. Также показано, что использование предобученных сетей с архитектурами MobileNetVI и Xception не приводит к улучшению точности классификации.

Ключевые слова: глубокая сверточная нейронная сеть, шумовая помеха, радиолокационное изображение, точность классификации

Для цитирования: Купряшкин И. Ф., Мазин А. С. Классификация объектов военной техники с использованием сверточной нейронной сети на радиолокационных изображениях, сформированных в условиях шумовых помех // Вестник Концерна ВКО «Алмаз - Антей». 2022. № 1. С. 71-81. https://doi.org/10.38013/2542-0542-2022-1-71-81

For citation: Kupryashkin I. F., Mazin А. S.Classification of military equipment targets on radar images generated in noise interference conditions using a convolutional neural network // Vestnik Koncerna VKO "Almaz - Antey". 2022. No. 1. P. 71-81. https://doi.org/10.38013/2542-0542-2022-1-71-81

Поступила 11.11.2021 Отрецензирована 01.12.2021 Одобрена 17.12.2021 Опубликована 18.03.2022

Введение

В настоящее время глубокие сверточные нейронные сети (ГСНС) стали одним из наиболее широко применяемых инструментов решения ряда задач, традиционно рассматриваемых как задачи компьютерного зрения [1-3]. Это обусловлено их высокой эффективностью, превышающей или как минимум не уступающей эффективности традиционных подходов.

Радиолокация не является исключением. Так, в обширном обзоре [4] авторами среди

© Купряшкин И. Ф., Мазин А. С., 2022

основных направлений применения технологий глубокого обучения в задачах обработки данных радиолокационной съемки выделяются поиск и классификация объектов на радиолокационных изображениях (РЛИ). В качестве основного инструмента при этом рассматриваются ГСНС, в связи с чем как одни из первых [5, 6], так и значительная часть современных работ [7-18] посвящены поиску их эффективных архитектур и гиперпараметров.

<5

Сравнение точности классификации объектов с помощью алгоритмов, рассматриваемых как традиционные (К-ближайших со- Щ седей (K-Neighbor), опорных векторов ^УМ), Е.

AdaBoost, множества решающих деревьев (Random Forest), CART и др.), и точности, достигаемой ГСНС, демонстрирует уверенное преимущество последних даже при отсутствии предобработки изображений, их случайных смещениях или поворотах [5, 19-21].

Сочетание непрерывного улучшения пространственного разрешения РЛИ с качественным скачком эффективности автоматического дешифрирования за счет применения ГСНС делает системы видовой радиолокационной разведки весьма ценным источником разведывательных сведений и одновременно -весьма сложным объектом с точки зрения эффективного радиопротиводействия.

В известной литературе практически не отражены результаты исследований эффективности классификации объектов с помощью ГСНС на РЛИ, сформированных в условиях преднамеренных помех. Но, судя по тенденции к их все более широкому использованию, получение таких оценок в интересах уточнения

требований к средствам радиопротиводействия авиационным и космическим РЛС является актуальной задачей.

В связи с этим целью работы является определение точности классификации радиолокационных изображений объектов военной и специальной техники, формируемых в условиях преднамеренных активных шумовых помех с различной интенсивностью, выполняемой с использованием глубоких сверточных нейронных сетей.

1. Подготовка данных обучающей и тестовой выборок

В качестве исходных данных используется открытая часть стандартного набора MSTAR (Moving and Stationary Target Acquisition and Recognition) [20], включающая РЛИ десяти образцов военной техники с разрешением около 0,3 м, полученные по результатам съемки РЛС X-диапазона. Примеры РЛИ набора приведены на рисунке 1.

см см о см

< I

со те

s

о

CQ

О.

Ф

О

о

V

со см

■Clin 9 см

■Clin см

(П (П

Гаубица 2С1 Боевая Бронированная Бронетранс- Бронетранс-

машина разведывательно- портер пехоты дозорная машина БТР-60 БМП-2 БРДМ-2

портер БТР-70

Бульдозер D7 Танк ^62 Танк ^72 Автомобиль Зенитная само-

ЗиЛ-131 ходная установка ЗСУ-23-4

Рис. 1. Радиолокационные изображения объектов набора MSTAR и их фотографии

Из всех имеющихся изображений были сформированы обучающий, проверочный и тестовой наборы, характеристики которых приведены в таблице 1. Изображения обучающих и проверочных наборов получены при съемке с углом визирования 17 градусов, тестового набора - 15 градусов.

Общее количество изображений обучающего набора составляет 1923, проверочного -891 и тестового - 2503.

Каждое исходное изображение представляет массив комплексных отсчетов Ц размерность которого для объектов разных классов является различной (минимальная составляет 128x128 отсчетов).

С целью исключения влияния фона местности на результаты классификации подготовка данных для обучения и тестирования включает этап вычисления маски отсчетов отметки объекта

1, Uif >l

О, Щ<1

(1)

где порог / определяется как значение п-го элемента упорядоченной по возрастанию векторизированной выборки отсчетов !ф(г - 1) Ы. +} = 1Щ из области РЛИ, не включающей отметку объекта и его тень; г е [1; Ыг], 7 е [1; Ы/]; Ыг и Ы, - количество строк и столбцов массива и соответственно. В качестве

такой области принимаются участки РЛИ с интервалами индексов г е [1; Ыг],] е [1; Ыф] и г е [1; Ыг],] е [Ы/ - Ыф + 1; Ыф]. Индекс п определяется как п = т^2рЫг Ыф}, где р е [0; 1] соответствует вероятности превышения порога амплитудой фонового отсчета, т.е. ложной тревоги; т^х} - целая часть х.

Далее осуществляется поэлементное перемножение маски с исходным изображением, т.е. формируется комплексное изображение I с нулевыми отсчетами в фоновой области

Ц = U Щ.

(2)

Так как при отсутствии фона исходная размерность изображений набора MSTAR от 128x128 отсчетов и более является избыточной, осуществляется ее понижение как

= + тХ{Ыг12 -N/2},} + шЦЫ/ /2 - N/2^ (3)

где г = 1Ы и у = 1Ы при Ы = 44.

В работе [8] уже проводилась оценка точности классификации зашумленных изображений объектов набора MSTAR сверточ-ной сетью. Однако при этом собственно «за-шумление» состояло в искажении некоторого количества пикселей изображения, выраженного в процентном соотношении к их общему количеству. Такой подход не учитывает специфику формирования преднамеренных помех и обработки принимаемых сигналов в РЛС [23].

Таблица 1

Характеристики обучающих, проверочных и тестовых наборов

Набор Объект Количество изображений Объект Количество изображений

Обучающий Гаубица 2С1 209 Бульдозер D7 200

Проверочный 90 99

Тестовый 274 274

Обучающий Боевая машина пехоты БМП-2 163 Танк Т-62 200

Проверочный 70 99

Тестовый 195 273

Обучающий Бронированная разведывательно-дозорная машина БРДМ-2 209 Танк Т-72 200

Проверочный 89 79

Тестовый 274 274

Обучающий Бронетранспортер БТР-60 179 Автомобиль ЗиЛ-131 200

Проверочный 77 99

Тестовый 195 274

Обучающий Бронетранспортер БТР-70 163 Зенитная самоходная установка ЗСУ-23-4 200

Проверочный 70 99

Тестовый 196 274

см см о см

< I

со те

s

о со

о.

ф

о

о ф

со

см ■ci-io

с?

см ■ci-io см

(П (П

В общем случае результатом обработки прицельной по частоте непрерывной гаус-совской шумовой помехи является формирование помехового изображения [23]. При условии линейности квадратурного приема в РЛС помеховое изображение представляет собой массив гауссовских комплексных отсчетов, суммирующийся с соответствующими отсчетами комплексного сигнального изображения (т.е. результатом обработки собственно эхосиг-нала поверхности), что, в свою очередь, приводит к повышению среднего фонового уровня в пределах амплитудного РЛИ. При этом пространственные интервалы корреляции помехо-вого и сигнального («незашумленного») изображений будут практически совпадать [23], и в пределах участка, сопоставимого по площади с отметкой отдельного объекта, его средний уровень можно считать постоянным.

С учетом этих соображений при подготовке обучающих данных помеховое изображение представляется в виде матрицы комплексных некоррелированных значений т] = т] с + jт] ^ размерностью N х N при этом элементы матриц действительной пс и мнимой % частей распределены по гауссовскому закону с нулевым средним и единичной дисперсией.

Для обеспечения соответствия корреляционных характеристик сигнального и по-мехового изображений над матрицами I и т] осуществляется процедура пространственной фильтрации

1, = ^ЪтпС{т-ип-]У,

т=1 л=1

N N

т=1 п=1

(4)

где G(m,n) = ехр

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(

2 2 Л т +п

В результате (4) автокорреляционные пики помехового и сигнального изображений характеризуются практически экспоненциальной формой и одинаковой шириной, что обычно и имеет место в результате взвешенной обработки аддитивной смеси прицельной по частоте шумовой помехи и эхосигнала поверхности в процессе синтеза РЛИ [23].

Над полученной матрицей помехово-го изображения осуществляется операция

приведения к единичной средней дисперсии ^,.(Л//{ц}, где О{ц} - оценка дисперсии элементов матрицы - после фильтрации (4), и далее она суммируется с сигнальной с последующим вычислением модуля, т.е.

17 = + (5)

где кп = mq

— ; q - требуемое отношение поп

меха/сигнал на РЛИ; т - средняя амплитуда ненулевых отсчетов сигнального РЛИ I.

На заключительном этапе изображение (5) преобразуется в целочисленный 8-битный формат в соответствии с правилом

/„ =

128, 1у > 28

(6)

где

/..=int|29x7^ /тш

1 max = тах{1}

и /min = min{I} - максимальная и минимальная амплитуды отсчетов соответственно.

Перед подачей на вход ГСНС целочисленные значения в диапазоне [0;255] преобразуются в вещественные в диапазоне [0;1] путем деления на 255.

Примеры изображений наборов, сформированных при q = -20; -15; -10; -5; 0; 5; 10; 15; 20 дБ, приведены на рисунке 2.

2. Структура и гиперпараметры глубокой сверточной нейронной сети, процесс и результаты обучения

Разработка и обучение сети осуществлялись с использованием фреймворка TensorFlow 2.0 и библиотеки Keras [24]. Архитектура сети (рис. 3) соответствует архитектуре VGG-типа [25] и включает последовательности четырех пар сверточных слоев (Convolution Layers) с одинаковыми ядрами 3*3 и единичным шагом свертки. После каждой пары включены слои подвыборок (MaxPooling) 2*2. Первая пара сверточных слоев включает по 32 фильтра, вторая, третья и четвертая - по 64, 128 и 256 соответственно. Полносвязный классификатор включает входной слой на 4096 входов и 256 выходов, слой 50-процентного прореживания (Dropout) и выходной слой с 10 выходами

Гаубица 2С1

Боевая машина пехоты БМП-2 Бронированная разв.-дозорная машина БРДМ-2

Бронетранспортер БТР-60 Бронетранспортер БТР-70 Бульдозер Б7 Танк Т-62 Танк Т-72

Автомобиль ЗиЛ-131

Зенитная самоходная установка ЗСУ-23-4

-20 дБ -15 дБ-10 дБ -5 дБ 0 дБ 5 дБ 10 дБ 15 дБ 20 дБ

Рис. 2. Примеры изображений объектов из наборов с различным отношением помеха/сигнал

по числу классов объектов. В качестве функции активации сверточных слоев и входного слоя классификатора используется кусочно-линейная (ReLU). Количество настраиваемых параметров такой сети составляет 2'223'082.

При обучении использован адаптивный алгоритм Adam с параметром скорости обучения 10-4 (по умолчанию это значение составляет 10-3), функцией потерь выступала перекрестная энтропия [24].

При выборе архитектуры осуществлялся перебор различных вариантов сочетания гиперпараметров (количества и размерности сверточных слоев, типов функций активации, включение слоев пакетной нормализации (BatchNormalization), слоев прореживания (Dropout) на различных этапах и др.), а также сравнение скорости и качества обучения при различных способах инициализации весов, типах и параметрах оптимизаторов (Adam, RMSProp, Adadelta). В целом улучшения точности классификации или существенного ускорения процесса обучения принятие этих мер не обеспечило.

Сеть с описанной архитектурой, для которой далее в работе принято обозначение C-CNN (Custom Convolutional Neural Network), на тестовом наборе продемонстрировала точность классификации 97,91 %, т.е. из 2503 изображений неверно распознала 52. Хотя такая точность является довольно высокой, на сегодняшний день существует значительное разнообразие более сложных архитектур, включающих bottleneck-слои (сети типа Inception), residual-блоки (сети типа ResNet), а также ряд других решений и их сочетаний.

Для проверки того, повлияет ли существенным образом выбор архитектуры сети на получаемые результаты, с использованием техники переноса обучения (Transfer Learning) [20, 24] были дополнительно дообуче-ны сети Xception [26] и MobileNetVl [27]. Полносвязные классификаторы этих сетей были заменены на собственные, включающие _ входной слой на 512 выходов, слой 50-про- | центного прореживания и выходной слой на 10 | выходов по числу классов. Параметр скорости S обучения оптимизатора Adam составлял 10-5. ^

CM CM

о

CM

< I

(0 те

s

О CO

.

V

о

о

<D CO

CM ■Clio 9

CM ■Clio

CM

w w

Рис. 3. Архитектура ГСНС C-CNN

С целью обеспечения равных условий обучения и корректности последующего сравнения результатов входные изображения перед подачей на вход сетей (С-С№№ в том числе) приводились к размерности 128*128, так как она является минимальной для сети Хсерйоп. Сеть Хсерйоп на тестовом наборе показала точность 97,35 %, МоЫШет - 96,47 %.

Все сети (С-СШ, МоЫШеШ, Xception) обучались на всех наборах данных по отдельности, оценка точности для сети проводилась на всех тестовых наборах, т.е. при всех отношениях помеха/сигнал. Максимальные достигнутые значения точности классификации приведены в таблице 2.

Продолжительность обучения с использованием GPU (GeForce GTX1660SUPER) для отдельной эпохи составила 7 с для сети C-CNN, 16 с - для MobileNetV1 и 47 с -для Xception. Общее количество эпох для сетей C-CNN и MobileNetV1 составляло 300, сети Xception - от 50 до 500 при различном отношении помеха/сигнал. Полное обучение на отдельном наборе заняло 35 и 80 мин (C-CNN и MobileNetV1), и от 40 мин до 6,5 ч (Xception).

Как видно из таблицы 2, максимальную точность классификации в беспомеховой обстановке показала сеть C-CNN (97,91 %), при отношениях помеха/сигнал -20, -15, -10, -5 дБ сеть Xception - 98,47, 98,15, 97,35 и 94,35 % соответственно. Для отношений помеха/сигнал 0 и 5 дБ наилучшую точность показала сеть C-CNN -86,13 и 55,01 % соответственно.

Для анализа возможности расширения диапазона отношений помеха/сигнал, в пределах которого качество работы сети существенно не снижается, были сформированы обучающий, проверочный и тестовый наборы из 5769, 2673 и 7509 изображений соответственно. Наборы для объектов каждого класса включали случайное количество изображений с отношениями помеха/сигнал -40, -20, -15, -10, -5, 0 дБ.

Все три сети были обучены на этом наборе данных, и протестированы на всех остальных. Полученные результаты приведены в таблице 3.

На рисунках 4-6 приведены зависимости, наглядно представляющие результаты, приведенные в таблицах 2 и 3. Типы линий (пунктирная, штрихпунктирная и т.д.) характеризуют отношения помеха/сигнал обучающих наборов изображений. Утолщенная сплошная линия соответствует точности классификации, достигнутой этой же сетью, но обученной на расширенном наборе. На рисунке 7 приведены зависимости, обобщающие полученные результаты и иллюстрирующие достигнутые максимальные точности классификации сетями, обученными на наборах как с фиксированными отношениями помеха/сигнал (незакрашенные маркеры), так и на расширенном наборе (закрашенные маркеры).

Таблица 2

Максимальные точности классификации при различных отношениях помеха/сигнал на обучающем и тестовом наборах, %

C-CNN

Обучающий набор Тестовый набор (отношение помеха/сигнал), дБ

б/п -20 -15 -10 -5 0 5 10 15 20

б/п 97,91 27,8 19,31 13,42 11,22 10,93 10,97 10,97 10,93 10,93

-20 97,47 97,79 73,59 34,85 17,74 11,81 11,01 10,97 10,93 10,93

-15 88,50 94,67 96,59 76,64 22,11 11,25 10,97 10,93 10,97 10,89

-10 59,61 65,10 85,01 96,23 49,27 17,18 10,37 08,57 07,93 07,53

-5 49,31 49,43 51,04 67,74 93,18 27,20 08,73 07,73 07,81 07,77

0 40,10 40,14 39,98 41,06 51,88 86,13 20,91 09,77 08,61 09,09

5 26,60 26,76 26,84 27,20 30,32 39,70 55,01 14,66 09,33 09,01

10 13,42 13,58 13,74 14,62 16,50 19,07 24,67 27,44 14,78 11,73

15 10,81 10,97 10,93 10,97 10,93 10,97 13,18 13,98 13,18 11,21

20 10,97 10,85 10,93 10,93 10,93 10,93 10,97 10,93 10,93 10,93

MobileNetVl

Обучающий набор Тестовый набор (отношение помеха/сигнал), дБ

б/п -20 -15 -10 -5 0 5 10 15 20

б/п 96,47 29,72 19,91 17,70 14,54 11,81 10,65 10,97 11,01 10,49

-20 59,41 95,75 83,85 38,06 17,06 12,29 09,69 10,41 10,37 11,21

-15 51,12 86,81 94,35 73,87 26,16 10,69 08,29 08,93 10,37 10,49

-10 42,18 44,11 66,42 91,34 38,02 11,61 09,85 10,61 10,49 10,85

-5 28,36 27,60 29,40 42,70 88,14 16,70 07,93 07,85 07,77 07,77

0 24,71 22,43 21,11 23,87 32,09 64,38 13,22 08,57 08,69 09,01

5 14,42 14,90 13,62 12,05 12,54 19,23 31,73 11,29 09,17 09,57

10 09,89 10,93 11,49 11,93 10,53 10,49 09,17 11,45 10,41 10,21

15 09,89 08,53 08,93 08,85 10,41 09,21 10,21 11,49 10,93 10,69

20 07,33 08,49 09,25 10,13 10,05 10,21 11,09 11,13 10,17 10,49

Xception

Обучающий набор Тестовый набор (отношение помеха/сигнал), дБ

б/п -20 -15 -10 -5 0 5 10 15 20

б/п 97,35 52,64 14,14 11,33 11,37 11,97 11,97 12,50 10,85 11,49

-20 68,46 98,47 93,99 57,21 22,83 13,82 12,21 11,61 10,97 10,97

-15 44,95 93,54 98,15 84,81 35,89 11,25 10,65 10,93 10,97 10,97

-10 33,29 52,20 82,49 97,35 52,12 16,26 09,89 09,13 09,49 09,29

-5 25,96 31,20 35,29 55,68 94,35 21,19 07,81 07,77 07,73 07,73

0 24,51 24,87 25,64 30,16 45,67 81,29 16,62 09,81 08,89 08,61

5 17,58 17,34 16,30 14,74 17,34 29,80 40,46 13,82 09,97 09,21

10 11,17 11,25 10,97 11,01 11,21 12,78 16,90 19,31 12,01 09,57

15 13,26 11,85 11,81 13,62 12,66 08,97 11,25 12,62 12,74 10,89

20 12,78 12,66 12,33 13,86 10,17 11,69 11,29 10,17 11,65 12,05

Таблица 3

Максимальные точности классификации, достигнутые сетями, обученными на расширенном наборе, при различных отношениях помеха/сигнал на тестовых наборах, %

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Архитектура сети Тестовый набор (отношение помеха/сигнал)

б/п -20 -15 -10 -5 0 5 10 15 20

C-CNN 97,35 96,99 96,87 95,75 91,30 76,96 26,12 09,85 09,21 08,73

MobileNetV1 96,59 96,83 96,35 94,55 84,45 64,74 16,18 08,65 07,97 08,49

Xception 98,19 98,23 97,67 96,67 91,18 75,16 21,07 09,73 08,97 09,85

см см о см

< I

со те

s

I

о

CQ

О.

Ф

О

о

V CQ

СМ ■Clin

с?

см

■Clin см

(П (П

-5 0 q, дБ

Рис. 4. Точность классификации в условиях шумовых помех (С-СЫЫ)

- - б/п;---20 дБ;---15 дБ;---10 дБ;

---5 дБ;--0 дБ;--5 дБ;--10 дБ;

■ - 15 дБ;--20 дБ; — - расширенный набор

100

90

80

70

..о 60

о о 50

я

¡г о 40

Н

30

20

10

0

л

1- \

-25 -20 -15 -10

-5 0 q, дБ

10 15 20

Рис. 6. Точность классификации в условиях шумовых помех (Хсерйоп) --б/п;---20 дБ;---15 дБ;---10 дБ;

---5 дБ;--0 дБ;--5 дБ;--10 дБ;

--15 дБ;--20 дБ;--расширенный набор

Из анализа зависимостей на рисунках 4-7 следует общий вывод о довольно низкой ро-бастности сверточных нейросетей (зависимости имеют выраженные пики, смещающиеся вправо и уменьшающиеся по мере увеличения отношения помеха/сигнал). При этом ухудшение качества работы сетей наблюдается даже в тех случаях, когда отношение помеха/сигнал на тестовом наборе ниже, чем на обучающем. Это свидетельствует о том, что признаки распознавания, выделенные на зашумленных наборах, отличаются от признаков, выделяемых на изображениях без помехи. Существенному повышению устойчивости сети к изменению

100 90 80 70 % 60 50 40 30 20 10 0

(1-J

>—т

1 >----

5

10 15 20

-25 -20 -15-10 -5 0 q, дБ

Рис. 5. Точность классификации в условиях шумовых помех (МоЫ1еЫе1У1)

--б/п;---20 дБ;---15 дБ;---10 дБ;

---5 дБ;--0 дБ;--5 дБ;--10 дБ;

--15 дБ;--20 дБ; — - расширенный набор

-25 -20

20

-5 0 q, дБ

Рис. 7. Максимальная точность классификации в условиях шумовых помех

--Custom CNN;--MobileNetVl;

--Xception;--Custom CNN;

--MobileNetVl; - Xception

уровня помехи способствует обучение на наборах, включающих изображения с различными отношениями помеха/сигнал. Платой за это является незначительное (до единиц процентов) снижение точности классификации по сравнению с сетями, обученными на наборах с соответствующими фиксированными отношениями помеха/сигнал.

Выводы

Применение ГСНС в задаче классификации РЛИ объектов военной техники продемонстрировало высокую точность, максимальное достигнутое значение составило 97,91 %.

5

Выбранная архитектура сети C-CNN соответствует уже классической на сегодняшний день архитектуре сети VGG-типа и обеспечивает получение оценок точности классификации, по-видимому, характерных для ГСНС вообще. Это также следует из результатов, полученных сетями MobileNetVl и Xception.

Отмечено регуляризирующее действие слабой помехи, повышающее качество работы сети. Об этом свидетельствуют точности классификации сетью Xception, обученной на наборах с отношениями помеха/сигнал -20 и -15 дБ (98,45 и 98,15 % соответственно, табл. 2), превышающие наилучший результат при отсутствии помехи (97,91 %, сеть C-CNN).

Независимо от архитектуры сети, при отношении помеха/сигнал около 5 дБ максимальная точность классификации не превысила 55 %, а при 10 дБ не превысила 30 %. В то же время при отношении помеха/сигнал -5 дБ точность классификации составляет порядка 85 % и более. Отсюда следует вывод, что срыв распознавания (снижение точности классификации до 30 % и менее) типов объектов авто-и бронетехники в РЛС с субметровым разрешением требует создания помехи с уровнем как минимум на 5-10 дБ превышающим средний уровень отметок объектов. Полученные оценки целесообразно учитывать при обосновании требований к средствам радиопротиводействия авиационным и космическим РЛС видовой разведки, так как, судя по имеющейся тенденции, технологии глубокого обучения найдут широкое применение в задачах дешифрирования РЛИ уже в ближайшей перспективе.

Список литературы

1. Alzubaidi L., Zhang J., Humaidi A.J., Al-Dujaili A., Duan Y., Al-Shamma O., Santamaria J., Fadhel M.A., Al-Amidie M., Farhan L. Review of Deep Learning: Concepts, CNN Architectures, Challenges, Applications, Future Directions // Journal of Big Data. 2021. Vol. 8. (53). Iss. 1. pp. 1-74. DOI: 10.1186/s40537-021-00444-8.

2. Rawat W., Wang Z. Deep Convolutional Neural Networks for Image Classification: A Comprehensive Review. Neural Computation. 2017. Vol. 29. P. 2352-2449. DOI: 10.1162/ NECO a 00990

3. Созыкин А.В. Обзор методов обучения глубоких нейронных сетей // Вестник ЮУрГУ. Серия «Вычислительная математика и информатика». 2017. Т. 6. № 3. C. 28-59. DOI: 10.14529/cmse170303

4. Zhu X., Montazeri S., Ali M., Hua Yu., Wang Yu., Mou L., Shi Yi., Xu F., Bamler R. Deep Learning Meets SAR. arXiv:2006.10027v2 [eess. IV] 5 Jan 2021.

5. Wang H., Chen S., Xu F., Jin Y.-Q. Application of Deep-Learning Algorithms to MSTAR Data. 2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). 2015. P. 37433745. DOI: 10.1109/IGARSS.2015.7326637.

6. Chen S., Wang H., Xu F., Jin Y.-Q. Target Classification Using the Deep Convolutional Networks for SAR Images. IEEE Transaction Geoscience and Remote Sensing. 2016. Vol. 54. No. 8. P. 4806-4817. DOI: 10.1109/TGRS.2016.2551720

7. Anas H., Majdoulayne H., Chaimae A., Nabil S.M. Deep Learning for SAR Image Classification. Intelligent Systems and Applications. 2020. PP. 890-898. DOI: 10.1007/978-3-030-29516-5_67

8. Chen S., Wang H. SAR Target Recognition Based on Deep Learning. 2014 International Conference on Data Science and Advanced Analytics (DSAA). 2014. P. 541-547. DOI: 10.1109/DSAA.2014.7058124

9. Coman C., Thaens R. A Deep Learning SAR Target Classification Experiment on MSTAR Dataset. 2018 19th International Radar Symposium (IRS). 2018. P. 1-6. DOI: 10.23919/ IRS.2018.8448048

10. Furukawa H. Deep Learning for End-to-End Automatic Target Recognition from Synthetic Aperture Radar Imagery. arXiv:1801.08558v1 [cs. CV] 25 Jan 2018.

11. Profeta A., Rodriguez A., Clouse H.S. Convolutional Neural Networks for Synthetic Aperture Radar Classification. Proc. SPIE 9843, Algorithms for Synthetic Aperture Radar Imagery XXIII, 98430M (14 May 2016). DOI: 10.1117/12.2225934

12. Wang Z., Xu X. Efficient deep convolutional — neural networks using CReLU for ATR with lim- | ited SAR images. The Journal of Engineering. i 2019. Vol. 2019. No. 21. P. 7615-7618. DOI: й 10.1049/joe.2019.0567 E.

CM CM

о

CM

< I

(0 те

s

О ü CQ

.

<D

13. Wilmanski M., Kreucher C., Lauer J. Modern Approaches in Deep Learning for SAR ATR. Proc. SPIE 9843, Algorithms for Synthetic Aperture Radar Imagery XXIII, 98430N (14 May 2016). DOI: 10.1117/12.2220290

14. Xie Yi., Dai W., Hu Z., Liu Yi., Li C., Pu X. A Novel Convolutional Neural Network Architecture for SAR Target Recognition. Journal of Sensors. 2019. DOI: 10.1155/2019/1246548

15. Xinyan F., Weigang Z. Research on SAR Image Target Recognition Based on Convolutional Neural Network. Journal of Physics: Conference Series. 2019. Ser. 1213(2019) 042019. DOI: 10.1088/1742-6596/1213/4/042019

16. Zhai J., Dong G., Chen F., Xie X., Qi C., Li L. A Deep Learning Fusion Recognition Method Based On SAR Image Data. 2018 International Conference on Identifiation, Information and Knowledge in the Internet of Things. Procedia Computer Science. 2019. Vol. 147. P. 533-541. DOI: 10.1016/j.procs.2019.01.229

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

17. Биленко С. В., Чередеев К. Ю., Зогра-бян М. К. Перспективы использования глубоких нейронных сетей в радиолокации // Вопросы радиоэлектроники. 2017. № 1. C. 5763.

18. Казачков Е. А., Матюгин С. Н., Попов И. В., Шаронов. В. В. Обнаружение и классификация малоразмерных объектов на изображениях, полученных радиолокационными станциями с синтезированной апертурой // Вестник Концерна ВКО «Алмаз - Антей». 2018. № 1. C. 93-99.

19. Gao F., Huang T., Sun J., Wang J., Hussain A., Yang E. A New Algorithm of SAR Image Target Recognition based on Improved Deep Convolutional Neural Network. Cognitive

Computation. 2019. Vol. 11. P. 809-824. DOI: 10.1007/s12559-018-9563-z

20. Malmgren-Hansen D., Engholm R., 0stergaard Pedersen M. Training Convolutional Neural Networks for Translational Invariance on SAR ATR. In Proceedings of EUSAR 2016: 11th European Conference on Synthetic Aperture Radar. 2016. P. 459-462.

21. Бородинов А. А., Мясников В. В. Сравнение алгоритмов классификации радарных изображений при различных методах предобработки на примере базы MSTAR // Сборник трудов IV международной конференции и молодежной школы «Информационные технологии и нанотехнологии» (ИТНТ-2018) - Самара: Новая техника, 2018. С. 586-594.

22. Kechagias-Stamatis O., Aouf N. Automatic Target Recognition on Synthetic Aperture Radar Imagery: A Survey. URL: https://arxiv.org/ abs/2007.02106

23. Купряшкин И. Ф., Лихачев В. П. Космическая радиолокационная съемка земной поверхности в условиях помех. Воронеж: Научная книга, 2014. 460 с.

24. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. СПб: Питер, 2018. 480 с.

25. Simonyan K., Zisserman A. Very Deep Convolutional Networks For Large-Scale Image Recognition. arXiv:1409.1556v6 [cs.CV] 10 Apr 2015.

26. Chollet F. Xception: Deep Learning with Depthwise Separable Convolutions. arXiv:1610.02357v3 [cs.CV] 4 Apr 2017.

27. Howard A.G., Zhu M., Chen B., Kalenichenko D. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications. arXiv: 1704.04861v1 [cs.CV] 17 Apr 2017.

о

о

<D CQ

CM ■Clio 9

CM ■Clio

CM

Об авторах

Купряшкин Иван Федорович - доктор технических наук, доцент, начальник кафедры боевого применения средств радиоэлектронной борьбы (с воздушно-космическими системами управления и наводящимся оружием) Военного учебно-научного центра Военно-воздушных сил «Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина», Воронеж, Российская Федерация.

Область научных интересов: радиопротиводействие радиолокационным системам.

(П (П

Мазин Антон Сергеевич - адъюнкт кафедры боевого применения средств радиоэлектронной борьбы (с воздушно-космическими системами управления и наводящимся оружием) Военного учебно-научного центра Военно-воздушных сил «Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина», Воронеж, Российская Федерация.

Область научных интересов: моделирование процессов преднамеренного противодействия радиолокационным системам.

Classification of military equipment targets on radar images generated in noise interference conditions using a convolutional neural network

Kupryashkin I. F., Mazin A. S.

Air Force Military Educational and Scientific Centre "N. Ye. Zhukovsky and Yu. A. Gagarin Air Force Academy", Voronezh, Russian Federation

The paper proposes the solution to the problem of determining the relationship between the accuracy of classification of radar images of targets belonging to ten classes (from the public portion of Moving and Stationary Target Acquisition and Recognition standard data set) and the signal-to-noise ratio (from -20 to 20 dB). Unlike the traditional approach to solving the above problem based on statistic analysis methods, the classification accuracy was estimated using an eight-layer deep convolutional neural network. It is found out that target recognition failure (a decrease in the classification accuracy down to 30 % and lower) regarding sub-meter radar imagery of motor and armoured vehicles requires interference with a background level higher than the average background level of target echoes by at least 10 dB. The study also proves that using pre-trained networks with the MobileNetVI and Xception architectures fails to improve the classification accuracy.

Keywords: deep convolutional neural network, noise interference, radar image, classification accuracy

Information about the authors

Kupryashkin Ivan Fedorovich - Doctor of Engineering Sciences, Associate Professor, Head of Department of Combat Operation of Electronic Warfare Systems with Aerospace Control Systems and Guided Weapons, Air Force Military Educational and Scientific Centre "N. Ye. Zhukovsky and Yu. A. Gagarin Air Force Academy", Voronezh, Russian Federation. Science research interests: radar countermeasures.

Mazin Anton Sergeevich - Service Student, Department of Combat Operation of Electronic Warfare Systems with Aerospace Control Systems and Guided Weapons, Air Force Military Educational and Scientific Centre "N. Ye. Zhukovsky and Yu. A. Gagarin Air Force Academy", Voronezh, Russian Federation. Science research interests: modelling of electronic counter-countermeasures processes.

i Надоели баннеры? Вы всегда можете отключить рекламу.