Научная статья на тему 'ВЛИЯНИЕ РАЗРЕШАЮЩЕЙ СПОСОБНОСТИ РАДИОЛОКАЦИОННЫХ ИЗОБРАЖЕНИЙ ВОЕННОЙ ТЕХНИКИ НА ТОЧНОСТЬ ИХ КЛАССИФИКАЦИИ ГЛУБОКОЙ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТЬЮ'

ВЛИЯНИЕ РАЗРЕШАЮЩЕЙ СПОСОБНОСТИ РАДИОЛОКАЦИОННЫХ ИЗОБРАЖЕНИЙ ВОЕННОЙ ТЕХНИКИ НА ТОЧНОСТЬ ИХ КЛАССИФИКАЦИИ ГЛУБОКОЙ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТЬЮ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
131
44
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ГЛУБОКАЯ СВЕРТОЧНАЯ НЕЙРОННАЯ СЕТЬ / РАДИОЛОКАЦИОННОЕ ИЗОБРАЖЕНИЕ / ТОЧНОСТЬ КЛАССИФИКАЦИИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Купряшкин И. Ф.

Введение. Сегодня в качестве одного из наиболее перспективных инструментов для решения задачи классификации малоразмерных объектов на радиолокационных изображениях рассматриваются глубокие сверточные нейронные сети. Несмотря на это, в известных работах отсутствуют результаты системного исследования зависимости точности классификации, достигаемой сверточными нейросетями, от такой важной характеристики изображения, как его разрешающая способность.Цель работы. Определение зависимости точности классификации объектов военной техники глубокой сверточной нейронной сетью от разрешающей способности их радиолокационных изображений.Материалы и методы. Проектирование восьмислойной сверточной нейронной сети, ее обучение и тестирование осуществлено с использованием библиотеки глубокого обучения Keras и фреймворка Tensorflow 2.0. Для обучения и тестирования использована открытая часть стандартного набора радиолокационных изображений объектов военной техники десяти классов Moving and Stationary Target Acquisition and Recognition. Исходные значения весовых коэффициентов сетей MobileNetV1 и Xception, использованных для сравнительной оценки достигаемой точности классификации, получены по результатам обучения на наборе Imagenet.Результаты. Точность классификации объектов военной техники быстро снижается с ухудшением разрешающей способности, и составляет 97.91, 90.22, 79.13, 52.2 и 23.68 % при разрешении 0.3, 0.6, 0.9, 1.5 и 3 м соответственно. Показано, что использование предобученных сетей с архитектурами MobileNetV1 и Xception не приводит к улучшению точности классификации по сравнению с простой сетью VGG-типа.Заключение. Эффективное распознавание объектов военной техники при разрешении, хуже, чем 1 м, практически невозможно. Точность классификации, демонстрируемая глубокой нейронной сетью, существенно зависит от различия разрешающей способности изображений обучающего и тестового наборов. Значительному повышению устойчивости точности классификации к изменению разрешения способствует обучение на наборе изображений с различным разрешением.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Купряшкин И. Ф.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

IMPACT OF THE RADAR IMAGE RESOLUTION OF MILITARY OBJECTS ON THE ACCURACY OF THEIR CLASSIFICATION BY A DEEP CONVOLUTIONAL NEURAL NETWORK

Introduction. Deep convolutional neural networks are considered as one of the most promising tools for classifying small-sized objects on radar images. However, no systemic study has been reported so far on the dependence between the classification accuracy achieved by convolutional neural networks and such an important image characteristic as resolution.Aim. Determination of a dependence between of the accuracy of classifying military objects by a deep convolutional neural network and the resolution of their radar images.Materials and methods. An eight-layer convolutional neural network was designed, trained and tested using the Keras library and Tensorflow 2.0 framework. For training and testing, the open part of the standard MSTAR dataset comprising ten classes of military objects radar images was used. The initial weight values of the MobileNetV1 and Xception networks used for a comparative assessment of the achieved classification accuracy were obtained from the training results on the Imagenet.Results. The accuracy of classifying military objects decreases rapidly along with a deterioration in resolution, amounting to 97.91, 90.22, 79.13, 52.2 and 23.68 % at a resolution of 0.3, 0.6, 0.9, 1.5 and 3 m, respectively. It is shown that the use of pretrained MobileNetV1 and Xception networks does not lead to an improvement in the classification accuracy compared to a simple VGG-type network.Conclusion. Effective recognition of military objects at a resolution worse than one meter is practically impossible. The classification accuracy of deep neural networks depends significantly on the difference in the image resolution of the training and test sets. A significant increase in the resistance of the classification accuracy to changes in the resolution can be achieved by training on a set of images with different resolutions.

Текст научной работы на тему «ВЛИЯНИЕ РАЗРЕШАЮЩЕЙ СПОСОБНОСТИ РАДИОЛОКАЦИОННЫХ ИЗОБРАЖЕНИЙ ВОЕННОЙ ТЕХНИКИ НА ТОЧНОСТЬ ИХ КЛАССИФИКАЦИИ ГЛУБОКОЙ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТЬЮ»

Радиолокация и радионавигация УДК 621.396.96

https://doi.org/10.32603/1993-8985-2022-25-1 -36-46

Оригинальная статья

© Купряшкин И. Ф., 2022 Контент доступен по лицензии Creative Commons Attribution 4.0 License

This work is licensed under a Creative Commons Attribution 4.0 License

© ®

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной

нейронной сетью

И. Ф. Купряшкин н

Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия им. профессора Н. Е. Жуковского и Ю. А. Гагарина", Воронеж, Россия

н [email protected]

Аннотация

Введение. Сегодня в качестве одного из наиболее перспективных инструментов для решения задачи классификации малоразмерных объектов на радиолокационных изображениях рассматриваются глубокие сверточные нейронные сети. Несмотря на это, в известных работах отсутствуют результаты системного исследования зависимости точности классификации, достигаемой сверточными нейросетями, от такой важной характеристики изображения, как его разрешающая способность.

Цель работы. Определение зависимости точности классификации объектов военной техники глубокой сверточной нейронной сетью от разрешающей способности их радиолокационных изображений. Материалы и методы. Проектирование восьмислойной сверточной нейронной сети, ее обучение и тестирование осуществлено с использованием библиотеки глубокого обучения Keras и фреймворка Tensorflow 2.0. Для обучения и тестирования использована открытая часть стандартного набора радиолокационных изображений объектов военной техники десяти классов Moving and Stationary Target Acquisition and Recognition. Исходные значения весовых коэффициентов сетей MobileNetVI и Xception, использованных для сравнительной оценки достигаемой точности классификации, получены по результатам обучения на наборе Imagenet.

Результаты. Точность классификации объектов военной техники быстро снижается с ухудшением разрешающей способности и составляет 97.91, 90.22, 79.13, 52.2 и 23.68 % при разрешении 0.3, 0.6, 0.9, 1.5 и 3 м соответственно. Показано, что использование предобученных сетей с архитектурами MobileNetV1 и Xception не приводит к улучшению точности классификации по сравнению с простой сетью VGG-типа. Заключение. Эффективное распознавание объектов военной техники при разрешении, хуже чем 1 м, практически невозможно. Точность классификации, демонстрируемая глубокой нейронной сетью, существенно зависит от различия разрешающей способности изображений обучающего и тестового наборов. Значительному повышению устойчивости точности классификации к изменению разрешения способствует обучение на наборе изображений с различным разрешением.

Ключевые слова: глубокая сверточная нейронная сеть, радиолокационное изображение, точность классификации

Для цитирования: Купряшкин И. Ф. Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью // Изв. вузов России. Радиоэлектроника. 2022. Т. 25, № 1. С. 36-46. doi: 10.32603/1993-8985-2022-25-1-36-46

Конфликт интересов. Автор заявляет об отсутствии конфликта интересов.

Статья поступила в редакцию 24.12.2021; принята к публикации после рецензирования 26.01.2022; опубликована онлайн 28.02.2022

Radar and Navigation

Original article

Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

Ivan F. KupryashkinH

Military Educational and Scientific Center of the Air Force "N. E. Zhukovsky and Yu. A. Gagarin Air Force Academy", Voronezh, Russia

H [email protected]

Abstract

Introduction. Deep convolutional neural networks are considered as one of the most promising tools for classifying small-sized objects on radar images. However, no systemic study has been reported so far on the dependence between the classification accuracy achieved by convolutional neural networks and such an important image characteristic as resolution.

Aim. Determination of a dependence between of the accuracy of classifying military objects by a deep convolutional neural network and the resolution of their radar images.

Materials and methods. An eight-layer convolutional neural network was designed, trained and tested using the Keras library and Tensorflow 2.0 framework. For training and testing, the open part of the standard MSTAR dataset comprising ten classes of military objects radar images was used. The initial weight values of the Mo-bileNetV1 and Xception networks used for a comparative assessment of the achieved classification accuracy were obtained from the training results on the Imagenet.

Results. The accuracy of classifying military objects decreases rapidly along with a deterioration in resolution, amounting to 97.91, 90.22, 79.13, 52.2 and 23.68 % at a resolution of 0.3, 0.6, 0.9, 1.5 and 3 m, respectively. It is shown that the use of pre-trained MobileNetV1 and Xception networks does not lead to an improvement in the classification accuracy compared to a simple VGG-type network.

Conclusion. Effective recognition of military objects at a resolution worse than one meter is practically impossible. The classification accuracy of deep neural networks depends significantly on the difference in the image resolution of the training and test sets. A significant increase in the resistance of the classification accuracy to changes in the resolution can be achieved by training on a set of images with different resolutions.

Keywords: deep convolutional neural network, radar image, classification accuracy

For citation: Kupryashkin I. F. Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network. Journal of the Russian Universities. Radioelectronics. 2022, vol. 25, no. 1, pp. 36-46. doi: 10.32603/1993-8985-2022-25-1-36-46

Conflict of interest. The author declares no conflicts of interest.

Submitted 24.12.2021; accepted 26.01.2022; published online 28.02.2022

Введение. В настоящее время глубокие свер-точные нейронные сети (ГСНС) являются одним из наиболее перспективных инструментов для решения задач поиска и классификации объектов на радиолокационных изображениях (РЛИ) [113]. Это обусловлено тем, что результаты сравнения точности классификации объектов с помощью алгоритмов, рассматриваемых как традиционные (K-ближайших соседей (K-Neighbor)), опорных векторов (SVM), множества решающих деревьев (Random Forest, AdaBoost, CART и др.) и алгоритмов, построенных на основе ГСНС, демонстрируют уверенное преимущество последних даже при отсутствии предобработки изображений [2], [14-16], а также их меньшую чувстви-

тельность к случайным смещениям или поворотам изображения.

Несмотря на значительный объем уже выполненных исследований в этой сравнительно новой области, в известных публикациях практически не отражены вопросы влияния изменения разрешающей способности РЛИ на результаты работы ГСНС. В то же время естественно ожидать, что ГСНС, обученная классифицировать объекты при одном разрешении, может решать эту задачу гораздо хуже при его изменении даже при аналогичных пространственных условиях радиолокационной съемки и для тех же самых объектов.

В связи с этим целью работы является определение зависимости точности классификации объ-

37

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

ектов глубокой сверточной нейронной сетью от разрешения их радиолокационных изображений.

Методы. В качестве исходных данных использован набор MSTAR (Moving and Stationary Target Acquisition and Recognition) [17], являющийся базовым для создания и изучения алгоритмов распознавания объектов на РЛИ. Используемая в описываемой работе открытая часть набора MSTAR включает РЛИ десяти образцов военной техники, полученные по результатам съемки РЛС X-диапазона. Заявленное исходное разрешение составляет около 0.3 м. Примеры оптических и радиолокационных изображений объектов набора MSTAR приведены на рис. 1.

Из всех имеющихся изображений сформированы обучающий, проверочный и тестовый набо-

ры, сведения об объемах (количестве изображений) которых приведены в табл. 1. Изображения объектов обучающих и проверочных наборов получены при съемке с углом визирования 17°, тестовых наборов - 15°. При разработке и исследовании алгоритмов распознавания объектов на РЛИ на базе набора MSTAR подобное распределение близко соответствует стандартному, которое в иностранной литературе обозначается как SOC (Standard Operating Conditions) [3].

Общее количество изображений обучающего, проверочного и тестового наборов составляет 1923, 891 и 2503 соответственно.

Каждое изображение представлено в форме массива комплексных отсчетов I, причем его размерность для разных классов объектов раз-

D7

T-62

T-72

ЗиЛ-131

ЗСУ-23-4

Рис. 1. Оптические и радиолокационные изображения объектов набора MSTAR Fig. 1. Optical and radar images of MSTAR objects

Табл. 1. Характеристики обучающих, проверочных и тестовых наборов Tab. 1. Characteristics of training, validation and test sets

Набор Объект Объем Объект Объем Объект Объем Объект Объем Объект Объем

Обучающий 209 200 209 163 200

Проверочный 2С1 90 D7 99 БРДМ-2 89 БТР-70 70 ЗиЛ-131 99

Тестовый 274 274 274 196 274

Обучающий 163 200 179 200 ЗСУ-23- 4 200

Проверочный БМП-2 70 T-62 99 БТР-60 77 T-72 79 99

Тестовый 195 273 195 274 274

38 Влияние разрешающей способности радиолокационных изображений военной техники

на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

M ^ 10; (1)

0, Ij- < 10,

лична. Для исключения влияния фона местности вычисленные амплитуды отсчетов исходных комплексных изображений сравниваются с порогом

Ij =

где порог 10 = 1ф определяется как значение п-го элемента упорядоченной по возрастанию выборки фоновых отсчетов /ф = из области

ф0-1)Ы1+] I " I

изображения, заведомо не включающей отсчеты отметки объекта и его радиолокационной тени;

I е [1; N. ], у е [1; N ]; N г и N - количество

строк и столбцов массива I соответственно.

В качестве такой области принимаются участки изображения с интервалами индексов I е [1; Nr ],

у е[1; Nф ] и / е[1; N. ], у - Nф +1; ^ ]

(заштрихованные области на рис. 2). Значение индекса определяется в соответствии с правилом

n = int {2рМгЫф}, где - количество столбцов массива I , выделяемых при формировании выборки фоновых отсчетов; р е [0; 1] - вероятность превышения порога Iq амплитудой фонового отсчета, т. е. вероятность ложной тревоги.

Так как при отсутствии фона исходная размерность изображений от 128 х 128 отсчетов и более с точки зрения классификации объектов является избыточной, на следующем этапе подготовки данных она понижается до 44 х 44 за счет осуществления операции вида

I = I

ij = Ii+rnt{Nr/2-N/2}, j+int{N,/2-N/2} ,

(2)

где I = 1, N и у = 1, N при N = 44.

Результат пороговой обработки (1) и понижения размерности (2) комплексного изображения преобразуется в целочисленный 8-битный формат в соответствии с правилом

Ij =

I I < 2

28, Iij > 28

— . J, 9 V ij\ Imin где Ij = int 12 x -—--

I ImaY

Imin и Imax - ми-

Рис. 2. Области фоновых отсчетов Fig. 2. Areas of background samples

нимальная и максимальная амплитуды отсчетов массива I соответственно.

Перед подачей на вход нейронной сети целочисленные значения диапазона [0; 255] преобразуются в вещественные диапазона [0; 1] делением на 255.

Примеры изображений подготовленного набора при ^ = 30 и р = 0.01 приведены на рис. 3.

2С1

БМП-2

БРДМ-2

БТР-60

Nt

БТР-70

D7

T-62 T-72 ЗиЛ-131 ЗСУ-23-4

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рис. 3. Примеры изображений набора данных с подавленными фоновыми отсчетами Fig. 3. Examples of images with suppressed background pixels

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

Разработка и обучение сети осуществлялись с использованием библиотеки глубокого обучения Keras [18] и фреймворка TensorFlow 2.0 [19].

Архитектура сети, для которой далее в статье принято обозначение C-CNN (Custom CNN), показана на рис. 4 и включает последовательности четырех пар сверточных слоев (Convolution Layers) с одинаковыми ядрами 3 х 3 и единичным шагом свертки. После каждой пары включены слои подвыборок (MaxPooling) 2 х 2. Первая пара сверточных слоев включает по 32 фильтра, вторая - по 64, третья - по 128 и четвертая - по 256. Полносвязный классификатор включает входной слой (Dense) на 4096 входов и 256 выходов, слой 50-процентного прореживания (Dropout) и выходной слой с 10 выходами по числу классов. В качестве функции активации сверточных слоев и входного слоя классификатора используется кусочно-линейная (ReLU). Для описанной архитектуры количество настраиваемых параметров сети составляет 2 223 082.

При обучении используется адаптивный алгоритм Adam с параметром скорости обучения 10—4

—з

(по умолчанию это значение составляет 10 ),

Рис. 4. Архитектура сети C-CNN Fig. 4. C-CNN network architecture

обучение осуществляется в течение двухсот эпох. В качестве функции потерь применена перекрестная энтропия [19]. Общее время обучения с использованием GPU (GeForce GTX1660SUPER) составляет около 25 мин, т. е. примерно по 7 с на эпоху. В качестве дополнительного приема предотвращения переобучения применяется расширение данных (augmentation) смещением каждого изображения по вертикали и горизонтали на случайное число пикселей от одного до пяти и двукратной подачей обучающего набора на вход сети в течение каждой эпохи. По результатам классификации изображений тестового набора сеть C-CNN показала точность 97.91 %, т. е. неверно классифицировала 52 изображения из 2503.

При выборе архитектуры сети осуществлялся перебор различных вариантов сочетания гиперпараметров (количества и размерности сверточ-ных слоев, типов функций активации, включение слоев пакетной нормализации (BatchNormaliza-tion), слоев прореживания (Dropout) на различных этапах и др.), а также сравнение скорости и качества обучения при различных способах инициализации весов, типах и параметрах оптимизаторов (Adam, RMSProp, Adadelta). В целом, к заметному улучшению точности классификации включение дополнительных слоев или этапов обработки не привело.

Несмотря на то, что сеть C-CNN представляет собой классическую сверточною сеть VGG-типа [20], достигнутая точность классификации 97.91 % довольно высока. Тем не менее, на сегодняшний день существует значительное разнообразие более сложных архитектур, включающих bottleneck-слои (сети типа Inception), residual-блоки (сети типа ResNet), а также ряд других решений и их сочетаний.

Как правило, эти сети обучают и тестируют на наборе данных цветных изображений ImageNet, используемом в проекте ImageNet Large Scale Visual Recognition Challenge (ILSVRC), в рамках которого различные программные продукты ежегодно соревнуются в классификации и распознавании объектов и сцен в базе данных ImageNet1.

Для проверки того, повлияет ли существенным образом выбор архитектуры сети на результаты классификации изображений с разным раз-

1 По состоянию на декабрь 2021 г. первенство в соревновании ILSVRC удерживает сеть СоА1№^7 более чем с двумя миллиардами настраиваемых параметров.

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

решением, с использованием техники переноса обучения (Transfer Learning) [18, 21] дополнительно дообучены сети Xception [22] и Mo-bileNetV1 [23]. Полносвязные классификаторы этих сетей заменены на собственные, включающие входной полносвязный слой на 512 выходов, слой 50 %-го прореживания и выходной полносвязный слой на 10 выходов по числу классов. При дообучении использован оптимизатор Adam

с параметром скорости обучения 10-5. С целью обеспечения равных условий обучения и корректности последующего сравнения результатов входные изображения перед подачей на вход сетей (C-CNN в том числе) приведены к размерности 128 х 128, так как она является минимальной для сети Xception. Наилучшая точность на тестовом наборе для сети на основе архитектуры Xception составляет 97.36 %, MobileNetV1 - 96.47 %.

В целом, использование предобученных сетей с большим количеством слоев и более сложной архитектурой при исходном разрешении РЛИ около 0.3 м заметного улучшения точности не дало.

Подготовка наборов РЛИ с ухудшенным разрешением осуществляется фильтрацией изображений после пороговой обработки (1) и снижения их размерности (2) как N N

Iij = Е Е \lmn\G(m - i,n - jX

m=1 n =1

1

0.8 0.6 0.4 0.2 0

//i V\x

/ / I \

\

kr=i— 2---

5.........

10---

\

" / /' I I \

/ / // \\\ \\ s • \

-3 -2-10 1 2 3

где G (m, n ) = exp

(m2 + n2 )

2кГ

kr - коэффици-

ент, характеризующий, во сколько раз в результате фильтрации ухудшается разрешение изображения.

Дистанция, м

Рис. 5. Сечения нормированной автокорреляционной

функции изображения при различных kr Fig. 5. Image normalized autocorrelation function cross sections at different kr

В качестве меры разрешающей способности принята ширина автокорреляционной функции изображения по уровню 0.5 от максимума. На рис. 5 показаны сечения нормированной автокорреляционной функции одного и того же изображения по одной из координат, иллюстрирующие ее расширение при kr = 1, 2, 3, 5 и 10.

Примеры изображений объектов с исходным разрешением 0.3 м и с ухудшенным в 2 (0.6 м), 3 (0.9 м), 5 (1.5 м) и 10 (3 м) раз показаны на рис. 6.

Обучение сетей C-CNN, MobileNetV1 и Xception проведено в течение 200, 150 и 100 эпох соответственно. Параметр скорости обучения оптимизатора Adam принимался равным 10-4 в

случае C-CNN и 10-5 - в случаях MobileNetV1 и Xception. Зависимости, иллюстрирующие процесс обучения сети C-CNN на различных наборах изображений, приведены на рис. 7.

2С1

БМП-2 БРДМ-2 БТР-60 БТР-70

D7

T-62

T-72

ЗиЛ-131 ЗСУ-23-4

kr = 1 (0.3 м)

kr = 2 (0.6 м)

kr = 3 (0.9 м)

kr = 5 (1.5 м)

kr = 10 (3 м)

Рис. 6. Примеры изображений наборов с различным разрешением Fig. 6. Examples of image sets with different resolutions

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

2.5

■ - потери на обучающем наборе - потери на проверочном наборе

■ - точность на обучающем наборе

■ - точность на проверочном наборе

50

100 Эпоха

150

200

2.5

Ö 2

о

к

о 1.5

is

л 1

<а 1

н

о

С0.5

50

100 Эпоха

150

200

н о о « 2

. Ж

fWP

50

100 Эпоха

150

4 3.5

л 3

н J о

§2.5

S 2

н ^

200

1

0.5

0

50

100 Эпоха

150

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

200

Рис. 7. Характеристики процесса обучения сети C-CNN при различном разрешении изображений: а - kr = 2; б - kr = 3; в - kr = 5; г - kr = 10 Fig. 7. Characteristics of the C-CNN network training process at different image resolution: а - kr = 2; б - kr = 3; в - kr = 5; г - kr = 10

Результаты. Характерной чертой является все более раннее проявление признаков переобучения сети по мере ухудшения разрешения набора данных (прекращение роста точности и рост потерь на проверочном наборе при непрерывных улучшении точности и снижении потерь на обучающем). Наилучшие точности на тестовом наборе продемонстрировали сети С-СКЫ с весами, настроенными на 172-й ( кг = 2; 89.82 %), 141-й ( кг = 3; 79.13 %), 129-й ( кг = 5; 52.2 %) и 113-й ( кг = 10; 23.68 %) эпохах. Сеть МоЫ1е№1:У1 показала наилучшие точности на 126-й ( кг = 2; 90.22 %), 95-й ( кг = 3; 66.07 %), 145-й (кг = 5; 40.83 %) и 113-й (к =150; 20.99 %) эпохах, сеть Хсерйоп - на 33-й (кг = 2; 86.54 %), 95-й ( кг = 3; 69,47 %), 94-й ( кг = 5; 44.91 %) и 100-й (кг = 10; 21.59 %) эпохах соответственно.

Сравнительная диаграмма достигнутой максимальной точности классификации при различной разрешающей способности приведена на рис. 8.

Полные результаты, включающие тестирование всех сетей на всех наборах с различным разрешением, приведены в табл. 2.

100 80

£

S 60

о о

% 40

о

н

20 0

I II I ll

I I п

I 111

L

C-CNN

MobileNetV1

Xception

0.3 0.6 0.9 1.5 3.0 Разрешающая способность, м Рис. 8. Сравнительная диаграмма точности классификации при различной разрешающей способности

Fig. 8. Comparative diagram of classification accuracy at different resolution

Результаты тестирования сетей в форме графических зависимостей приведены на рис. 9, а-в. Из их анализа следует, что чувствительность к изменению разрешения тестового набора является максимальной для сетей, обученных на наборах с высоким разрешением, и снижается по мере его ухудшения с одновременным падением точности.

С целью анализа возможности расширения диапазона разрешений изображений, эффективно классифицируемых сетью C-CNN, были сформированы обучающий, проверочный и тестовый наборы из 4063, 1904 и 5249 изображений соответственно. Наборы изображений каждого класса

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

0

0

б

8.1.5

0

в

г

Табл. 2. Результаты тестирования сетей на наборах с различным разрешением

Tab. 2. Results of network testing on image sets with different resolutions

Разрешение Разрешение тестового набора, м

обучающего набора, м 0.3 0.6 0.9 1.5 3

C-CNN

0.3 97.91 % 13.22 % 10.93 % 10.93 % 10.97 %

0.6 14.34 % 89.82 % 31.61 % 13.9 % 11.54 %

0.9 16.39 % 52 % 79.13 % 19.27 % 10.86 %

1.5 21.43 % 28.73 % 37.62 % 52.2 % 10.69 %

3 12.62 % 15.3 % 15.18 % 16.27 % 23.68 %

MobileNetV1

0.3 96.47 % 17.63 % 14.02 % 11.86 % 8.61 %

0.6 16.38 % 90.22 % 39.3 % 19.51 % 12.02 %

0.9 11.06 % 36.05 % 66.07 % 23.88 % 12.5 %

1.5 12.1 % 20.75 % 31.61 % 40.83 % 12.46 %

3 11.26 % 11.26 % 10.62 % 13.02 % 20.99 %

Xception

0.3 97.36 % 23.92 % 15.76 % 14.46 % 10.89 %

0.6 19.51 % 86.54 % 44.99 % 18.67 % 10.77 %

0.9 11.78 % 48.19 % 69.47 % 24.32 % 11.09 %

1.5 13.54 % 23.12 % 33.77 % 44.91 % 13.14 %

3 9.13 % 10.49 % 9.86 % 12.78 % 21.59 %

а б

в г

Рис. 9. Точности классификации, достигнутые на тестовых наборах с различным разрешением: а - C-CNN; б - MobileNetV1; в - Xception; г - на смешанном наборе с различным разрешением

Fig. 9. Classification accuracy on image test sets with different resolutions: а - C-CNN; б - MobileNetV1; в - Xception; г - on a mixed set with different resolutions

Влияние разрешающей способности радиолокационных изображений военной техники 43

на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

Табл. 3. Результаты тестирования сети C-CNN на наборах с различным разрешением Tab. 3. Results of testing the CNN network on image sets with different resolutions

Разрешение тестового набора, м

Случайное (0.3; 0.6; 0.9) 0.3 0.6 0.9 1.5 3

87.41 92.70 89.46 77.76 21.47 10.89

включали случайное количество изображений с исходным, ухудшенным в 2 и в 3 раза разрешением. Результаты тестирования сети С-СМЫ на всех наборах данных приведены в табл. 3.

На рис. 9, г приведены зависимости максимальных значений точности классификации, достигнутые различными сетями, от разрешающей способности радиолокационных изображений.

В целом, несмотря на некоторое ухудшение точности с 97.91 до 92.7 % при исходном разрешении, при его двух- и трехкратном ухудшении сеть продемонстрировала приблизительно те же точностные характеристики, что и сети, обученные только на соответствующих наборах данных.

Заключение. Таким образом, общим выводом является быстрое ухудшение точности распознавания объектов военной техники с ухудшением разрешающей способности их изображений.

Так, при разрешении 0.6 м наилучшая точность составила 90.22 % (МоЫШеШ), 0.9 м - 79.13 % (С-СШ), 1.5 м - 52.2 % (С-СШ), 3 м - 23.68 % (С-СКЫ). Другими словами, эффективное распознавание объектов с точностью до типа при разрешении, хуже чем 1 м, практически невозможно даже при использовании одного из наиболее совершенных из существующих инструментов, а именно ГСНС. Существенно повысить устойчивость точности к изменению разрешения позволило обучение сети на наборе изображений с различным разрешением. Полученные оценки могут служить опорными при оценке возможностей распознавания объектов на РЛИ в целом, так как вряд ли какие-либо из существующих алгоритмов способны показать более высокие результаты по сравнению с ГСНС в обозримой перспективе.

Список литературы

1. Deep Learning Meets SAR / X. Zhu, S. Montazeri, M. Ali, Yu. Hua, Yu. Wang, L. Mou, Yi. Shi, F. Xu, R. Bamler. URL: https://arxiv.org/pdf/2006.10027.pdf (дата обращения 20.12.2021)

2. Application of Deep-Learning Algorithms to MSTAR Data / H H. Wang, S. Chen, F. Xu, Y.-Q. Jin // IEEE Intern. Geoscience and Remote Sensing Symp. (IGARSS), Milan, Italy, 26-31 July 2015. IEEE, 2015. P. 3743-3745. doi: 10.1109/IGARSS.2015.7326637

3. Target Classification Using the Deep Convolutional Networks for SAR Images / S. Chen, H. Wang, F. Xu, Y.-Q. Jin // IEEE Transaction Geoscience and Remote Sensing. 2016. Vol. 54, № 8. P. 4806-4817. doi: 10.1109/TGRS.2016.2551720

4. Deep Learning for SAR Image Classification / H. Anas, H. Majdoulayne, A. Chaimae, S. M. Nabil // Intelligent Systems and Applications. Springer, Cham., 2020. P. 890-898. doi: 10.1007/978-3-030-29516-5_67

5. Chen S., Wang H. SAR Target Recognition Based on Deep Learning // Intern. Conf. on Data Science and Advanced Analytics (DSAA). Shanghai, China, 30 Oct. - 1 Nov. 2014. IEEE, 2014. P. 541-547. doi: 10.1109/DSAA.2014.7058124

6. Coman C., Thaens R. A Deep Learning SAR Target Classification Experiment on MSTAR Dataset // 19th Intern. Radar Symp. (IRS), Bonn, Germany, 20-22 June 2018. IEEE, 2018. P. 1-6. doi: 10.23919/IRS.2018.8448048

7. Furukawa H. Deep Learning for End-to-End Automatic Target Recognition from Synthetic Aperture Radar Imagery. URL: https://arxiv.org/pdf/1801.08558.pdf (дата обращения 20.12.2021)

8. Profeta A., Rodriguez A., Clouse H. S. Convolution-al Neural Networks for Synthetic Aperture Radar Classification // Proc. SPIE 9843, Algorithms for Synthetic Aperture Radar Imagery XXIII. 2016. 98430M. doi: 10.1117/12.2225934

9. Wang Z., Xu X. Efficient deep convolutional neural networks using CReLU for ATR with limited SAR images // The J. of Engineering. 2019. Vol. 2019, № 21. P. 7615-7618. doi: 10.1049/joe.2019.0567

10. Wilmanski M., Kreucher C., Lauer J. Modern Approaches in Deep Learning for SAR ATR // Proc. SPIE 9843. Algorithms for Synthetic Aperture Radar Imagery XXIII. 2016. 98430N. doi: 10.1117/12.2220290

11. A Novel Convolutional Neural Network Architecture for SAR Target Recognition / Yi. Xie, W. Dai, Z. Hu, Yi. Liu, C. Li, X. Pu // J. of Sensors. 2019. Art. 1246548. doi: 10.1155/2019/1246548

12. Xinyan F., Weigang Z. Research on SAR Image Target Recognition Based on Convolutional Neural Network // J. of Physics: Conf. Series. 2019. Ser. 1213. 042019. doi: 10.1088/1742-6596/1213/4/042019

13. A Deep Learning Fusion Recognition Method Based On SAR Image Data / J. Zhai, G. Dong, F. Chen, X. Xie, C. Qi, L. Li // Procedia Computer Science. 2019. Vol. 147. P. 533-541. doi: 10.1016/j.procs.2019.01.229

14. A New Algorithm of SAR Image Target Recognition based on Improved Deep Convolutional Neural Network / F. Gao, T. Huang, J. Sun, J. Wang, A. Hussain, E. Yang // Cognitive Computation. 2019. Vol. 11. P. 809824. doi: 10.1007/s12559-018-9563-z

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

15. Malmgren-Hansen D., Engholm R., 0stergaard Pedersen M. Training Convolutional Neural Net-works for Translational Invariance on SAR ATR // Proc. of EUSAR 2016: 11th European Conf. on Synthetic Aperture Radar, Hamburg, Germany, 6-9 Jun 2016. IEEE, 2016. P. 459-462.

16. Бородинов А. А., Мясников В. В. Сравнение алгоритмов классификации радарных изображений при различных методах предобработки на примере базы MSTAR // Сб. тр. IV Междунар. конф. и молодежной школы "Информационные технологии и нано-технологии" (ИТНТ-2018). Самара: Новая техника, 2018. С. 586-594.

17. Kechagias-Stamatis O., Aouf N. Automatic Target Recognition on Synthetic Aperture Radar Imagery: A Survey. URL: https://arxiv.org/ftp/arxiv/papers/2007/2007.02106.pdf (дата обращения 20.12.2021)

18. Шолле Ф. Глубокое обучение на Python. СПб.:

Питер, 2018. 400 с.

19. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. СПб.: Питер, 2018. 480 с.

20. Simonyan K., Zisserman A. Very Deep Convolutional Networks For Large-Scale Image Recognition. URL: https://arxiv.org/pdf/1409.1556.pdf (дата обращения 20.12.2021)

21. Huang Z., Pan Z., Lei B. What, Where and How to Transfer in SAR Target Recognition Based on Deep CNNs. URL: https://arxiv.org/pdf/1906.01379.pdf (дата обращения 20.12.2021)

22. Chollet F. Xception: Deep Learning with Depth-wise Separable Convolutions. URL: https://arxiv.org/pdf/ 1610.02357.pdf (дата обращения 20.12.2021)

23. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications / A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko. URL: https://arxiv.org/ pdf/1704.04861 .pdf (дата обращения 20.12.2021)

Информация об авторе

Купряшкин Иван Федорович - доктор технических наук (2017), доцент (2011), начальник кафедры боевого применения средств РЭБ (с воздушно-космическими системами управления и наводящимся оружием) Военного учебно-научного центра военно-воздушных сил "Военно-воздушная академия им. проф. Н. Е. Жуковского и Ю. А. Гагарина". Автор более 100 научных публикаций. Сфера научных интересов -радиолокационные системы; системы радиоэлектронного противодействия радиолокационным системам. Адрес: Военный учебно-научный центр военно-воздушных сил "Военно-воздушная академия им. профессора Н. Е. Жуковского и Ю. А. Гагарина", ул. Старых Большевиков, д. 54 А, Воронеж, 394064, Россия E-mail: [email protected]

References

1. Zhu X., Montazeri S., Ali M., Hua Yu., Wang Yu., Mou L., Shi Yi., Xu F., Bamler R. Deep Learning Meets SAR. Available at: https://arxiv.org/pdf/2006.10027.pdf (accessed 20.12.2021)

2. Wang H. H., Chen S., Xu F., Jin Y.-Q. Application of Deep-Learning Algorithms to MSTAR. IEEE Intern. Geo-science and Remote Sensing Symp. (IGARSS), Milan, Italy, 26-31 July 2015. IEEE, 2015, pp. 3743-3745. doi: 10.1109/IGARSS.2015.7326637

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3. Chen S., Wang H., Xu F., Jin Y.-Q. Target Classification Using the Deep Convolutional Networks for SAR Images. IEEE Transaction Geoscience and Remote Sensing. 2016, vol. 54, no. 8, pp. 4806-4817. doi: 10.1109/ TGRS.2016.2551720

4. Anas H., Majdoulayne H., Chaimae A., Nabil S. M. Deep Learning for SAR Image. Intelligent Systems and Applications. Springer, Cham., 2020, pp. 890-898. doi: 10.1007/978-3-030-29516-5_67

5. Chen S., Wang H. SAR Target Recognition Based on Deep Learning. Intern. Conf. on Data Science and Advanced Analytics (DSAA). Shanghai, China, 30 Oct. -1 Nov. 2014. IEEE, 2014, pp. 541-547. doi: 10.1109/DSAA.2014.7058124

6. Coman C., Thaens R. A Deep Learning SAR Target Classification Experiment on MSTAR Dataset. 19th Intern. Radar Symp. (IRS). Bonn, Germany, 20-22 June 2018. IEEE, 2018, pp. 1-6. doi: 10.23919/IRS.2018.8448048

7. Furukawa H. Deep Learning for End-to-End Automatic Target Recognition from Synthetic Aperture Radar Imagery. Available at: https://arxiv.org/pdf/1801.08558.pdf (accessed 20.12.2021)

8. Profeta A., Rodriguez A., Clouse H. S. Convolutional Neural Networks for Synthetic Aperture Radar Classification. Proc. SPIE 9843, Algorithms for Synthetic Aperture Radar Imagery XXIII. 2016, 98430M. doi: 10.1117/12.2225934

9. Wang Z., Xu X. Efficient Deep Convolutional Neural Networks Using CReLU for ATR with Limited SAR Images. The J. of Engineering. 2019, vol. 2019, no. 21, pp. 76157618. doi: 10.1049/joe.2019.0567

10. Wilmanski M., Kreucher C., Lauer J. Modern Approaches in Deep Learning for SAR ATR. Proc. SPIE 9843. Algorithms for Synthetic Aperture Radar Imagery XXIII. 2016, 98430N. doi: 10.1117/12.2220290

11. Xie Yi., Dai W., Hu Z., Liu Yi., Li C., Pu X. A Novel Convolutional Neural Network Architecture for SAR Target Recognition. J. of Sensors. 2019, art. 1246548. doi: 10.1155/2019/1246548

12. Xinyan F., Weigang Z. Research on SAR Image Target Recognition Based on Convolutional Neural Network. J. of Physics: Conf. Series. 2019, ser. 1213, 042019. doi: 10.1088/1742-6596/1213/4/042019

13. Zhai J., Dong G., Chen F., Xie X., Qi C., Li L. A Deep Learning Fusion Recognition Method Based On SAR Im-

45

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

age Data. Procedia Computer Science. 2019, vol. 147, pp. 533-541. doi: 10.1016/j.procs.2019.01.229

14. Gao F., Huang T., Sun J., Wang J., Hussain A., Yang E. A New Algorithm of SAR Image Target Recognition based on Improved Deep Convolutional Neural Network. Cognitive Computation. 2019, vol. 11, pp. 809-824. doi: 10.1007/s12559-018-9563-z

15. Malmgren-Hansen D., Engholm R., 0stergaard Pedersen M. Training Convolutional Neural Net-works for Translational Invariance on SAR ATR. Proc. of EUSAR 2016: 11th European Conf. on Synthetic Aperture Radar, Hamburg, Germany, 6-9 Jun 2016. IEEE, 2016, pp. 459-462.

16. Borodinov A. A., Myasnikov V. V. Comparison of Radar Image Classification Algorithms for Various Preprocessing Methods Based on MSTAR Data. Proc. of the IV Intern. Conf. and Youth School "Information Technology and Nanotechnology" (ITNT-2018). Samara, New Equipment, 2018, pp. 586-594. (In Russ.)

17. Kechagias-Stamatis O., Aouf N. Automatic Target Recognition on Synthetic Aperture Radar Imagery: A Survey. Available at: https://arxiv.org/ftp/arxiv/papers/2007/ 2007.02106.pdf (accessed 20.12.2021)

18. Chollet F. Deep Learning with Python. NY, Manning, 2017, 384 p.

19. Nikolenko S., Kadurin A., Arkhangel'skaya E. Glubokoe obuchenie [Deep Learning]. SPb., Piter, 2018, 480 p. (In Russ.).

20. Simonyan K., Zisserman A. Very Deep Convolutional Networks For Large-Scale Image Recognition. Available at: https://arxiv.org/pdf/1409.1556.pdf (accessed 20.12.2021)

21. Huang Z., Pan Z., Lei B. What, Where and How to Transfer in SAR Target Recognition Based on Deep CNNs. Available at: https://arxiv.org/pdf/1906.01379.pdf (accessed 20.12.2021)

22. Chollet F. Xception: Deep Learning with Depth-wise Separable Convolutions. Available at: https://arxiv.org/pdf/1610.02357.pdf (accessed 20.12.2021).

23. Howard A.G., Zhu M., Chen B., Kalenichenko D. MobileNets: Efficient Convolutional Neural Net-works for Mobile Vision Applications. Available at: https://arxiv.org/ pdf/1704.04861 .pdf (accessed 20.12.2021)

Information about the author

Ivan F. Kupryashkin - Dr Sci. (Eng.) (2017), Assosiate Professor (2011), Head of the Departament of Combat Use of Electronic Warfare Systems (with Aerospace Control Systems and Guided Weapons) of Military Educational and Scientific Center of the Air Force "N.E. Zhukovsky and Y.A. Gagarin Air Force Academy". The author of more than 100 publications. Area of expertise: radar systems; systems of radio-electronic counteraction to radar. Address: Military Educational and Scientific Center of the Air Force "N. E. Zhukovsky and Yu. A. Gagarin Air Force Academy", 54 A, Starykh Bolshevikov Str., Voronezh 394064, Russia E-mail: [email protected]

46 Влияние разрешающей способности радиолокационных изображений военной техники

на точность их классификации глубокой сверточной нейронной сетью Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network

i Надоели баннеры? Вы всегда можете отключить рекламу.