Научная статья на тему 'О комплексной обработке оптических сигналов в задаче обнаружения объектов'

О комплексной обработке оптических сигналов в задаче обнаружения объектов Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
59
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
КОМПЛЕКСНАЯ ОБРАБОТКА / ОПТИЧЕСКИЕ СИГНАЛЫ / ВИДЕОДАННЫЕ / МЕСТОПОЛОЖЕНИЕ ОБЪЕКТА / COMBINED PROCESSING / OPTICAL SIGNALS / VIDEO DATA / OBJECT LOCATION

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Черноморец А. А., Болгова Е. В., Заливин А. Н., Олейник И. И.

В работе рассмотрен один из подходов решения проблемы комплексного анализа результатов наблюдений, получаемых с помощью радиолокационных и оптических средств, позволяющий указывать точные координаты местоположения наблюдаемого объекта, а также идентифицировать его. Предложено уточнять координаты местоположения объекта, полученные при обработке радиолокационных данных, используя результаты регистрации объекта оптическими приборами. Приведены соотношения последовательного преобразования координат регистрируемого объекта с целью позиционирования оптической оси видеокамеры в соответствии с вычисленными координатами. Описан подход обработки видеоданных, регистрируемых видеокамерой оптической системы, позволяющий определить значения уточненных курсовых углов на визуально наблюдаемый объект относительно исполнительного устройства и, при необходимости, идентифицировать объект на основе видеоданных. Приведены результаты вычислительного эксперимента, демонстрирующего целесообразность применения разработанного подхода с целью уточнения координат объектов, обнаруженных с помощью радиолокационных средств.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Черноморец А. А., Болгова Е. В., Заливин А. Н., Олейник И. И.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

A OPTICAL SIGNALS COMBINED PROCESSING IN THE OBJECT DETECTION TASK

In this article we consider one of the approaches to solving the problem of a comprehensive analysis of the results of observations obtained using radar and optical means, which allows to specify the exact location coordinates of the observed object, as well as to identify it. It is proposed to clarify the object location coordinates obtained in the processing of radar data using the results of registration of the object by means of optical instruments. The relationships of sequential transformation of the coordinates of the registered object with the aim of positioning the optical axis of the camera in accordance with the calculated coordinates are given. An approach to the processing of video data recorded by a video camera of the optical system is described, it allows to determine the values of the refined heading angles to a visually observable object relative to the actuator and, if necessary, to identify the object based on the video data. The results of a computational experiment are discussed, they demonstrate the feasibility of applying the developed approach in order to clarify the coordinates of objects detected by radar.

Текст научной работы на тему «О комплексной обработке оптических сигналов в задаче обнаружения объектов»

ИНФОКОММУНИКАЦИОННЫЕ ТЕХНОЛОГИИ INFOCOMMUNICATION TECHNOLOGIES

УДК 621.396.969.3

DOI 10.18413/2411-3808-2019-46-4-764-773

О КОМПЛЕКСНОЙ ОБРАБОТКЕ ОПТИЧЕСКИХ СИГНАЛОВ В ЗАДАЧЕ

ОБНАРУЖЕНИЯ ОБЪЕКТОВ

A OPTICAL SIGNALS COMBINED PROCESSING IN THE OBJECT DETECTION

TASK

А.А. Черноморец, Е.В. Болгова, А.Н. Заливин, И.И. Олейник A.A. Chernomorets, E.V. Bolgova, A.N. Zalivin, I.I. Oleynik

Белгородский государственный национальный исследовательский университет, Россия, 308015, г. Белгород, ул. Победы, 85

Belgorod National Research University, 85 Pobedy St, Belgorod, 308015, Russia

E-mail: Chernomorets@bsu.edu.ru

Аннотация

В работе рассмотрен один из подходов решения проблемы комплексного анализа результатов наблюдений, получаемых с помощью радиолокационных и оптических средств, позволяющий указывать точные координаты местоположения наблюдаемого объекта, а также идентифицировать его. Предложено уточнять координаты местоположения объекта, полученные при обработке радиолокационных данных, используя результаты регистрации объекта оптическими приборами. Приведены соотношения последовательного преобразования координат регистрируемого объекта с целью позиционирования оптической оси видеокамеры в соответствии с вычисленными координатами. Описан подход обработки видеоданных, регистрируемых видеокамерой оптической системы, позволяющий определить значения уточненных курсовых углов на визуально наблюдаемый объект относительно исполнительного устройства и, при необходимости, идентифицировать объект на основе видеоданных. Приведены результаты вычислительного эксперимента, демонстрирующего целесообразность применения разработанного подхода с целью уточнения координат объектов, обнаруженных с помощью радиолокационных средств.

Abstract

In this article we consider one of the approaches to solving the problem of a comprehensive analysis of the results of observations obtained using radar and optical means, which allows to specify the exact location coordinates of the observed object, as well as to identify it. It is proposed to clarify the object location coordinates obtained in the processing of radar data using the results of registration of the object by means of optical instruments. The relationships of sequential transformation of the coordinates of the registered object with the aim of positioning the optical axis of the camera in accordance with the calculated coordinates are given. An approach to the processing of video data recorded by a video camera of the optical system is described, it allows to determine the values of the refined heading angles to a visually observable object relative to the actuator and, if necessary, to identify the object based on the video data. The results of a computational experiment are discussed, they demonstrate the feasibility of applying the developed approach in order to clarify the coordinates of objects detected by radar.

Ключевые слова: комплексная обработка, оптические сигналы, видеоданные, местоположение объекта.

Keywords: combined processing, optical signals, video data, object location.

Решение задачи обнаружения и сопровождения наблюдаемых объектов является одной из ключевых проблем создания систем наблюдения [Бакулев, Степин, 1986; Плекин, 2003; Иванкин, 2008; Вагнер, Вагнер, 2016; Проскурин, 2017; Piesiewicz, 2017]. Системы наблюдения, использующие возможности радиолокационных средств [Ширман, 1970; Stimson, 1998; Радиоэлектронные системы, 2007; Волосюк, Кравченко, 2008; Скосырев, Ананенков, Коновальцев, 2009; Сколник, 2014; The history of radar..., 2015] позволяют обнаруживать и сопровождать объекты на значительных дальностях и при различных метеоусловиях. Однако данные системы в недостаточной мере обеспечивают решение проблемы идентификации наблюдаемых объектов и указания точных координат его местоположения. Данную проблему позволяет решить совместное применение радиолокационного оборудования и средств визуального наблюдения [Алпатов и др., 2008; Bernardin, Stiefelhagen, 2008; Репич, Белый, 2011; Sangmin et al., 2011; Dufour, 2012; Никифоров, Костяшкин, 2016], что позволяет повысить уровень правильной идентификации объектов и уточнять их координаты. Следует также отметить, что комплексное использование визуальных радиолокационных средств позволяет ограничить область поиска объекта в видеоданных при применении оптических систем наблюдения.

Комплексная обработка радиолокационных и оптических сигналов в задаче обнаружения объектов наблюдения предполагает уточнение координат объекта, обнаруженного с помощью радиолокационных средств, на основе результатов обработки видеоданных.

В данной работе рассматривается решение задачи определения расстояния (дальность), азимута и угла места (курсовые углы) (rA,фА,вА)до цели D в относительной сферической системе координат исполнительного устройства A, используя результаты работы радиолокатора B и оптической системы C (рис. 1).

Рис. 1. Пример расположения исполнительного устройства А, радиолокатора B, оптической

системы С и объекта D Fig. 1. An example of the actuator A, radar B, optical system C and object D location

Рассмотрим различные элементы предлагаемой системы наблюдения, включающей исполнительное устройство А, радиолокатор B, оптическую систему С и объект D (рис. 1), и связанные с ними системы координат:

- система декартовых координат OXYZ (в общем случае заданной относительно некоторой точки О), направления осей координат которой согласованы с системой мировых координат;

- относительные сферические системы координат с центрами в точках A, B и С (системы курсовых углов [Богданченко, 1983]), в которых оси аппликат Z сонаправлены с осью OZ системы OXYZ, полярные оси X сонаправлены с осью ОХ системы OXYZ.

Обозначим в системе координат OXYZ декартовы координаты исполнительного устройства А - (xA, yA, zA), радиолокатора B - (xB, yB, zB) и оптической системы С -

(xc,yc,zc);

Предлагаемый подход комплексной обработки радиолокационных и оптических сигналов заключается в следующем: на основании курсовых углов и дальности (сферические

D

А

координаты) местоположения объекта D, полученных с помощью радиолокатора B (в относительной системе сферических координат радиолокатора B), предлагается вычислять уточненные сферические координаты цели D в относительной системе сферических координат исполнительного устройства A с помощью оптической системы C.

Исходными данными для решения поставленной задачи являются определенные с помощью радиолокатора В относительные сферические координаты (rB ,pB ,дв) точки D местонахождения наблюдаемого объекта относительно точки B = (хв, ув, zB ) .

Тогда значения декартовых координат точки D = (xB, yB, zB), определенные на основе применения радиолокатора, имеют следующие значения:

xd = хв + rB cos 0B cos (pB ,

ybd = yb + rb cos°b sin Pb ,

zd = zb + rb sin ¿b .

Вычислим значения (xCD ,yCD ,zCD) координат вектора CD, определяющего положение точки D относительно точки C = (хс, yс, zc) местоположения оптической системы, на основе данных радиолокатора:

~cd = xd ~ xc ,

~ b

уcd = yd - yc,

ZCD = ZD с

Очевидно, что значения (rc,çc,6c) относительных сферических координат точки D относительно точки C = (xC, yC, zC ), полученные на основе данных радиолокатора, определяются следующим образом:

~ _ /~2 ~2 ~2 rc x xcd + ycd + zcd ,

(pc = arctg(~CD /xcd ) , (1)

é~C = arcsin(pCD /<Jx£d + y2CD + PCd ). Рассмотрим получение с помощью оптической системы уточненных координат (rC,(C,6C) точки D в сферической системе координат относительно точки С.

Для этого с помощью поворотных механизмов оптическая ось видеокамеры оптической системы позиционируется в соответствии с вычисленными значениями (с, 6С

(1) курсовых углов точки D местоположения объекта относительно точки C местоположения оптической системы.

Далее на полученном с помощью оптической системы изображении Img определяется область S, содержащая наблюдаемый объект, применяя различные методы обработки изображений и обнаружение объектов [Прэтт, 1982; Shah, 2003; Форсайт, Понс, 2004; Васин, Баранов, Дворянинов, 2007; Потапов, 2007; Муравьев, Муравьев, 2011; Муравьев, Муравьев, 2012; Zhilyakov, Konstantinov, Chernomorets, 2016].

На основе результатов выделения области S, вычисляется смещение (^, ) (в пикселях по столбцам и строкам на изображении Img) центра найденной области S относительно центра изображения Img (рис. 2):

^ = Nx/2 - il,

s2 = N2 / 2 - i2 ,

где ij, i'2 - координаты в пикселях на изображении центра выделенной области, содержащей объект, Nj, N2 - размерность изображения (количество пикселей фотоматрицы видеокамеры по вертикали и горизонтали соответственно).

Рис. 2. Вычисление смещений объекта относительно центра изображения Fig. 2. Calculation of the object offsets relative to the center of the image

Следовательно, уточненные курсовые углы рс, вс объекта относительно точки С определяются соотношениями:

Рс = рс + Рк, = @с + ,

где рк и вк - коррекционные значения для азимута и угла места наблюдаемого объекта:

Pk = S2

N2 Pi

k 1N

Значение дальности rc при наличии возможности уточняется оптическими

приборами (например, дальномерами).

Таким образом, уточненные декартовы координаты точки D имеют следующие значения:

xD = xC + rC cos dC cos (C , Ув = yC + rC cos°C Sin9C ,

zD = zC + rC SmeC .

Сферические координаты (rA ,pA ) точки D относительно точки A = (xA, yA, ) местоположения исполнительного устройства определяются на основании следующих соотношений (рис. 3):

rA =^[XAD + У AD + z AD , (Pa = arCtg(yAD / xAD ) ,

в a = arcsin( zad/4 xAd + УАв + zAd ),

где

xad = xd — xa ,

УАВ = Ув — У A ,

z ad = zd — z a .

D = (xD,yD,zD)

A = (xA,yA,zA)

Рис. 3. Вычисление уточненных координат цели D Fig. 3. Calculation of the target D refined coordinates

Для проверки работоспособности предложенного подхода комплексной обработки радиолокационных и оптических сигналов при обнаружении и сопровождении наблюдаемых объектов был проведен следующий вычислительный эксперимент (рис. 4-6).

При проведении вычислительного эксперимента заданы следующие значения:

- декартовы координаты (хА, уА, ) исполнительного устройства: (20, 200, 200) м,

- декартовы координаты (хв, ув, ) радиолокатора: (40, 50, 200) м,

- декартовы координаты (хс, ус, гс ) оптической системы: (50, 40, 200) м,

- дальность (м) и курсовые углы (град.) (гв,рв,вв) наблюдаемого объекта, полученные с помощью радиолокатора: (250, 45, 10),

- размерность изображения, полученного с помощью видеокамеры оптической системы (пиксели): N = 1080, N = 1920,

- координаты центра области, содержащей наблюдаемый объект, на изображении, полученные с помощью оптической системы (пиксели): \ = N /2, /2 = N /2 +100,

- углы обзора камеры видеосистемы (град.): р = 11,25°, р2 = 20°,

- уточненное значение расстояния до наблюдаемого объекта от оптической системы

245 м.

На рис. 4 приведены соответствующие расположения исполнительного устройства А (◊), радиолокатора В (*), оптической системы С (□) и положение искомого объекта Б (о), определенное с помощью радиолокатора, также отмечены направления на объект, полученные на основе данных радиолокатора.

250

200

150

Расположение устройств и объекта (данные РЛС)

s

si

100

50

0

0-

50

200

250

100 150

X, M

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рис. 4. Расположение исполнительного устройства (◊), радиолокатора (*), оптической системы (□)

и объекта (о); направления на объект (по данным РЛС) Fig. 4. Location of execution unit (◊), radar (*), optical system (□) and object (о); directions to the object

(according to the radar)

На рис. 5 приведены результаты уточнения направления на объект, полученные с помощью оптической системы. Пунктирными линиями отмечены направления на объект относительно радиолокатора и оптической системы, полученные на основе данных радиолокатора. Сплошной линией отмечено уточненное направление на объект, вычисленное на основе заданных координат центра области, содержащей наблюдаемый объект на изображении, полученном оптической системой.

250

200

150

Направления на объект

s

si

100

50

0 50 100 150 200 250

х, м

Рис. 5. Направления на объект, полученные на основе данных РЛС и оптической системы Fig. 5. Directions to the object obtained on the basis of radar and optical system data

На рис. 6 отображено уточненное с помощью оптической системы местоположение (•) наблюдаемого объекта, а также сплошными линиями отмечены уточненные направления на наблюдаемый объект относительно исполнительного устройства и оптической системы.

250

200

150

100

50

Уточненное расположение объекта

0 50 100 150 200 250

х, м

Рис. 6. Уточненное расположение объекта (•) и уточненные направления Fig. 6. Refined location of the object (•) and refined directions

Результаты комплексной обработки радиолокационных и оптических сигналов, приведенные на рис. 6, показывают, что регистрация незначительного смещения (в данном эксперименте 100 пикселей) центра содержащей объект области, полученной в результате применения оптической системы, относительно направления на объект, полученного с помощью радиолокатора, позволяет уточнить координаты объекта. Так, в данном эксперименте радиолокатором получены следующие координаты объекта: (214,1, 224,1, 243,4) м. В результате уточнения с помощью оптической системы получены следующие координаты объекта: (213,8. 217,2, 242,5) м. При этом дальность (м) и курсовые углы (град.) на наблюдаемый объект относительно исполнительного устройства имеют соответственно следующие значения: первоначальные значения - 200,3 м, 7,1° и 12,5°, уточненные значения - 199,1 м, 5,1° и 12,3°, что повышает точность применения радиолокатора в системе наблюдения.

Таким образом, разработанный подход комплексной обработки радиолокационных и оптических сигналов в задаче обнаружения и сопровождения позволяет средствами обработки видеоданных уточнить координаты объектов, обнаруженных с помощью радиолокационных средств. Следует также отметить, что первоначальное применение радиолокатора для поиска объекта существенно сужает область поиска объектов с помощью оптической системы.

Работа выполнена при поддержке государственного контракта 8.2201.2017/ПЧот 01.02.2017 г.

Список литературы

1. Алпатов Б.А., Бабаян П.В., Балашов О.Е, Степашкин А.И. 2008. Методы автоматического обнаружения и сопровождения объектов. Обработка изображений и управление. М.: Радиотехника, 176.

2. Бакулев П.А., Степин В.М. 1986. Методы и устройства селекции движущихся целей. М.: Радио и связь, 286.

3. Богданченко Н.М. 1983. Курсовые системы и их эксплуатация на самолетах. М.: Транспорт, 224.

4. Вагнер В., Вагнер А. 2016. Способы параметризации движения в системах видеонаблюдения. LAP LAMBERT Academic Publishing, 52.

5. Васин Н.Н., Баранов А.М., Дворянинов П.Ю. 2007. Метод межкадровой разности для измерительных систем. Радиотехника и связь: материалы четвертой междунар. науч.-техн. конф., Саратов, 27-28 июня 2007 г. М-во образования и науки Рос. Федерации, Сарат. гос. техн. ун-т; отв. ред. В. А. Коломейцев. Саратов, 67-71.

6. Волосюк В.К., Кравченко В.Ф. 2008. Статистическая теория радиотехнических систем дистанционного зондирования и радиолокации. М.: Физматлит, 351.

7. Иванкин Е.Ф. 2008. Информационные системы с апостериорной обработкой результатов наблюдений. М., Горячая Линия - Телеком, 168.

8. Муравьев В.С., Муравьев С.И. 2011. Адаптивный алгоритм выделения и обнаружения воздушных объектов на изображениях. Информационно-управляющие системы. 5: 8-14.

9. Муравьев В.С., Муравьев С.И. 2012. Адаптивный алгоритм выделения и обнаружения воздушных объектов для систем видесопровождения. Техническое зрение в системах управления: материалы третьей научно-технической конференции, Москва, 14-16 марта 2012 г. Федеральное государственное бюджетное учреждение науки Институт космических исследований Российской академии наук; отв. ред. Е.А. Антоненко. Москва, 66-68.

10. Никифоров М., Костяшкин Л. 2016. Обработка изображений в авиационных системах технического зрения: Монография. М.: ФИЗМАТЛИТ, 240.

11. Плекин В.Я. 2003. Цифровые устройства селекции движущихся целей: учеб. пособие. М.: САЙНС-ПРЕСС, 79.

12. Потапов А.С. 2007. Распознавание образов и машинное восприятие. СПб.: Политехника,

552.

13. Проскурин В.И., Ягольников С.В., Шевчук В.И. 2017. Радиолокационное наблюдение. Методы, модели, алгоритмы. Серия: Конфликтно-устойчивые радиоэлектронные системы. М., Радиотехника, 368.

14. Прэтт У. 1982. Цифровая обработка изображений: В 2-х кн. Пер. с англ. под ред. Д.С. Лебедева. М.: Мир, 790.

15. Радиоэлектронные системы: основы построения и теория: под ред. Я.Д. Ширмана. 2-е изд., перераб. и доп., 2007. М.: Радиотехника, 512.

16. Репич Н.В., Белый А.А. 2011. Реализация алгоритма сопровождения видеообъектов. Международный конгресс по информатике: информационные системы и технологии: материалы международного научного конгресса 31 окт. - 3 нояб. 2011 г.: в 2 ч. / Ч. 2. Минск: БГУ, 212-217.

17. Сколник М.И. 2014. Справочник по радиолокации. М., 1352.

18. Скосырев В.Н., Ананенков А.Е., Коновальцев А.В. 2009. Перспективы создания информационных сетей для радиолокационного обеспечения задач навигации и судовождения. Вестник МГТУ им. Н.Э. Баумана. Сер. Приборостроение. Спец. вып.: Радиолокация, спутниковая навигация и связь, радиоастрономия. 53-59.

19. Форсайт Д., Понс Ж. 2004. Компьютерное зрение: Современный подход. М.: Вильямс,

926.

20. Ширман Я.Д. 1970. Теоретические основы радиолокации. М.: Советское радио, 560.

21. Bernardin K., Stiefelhagen R. 2008. Evaluating multiple object tracking performance: The CLEAR MOT metrics. EURASIP Journal on Image and Video Processing.

22. Dufour J.-Y. 2012. Intelligent Video Surveillance Systems, edited by J.-Y. Dufour. DOI: 10.1002/9781118577851.

23. Piesiewicz R. 2017. Drone Detection and Neutralization System. APS: Advanced Protection Systems; Gdynia. Available at: http://detectdrones.com (accessed: 14 September 2019).

24. Sangmin O. et al. 2011. A large-scale benchmark dataset for event recognition in surveillance video', 2011 IEEE Conference on Computer Vision and Pattern Recogniton (CVPR), IEEE: 3153-3160.

25. Shah M. 2003. Target tracking in airborne forward looking infrared imagery. Image and Vision Computing. 21: 623-635.

26. Stimson G. 1998. Introduction to Airborne Radar. SciTech Publishing Inc., 98.

27. The history of radar, from aircraft radio detectors to airborne radar. kret.com. 17 February 2015. Archived from the original on 20 June 2015. Retrieved 28 April 2015.

28. Zhilyakov, E.G., Konstantinov, I.S., Chernomorets, A.A. 2016. Decomposition of images into additive components. International Journal of Imaging and Robotics. 16(1): 1-8.

References

1. Alpatov B.A., Babayan P.V., Balashov O.E., Stepashkin A.I. 2008. Metody avtomaticheskogo obnaruzheniya i soprovozhdeniya ob'yektov. Obrabotka izobrazheniy i upravleniye [Methods of automatic detection and tracking of objects. Image processing and management]. M.: Radiotekhnika, 176.

2. Bakulev P.A., Stepin V.M. 1986. Metody i ustroystva selektsii dvizhushchikhsya tseley [Methods and devices for the selection of moving targets]. M.: Radio i svyaz', 286.

3. Bogdanchenko N.M. 1983. Kursovyye sistemy i ikh ekspluatatsiya na samoletakh: Uchebnik dlya aviatsionno-tekhnicheskikh uchilishch. 3-ye izd, pererab. i dop [Course systems and their operation on airplanes: A textbook for aviation technical schools. 3rd ed., Rev. and add]. M.: Transport, 224.

4. Vagner V., Vagner A. 2016. Sposoby parametrizatsii dvizheniya v sistemakh videonablyudeniya [Methods of parameterization of motion in video surveillance systems]. LAP LAMBERT Academic Publishing, 52.

5. Vasin N.N., Baranov A.M., Dvoryaninov P.YU. 2007. Metod mezhkadrovoy raznosti dlya izmeritel'nykh system [Interframe difference method for measuring systems]. Radiotekhnika i svyaz': materialy chetvertoy mezhdunar. nauch.-tekhn. konf. [Radio engineering and communications: materials of the fourth int. scientific and technical Conf.], Saratov, 27-28 iyunya 2007 g. M-vo obrazovaniya i nauki Ros. Federatsii, Sarat. gos. tekhn. un-t; otv. red. V. A. Kolomeytsev [Saratov, June 27-28, 2007. Moscow University of Education and Science. Federation, Sarat. state tech. un-t; open ed. V.A. Kolomeitsev], 67-71.

6. Volosyuk V.K., Kravchenko V.F. 2008. Statisticheskaya teoriya radiotekhnicheskikh sistem distantsionnogo zondirovaniya i radiolokatsii [Statistical theory of radio engineering systems for remote sensing and radar]. M.: Fizmatlit, 351.

7. Ivankin Ye.F. 2008. Informatsionnyye sistemy s aposteriornoy obrabotkoy rezul'tatov nablyudeniy [Information systems with a posteriori processing of observation results]. M., Goryachaya Liniya - Telekom, 168.

8. Murav'yev V.S., Murav'yev S.I. 2011. Adaptivnyy algoritm vydeleniya i obnaruzheniya vozdushnykh ob"yektov na izobrazheniyakh [Adaptive algorithm for the selection and detection of airborne objects in images]. Informatsionno-upravlyayushchiye sistemy [Information management systems]. 5: 8-14.

9. Murav'yev V.S., Murav'yev S.I. 2012. Adaptivnyy algoritm vydeleniya i obnaruzheniya vozdushnykh ob"yektov dlya sistem videsoprovozhdeniya [Adaptive algorithm for the detection and detection of airborne objects for video tracking systems]. Tekhnicheskoye zreniye v sistemakh upravleniya: materialy tret'yey nauchno-tekhnicheskoy konferentsii [Technical Vision in Control Systems: Materials of the Third Scientific and Technical Conference], Moskva, 14-16 marta 2012 g. Federal'noye gosudarstvennoye byudzhetnoye uchrezhdeniye nauki Institut kosmicheskikh issledovaniy Rossiyskoy akademii nauk; otv. red. Ye.A. Antonenko [Moscow, March 14-16, 2012 Federal State Budgetary Institution of Science Space Research Institute of the Russian Academy of Sciences; open ed. E.A. Antonenko], 66-68.

10. Nikiforov M., Kostyashkin L. 2016. Obrabotka izobrazheniy v aviatsionnykh sistemakh tekhnicheskogo zreniya: Monografiya [Image processing in aircraft vision systems: Monograph]. M.: FIZMATLIT, 240.

11. Plekin V.YA. 2003. Tsifrovyye ustroystva selektsii dvizhushchikhsya tseley: uchebnoe posobiye [Digital devices for moving targets selection: textbook]. M.: SAYNS-PRESS, 79.

12. Potapov A.S. 2007. Raspoznavaniye obrazov i mashinnoye vospriyatiye [Pattern recognition and machine perception]. SPb.: Politekhnika, 552.

13. Proskurin V.I., Yagol'nikov S.V., Shevchuk V.I. 2017. Radiolokatsionnoye nablyudeniye. Metody, modeli, algoritmy [Radar observation. Methods, models, algorithms]. Seriya: Konfliktno-

ustoychivyye radioelektronnyye sistemy [Series: Conflict-resistant electronic systems]. M., Radiotekhnika, 368.

14. Prett U. 1982. Tsifrovaya obrabotka izobrazheniy: V 2-kh kn. Per. s angl. pod red. D.S. Lebedeva [Digital image processing: In 2 books. Translate from English under the editorship of D.S. Lebedev]. M.: Mir, 790.

15. Radioelektronnyye sistemy: osnovy postroyeniya i teoriya: spravochnik, 2007. pod red. YA.D. Shirmana. 2-ye izd., pererab. i dop [Radio-electronic systems: the fundamentals of construction and theory: reference book. Ed. YA.D. Shirman. 2nd ed., Revised. and add.]. M.: Radiotekhnika, 512.

16. Repich N.V., Belyy A.A. 2011. Realizatsiya algoritma soprovozhdeniya videoob'yektov [Implementation of the video object tracking algorithm]. Mezhdunarodnyy kongress po informatike: informatsionnyye sistemy i tekhnologii: materialy mezhdunarodnogo nauchnogo kongressa [International Congress on Informatics: Information Systems and Technologies: Proceedings of the International Scientific Congress]. 31 okt. - 3 noyab. 2011 g. v 2 chastyah. Chast 2 [31 Oct. - Nov 3 2011, at 2 parts. Part 2]. Minsk: BGU, 212-217.

17. Skolnik M.I. 2014. Spravochnik po radiolokatsii [Handbook of radar]. M., 1352.

18. Skosyrev V.N., Ananenkov A.Ye., Konoval'tsev A.V. 2009. Perspektivy sozdaniya informatsionnykh setey dlya radiolokatsionnogo obespecheniya zadach navigatsii i sudovozhdeniya. Vestnik MGTU im. N.E. Baumana [Prospects for the creation of information networks for radar support of navigation and navigation problems. Bulletin of MSTU. N.E. Bauman]. Ser. Priborostroyeniye. Spets. vyp.: Radiolokatsiya, sputnikovaya navigatsiya i svyaz', radioastronomiya [Ser. Instrument making. Specialist. Issue: Radar, satellite navigation and communications, radio astronomy]. 53-59.

19. Forsayt D., Pons ZH. 2004. Komp'yuternoye zreniye: Sovremennyy podkhod [Computer Vision: A Modern Approach]. M.: Vil'yams, 926.

20. Shirman YA.D. 1970. Teoreticheskiye osnovy radiolokatsii. Uchebnoye posobiye dlya vuzov [Theoretical foundations of radar. Textbook for universities]. M.: Sovetskoye radio, 560.

21. Bernardin K., Stiefelhagen R. 2008. Evaluating multiple object tracking performance: The CLEAR MOT metrics. EURASIP Journal on Image and Video Processing.

22. Dufour J.-Y. 2012. Intelligent Video Surveillance Systems, edited by J.-Y. Dufour. DOI: 10.1002/9781118577851.

23. Piesiewicz R. 2017. Drone Detection and Neutralization System. APS: Advanced Protection Systems; Gdynia. Available at: http://detectdrones.com (accessed: 14 September 2019).

24. Sangmin O. et al. 2011. A large-scale benchmark dataset for event recognition in surveillance video', 2011 IEEE Conference on Computer Vision and Pattern Recogniton (CVPR), IEEE: 3153-3160.

25. Shah M., 2003. Target tracking in airborne forward looking infrared imagery. Image and Vision Computing. 21: 623-635.

26. Stimson G. 1998. Introduction to Airborne Radar. SciTech Publishing Inc., 98.

27. The history of radar, from aircraft radio detectors to airborne radar. kret.com. 17 February 2015. Archived from the original on 20 June 2015. Retrieved 28 April 2015.

28. Zhilyakov, E.G., Konstantinov, I.S., Chernomorets, A.A. 2016. Decomposition of images into additive components. International Journal of Imaging and Robotics. 16(1): 1-8.

Ссылка для цитирования статьи For citation

Черноморец А.А., Болгова Е.В., Заливин А.Н., Олейник И.И. 2019. О комплексной обработке оптических сигналов в задаче обнаружения объектов. Научные ведомости Белгородского государственного университета. Серия: Экономика. Информатика. 46 (4): 764-773. DOI 10.18413/2411-3808-2019-46-4-764-773

Chernomorets A.A., Bolgova E.V., Zalivin A.N., Oleynik I.I. 2019. A optical signals combined processing in the object detection task. Belgorod State University Scientific Bulletin. Economics. Information technologies. 46 (4): 764-773 (in Russian). DOI 10.18413/2411-3808-2019-46-4-764-773

i Надоели баннеры? Вы всегда можете отключить рекламу.