Научная статья на тему 'Алгоритм отслеживания перемещений человека в видеопотоке на основе метода сопоставления цветовых групп'

Алгоритм отслеживания перемещений человека в видеопотоке на основе метода сопоставления цветовых групп Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
системы видеонаблюдения / библиотека rembg / цветовые группы / проценты заполняемости / дельта E / сопровождение объектов / прогнозирование направления движения / математическая статистика / прогнозируемая область / прогнозируемая подобласть / фрагменты кадра / цветовое пространство RGB

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — М М. Гуменюк, А В. Бровко

Среди обширного круга задач, которые стоят перед современными передовыми системами видеонаблюдения, доминирующее положение занимает задача трассировки различных объектов в видеопотоке, которая является одной из фундаментальных проблем в области видеоаналитики. Многочисленные исследования показали, что, несмотря на динамичность процессов в области информационных технологий и внедрение различных средств и методов, задача сопровождения объектов до сих пор остается актуальной и требует дальнейшего усовершенствования разработанных ранее алгоритмов с целью устранения некоторых, присущих данным алгоритмам недостатков, систематизации приемов и методов и разработки новейших систем и подходов. Представленная статья посвящена описанию процесса пошаговой разработки алгоритма отслеживания перемещений человека в видеопотоке на основе анализа цветовых групп. Ключевыми этапами работы данного алгоритма являются: отбор определенных кадров при разделении видеопотока, выбор исследуемого объекта, который в дальнейшем подвергается процедуре цифровой обработки, основой которой является получение информации о цветовых группах, их средних значений и процентов их заполняемости относительно исследуемого объекта. Данная информация применяется для процедуры поиска, обнаружения и распознавания выбранного объекта с дополнительной функцией прогнозирования направления движения на видеокадрах, результатом которой является формирование всей картины перемещения исследуемого человека. Материалы, изложенные в настоящей работе, могут представлять интерес для специалистов, в чьих исследованиях центральное место занимают вопросы, связанные с автоматизированным получением определенных данных при анализе различных изображений и видео.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — М М. Гуменюк, А В. Бровко

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Алгоритм отслеживания перемещений человека в видеопотоке на основе метода сопоставления цветовых групп»

Алгоритм отслеживания перемещений человека в видеопотоке на основе

метода сопоставления цветовых групп

М. М. Гуменюк, А. В. Бровко Саратовский государственный технический университет им. Гагарина Ю.А.

Аннотация: Среди обширного круга задач, которые стоят перед современными передовыми системами видеонаблюдения, доминирующее положение занимает задача трассировки различных объектов в видеопотоке, которая является одной из фундаментальных проблем в области видеоаналитики. Многочисленные исследования показали, что, несмотря на динамичность процессов в области информационных технологий и внедрение различных средств и методов, задача сопровождения объектов до сих пор остается актуальной и требует дальнейшего усовершенствования разработанных ранее алгоритмов с целью устранения некоторых, присущих данным алгоритмам недостатков, систематизации приемов и методов и разработки новейших систем и подходов. Представленная статья посвящена описанию процесса пошаговой разработки алгоритма отслеживания перемещений человека в видеопотоке на основе анализа цветовых групп. Ключевыми этапами работы данного алгоритма являются: отбор определенных кадров при разделении видеопотока, выбор исследуемого объекта, который в дальнейшем подвергается процедуре цифровой обработки, основой которой является получение информации о цветовых группах, их средних значений и процентов их заполняемости относительно исследуемого объекта. Данная информация применяется для процедуры поиска, обнаружения и распознавания выбранного объекта с дополнительной функцией прогнозирования направления движения на видеокадрах, результатом которой является формирование всей картины перемещения исследуемого человека. Материалы, изложенные в настоящей работе, могут представлять интерес для специалистов, в чьих исследованиях центральное место занимают вопросы, связанные с автоматизированным получением определенных данных при анализе различных изображений и видео. Ключевые слова: системы видеонаблюдения, библиотека rembg, цветовые группы, проценты заполняемости, дельта E, сопровождение объектов, прогнозирование направления движения, математическая статистика, прогнозируемая область, прогнозируемая подобласть, фрагменты кадра, цветовое пространство RGB.

Введение Актуальность темы

С учетом стремительного темпа численного роста информационных технологий системы видеонаблюдения приобретают, безусловно, особую роль в обеспечении безопасности и эффективной работы объектов различного функционального назначения. Эти системы невозможно представить без применения интеллектуальных технологий обработки данных, которые позволяют анализировать как отдельные изображения, так и

взаимосвязанные последовательности динамических событий. Первостепенное значение уделяется решению многочисленных задач, связанных с подсчетом, анализом, распознаванием и позиционированием объектов. Системы видеонаблюдения способны решать поставленные задачи удаленно путем внедрения различных новейших автоматизированных средств и методов [1, 2].

Современные исследования позволяют в полной мере утверждать, что одной из основополагающих задач систем видеонаблюдения и видеоаналитики является задача обнаружения и отслеживания (трассировки) исследуемого объекта в окружении множества подобных ему объектов в видеопотоке. Данная задача является труднорешаемой в связи с тем, что процесс трассировки объектов усложняется из-за геометрических изменений существующих объектов, их постоянного перемещения и появления новых объектов в поле зрения камер наблюдения [3, 4].

Для глубокого и всестороннего ознакомления с различными аспектами задач трассировки были проанализированы работы специалистов в данной области, среди которых необходимо отметить работы Т. Анштедта, Р. П. Богуша, Д. А. Куплякова, Е. В. Шальнова и других [5-7]. Основываясь на полученных теоретических данных, можно сделать следующий вывод - в настоящий момент особое внимание необходимо уделить решению задачи сопровождения объектов, в связи с тем, что, несмотря на существующие разработки, данная задача до сих пор остается весьма актуальной. Таким образом, вышеизложенное подчеркивает необходимость и обоснованность разработки новых или модификации существующих в настоящее время методов и алгоритмов трассировки объектов в видеопотоке [8-10].

Предлагаемый способ решения задач

Основой представленной статьи является многоэтапное описание предлагаемого авторами алгоритма трассировки перемещений человека.

Особенностью данного алгоритма является анализ исследуемого человека, в результате которого производится отбор ключевых цветовых групп и определение процента их заполняемости относительно размера исходного объекта для ускоренного и более точного поиска объекта на последующих кадрах. Кроме того, для анализа видеокадров применяется методика создания прогнозируемых областей и подобластей, которые определяются путем прогнозирования направления движения исходного объекта. Предложенный алгоритм обладает следующими преимуществами:

1) отсутствие необходимости в предварительном обучении;

2) эффективная работа без применения специального оборудования;

3) устойчивость к геометрическим изменениям, в частности, к изменению формы и к масштабированию;

4) возможность повторного нахождения объекта при его потере в случае перекрытия его другими объектами или при его перемещении за пределы поля зрения камер.

Описание основных этапов работы предлагаемого алгоритма

Разработанный нами алгоритм представляет собой сложный процесс поиска и распознавания исследуемого объекта и создания общей трассировки его перемещения. Чтобы дать полное представление о процессе работы алгоритма, ниже приводится блок-схема основных этапов данного алгоритма (рис.1).

Для разработки и тестирования предлагаемого алгоритма было реализовано программное обеспечение, состоящее из множества последовательных и взаимосвязанных между собой подпрограмм, написанных на языке C# и Python в среде Visual Studio 2022. Необходимо уточнить, что все представленные далее таблицы наглядно демонстрируют результаты работы программного обеспечения.

и

Рис.1. - Блок-схема ключевых этапов работы алгоритма Отбор кадров при анализе видео

Данный этап посвящен разделению исследуемого видео на кадры. Алгоритм анализирует загруженное видео по определенным параметрам, ключевыми из которых являются длина всего видеопотока и его кадровая частота.

На данном этапе применяется выборочный анализ кадров, целью которого является отбор определенных видеокадров с разницей в N секунд. Авторы отмечают, что предложенный способ позволит ускорить процедуру анализа видеокадров, благодаря отбору не всех кадров видеопотока, а только интересующих нас кадров.

Чтобы обосновать необходимость применения выборочного анализа, рассмотрим видео длительностью 2 часа и 35 минут. В табл. 1 представлена сравнительная характеристика при полном и выборочном анализе при значениях N = 1 и N = 2. Согласно полученным результатам, можно сделать следующий вывод, что при выборочном анализе при значениях N = 1 и N = 2 будут отобраны всего 9 300 и 4 650 кадров соответственно вместо 223 200 кадров. Другими словами, результаты, представленные в таблице №1,

доказывают обоснованность и эффективность использования выборочного анализа видеокадров.

Таблица №1

Сравнительная характеристика при полном и выборочном анализе

Количество кадров

В секунду В минуту В час Общее кол-во

Полный анализ 24 кадра 1 440 кадров 86 400 кадров 223 200 кадров

Выборочный анализ при N = 1 1 кадр 60 кадров 3 600 кадров 9 300 кадров

Выборочный анализ при N = 2 - 30 кадров 1 800 кадров 4 650 кадров

Таким образом, алгоритм дает возможность пользователю загружать необходимое для исследований видео в разработанную авторами программу и определять, какова периодичность отбора кадров в рамках всего видеопотока. Для процесса отбора определенных видеокадров авторами используется библиотека OpenCV на языках Python и C#.

Выбор исходного объекта На данном этапе алгоритм дает возможность пользователю с помощью специального инструмента выбирать интересующего его человека для отображения общей трассировки его перемещения в рамках исследуемого видео. Предложенная схема обоснована тем, что для получения всей конкретной информации об объекте необходимо с помощью специальной методики, описанной в следующем разделе, проанализировать изображение исследуемого человека. Полученная информация предназначена для точной и поэтапной процедуры анализа последующих видеокадров. После выбора исходного объекта, предложенный авторами алгоритм приступает к следующему этапу - этапу анализа исходного объекта.

Анализ исходного объекта

Данный этап начинается с процесса выделения переднего плана и удаления заднего фона. Было принято решение использовать библиотеку Rembg, разработанную Даниэлем Гатисом в 2020 году, которая позволяет алгоритму на изображении отделять исследуемого человека от заднего фона [11]. Необходимо отметить, что преимуществами Rembg является ее реализация на основе U2 - сети [12], представляющей собой глубокую нейронную сеть для обнаружения видимых объектов и использование процесса матирования изображения.

Следующим этапом является выполнение процедуры получения и обработки цветовых пикселей изображения исследуемого человека на основе цветового пространства RGB. Следует обратить внимание на то, что, анализируя цветовые пиксели, необходимо подобрать определенные диапазоны цветов, другими словами, все близкие по значению цвета включить в определенную группу цветов. Данный подход обоснован тем, что при поиске объекта на последующих кадрах не нужно рассматривать все цветовые пиксели исходного объекта, а только те группы цветов, которые были обнаружены во время анализа исходного объекта. Для этого было предложено использовать формулу цветового отличия для формата RGB, позволяющую вычислить различие (Дельта Е) между двумя цветовыми пикселями [13]:

ae

Если разница между значениями цветовых пикселей составляет 0 < ae < 7, то такие пиксели считаются одним цветом и заносятся в отдельную группу цветов. В статье «Алгоритм трассировки перемещений человека в видеопотоке на основе технологий распознавания одежды» [14] нами излагаются необходимые данные и сведения, относящиеся к описанию процесса вычисления цветовых групп. Подобный процесс является

неотъемлемой частью представленного алгоритма и способствует повышению эффективности процесса анализа видеокадров с возможностью дальнейшего усовершенствования его отдельных частей.

Следует подчеркнуть, что при анализе объекта может быть получено большое количество различных цветовых групп. Для оптимизации процесса поиска объекта на видеокадрах было принято решение отбирать из них не более 10 цветовых групп, включающих в себя наибольшее количество значений цветовых пикселей.

После получения всех групп цветов исследуемого человека, необходимо проанализировать, какие из них являются ключевыми для процесса поиска объекта на последующих кадрах. Кроме того, авторы обращают внимание на то, что во время процесса поиска объекта на исследуемом видеокадре есть вероятность появления объектов, которые включают в себя практически неотличимые друг от друга группы цветов. Для понимания данной проблемы спрогнозируем некую ситуацию - на кадре алгоритмом были обнаружены два человека. Первый из них одет в черную рубашку и синие джинсы, в то время, как второй носит синюю куртку и черные штаны. Если рассматривать операцию, производящую поиск исходного объекта по группам цветов, то в такой ситуации алгоритм будет следовать логике, что два человека, обнаруженные на видеокадре, соответствуют всем требованиям и будут рассматриваться как исходный объект, для которого необходимо построить трассировку. Подобная ситуация подчеркивает неэффективность процедуры сравнения цветовых групп объектов.

Таким образом, все вышесказанное подводит нас к главному выводу -необходимо разработать определенную процедуру, позволяющую отличать друг от друга объекты, обладающие аналогичными цветами. Для решения данной задачи была предложена процедура определения процента

и

заполняемости групп цветов на исследуемом объекте при помощи следующей формулы:

Group,,, P -_£iLL у 100%

РГруппъ(,) ~ ДП У100% ,

где P - процент (%) заполняемости конкретной группы цветов относительно всего объекта;

Group(i) - общее количество цветовых пикселей конкретной группы цветов;

All - общее количество всех цветовых пикселей исследуемого человека;

i - номер конкретной группы.

Для обоснования необходимости использования данной формулы, рассмотрим рис.2, на котором наглядно представлена схема сравнения исследуемого объекта с другими объектами в зависимости от цветовой информации исходного объекта. Анализируя доступные объекты (объекты №1, №2 и №3) и проценты заполняемости их основных цветовых групп, можно утверждать, что объект №2 согласно полученных результатов является исходным объектом.

Рис.2. - Сравнение объектов по процентам заполняемости групп цветов

Со всей определенностью можно утверждать, что применение подобной формулы вычисления процента заполняемости цветовых групп, без сомнения, повышает эффективность поиска и распознавания объектов на последующих кадрах. Кроме того, необходимо учитывать, что чем больше количество цветовых групп, тем больше требуется времени для анализа исходного объекта и прогнозирования его расположения на последующих кадрах. На основании этого, было предложено отбирать те группы цветов, которые составляют больше 5% исследуемого объекта.

Следующим этапом процесса анализа исследуемого объекта является определение среднего значения каждой цветовой группы. Предложенная стратегия обосновывается тем, что для прогнозирования локализации исследуемого объекта на последующих кадрах нет необходимости применять методику сопоставления цветовых пикселей видеокадров со всеми цветовыми значениями каждой цветовой группы исходного объекта. Для наглядности рассмотрим некий исследуемый объект, содержащий в себе три цветовые группы. В табл. 2 указано количество всех значений каждой цветовой группы и их среднее значение в формате RGB.

Таблица №2

Цветовые значения цветовых групп и их среднее значение

Исследуемый объект

Группа №1 Группа №2 Группа №3

Все цвета конкретной группы (220, 43, 42) (221, 38, 43) (223, 52, 50) (224, 42, 36) (224, 42, 38) (225, 41, 44) (122, 110, 111) (122, 110, 116) (122, 111, 119) (124, 113, 114) (124, 115, 110) (78, 238, 158) (78, 242, 159) (80, 240, 163) (84, 237, 158)

Среднее значение группы (223, 43, 42) (123, 112, 114) (80, 240, 160)

М Инженерный вестник Дона, №12 (2023) ivdon.ru/ru/magazine/arcliive/nl2y2023/8863

Данные, представленные в таблице, наглядно демонстрируют, что для распознавания объекта на последующих видеокадрах достаточно применять средние значения цветовых групп исходного объекта вместо 15 различных значений всех цветовых групп.

Для определения средних значений цветовых групп необходимо использовать следующую формулу:

(П С В ) —

V сред> сред> сред/

X *

1 —1

п

X с,

,—1

п

X В

г—\

п

где п - количество цветов в конкретной группе;

, - номер конкретной группы;

Я, О, В - значения цветовых пикселей;

[ ] - округление до целого числа.

На основании вышеизложенного можно выделить основные этапы анализа исходного объекта:

1) отделение исследуемого человека от заднего фона на изображении с помощью библиотеки ЯешЬ§;

2) получение всех групп цветов на основе применения формулы цветового отличия (ае);

3) вычисление процента заполняемости каждой группы цветов исследуемого объекта;

4) отбор всех основных групп цветов, которые составляют больше 5% исследуемого объекта;

5) определение среднего значения каждой отобранной цветовой группы.

Анализ видеокадров на наличие исходного объекта

В текущем разделе мы сосредоточим внимание на процессе прогнозирования местоположения исследуемого объекта на последующих

кадрах. Последовательность действий данного процесса можно кратко сформулировать следующим образом:

1) создание прогнозируемой области на текущем видеокадре в зависимости от координат расположения исходного объекта на предыдущем видеокадре;

2) удаление заднего фона в прогнозируемой области с помощью библиотеки Rembg;

3) создание прогнозируемой подобласти в прогнозируемой области для сужения области поиска объекта на основе формулы для прогнозирования направления движения исследуемого объекта;

4) поиск и распознавание исходного объекта в прогнозируемой области или подобласти на основе методики сопоставления данных исследуемого человека с обнаруженными объектами;

5) получение основных координат локализации обнаруженного человека и переход к процессу анализ последующего видеокадра.

Необходимо отметить, что в предыдущих работах нами была предложена методика определения и построения прогнозируемых областей и подобластей [14, 15]. В представленном нами алгоритме используется указанная выше методика.

После определения прогнозируемой области и подобласти на текущем видеокадре алгоритм приступает к этапу прогнозирования местоположения исследуемого объекта в рамках прогнозируемой подобласти. Эта процедура состоит из двух основных этапов - этапа анализа оставшихся фрагментов видеокадра и этапа распознавания объекта.

Первый этап посвящен анализу оставшихся фрагментов видеокадра после удаления заднего фона, во время которого производится поиск цветовых пикселей. Данный поиск заключается в нахождении всех пикселей, значения цветового пространства RGB которых соответствуют средним

и

значениям цветовых групп исходного объекта с использованием формулы Дельты Е [13]:

ае = 7(я - я)2 + (О2 — ф2 + (В2 — Вд2, где Я, О, В - средние значения цветовых групп исходного объекта;

Я, О, В - цветовые значения пикселей фрагмента видеокадра.

Кроме того, на данном этапе применяется формула вычисления процента заполняемости каждой цветовой группы фрагментов прогнозируемой подобласти, которая была описана в предыдущем разделе.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Этап распознавания объекта заключается в сопоставлении данных фрагментов в прогнозируемой подобласти с информацией, полученной при анализе исходного объекта. Необходимо отметить, что во время процесса сопоставления процентов заполняемости цветовых групп исходного объекта и обнаруженного объекта допускаются небольшие отклонения в размере до 3%. Другими словами, эти отклонения вычисляются по следующей формуле:

р — Р i < 3%

Исх _ группъ(1) Кадр_ группъ(1) % ?

где РИа группы - процент заполняемости конкретной группы цветов исходного объекта;

Ркадр группы - процент заполняемости группы цветов текущего

видеокадра;

\ - номер группы цветов.

Результатом обнаружения исследуемого объекта в прогнозируемой области или подобласти является получение данных его локализации на видеокадре (начальные координаты X и У, длина и высота обнаруженного объекта). После окончания процедуры анализа оставшихся кадров алгоритм дает возможность построить общую трассировку перемещений выбранного пользователем человека на основе объединения всех координат локализации исследуемого объекта с каждого видеокадра.

Обсуждение полученных результатов

Текущий раздел содержит данные и сведения, иллюстрирующие функциональные возможности представленного алгоритма трассировки перемещений человека на основе методики применения средних значений цветовых групп и их процентов заполняемости. Авторы отмечают, что в данной статье приводятся предварительные сравнительные оценки.

В таблицах №3 и №4 представлена сравнительная характеристика разработанных авторами алгоритмов:

• алгоритм, основой которого является разделение исследуемого человека на составляющие его части [15], будем рассматривать как алгоритм №1;

• алгоритм на основе технологий распознавания одежды [14] обозначим как алгоритм №2;

• Алгоритм, описанный в данной статье, будет рассматриваться как алгоритм №3.

Первым этапом исследования является сравнение трех представленных алгоритмов с точки зрения производительности в процессе анализа видеокадров. В таблице №3 продемонстрированы данные, полученные нами в ходе исследования, согласно которым среднее время анализа каждого кадра предлагаемого алгоритма №3 составляет 1 секунду, в то время как среднее время работы алгоритма №1 и №2 составляет 1,6 и 1,2 секунды.

Таблица №3

Сравнение производительности алгоритмов в процессе анализа видеокадров

№ исследуемого видеокадра

Наименование алгоритма 1 2 3 4 5 6 7 8 Среднее время

Алгоритм №1 2,1 2,2 2,3 2 1,3 0,7 0,6 1,4 1,6 сек

Алгоритм №2 2,4 1,5 1,6 1,6 0,8 0,3 0,7 1 1,2 сек

Алгоритм №3 2,1 1,3 1,4 1,3 0,6 0,3 0,5 0,9 1 сек

Наличие объекта да да да да да нет нет да

Вторым этапом текущего исследования является сравнение представленных выше алгоритмов с точки зрения производительности в процессе анализа исходного объекта, результаты которого представлены в таблице №4.

Таблица №4

Сравнение производительности алгоритмов

Наименование алгоритма Время анализа исходного объекта

Алгоритм №1 6,1 сек

Алгоритм №2 11,4 сек

Алгоритм №3 5,4 сек

Результаты проведенного нами исследования позволяют сделать следующий вывод - предлагаемый алгоритм поиска объекта на основе анализа цветовых групп и процента их заполняемости демонстрирует более высокую скорость работы по анализу исходного объекта, по прогнозированию и локализации объектов по сравнению с двумя алгоритмами, представленными в статьях [14, 15]. Кроме того, данный алгоритм стабильно работает в случае геометрических преобразований объекта, перекрытия исследуемого человека другими объектами или при выходе за пределы поля зрения камер.

Необходимо отметить, что в дальнейшем будут проведены более подробные сравнительные испытания предлагаемых алгоритмов.

Авторы отмечают, что представленная работа является продолжением исследований в области разработки новых средств и методов сопровождения объектов в видеопотоке.

Заключение

В представленной статье особое внимание уделяется изучению проблемы отслеживания объектов в видеопотоке. В ходе исследования

данной проблемы был предложен алгоритм слежения за объектом в видеопотоке с возможностью отображения траектории его движения. С целью обеспечения стабильности и устойчивости к геометрическим преобразованиям исследуемого объекта, к частичному перекрытию его другими объектами и к выходу за пределы поля зрения камеры на исследуемых видеокадрах применяется специальная методика, в основе которой лежит процесс получения совокупности определенных данных об исходном объекте. К таким данным можно отнести цветовые группы, их средние значения и проценты заполняемости каждой группы относительно выбранного объекта.

Необходимо отметить, что предложенный авторами алгоритм при помощи методики определения прогнозируемых областей и подобластей анализирует определенные фрагменты последующих видеокадров на наличие объектов и производит сопоставление обнаруженных объектов с исходным объектом с помощью данных, полученных во время процесса анализа исходного объекта. Выходными данными алгоритма, представленного в данной статье, является объединение координат местоположения исследуемого человека на каждом видеокадре, на основе которого формируется и отображается общая картина трассировки исследуемого объекта. Представленный авторами материал может быть полезен для решения задач, связанных с анализом цветовых пикселей фрагментов изображений.

Литература

1. Анштедт Т., Келлер И., Лутц Х. Видеоаналитика: мифы и реальность. 2-е изд., перераб. и доп. Москва: Security Focus. 2022. 186 c.

2. Elharrouss O., Almaadeed N., Al-Maadeed S. A review of video surveillance systems // Journal of Visual Communication and Image Representation. 2021. V. 77. pp. 1-19.

3. Могилин К.А., Селищев В.А. Интеллектуальные системы видеонаблюдения в комплексах безопасности // Известия Тульского Государственного университета. Технические науки. 2020. №3. C. 89-94.

4. Богуш Р.П., Захарова И.Ю. Алгоритм сопровождения людей на видеопоследовательностях с использованием свёрточных нейронных сетей для видеонаблюдения внутри помещений // Компьютерная оптика. 2020. Т. 44. №1. С. 109-116.

5. Park J.-H., Kim D.H.; Shin Y.S., Lee S. A comparison of convolutional object detectors for real-time drone tracking using a PTZ camera // 2017 17th International Conference on Control, Automation and Systems (ICCAS). IEEE, 2017. pp. 696-699.

6. Aguilar C., Ortner M., Zerubia J. Small Object Detection and Tracking in Satellite Videos With Motion Informed-CNN and GM-PHD Filter // Signal Processing. 2022. V.2. pp. 1-15.

7. Мосева М.С., Харрасов К.Р. О существующих методах удаления зашумлений на изображении // Инженерный вестник Дона, 2023, №8. URL: ivdon.ru/ru/magazine/archive/n8y2023/8643.

8. Шальнов Е.В. Исследование и разработка методов сопровождения людей и частей их тела в видеопоследовательности: дис. ... канд. физ.-мат. наук. // Москва. 2018. 115 с.

9. Viola P., Jones M. Rapid Object Detection using a Boosted Cascade of Simple Features // Proceedings of the 2001 IEEE computer society conference on computer vision and pattern recognition. CVPR 2001. V.1. pp.511-518.

10. Купляков Д.А., Шальнов Е.В., Конушин В.С., Конушин А.С. Распределенный алгоритм сопровождения людей в видео // Труды 28-й Международной конференции по компьютерной графике и машинному зрению. GraphiCon. 2018. C. 208-213.

М Инженерный вестник Дона, №12 (2023) ivdon.ru/ru/magazine/arcliive/nl2y2023/8863

11. GitHub: danielgatis/rembg. URL: github.com/danielgatis/rembg (дата обращения: 03.11.2023).

12. Qin X., Zhang Z., Huang Ch., Dehghan M., Zaiane O.R., Jagersand M. U 2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection // Pattern Recognition. 2020. V.106(11). URL: doi.org/ 10.1016/j.patcog.2020.107404 (дата обращения: 15.11.2023).

13. Mokrzycki W.S., Tatol M. Color difference AE: a survey // Machine graphics & vision. 2011. Т. 20. C. 383-411.

14. Гуменюк М.М., Бровко А.В. Алгоритм трассировки перемещений человека в видеопотоке на основе технологий распознавания одежды // Инженерный вестник Дона. 2023. №10. URL: ivdon.ru/ru/magazine/archive/n10y2023/8752.

15. Гуменюк М.М., Бровко А.В. Алгоритм отслеживания перемещений человека в видеопотоке с камер видеонаблюдения // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. 2023. №3. С. 107-120.

References

1. Anshtedt T., Keller I., Lutts Kh. Videoanalitika: mify i real'nost' [Video analytics: Myths and reality]. 2-e izd., pererab. i dop. Moskva: Security Focus. 2022. 186 p.

2. Elharrouss O., Almaadeed N., Al-Maadeed S. Journal of Visual Communication and Image Representation. 2021. V. 77. pp. 1-19.

3. Mogilin K.A., Selishchev V.A. Izvestiya Tul'skogo Gosudarstvennogo universiteta. Tekhnicheskie nauki. 2020. №3. pp. 89-94.

4. Bogush R.P., Zakharova I.Yu. Komp'yuternaya optika. 2020. V. 44. №1. pp. 109-116.

5. Park J.-H., Kim D.H.; Shin Y.S., Lee S. A comparison of convolutional object detectors for real-time drone tracking using a PTZ camera (Proc. 2017 17th

М Инженерный вестник Дона, №12 (2023) ivdon.ru/ru/magazine/arcliive/nl2y2023/8863

International Conference on Control, Automation and Systems (ICCAS)). IEEE, 2017, pp. 696-699.

6. Aguilar C., Ortner M., Zerubia J. Signal Processing. 2022. V.2. pp. 1-15.

7. Moseva M.S., Kharrasov K.R. Inzhenernyj vestnik Dona, 2023, №8 URL: ivdon.ru/ru/magazine/archive/n8y2023/8643.

8. Shal'nov E.V. Issledovanie i razrabotka metodov soprovozhdeniya lyudey i chastey ikh tela v videoposledovatel'nosti [Research and development of methods for accompanying people and their body parts in a video sequence]: dis. ... kand. fiz.-mat. nauk. Moskva. 2018. 115 p.

9. Viola P., Jones M. Rapid Object Detection using a Boosted Cascade of Simple Features (Proceedings of the 2001 IEEE computer society conference on computer vision and pattern recognition CVPR). 2001, V.1. pp. 511-518.

10. Kuplyakov D.A., Shal'nov E.V., Konushin V.S., Konushin A.S. Raspredelennyy algoritm soprovozhdeniya lyudey v video [Distributed algorithm for accompanying people in videos]: trudy (28 Mezhdunarodnaya konferentsiya po komp'yuternoy grafike i mashinnomu zreniyu GraphiCon). 2018, pp. 208-213.

11. GitHub: danielgatis/rembg. URL: github.com/danielgatis/rembg (accessed 03.11.2023).

12. Qin X., Zhang Z., Huang Ch., Dehghan M., Zaiane O.R., Jagersand M. Pattern Recognition. 2020. V.106(11). URL: doi.org/10.1016/j.patcog.2020.107404 (accessed 15.11.2023).

13. Mokrzycki W.S., Tatol M. Machine graphics & vision. 2011. V. 20. pp. 383411.

14. Gumenyuk M.M., Brovko A.V. Inzhenernyj vestnik Dona. 2023. №10. URL: ivdon.ru/ru/magazine/archive/n10y2023/8752.

М Инженерный вестник Дона, №12 (2023) ivdon.ru/ru/magazine/arcliive/nl2y2023/8863

15. Оишепуик М.М., Вгоуко Л.У. Уев1п1к Уогопе7Ьвко§о §овиёаг81уепдо§о ишуеге^а. Бепуа: 81в1ешпуу апаН7 1 iпfoгшatsioппye 1екЪпо1о§п. 2023. №3. рр. 107-120.

i Надоели баннеры? Вы всегда можете отключить рекламу.