Научная статья на тему 'Алгоритмы обнаружения тревожных событий для систем автоматизированного видеонаблюдения'

Алгоритмы обнаружения тревожных событий для систем автоматизированного видеонаблюдения Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1305
201
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЦИФРОВАЯ ОБРАБОТКА ИЗОБРАЖЕНИЙ / ВИДЕОАНАЛИТИКА / СИСТЕМЫ ВИДЕОНАБЛЮДЕНИЯ / ОБНАРУЖЕНИЕ ОБЪЕКТОВ / ОТСЛЕЖИВАНИЕ ОБЪЕКТОВ / DIGITAL IMAGE PROCESSING / VIDEO ANALYTICS / VIDEO SURVEILLANCE SYSTEMS / OBJECT DETECTION / TRACKING

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Гордин Максим Сергеевич, Иванов Сергей Андреевич

Статья посвящена алгоритмам реального времени для обнаружения событий, описываемых четырьмя сценариями: движение в запрещенном направлении, нахождение в стерильной зоне, оставление (похищение) предмета, перебрасывание предмета. Основная идея алгоритмов анализ траекторий движущихся объектов, для получения которых в статье предложены два разных подхода.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ALGORITHMS FOR DETECTING INCIDENT FOR AUTOMATED VIDEO SURVEILLANCE SYSTEMS

The article is devoted to real-time algorithms for detecting events described by four scenarios: movement in the prohibited direction, movement in the sterile zone, abandonment (abduction) of the object, throwing the object. The main idea of algorithms is the analysis of the trajectories of moving objects, for obtaining which two different approaches are proposed in the article.

Текст научной работы на тему «Алгоритмы обнаружения тревожных событий для систем автоматизированного видеонаблюдения»

УДК 004.932

DOI 10.25205/1818-7900-2017-15-3-21-30

М. С. Гордин, С. А. Иванов

Новосибирский государственный университет ул. Пирогова, 1, Новосибирск, 630090, Россия

gordin.ms@gmail.com, sergey.brd@gmail.com

АЛГОРИТМЫ ОБНАРУЖЕНИЯ ТРЕВОЖНЫХ СОБЫТИЙ ДЛЯ СИСТЕМ АВТОМАТИЗИРОВАННОГО ВИДЕОНАБЛЮДЕНИЯ

Статья посвящена алгоритмам реального времени для обнаружения событий, описываемых четырьмя сценариями: движение в запрещенном направлении, нахождение в стерильной зоне, оставление (похищение) предмета, перебрасывание предмета. Основная идея алгоритмов - анализ траекторий движущихся объектов, для получения которых в статье предложены два разных подхода.

Ключевые слова: цифровая обработка изображений, видеоаналитика, системы видеонаблюдения, обнаружение объектов, отслеживание объектов.

Введение

Одна из основных тенденций рынка видеонаблюдения - снижение стоимости камер при одновременном улучшении качества изображения. Эти факторы приводят к распространению систем видеонаблюдения. Операторы видеокамер, занимающиеся наблюдением, выполняют монотонную работу в течение длительного времени, откуда возникает проблема утомляемости и снижения концентрации внимания. Например, при непрерывном наблюдении в течение 12 минут оператор начинает пропускать 45 % потенциально тревожных событий, а если время наблюдения увеличить до 22 минут, то процент пропуска возрастает до 95 [1]. Поэтому возникает потребность в анализе видео без прямого участия человека.

Видеоаналитика - технология, основанная на методах цифровой обработки изображений и машинного зрения, для автоматизированного извлечения информации из видеоматериалов. Область применения систем автоматизированного видеонаблюдения весьма обширна. Они используются для наблюдения, охраны и обеспечения безопасности критически важных объектов, к которым относятся объекты транспортной инфраструктуры (железнодорожные вокзалы, порты и аэропорты), объекты инженерной инфраструктуры (электростанции и системы водоснабжения) и др. Помимо этого, системы видеоаналитики применяются на коммерческих и частных объектах (торговые, офисные, складские помещения).

Автоматизированное видеонаблюдение применяют для решения широкого круга задач, например: обнаружение пересечения заданной линии, обнаружение пожара, распознавание номеров вагонов, подсчет количества посетителей магазина.

Наша статья посвящена алгоритмам обнаружения потенциально тревожных сценариев движения объектов, определенных в Постановлении правительства от 26.09.2016 № 969 «Об утверждении требований к функциональным свойствам технических средств обеспечения

Гордин М. С., Иванов С. А. Алгоритмы обнаружения тревожных событий для систем автоматизированного видеонаблюдения // Вестн. НГУ. Серия: Информационные технологии. 2017. Т. 15, № 3. С. 21-30.

ISSN 1818-7900. Вестник НГУ. Серия: Информационные технологии. 2017. Том 15, № 3 © М. С. Гордин, С. А. Иванов, 2017

транспортной безопасности и правил обязательной сертификации технических средств обеспечения транспортной безопасности» 1.

1. Движение в запрещенном направлении - сценарий ситуации в регистрируемой сцене, по которому тревожным считается движение объекта в запрещенном направлении относительно условно заданных границ.

2. Стерильная зона - появление объекта в поле зрения камеры, пересечение им условно заданной запрещенной линии либо нахождение в запрещенной зоне. При этом объектом в этих двух сценариях может быть и человек, и транспортное средство, и животное.

3. Оставленный (исчезнувший) предмет - оставление предметов в поле зрения камеры (либо ограниченной условными линиями зоне) либо исчезновение предмета, ранее находившегося в поле зрения камеры.

4. Брошенный объект - перебрасывание предмета в поле зрения камеры.

Обзор существующих алгоритмов

Среди задач цифровой обработки изображений можно выделить две, связанные с движением объектов: определение движущихся объектов и построение их траекторий. При решении этих задач выделяют два типа видеоизображений: снятые на неподвижную и на движущуюся камеру, для которых существуют свои методы. Далее будут рассмотрены методы обнаружения движущихся объектов и построения траекторий их движения. Рассмотренные алгоритмы используют данные, полученные с неподвижной камеры.

Обнаружение движущихся объектов

Задача обнаружения движущихся объектов на видеоизображении - одна из классических задач компьютерного зрения. Исходными данными задачи является последовательность изображений, выходными данными - координаты и размеры обнаруженных объектов. Традиционным методом выявления движения на изображении является вычисление межкадровой разности - абсолютной разности двух последовательных изображений из видеопотока [2]. В результате получается изображение с выделенными областями движения. Чаще всего на таком изображении сложно выделить контуры объекта, это удается сделать, только если объект будет однотонным и выпуклым.

Для обнаружения движущихся объектов можно использовать метод вычитания фона, который вычисляет абсолютную разницу между текущим кадром и предварительно вычисленным фоновым изображением. Эффективность обнаружения объектов во многом зависит от способа вычисления фонового изображения, но даже при использовании примитивных методов на полученном разностном изображении будут целиком выделены движущиеся объекты. Существует множество алгоритмов вычисления фона (например, ОМЫ [3], МОО [4]), отличающиеся временем и качеством работы.

В последнее время для выделения объектов стали применять методы машинного обучения. Для этого необходимо собрать обучающую выборку и настроить классификатор. Для обнаружения объектов кадр видеоизображения разбивается на множество изображений меньшего размера, после чего каждое из них подается на вход классификатору, который на основе вычисленных признаков определит, содержит изображение объект или нет.

По описанному методу построено множество систем (например, ИОО+8УМ [5], БРМ [6], €NN8 [7]), которые показывают высокую эффективность работы. Но процесс обучения и настройки этих систем довольно трудоемкий и требует хорошо организованной обучающей выборки. Для каждого типа объекта (например, человек или автомобиль) и угла обзора камеры необходимо собрать индивидуальную обучающую выборку и настроить алгоритм. Только при этих условиях системы демонстрируют высокое качество обнаружения объектов.

1 См.: Официальной интернет-портал правовой информации. ИКЬ : http://www.pravo.gov.ru

Отслеживание объектов

Задача отслеживания объектов состоит в том, чтобы на основе последовательности изображений построить траектории движения заданных объектов. При этом последовательность изображений может быть дополнена различной информацией: объектами, обнаруженными на предыдущих кадрах, скоростью и направлением их движения.

Алгоритм сопоставления блоков [8] разделяет предыдущий и текущий кадры на непересекающиеся макроблоки и сравнивает блоки с предыдущего кадра с соседними блоками на текущем кадре. Наилучшее совпадение определяет вектор перемещения макроблока из одного места в другое. Таким образом, вычисляя перемещение всех макроблоков, определяется общая картина движения объектов в кадре. Преимуществом метода является относительно высокая скорость работы, недостатком - неустойчивость к поворотам и прочим искажениям изображения.

Некоторым обобщением является метод вычисления оптического потока [9], который находит сдвиг пикселей, что обеспечивает более точное определение направления движения объекта. Оптический поток может быть плотным или разреженным. В первом случае оптический поток вычисляет смещения каждого пикселя, во втором - выделенного набора пикселей. Применение метода требует выполнения двух условий: интенсивность изображения объекта не изменяется с течением времени, ближайшие точки объекта движутся с похожей скоростью.

Для отслеживания небольших объектов на сцене используют вейвлет-преобразование [10]. Указанный способ находит объект независимо от того, движется он или неподвижен, но метод способен обнаружить движение только одного объекта.

Отслеживать объект можно при помощи его местоположения и скорости движения, для чего применяют фильтр Калмана [11]. Алгоритм состоит из двух этапов: предсказание состояния и корректировки предсказанного значения. Преимуществом метода является способность предсказывать траекторию объекта, если он на короткое время был перекрыт, например, другим объектом; недостатком - способность отслеживать только траектории без резкой смены направления движения.

Еще один метод заключается в выделении особенностей объектов и попарном сравнении признаков объектов с предыдущего и текущего кадров. Скорость и точность метода определяется способами вычисления особенностей объектов и метриками, определяющими их сходство. В качестве признаков используют цветовые гистограммы [12], текстуры [13] и ключевые точки [14].

Общая схема алгоритма

Предложенные нами алгоритмы представляют собой набор связанных модулей. В процессе работы модуль ожидает появления входных данных, после чего производит вычисления и порождает выходные данные, которые впоследствии будут переданы другим модулям. Набор модулей может быть сконфигурирован отдельно для каждой из камер или группы камер в зависимости от решаемых задач. Применение указанного подхода позволяет создать легко масштабируемую и распределенную систему.

Разработанный нами алгоритм отслеживания движущихся объектов состоит из двух модулей: детектора движущихся объектов и модуля отслеживания объектов. Отдельный модуль анализирует перемещение объектов и генерирует сообщение о произошедшем событии, пересылаемое оператору системы автоматизированного видеонаблюдения.

Детектор движущихся объектов

Детектор движущихся объектов последовательно принимает на вход по одному кадру, который представляет собой матрицу ^ = (/ху) размером Ж хН. Элемент матрицы - значение

интенсивности изображения в точке (х, у). На выходе детектор выдает список обнаружен-

ных объектов - структуру, содержащую координаты объекта на изображении, его размер и набор признаков, необходимых для идентификации объекта на следующих кадрах.

Детектор объектов основан на методе вычитания фона. Обновление фона Bi происходит

на основе /-го кадра видеопотока:

В = [ ^ г = °

' [(1 -а)В1._1 + аР{, иначе.

Параметр а называется коэффициентом обучения, он определяет влияние текущего кадра на обновление фона. Значение параметра должно лежать в промежутке от 0 до 1. При значении 0 фон не будет обновляться, а при значении 1 вычисленный фон будет полностью совпадать с предыдущим кадром.

Во время экспериментов выяснилось, что при некоторых значениях коэффициента обучения алгоритм не успевает учитывать изменения освещенности кадра, например в случаях, когда солнце скрывается за облаками или садится за горизонт. А при увеличении параметра на вычисленном фоне появляются объекты, остановившиеся на короткий промежуток времени. Для отдельных случаев удавалось подобрать параметр, при котором описанные проблемы отсутствуют, однако универсального значения, когда алгоритм работает корректно на множестве видео, найти не удалось. Для решения описанной проблемы нами предложено дополнительно вычислять фон с другим коэффициентом обучения а' >а, который мы обозначим В'.

На первом этапе вычисляется фон изображения. Первым шагом вычисляем два изображения фона Bi и В'' с коэффициентами обучения а и а' соответственно. Вторым шагом

находим области с изменившимся освещением, для чего вычисляем разницу В' =

В, - В

на которой помимо искомых областей будут выделены остановившиеся объекты. Отличительной чертой областей с изменившимся освещением является близкая к нулю выборочная дисперсия интенсивности пикселей, поэтому обнаружение таких областей можно осуществить следующим образом:

( \

т, у

1, а

V

и

(Xу')еЛГ, (у)

<Б,

0, иначе.

где (Хо, Уо ) = {(х, у) ,||х - Хо |< д и \у - у(\ < д} - окрестность точки (хо, Уо) размером д,

( 1 У

- выборочная дисперсия выборки Р. Третьим шагом вы-

а(Р )=р X ,ер (р)2 X Р.рР

числяем фон В следующим образом:

В = (1 - М') Вг + М Тг,

где М ' = ( т'ху), вычисленная на предыдущем шаге, а умножение матриц выполняется поэлементно.

На втором этапе происходит обнаружение объектов, для чего вычисляется разность В = - В и строится бинарное изображение с выделенными областями движения по правилу

[1, <у

тх, у =]о

[о, иначе.

Далее к полученному бинарному изображению применяются морфологические преобразования - размыкание и замыкание. На полученном бинарном изображении выделяются контуры, определяются размеры и координаты объектов, вычисляются гистограммы изображений объектов.

Модуль отслеживания объектов

Модуль отслеживания объектов принимает на вход обнаруженные объекты, а на выходе выдает информацию об их перемещении: время начала и окончания отслеживания, размер объекта, местоположение и направление движения. Модуль работает со структурой, которую мы называем трек. Трек t - это список объектов (о1,...,оп), обнаруженных на последовательных кадрах, содержащий одно и то же множество физических объектов.

Приведем пример. Пусть в кадре идут два человека, и им соответствуют треки с идентификаторами А и В. При пересечении траекторий один человек будет перекрывать другого, из-за чего детектор будет выделять один объект. Такие объединенные объекты должны содержаться в новом треке, например, с идентификатором АВ. После перекрытия люди будут обнаруживаться отдельно, и будет создано два новых трека с идентификаторами А' и В' (рис. 1).

Рис. 1. Работа модулей обнаружения и отслеживания объектов Тонкой рамкой обведены обнаруженные объекты, толстой - треки объектов

На первом этапе модуль создает новые треки и обновляет существующие, для чего анализируется расстояние между объектами, обнаруженными на предыдущем и текущем кадрах.

Обозначим множество обнаруженных ранее треков Т, с каждым треком ti е Т можно взаимно однозначно сопоставить о{ - объект, обнаруженный на предыдущем кадре, множество которых обозначим О. Через О' обозначим множество объектов, обнаруженных в текущем кадре. Построим двудольный граф

С = ( О, О', Е),

где Е = |(ог, о'.)\о1 е О, о', е О', й (о г,о'. )< dmm |, а й (о г,о'.) - расстояние между объектами о г

и о'.

Мы добавляем объект о' к треку ti, если (oi, о' )е Е и deg (о ) = deg (о' ) = 1. Для объектов о',, которые не были добавлены ни к одному существующему треку, мы создаем новые треки ^. Причем если в графе О существует ребро (oi, о' ), то мы говорим, что трек ti - родитель трека t'J■, или t'J■ - ребенок трека ti. Например, треки А и В на рис. 1 являются родителями трека АВ, а треки А' и В' - детьми трека АВ.

На втором этапе происходит идентификация разделившихся треков. Для определения похожести треков выполняется анализ гистограмм. С треком сопоставляется гистограмма, равная сумме гистограмм объектов, содержащихся в треке. Похожесть двух гистограмм определяется через расстояние Бхаттачария:

1 IЛHp (i)H (i)

VI Hp (i )I Hc (i)'

где H (j) - значение гистограммы на интервале j. Чем ближе к нулю эта величина, тем более похожими считаются объекты.

Пусть трек t имеет родителей p1,...,pn и детей c1,...,cm. Тогда строится матрица

S = (dB (Hp,, Hj )),

строки которой соответствуют родителям, столбцы - детям. На пересечении строки и столбца содержится число, которое характеризует меру похожести треков. Треки pi и c объявляются похожими, если выполнены три условия:

s,j <s,

arg min ,, st j = i,

argminj, si.j, = j.

В этом случае треку cj присваивается идентификатор трека pt взамен присвоенного ранее.

На третьем этапе происходит вычисление средней скорости движения трека t = = (,...,on) по правилу v = In=11 d(,oi+1 ))(n-1) и направления движения трека ф, задаваемого углом между вектором (1,0) и вектором разности координат объектов on и on-1.

Модуль обнаружения тревожных событий

На вход модулю подаются треки объектов, а на выходе информация о событии, если оно было обнаружено в текущем кадре. Вся вычислительная работа была сделана на предыдущем этапе, поэтому алгоритмы обнаружения тревожных событий относительно просты.

Трек t = (,...,on) движется в запрещенном направлении, если |ф-ф0| <Аф, где ф - вычисленное направление движения трека; ф0 - запрещенное направление, указанное пользователем; Аф - точность определения направления.

Трек t находится в стерильной зоне, если 3iarea(oi) П Z ^0, где area (o) - множество точек исходного изображения, содержащих объект o; Z - множество точек, задающих стерильную зону.

Трек t следит за оставленным предметом, если время отслеживания трека n > n0 и средняя скорость v<v0, где n0 и v0 - параметры, заданные пользователем.

Информация о событии содержит тип события и идентификатор трека, который это событие инициировал. Сообщение отправляется оператору, который может запросить видеофайл с отображенным треком объекта для более детального изучения причин случившегося.

Модуль обнаружения брошенных предметов

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Во время экспериментов выяснилось, что модуль отслеживания, описанный выше, не обнаруживает быстро движущиеся (смазанные) объекты, поэтому для обнаружения брошенных предметов нами предложен другой способ.

Алгоритм обнаружения брошенного объекта опирается на следующие свойства: объект имеет небольшой размер; объект компактен, т. е. объект по форме приближен к кругу; траек-

тория движения - парабола. Отметим, что траектория брошенного предмета остается параболической даже при перспективных преобразованиях изображения.

Первый этап алгоритма определяет области интенсивного движения, для чего вычисляется межкадровая разность. Изображения брошенного объекта из-за высокой скорости движения не перекрываются на соседних кадрах, поэтому на межкадровой разности такие объекты хорошо выделены.

Исходя из малого размера брошенного объекта и его компактности на межкадровой разности отфильтровываются области, не удовлетворяющие этим свойствам. После чего на бинарном изображении ищутся центроиды связных областей.

На втором этапе происходит поиск параболической траектории. Для этого мы используем алгоритм RANSAC (RANdom SAmple Consensus), представленный Фишлером и Боллесом в 1981 г. [15]. Алгоритм является итеративным методом оценки параметров математической модели на основе набора данных, содержащего большое количество выбросов. В задаче обнаружения брошенного предмета математической моделью является параболическая траектория. Входными данными алгоритма являются обнаруженные центроиды. Задача алгоритма - разделить их на два множества: хорошие точки (не выбросы), удовлетворяющие скрытой модели, и ложные точки (выбросы), шумы - случайные включения в исходные данные.

Работа алгоритма происходит в несколько итераций. Количество итераций равно предполагаемому числу кадров, на которых движется брошенный объект, а на каждой итерации выполняется два шага.

1. Гипотеза. Из входного набора данных выбирается минимальный набор образцов (МНО). После чего, вычисляются параметры модели с использованием только элементов МНО. Мощность МНО определяется как наименьшая величина, достаточная для определения параметров модели. Для вычисления параметров параболической траектории достаточно набора образцов из трех точек.

2. Проверка Гипотезы. На втором этапе RANSAC проверяет, какие элементы набора данных согласуются с моделью, определенной параметрами, полученными на первом шаге. Набор таких элементов называется консенсус-множеством. Результатом работы алгоритма RANSAC являются параметры модели и консенсус-множество, элементы которого удовлетворяют найденной модели (рис. 2). При этом если мощность консенсус-множества оказалась меньше заданной величины, то считаем, что событие броска не произошло.

Рис. 2. Консенсус-множество точек и вычисленная траектория броска

Тесты и результаты

Основными параметрами, характеризующими работу предложенных методов, являются:

1) чувствительность - доля истинно положительных срабатываний алгоритма от общего числа событий, которое требовалось обнаружить;

2) специфичность - доля истинно положительных срабатываний алгоритма от общего числа срабатываний;

3) скорость работы - отношение числа кадров ко времени их обработки.

Алгоритмы тестировались на видеофайлах, которые содержали по 2о событий каждого типа. Результаты испытаний:

Тип события Чувствительность Специфичность

Движение в запрещенном направлении 0,95 0,86

Нахождение в стерильной зоне 0,95 1,0

Оставленный предмет 0,9 1,0

Брошенный предмет 0,8 0,94

Скорость работы измерялась при работе всех модулей одновременно. На вход был подан видеопоток с разрешением 1920 х 1088 пикселей, скорость 25 кадров в секунду. Вычислительные ресурсы: 4-ядерный процессор Intel Core i5, с тактовой частотой 3200 ГГц, ОЗУ 16 Гб. Скорость обработки 75 кадров в секунду, что в три раза превышает скорость видеопотока, объем потребляемой памяти 2 Гб.

При тестировании обнаружилось несколько проблем. В редких случаях происходит разделение объекта на два (например, верхняя и нижняя половины человека), алгоритм неверно идентифицирует объекты и неверно определяет направления движения в случаях пересечения траекторий объектов.

Алгоритм обнаружения брошенных объектов в редких случаях не обнаруживает брошенные предметы малых размеров или объекты, сливающиеся с фоном. Алгоритм не способен обнаруживать несколько брошенных объектов, движущихся в один и тот же момент.

Заключение

В результате работы предложены методы обнаружения четырех типов тревожных событий: движение в запрещенном направлении, нахождение в стерильной зоне, оставление предмета и перебрасывание предмета.

Первые три события распознаются при помощи модуля отслеживания движущихся объектов, который использует улучшенный нами метод вычитания фона для обнаружения объектов и анализ расстояний и гистограмм изображений для сопоставления объектов, обнаруженных на разных кадрах.

Для распознавания события «перебрасывание предмета» разработан отдельный модуль, который использует метод межкадровой разности для выделения областей движения и алгоритм RANSAC для поиска траекторий брошенного предмета.

Дальнейшие исследования будут направлены на решение проблем, выявленных при тестировании, и усовершенствование методов обнаружения и отслеживания объектов для повышения чувствительности и специфичности разработанных нами алгоритмов. Планируется также увеличить скорость их работы путем оптимизации и параллелизации вычислений, в частности перенос операций обработки изображений на вычислительные мощности графических ускорителей.

Кроме задач, перечисленных выше, исследования будут направлены на разработку единой базы обнаруженных объектов, объединяющей информацию от модуля отслеживания объек-

тов и обнаружения брошенных объектов; разработку алгоритмов отслеживания объекта на видеоизображениях, полученных при помощи поворотных камер; разработку алгоритмов отслеживания объектов на нескольких камерах, наблюдающих за одной сценой с разных ракурсов; разработку модулей классификации объекта (человек, машина, животное) и идентификации объекта (распознавание лиц для идентификации людей и автомобильных номеров для идентификации транспортных средств) и их интеграцию с существующими модулями.

Список литературы

1. Ainsworth T. Buyer Beware // Security Oz. 2002. Vol. 19. P. 18-26.

2. Singla M. Motion Detection Based on Frame Difference Method International // Journal of Information & Computation Technology. 2014. Vol. 4. No. 15. P. 1559-1565.

3. Zivkovic Z. Improved adaptive gaussian mixture model for background subtraction // IEEE Int. Conf. Pattern Recognition. 2004. Vol. 2. P. 28-31

4. Bouwmans T., El Baf F., Vachon B. Background Modeling using Mixture of Gaussians for Foreground Detection - A Survey // Recent Patents on Computer Science. 2008. Vol. 1. P. 219237.

5. Dalal N., Triggs B. Histograms of Oriented Gradients for Human Detection // IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2005. P. 886-893.

6. Felzenszwalb P., Girshick R., McAllester D, Ramanan D. Object Detection with Discrimina-tively Trained Part Based Models // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2010. Vol. 32. No. 9. P. 1627-1645.

7. Girshick R., Donahue J., Darrell T, Malik J. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation // IEEE Conference on Computer Vision and Pattern Recognition. 2014.P.580-587.

8. Je C., Park H. M. Optimized Hierarchical Block Matching for Fast and Accurate Image Registration // Signal Processing: Image Communication. 2013. Vol. 28. No. 7. P. 779-791.

9. Aslani S., Mahdavi-Nasab H. Optical Flow Based Moving Object Detection and Tracking for Traffic Surveillance // International Journal of Electrical, Computer, Energetic, Electronic and Communication Engineering. 2013. Vol. 7. No. 9. P. 1252-1256.

10. Zaveri M. A, Merchant S. N., Desai U. B. Small and Fast Moving Object Detection and Tracking in Sports Video Sequences // IEEE International Conference on Multimedia and Expo. 2004. Vol. 3. P. 1539-1542.

11. Comaniciu D, Ramesh V., Meer P. Kernel-based object tracking // IEEE Transactions on pattern analysis and machine intelligence. 2003. Vol. 25. No. 5. P. 564-577.

12. Chitaliya N. G., Trivedi A. I. Novel block matching algorithm using predictive motion vector for video object tracking based on color histogram // 3rd International Conference on Electronics Computer Technology. 2011. Vol. 5. P. 81-85.

13. Hingane P., Shirsat S. Object Tracking Using Joint Color-Texture Histogram // International Journal of Science and Research. 2013. P. 2603-2606

14. Tissainayagama P., Suterb D. Object tracking in image sequences using point features // Pattern Recognition. 2005. Vol. 38. No. 1. P. 105-113.

15. Fischler M. A, Bolles R. C. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography // Communications of the ACM 24. 1981. P.381-395.

Материал поступил в редколлегию 05.05.2017

30

M. C. fopflHH, C. A. MBOHOB

M. S. Gordin, S. A. Ivanov

Novosibirsk State University 1 Pirogov St., Novosibirsk, Russian Federation

gordin.ms@gmail.com, sergey.brd@gmail.com

ALGORITHMS FOR DETECTING INCIDENT FOR AUTOMATED VIDEO SURVEILLANCE SYSTEMS

The article is devoted to real-time algorithms for detecting events described by four scenarios: movement in the prohibited direction, movement in the sterile zone, abandonment (abduction) of the object, throwing the object. The main idea of algorithms is the analysis of the trajectories of moving objects, for obtaining which two different approaches are proposed in the article.

Keywords: digital image processing, video analytics, video surveillance systems, object detection, tracking.

For citation:

Gordin M. S., Ivanov S. A. Algorithms for Detecting Incident for Automated Video Surveillance Systems. VestnikNSU. Series: Information Technologies, 2017, vol. 15, no. 3, p. 21-30. (In Russ.)

i Надоели баннеры? Вы всегда можете отключить рекламу.