Научная статья на тему 'Многоклассовое обнаружение и отслеживание транспортных средств в видеопоследовательности'

Многоклассовое обнаружение и отслеживание транспортных средств в видеопоследовательности Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
633
104
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОБНАРУЖЕНИЕ ТРАНСПОРТНЫХ СРЕДСТВ / VEHICLE DETECTION / ОН-ЛАЙН ОБУЧЕНИЕ / ONLINE LEARNING / СЛЕЖЕНИЕ ЗА АВТОМОБИЛЕМ / VEHICLE TRACKING / ФУНКЦИИ АНАЛИЗА / FEATURE ANALYSIS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Сайфудинов И. Р., Мокшин В. В., Кирпичников А. П.

Эта статья о многоклассовом обнаружении и слежении за транспортными средствами в режиме реального времени. Система использует комбинацию машинного обучения и функции анализа для обнаружения и сопровождения транспортных средств на дороге. Метод опорных векторов (SVM) и метод главных компонент (PCA) используются для создания образцов многоклассового обучения. Он-лайн классификаторы обучаются используя эти образцы для обнаружения и классификации транспортных средств в видеопоследовательностях сцен трафика. Результаты обнаружения используются системой для слежения. Каждый класс транспортного средства отслеживается SURF методом. Система может классифицировать транспортные средства и отслеживать их как единую структуру.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Сайфудинов И. Р., Мокшин В. В., Кирпичников А. П.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Многоклассовое обнаружение и отслеживание транспортных средств в видеопоследовательности»

УДК 004.931, 681.518.3

И. Р. Сайфудинов, В. В. Мокшин, А. П. Кирпичников МНОГОКЛАССОВОЕ ОБНАРУЖЕНИЕ И ОТСЛЕЖИВАНИЕ ТРАНСПОРТНЫХ СРЕДСТВ

В ВИДЕОПОСЛЕДОВАТЕЛЬНОСТИ

Ключевые слова: Обнаружение транспортных средств, он-лайн обучение, слежение за автомобилем, функции анализа.

Эта статья о многоклассовом обнаружении и слежении за транспортными средствами в режиме реального времени. Система использует комбинацию машинного обучения и функции анализа для обнаружения и сопровождения транспортных средств на дороге. Метод опорных векторов (SVM) и метод главных компонент (PCA) используются для создания образцов многоклассового обучения. Он-лайн классификаторы обучаются используя эти образцы для обнаружения и классификации транспортных средств в видеопоследовательностях сцен трафика. Результаты обнаружения используются системой для слежения. Каждый класс транспортного средства отслеживается SURF методом. Система может классифицировать транспортные средства и отслеживать их как единую структуру.

Keywords: Vehicle detection, Vehicle tracking, Online learning, Feature analysis.

This paper presents a real time multiclass vehicle detection and tracking system. The system uses a combination of machine learning and feature analysis to detect and track the vehicles on the road. Multiclass SVM and PCA methods are utilized to create multiclass training samples. The online classifiers are trained using these samples to achieve detection and classification of vehicles in video sequences of traffic scenes. The detection results provide the system used for tracking. Each class vehicle is tracked by SURF method. The system combines the advantages of both multiclass detection and tracking in a single framework. Experimental results from highway scenes are provided which demonstrate the effectiveness of the method.

Введение

Видеонаблюдение интеллектуальных

транспортных систем (ИТС) привлекает большое внимание не только потому, что его легко установить и эксплуатировать, но и еще, потому что у таких систем есть потенциал, обеспечивающий более богатое описание ситуаций на дорогах. Обнаружение и отслеживание транспортных средств является фундаментальной проблемой в ИТС. Для решения этих задач система должна обнаружить транспортные средства из видеоизображения, а затем отслеживать их, сохраняя при этом правильную идентификацию. Стабильное обнаружение и сопровождение транспортных средств, на дороге основанное на видео является сложной задачей [1]. Поскольку объект может либо исчезать из кадра на короткое время и снова появляться и необходимо этот объект рассматривать не как новый, а как тот же самый. Для моделирования таких систем могут использоваться среды моделирования AnyLogic, Arena, Matlab [2,3].

Дорога становится динамической средой с изменением освещения и фона. Размеры и расположение транспортных средств на дороге разнообразны. Существует высокая изменчивость в появлении автомобилей с точки зрения освещения. Кроме того частичные окклюзии интересующих транспортных средств с остальными транспортными средствами или с объектами на дороге также являются важным фактором влияющим на обнаружение и отслеживание. За последние два десятилетия исследователи тратят много времени для разработки различных методов, которые могут быть применены в области обнаружения и отслеживания транспортных средств [1-4]. В следующем разделе представлен краткий обзор

последних работ связанных с обнаружением и отслеживанием транспортных средств.

Видеодетектирование транспортных

средств представляет собой процесс обнаружения наличия или отсутствия транспортного средства в последовательности кадров. Результат обнаружения используется для инициализации процесса отслеживания. Существует 4 основных метода обнаружения областей транспортных средств, это:

Метод разностных кадров [7,8]: этот метод обнаруживает области движущегося транспортного средства путем вычитания двух последовательных кадров изображения в последовательности изображений. Он хорошо работает в случае единообразного условия освещения, в противном случае он создает области, не принадлежащие областям транспортных средств, также метод разностных кадров не очень хорошо работает, если временной интервал между кадрами вычитания слишком велик.

Метод вычитания фона [9,10]: этот метод один из широко используемых методов для обнаружения областей движущегося транспортного средства. Он вычитает сгенерированное фоновое изображение из кадра входного изображения для обнаружения движущейся области транспортного средства. Эта разница изображения является порогом для извлечения областей транспортных средств. Проблемой сохраненных фонов кадра является то, что они не адаптированы к изменяющейся окружающей среде, также метод работает хорошо только со стационарным фоном.

Метод выделения признаков [11,12]:этот метод использует отличительные признаки для обнаружения движущейся области транспортного средства, эти признаки группируются на основе анализа их движения между последовательностью

кадров. Таким образом, образуется группа признаков сегмента движущегося транспортного средства отличающаяся от фона. Преимущества этого метода в том, что проблемы окклюзии между областями транспортных средств могут быть хорошо обработаны, метод выделения признаков имеет меньшую вычислительную сложность по сравнению с методом вычитания фона. Недостатком метода является то, что если признаки сгруппированы не точно, верное обнаружение транспортных средств может быть не удачным.

Метод оценки движения [12,13]:этот метод предполагает, что транспортные средства имеют тенденцию двигаться последовательно с течением времени и что в переднем плане движение имеет различное положение. Он менее чувствителен к шуму и очень эффективен для небольших движущихся объектов, недостаток в том, что для вычисления информации о движении расходуется много времени, и метод не может использоваться для обнаружения статических препятствий которые могут представлять большую угрозу в задаче обнаружения.

После обнаружения транспортных средств, ИТС будет выполнять задачу слежения за автотранспортными средствами. Система слежения за автомобилями формирует траекторию транспортного средства, в течение долгого времени исходя из позиций в каждом кадре видеопоследовательности. Существующие подходы слежения могут быть классифицированы в четыре основные категории:

Метод сегментации [14,15]: этот метод вычитает изображение кадра, содержащее транспортное средство от фона кадра, которое потом дополнительно обрабатывается для получения области транспортного средства (blobs). Затем эти области отслеживаются, это хорошо работает в текущих условиях движения, но недостатком являются трудности в обработке тени и окклюзии.

Метод, основанный на активном контуре [16,17]: этот метод ограничивает контуром транспортное средство и динамически обновляет его во время слежения. Преимущество активного отслеживания контура в меньшей вычислительной сложности. Однако недостатком метода является не способность точно отслеживать пропавшие из виду транспортные средства и для отслеживания необходимо заново инициализировать объект.

Метод ключевых точек [18,19]: этот метод извлекает ключевые точки транспортного средства, и полученные области точек обрабатываются для правильного отслеживания транспортных средств. Метод имеет низкую сложность и может хорошо обрабатывать окклюзии. Недостатком является скорость распознавания транспортных средств с низким разрешением изображения, в таком случае определение какой набор ключевых точек принадлежит к одному объекту становится проблемой.

Метод на основе моделей [20,21]: этот метод отслеживает транспортное средство путем сопоставления модели с данными изображения.

Преимуществом слежения за транспортными средствами на основе модели является помехоустойчивость между ближайшими изображениями, применяется для классификации транспортных средств.

Приведенные выше подходы эффективно выполняют задачи обнаружения и отслеживания. Однако эти подходы более требовательны к вычислительным ресурсам и имеют определенные условия применения. Для того чтобы уменьшить время расчетов и улучшить эффективность системы были применены различные обучающие подходы многими исследователями занимающимися обнаружением и отслеживанием объектов.

В зависимости от того как происходит обучение относительно времени, подходы к обучению относятся к категориям оф-лайн и онлайн обучениям. Оф-лайн обучение требует, чтобы все обучающие данные были доступны до процесса обучения. Такого рода подходы пытаются показать результаты, которые соответствуют всем собранным данным образцов. С другой стороны при интерактивном обучении требуется, чтобы обучающие данные поступали последовательно с течением времени. Такого рода подходы позволяют машине непрерывно обучаться и адаптироваться под конкретные входные данные.

Некоторые методы оф-лайн обучения для обнаружения транспортных средств получили хорошие результаты [24]. Например, использование метода опорных векторов для вычисления вейвлет-функций Хаара. В работе [25] используется подход для обнаружения транспортных средств основанный на многослойных нейронных сетях. В [26] использовали градиентный анализ и Adaboost классификацию для обнаружения автомобиля с тыльной стороны. В [25] представлен алгоритм для обнаружения транспортного средства с боковой стороны, пользуясь каскадом быстрых классификаторов. В [26] представлен алгоритм обучения слежению в режиме реального времени за автотранспортными средствами в

видеопоследовательности, с использованием усовершенствованного метода выбора компонент. Chen и др.[27] предложены пространственно-временные рамки слежения транспортного средства с помощью неконтролируемого обучения на основе сегментации и объектного прослеживания.

Общая структура

Получая на вход видеопоследовательность, взятую с дороги, на первом этапе система выводит тип и локализует транспортное средство, обнаруженное в кадре. Затем вычисляется описание обнаруженных транспортных средств, и в конце это описание используется для сопоставления обнаруженных транспортных средств в следующем кадре. Структура состоит из трех основных процессов: классификации транспортных средств, обнаружения и слежения за транспортными средствами. На этапе классификации транспортных средств используется автономное (off-line) обучение для создания мульти классифицирующего классификатора. Как только созданный

классификатор распознает транспортное средство в изображении, система генерирует образец для соответствующего детектора автомобиля. Детекторы транспортных средств, прошедшие обучение, далее обучаются в режиме он-лайн, на основе образцов полученных ранее. На этапе обнаружения, используется обученный детектор транспортного средства, чтобы классифицировать и определить местонахождение транспортного средства из видеопоследовательности, в то же время детектор транспортного средства будет продолжать обучаться для улучшения способности обнаружения. На этапе отслеживания транспортного средства, анализируется информация особенностей, обнаруженных транспортных средств в предыдущих изображениях кадров, и соответствующая информация в текущем изображении. Если результат соответствия будет точным, трекер выводит метку для обнаруженного транспортного средства. Структура системы показана на рис.1 а).

Входное изображение

V7

Классификатор транспортных средств_

Класс 2

4-

Обнаружен»

Класс N

Результат обнаружения

Результат обнаружения

Результат обнаружения

Анализ особенностей

Отслеживание резуль

Отслеживание

резуль

Отслеживание резуль

а)

б)

Рис. 1 - а) Общая структура; б) Блок-схема офлайн классификации

Классификация транспортных средств

Для задачи классификации транспортных средств, будет использоваться многоклассовый метод опорных векторов (8УМ). 8УМ одна из наиболее эффективных алгоритмов обучения в компьютерном зрении. В то время как многие сложные проблемы классификации по сути своей

многоклассовы, оригинальный 8УМспособен решать только проблемы бинарной классификации. В связи со значительной изменчивостью появления транспортных средств, следует избегать прямого решения классификации транспортных средств используя один модуль SVM. Лучшим способом является использование комбинации нескольких бинарных классификаторов SVM для классификации транспортных средств. «Один против одного» ("oneagainstone"^ «один против всех» ("oneagainstall") являются двумя наиболее популярными методами мультиклассификации SVM. Hsu и Lin [31] сравнивали эффективность двух методов с большим набором различных данных. Эксперименты показывают, что метод «один против одного» может быть более подходящим для практического использования.

Чтобы была польза от задачи классификации транспортных средств, надо подразделять транспортные средства на достаточно большое количество классов. Однако, большее количество числа классов требует большего времени обработки. Таким образом, необходим простой метод классификации который может подразделять транспортные средства на приближенном уровне. В зависимости от применения, можно реализовать дальнейшую классификацию. В данной работе мы используем метод «один противодного» LibSVM [32], чтобы узнать функции вейвлет-Хаара для классификации транспортных средств. Метод «один против одного» строит SVM для каждой пары классов, обучая его различать два класса. Если ^количество классов, то

ïi^ii- L1

построенные классификаторы и каждый

обучен данными из двух классов. Решающая функция для пары у классов определяется:

(1)

Она находится из решения следующей задачи оптимизации:

BhçHwVlF + tla«?

(2)

£ (¡ХцЗ' £ 1 - г^1! г!-1 £ 0; лггв'классе

Г СО ■ К'И + £ - I; г? £ 0, ] классе

' (3)

В итоге, в этом подходе используется стратегия «максимального набора голосов» для определения класса тестового шаблона. На рис.1 б) показана блок-схема классификации транспортного средства.

Пример создания

Из-за различных сложностей результаты классификации с использованием мульти классового 8УМ могут не совпадать с ожидаемыми результатами. Тем не менее, результаты классификации очень важны для обучения в он-лайн режиме, и их точность может напрямую влиять на производительность системы обнаружения. В целях устранения ложных результатов, был рассмотрен вопрос об использовании метода eigenvehicle для

фильтрации результатов классификации, в качестве пост-обработки. Eigenvehicle-метод основан на известном методе eigenface [31]. Однако, поскольку метод используется для обнаружения транспортных средств, он был назван eigenvehicle. Основная идея заключается в разложении изображений транспортных средств в небольшой набор характерных особенностей изображения, называемых eigenvehicle, которые могут рассматриваться как основной компонент исходного изображения. Для каждого класса транспортного средства готовится № = 50 изображений транспортных средств, в качестве обучающего множества. Каждое изображение в обучающем множестве преобразуется в вектор размерностью Лги помещается во множестве:

Г«|

(4)

Вычисляется среднее матрицы, затем вычитается из исходных выборок, и результат сохраняется в переменной

ЧГ = iSff-L t

о, = г- -чг

(5)

(6)

На следующем шаге вычисляется ковариационная матрица - в соответствии формулой:

= (7)

Расчет собственных векторов и значений ковариационной матрицы:

4 =

=%=(I

,L = к

(8)

(9)

Наконец, eigenvehicle-особенности будут получены:

(10)

i = =

где ¿есть матрица № X 2$.^собственный вектор Л/и

Ь.

Когда новый образец обнаружен много классовым 8УМ на входе, он преобразуется в eigenvehicle-компонент. Сначала сравнивается демонстрационное изображение со средним изображением того же класса и умножается их различие для каждого собственного вектора матрицы L. Каждое значение будет представлять собой вес и и будет сохранено в векторе.

о* =

1=1........X

(12)

= ------(13)

Рассчитывается среднее Евклидово расстояние между новой выборкой и всеми eigenvehicle того же класса. Если значение Дниже установленного порога А, считается что входной образец

принадлежит изображению транспортного средства соответствующего класса.

s = (14)

Он-лайн обучение

В видеопоследовательности собирается ряд учебных выборок, затем эти выборки обучаются boosting- алгоритмом. Boosting один из наиболее применяемых методов в обнаружении транспортных средств. Boosting для обнаружения транспортных средств лучше всего работает в автономном режиме. Следовательно, все учебные выборки должны быть даны заранее, что недопустимо для обнаружения транспорта в режиме он-лайн (рис.2).

Рис. 2 - Блок-схема онлайн обнаружения

Так как для обучения в режиме реального времени каждая обучающая выборка отбрасывается непосредственно после обновления, все шаги должны быть пройдены в режиме он-лайн. В этой статье выбраны Хаар-подобные функции, в качестве слабых классификаторов, и используется метод он-лайнбустинга вгаЬшгаи др. [32] для создания детектора автомобиля. Основные этапы обучения в режиме онлайн кратко описаны ниже:

Селектор ^(Ю может рассматриваться как

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

набор «-слабых классификаторов .....^n-t^i -

которые связаны с подмножеством функций

if. = ....... & it? 1где^ полнофункциональное

объединение. Каждый раз селектор выбирает

лучшую слабую гипотезу согласно предполагаемой учебной ошибки. Чтобы запустить процесс обучения, фиксированный набор а селекторов in ■ ^инициализируется в случайном порядке. Всякий раз, когда новая учебная выборка (.г,_у) прибывает, селекторы будут обновлены. Эти обновления выполняются относительно веса важности X текущей выборки, которая инициализирована с Л = 1 Чтобы обновить селектор ^сначала все слабые классификаторы йцдаСО оцениваются путем оценки функции faM на

образце изображения ошибках:

и соответствующих

jKEi^ac

(15)

Веса, и до сих пор оценивались по

правильным и неправильным классифицирующим примерам. Затем, селектор выбирает слабый классификатор ^ ¡^ с наименьшей ошибкой Гик'г, где

:

(16)

По ошибке еЕвес голосования к„ и значение веса Л обновляются:

(17)

(18)

Значение веса к передается на следующий селектор Для того чтобы увеличить

разнообразие классификатора объединениями адаптироваться к изменениям окружающей среды худший классификатор Ц^иг- где

, заменен классификатором, выбранным в случайном порядке из объединения Е. Наконец, сильный классификатор вычисляется путем линейной комбинации ^селекторов:

(19)

После того, как все онлайновые классификаторы созданы, мы получим Сразличные классификаторы транспортных средств. Когда новое входное изображение поступит, будут использоваться эти классификаторы на основе «шах'шш» голосующей стратегии, так чтобы были достигнуты задачи обнаружения и классификации транспортных средств.

R —

показана

f = 1........С

блок-схема

(20)

он-лайн

На рис. 3 обнаружения.

SURF функция анализа

SURF (ускоренная надежная функция) хорошо организованная локальная функция дескрипторов, предложенная в 2006 году в соавторстве H. Bay [34]. SURF дескрипторы инвариантны к равномерному масштабированию, ориентации, метод широко применяется для слежения за объектами и сопоставлению изображений. Для задач слежения за автотранспортными средствами, нам нужна определенная функция, которая может точно описывать различные транспортные средства, SURF функция очень подходит в этом случае. SURF алгоритм включает в себя четыре этапа: масштабно-пространственное обнаружение экстремума, локализация характерной точки, присвоение ориентации и генерации дескрипторов характерной

точки. Главный процесс выглядит следующим образом:

б

Рис. 3 - а Сопоставление объекта в видео кадре; б) Блок-схема отслеживания транспортного средства

Точки интереса для функции SURF соответствуют локальному экстремуму различных фильтров Гессе и Хаара на разных масштабах используя интегральное представление

изображений, описанное как формула:

1г<к?>= згя-'^л ' (21)

где I(i,j) - яркость пикселей исходного изображения.

Имея интегральную матрицу можно очень быстро вычислять сумму яркостей пикселей произвольных прямоугольных областей

изображения, по формуле: SumOfRect(ABCD) = II(A) + II(C) — II(B) — II(D), где ABCD - интересующий прямоугольник.

Обнаружение особых точек в SURF основано на вычислении детерминанта матрицы Гессе (гессиана). Матрица Гессе для двумерной функции и ее детерминант определяется следующим образом:

ЕС

¿у r.'.-fj-

(22)

ix'if* \ixifl

г-'

. Ык-

Точки интереса определены как локальные максимумы или минимумы изображений в различных масштабах. Каждый пиксель

а

изображения по сравнению с его 8 соседями в том же масштабе, плюс 9 соответствующих соседей в соседних масштабах. Если пиксель является локальным максимумом или минимумом, он выбирается в качестве кандидата на особенную точку.

Так, дескриптор SURF который использовался, имел 4x4x8=128 размерностей.

Сопоставление признаков и обновление

Для каждого транспортного средства, обнаруженного структурой много классового обнаружения извлекаются SURFособенности и создается информационная база данных об автомобиле (ИБДА) (рис.3 б)). ИБДА состоит из четырех частей: класс транспортного средства, номер транспортного средства, местонахождение транспортного средства (координаты

прямоугольника) и SURFдескриптор особенной точки (приоритет особенности, координаты особенной точки, ориентация и масштаб), каждое транспортное средство, обнаруженное от структуры много классового обнаружения отслеживается в новой видеопоследовательности кадров, отдельно сравнивая ее характерную точку с тем же самым классом транспортного средства из ИБДА. Евклидово расстояние вводится как измерение подобия особенностей символов.

Предположим ±V'[ как номер особенности текущего транспортного средства,

соответствующего г - му транспортному средству из ИБДА, Лкак полное количество особенностей текущего транспортного средства, соответствующий показатель между текущим транспортным средством и i - м транспортным средством из ИБДА может определено как 1} = tf[/№. Устанавливается порог Т для соответствующего параметра. Когда Я превышает Г,текущее транспортное средство считается соответствующим г - му транспортному средству. Предположим, что Щ является номером / - го класса транспортного средства из ИБДА. !Jv; ¿f = !,,_, результат соответствия текущего транспортного средства и всех транспортных средств из ИБДА с тем же самым классом, и п- ряд элементов в наборе {Д; [f ;; > T,t = 1,.....jSfy}, При n=1 i-ое транспортное средство соответствует j-му транспортному средству из ИБДА с тем же классом; при п I. выбираем max(Fy) как результат соответствия. ИБДА хранит данные того транспортного средства которые появляются последними в видеопоследовательности. База должна обновляться после каждого кадра входных данных текущего транспортного средства и удалять данные длительного срока не сопоставленных механизмов. Мы устанавливаем приоритет функции для каждой характерной точки ИБДА в процессе обновления информации о транспортном средстве. Предположим й^как приоритет функции из / -ой характерной точки i-го транспортного средства, определяется процесс обновления так:

1) Добавить новое транспортное средство: если текущее транспортное средство не подходит

для любого транспортного средства из ИБДА с тем же классом, оно будет рассматриваться как новое транспортное средство, в ИБДА добавится информация о нем и установится его функция приоритета всех ключевых точек Л" = Лдщк.

2) Обновление функции приоритета: если текущее транспортное средство соответствует /—му транспортному средству из ИБДА, информация о i— м транспортном средстве будет обновлена, устанавливается приоритет функции ключевых точек соответствия Kt^ = Ядщ. и используются новые координаты этих ключевых точек соответствия, чтобы заменить исходные координаты. Кроме того, приоритет функции не сопоставленных ключевых точек между текущим транспортным средством и ;'-м транспортным средством заменяется на Sij = Вц — 1. новые ключевые точки не сопоставленных особенностей добавляются в ИБДА. После того как все соответствия текущего кадра найдены, если не будет никаких транспортных средств соответствующим из ИБДА то весь приоритет функции этих транспортных средств будет заменён на JTy = Jty — 1. Когда кадр изображения полностью обработан, ключевая точка приоритет особенности, которой равен нулю будет удалена из ИБДА.

3) Удаление транспортного средства: Когда изображение кадра полностью будет обработано, транспортное средство, чей приоритет особенности ключевой точки отвечает следующему условию, будет удалено из ИБДА.

JCL4 4 ... + ff|!r #(23)

На рис. 3 б) показана блок-схема отслеживания транспортного средства.

Эксперимент

Рассмотрим пример, частота кадров 20 в секунду в условиях шоссе. Все эксперименты, показанные ниже выполнялись на стандартном PC (IntelCore2 DuoE750 2.93 GHz, 2 GBRAM). Сильный классификатор состоит из 50 отборщиков, и общее объединение особенностей составляет 250 слабых классификаторов. Установлен порог & =7,Z, число классов C=3 (автобус, грузовик и автомобиль). В учебном словаре данные о сегментации изображений, где каждый класс тип транспортного средства, собранный из области 32 х 16 изображений транспортных средств. Учебный набор состоит из 500 образцов на класс. Некоторые учебные изображения показаны на рис.4 а).

В тестовом словаре набор данных видеофрагментов, который состоит из более чем 2 часовRGB видео, снятого на городских магистралях в течение дня. Тест состоит из двух частей, а именно тест обнаружения и тест слежения. В тесте обнаружения, если классификаторы получают результат обнаружения, который дает желаемое местоположение и классификацию, результат будет включен в процент обнаружения; если все классификаторы не получат результаты

обнаружения, или результаты обнаружения дают не правильную классификацию, то результат обнаружения, будет включен в коэффициент ошибок. Результаты онлайн обучения показывают, что с увеличением объема выборки процент обнаружений увеличивается непрерывно и наконец, гладко колеблется в некоторых диапазонах. Мы используем классификатор с получасовым обучением как заключительный классификатор транспортного средства. Чтобы оценить исполнение предложенного метода, мы делаем сравнение процента обнаружений и коэффициента ошибок с автономным boosting классификатором. В создании классификатора каждого класса транспортного средства используется 1200 положительных образцов и 1500 отрицательных, и используется тот же самый набор данных, чтобы проверить два метода.

в)

Рис. 4 - а) Подмножество учебных образцов для этих четырех классов; б) Результаты одно классового обнаружения в экспериментальных последовательностях. в) результаты много классового обнаружения

В таблице 1 показано, что метод выступает лучше, чем другой. Что еще более важно, мы создаем онлайн мульти классификаторы, которые подходят для видеопоследовательности с маленькими учебными образцами. Некоторые результаты обнаружения в видеофрагменты показаны на рис. 4. б), в).

Таблица 1 - Сравнение результатов

В тесте отслеживания, если классификаторы получают результат обнаружения, который дает желаемое местоположение и идентификатор, результат рассматривается как правильное прослеживание в текущем кадре, иначе результат рассматривается как неправильное прослеживание в текущем кадре.

Заключение

В данной статье рассмотрена структура с обнаружения и много классового слежения за транспортными средствами в

видеопоследовательности. Метод, обучается на небольшом количестве обучающей выборки и большом количестве немаркированных онлайн образцов, чтобы установить, классификатор транспортного средства, и анализирует SURF особенности обнаруженных транспортных средств для прослеживания транспортного средства. Метод эффективен для много классового обнаружения и слежения транспортных средств в реальной обстановке транспортного потока. Предлагаемая структура может успешно приспособиться при появлении новых классов транспортных средств в незнакомой среде.

Если рассматриваемую систему представить в виде многопараметрической с наборами характеристик, то для исследования можно воспользоваться методом анализа

многопараметрических систем [38].

Литература

1. Мокшин В.В., Кирпичников А.П., Шарнин Л. М. Отслеживание объектов в видео потоке по значимым признакам на основе фильтрации частиц // Вестник Казанского технологического университета. 2013. Т. 16. № 18. С. 297-303.

2. Якимов И.М., Кирпичников А.П., Мокшин В.В., Костюхина Г.В., Шигаева Т.А. Комплексный подход к моделированию сложных систем в системе BPWIN-ARENA // Вестник Казанского технологического университета. 2014. Т. 17. № 6. С. 287-292.

3. Мокшин В.В., Якимов И.М.Метод формирования модели анализа сложной системы Информационные технологии. 2011. № 5. С. 46-51.

4. Z. H. Sun, G. Bebi, R. Miller, On-road vehicle detection: areview, IEEE Transactions on Pattern Analysis and Machine Intelligence 28 (5) (2006) 694-711.

5. M. M. Trivedi, T. Gandhi, J. McCall, Looking-in and looking-out of a vehicle: computer-vision-based enhancedvehicle safety, IEEE Transactions on Intelligent Transportation Systems 8 (1) (2007) 108-120.

6. B. T. Morris, M. M. Trivedi, Learning, modeling, and classification of vehicle track patterns from live video, IEEE Transactions on Intelligent Transportation Systems 9(3) (2008) 425-437.

7. D. Dailey, F.W. Cathy, S. Pumrin, An algorithm to estimate mean traffic speed using uncalibrated cameras, IEEE Transactions on Intelligent Transportation Systems 1(2) (2000) 98-107.

8. T. N. Schoepflin, D. J. Dailey. Dynamic camera calibration of roadside traffic management cameras for vehicle speed estimation, IEEE Transactions on Intelligent Transportation Systems 4 (2) (2003) 90-98.

9. C.Wern, A. Azarbayejani, T. Darrel, A. Petland, Pfinder, real-time tracking of human body, IEEE Transactions on

Класс Offlineboo Offlineboo Предлага Предлагае

sting sting емы й мый

обнаруже ошибка метод метод

ние обнаруж ение ошибка

Автоб 87% 21% 89% 18%

ус

Грузо 79% 32% 86% 20%

вое

т/с

Легко 83% 28% 85% 22%

вое

т/с

Pattern Analysis and Machine Intelligence 19 (7) (1997) 780-785.

10. X. Gao, T. Boult, F. Coetzee, V. Ramesh, Error analysis of background adaption, IEEE Conference on ComputerVision and Pattern Recognition, 2000, pp. 503-510.

11. D. Koller, K. Danilidis, H. H. Nagel, Model-based object tracking in monocular image sequences of road trafficscenes, International Journal of Computer Vision 10 (3) (1993) 257-281.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

12. S. M. Smith, J. M. Brady, ASSET-2: real-time motion segmentation and shape tracking, IEEE Transactions on Pattern Analysis and Machine Intelligence 17 (8) (1995) 814-820.

13. A. Bainhridge-Smith, R. G. Lane, Determining optical flow using a differential method, Image and Vision Computing 15 (1) (1997) 11-22.

14. L. Wilson, Detecting salient motion by accumulating directionally-consistent flow, IEEE Transactions on Pattern Analysis and Machine Intelligence 22 (8) (2000) 774-780.

15. D. J. Dailey, F. W. Cathy, S. Pumrin, An algorithm to estimate mean traffic speed using uncalibrated cameras, IEEE Transactions on Intelligent Transportation Systems 1(2) (2000) 98- 107.

16. S. Gupte, O. Masoud, R. F. K. Martin, N. P. Papanikolopoulos, Detection and classification of vehicles, IEEE Transactions on Intelligent Transportation Systems 3(1) (2002) 37-47.

17. D. Koller, J. Weber, T. Huang, J. Malik, G. Ogasawara, B. Rao, S. Russell, Toward robust automatic traffic scene analysis in real-time, IEEE Conference on Pattern Recognition, 1994, pp. 126-131.

18. N. Paragios, R. Deriche, Geodesic active contours and level sets for the detection and tracking of moving objects, IEEE Transactions on Pattern Analysis and Machine Intelligence 22 (3) (2000) 266-280.

19. L. Huang, M. Barth, Real-time multi-vehicle tracking based on feature detection and color probability model, IEEE Conference on Intelligent Vehicles Symposium, 2010, pp. 981-986.

20. B. Coifman, D. Beymerb, P. McLauchlan, J. Malik, A realtime computer vision system for vehicle tracking and traffic surveillance, Transportation Research Part C: Emerging Technologies 6 (4) (1998) 271-288.

21. M. Haag and H. Nagel, Combination of edge element and optical flow estimate for 3D model-based vehicle tracking Computer Vision 35(3) (1999) 295-319.

22. T. N. Tan, K. D. Baker, Efficient image gradient based vehicle localization, IEEE Transactions on ImageProcessing 9(8) (2000) 1343-1356.

23. Z. Sun, G. B. D. Dimeo, A real-time precrash vehicledetection system, IEEE Conference on Application of Computer Vision, 2002, pp. 171-176.

24. O. Ludwig, U. Nunes, Improving the generalization properties of neural networks: an application to vehicledetection, IEEE Conference on Intelligent Transportation S stems, 2008, pp. 310-315.

25. A. Khammari, Vehicle detection combining gradientanalysis and adaboost classification, IEEE Conference on Intelligent Transportation Systems, 2005, pp. 66-71.

26. P. Negri, X. Clady, S. Hanif, L. Prevost, A cascade ofboosted generative and discriminative classifiers forvehicle detection, EURASIP Journal on Advances in Signal Processing 2008 (2002) 1-12.

27. D. Withopf, B. Jahne, Learning algorithm for real-timevehicle tracking, IEEE Conference on Intelligent Transportation Systems, 2006, pp. 516-521.

28. S. C. Chen, Spatiotemporal vehicle tracking: the use ofunsupervised learning-based segmentation and objecttracking, IEEE Robotics and Automation Magazine 12(1)(2005) 50-58.

29. T. Nguyen, H. Grabner, B. Gruber, On-line boosting forcar detection from aerial, IEEE Conference on Research, Innovation and Vision for the Future, 2007, pp. 87-95.

30. W. C. Chang, C. W. Cho, Online boosting for vehicledetection, IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) 40(3) (2010) 892-902.

31. S. Sivaraman, M. M. Trivedi, A general active-learningframework for on-road vehicle recognition and tracking, IEEE Transactions on Intelligent Transportation Systems11 (2) (2010) 267-276.

32. C. W. Hsu, C. J. Lin, A comparison of methods for multiclasssupport vector machines, IEEE Transactions on Neural Networks 13 (2) (2002) 415-425.

33. C. C. Chang, C. J. Lin, LIBSVM: a library for supportvector machines, ACM Transactions on Intelligent Systemsand Technology 2 (3) (2011) 1-39.

34. M. Turk, A. Pentland, Eigenfaces for recognition, Journal of Cognitive Neuroscience 3 (1) (1991) 71-86.

35. H. Grabner, H. Bischof, On-line boosting and vision, IEEE Conference on Computer Vision and Pattern Recognition,2008, pp. 260-267.

36. D. G. Lowe, Distinctive image features from scaleinvariantkeypoints, International Journal of Computer Vision 60 (2) (2004) 91-110.

37. Herbert Bay, Andreas Ess, Tinne Tuytelaars, Luc Van Gool "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346-359, 2008.

© И. Р. Сайфудинов - асп. каф. автоматизированных систем обработки информации и управления КНИТУ-КАИ им А.Н.Туполева, [email protected]; В. В.Мокшин - канд. техн. наук, доц. той же кафедры, [email protected]; А. П. Кирпичников - д-р физ.-мат. наук, зав. каф. интеллектуальных систем и управления информационными ресурсами КНИТУ, [email protected].

© I. R. Saifudinov - Graduate Student of the Department of Automated Information Processing Systems & Control, KNRTU named after A.N. Tupolev, [email protected]; V. V. Mokshin- PhD, Associate Professor of the Department of Automated Information Processing Systems & Control, KNRTU named after A.N. Tupolev, [email protected]; А. P. Kirpichnikov - Dr. Sci, Head of the Department of Intelligent Systems & Information Systems Control, KNRTU, [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.