Научная статья на тему 'Обнаружение динамических текстур по видеопоследовательностям в условиях недостаточной освещенности'

Обнаружение динамических текстур по видеопоследовательностям в условиях недостаточной освещенности Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
420
83
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕДОСТАТОЧНАЯ ОСВЕЩЕННОСТЬ / ШУМ / ДИНАМИЧЕСКИЕ ТЕКСТУРЫ / ВИДЕОПОСЛЕДОВАТЕЛЬНОСТЬ / ДЫМ / VARYING ILLUMINATION / NOISE / DYNAMIC TEXTURES / VIDEO SEQUENCE / SMOKE

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Пятаева А.В., Куликова Ю.Д.

Обнаружение динамических текстур на видеоизображениях в настоящее время находит все более широкое применение как на городских территориях (в частности, на территориях аэродромов), так и на территориях природных парков, лесных массивов. Качество работы алгоритма поиска динамических текстур зависит от наличия шумов, вносимых сложными погодными условиями и недостаточной освещенностью. Для компенсации недостаточной освещенности и повышения качества темных видеоизображений необходимо расширить диапазон яркостей, увеличить среднюю яркость пикселов, повысить контраст и избавиться от аддитивного шума. Для имитации недостаточной освещенности к изображениям с нормальной освещенностью последовательно применена гамма-коррекция, добавлен аддитивный гауссов шум и импульсный шум. Компенсация недостаточной освещенности реализована с помощью многомасштабного алгоритма «Ретинекс» с реставрацией цвета, подавление аддитивного шума выполнено с использованием фильтра Гаусса, импульсный шум устраняется с применением медианного фильтра. Для повышения резкости использован фильтр Лапласа. Использованы видеопоследовательности из набора данных Билькентского университета, компании Wildfilmsindia и др. Дополнительно репрезентативность тестового набора повышена самостоятельно снятой авторами в ночное время видеопоследовательностью. Экспериментальные исследования проведены на примере системы обнаружения дыма на основе локальных бинарных шаблонов. Точность обнаружения дыма в условиях недостаточной освещенности по сравнению с исходным изображением в среднем ниже на 28-30 %, при этом значительно увеличивается число ошибок первого рода и число ложных срабатываний до 34,2 и 27,4 % соответственно. На изображениях, улучшенных с помощью предложенного алгоритма компенсации недостаточной освещенности, точность обнаружения существенно возрастает и составляет 94,41 %, что ниже точности обнаружения дыма относительно исходного изображения всего на 2,3 %. Таким образом, экспериментальные исследования подтверждают эффективность предложенных методов и алгоритмов анализа динамических текстур на примере обнаружения дыма на видеопоследовательностях.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

VIDEO BASED DYNAMIC TEXTURE RECOGNITION UNDER SPECIFIC ILLUMINATION CONDITIONS

Nowadays dynamic textures recognition is particularly important in different computer vision community tasks in a variety of fields such as urban scenes and forest scenes. The goal of the dynamic textures recognition can be different. Real scenes may include the objects with dynamic behavior because of possible varying illumination, blurring, or weather conditions. Under bad weather conditions the imaging system is degraded to produce low visibility images. Such effects may significantly degrade the performance of outdoor vision systems which relies on image/video. For illumination effects compensation and visual quality enhancement images it is necessary to average pixel intensity increase, expand the range of brightness, image contrast increase and eliminate influence of the additive noise. For the images obtained in adverse lighting conditions imitation in this work Gamma correction, additive Gaussian noise and impulse noise was applied successively. The proposed algorithm employs Multi Scale Retinex with Color Restoration, Laplacian, Gaussian and median filters. For experimental researches of the databases of Bilkent University, Video Smoke Detection, Wildfilmsindia, V-MOTE were used. In addition, the representativeness of the test set is increased by a video sequence, which the authors themselves recorded at night. Experiments on video based smoke detection system based on spatio-temporal local binary pattern were computed. True recognition for smoke in adverse lighting conditions is degraded to 65 %. False rare rejection and false alert errors significantly increase to 34.2 % and 27.2 % respectively. After adverse lighting compensation algorithm work true recognition of smoke regions increases to 94.41 %. This accuracy provides the influence of adverse lighting on a quality of smoke detection is studied. Experimental results show that the proposed method is feasible and effective for video-based dynamic texture analysis in varying illumination conditions

Текст научной работы на тему «Обнаружение динамических текстур по видеопоследовательностям в условиях недостаточной освещенности»

УДК 004.932.2

Сибирский журнал науки и технологий. 2017. Т. 18, № 2. С. 283-289

ОБНАРУЖЕНИЕ ДИНАМИЧЕСКИХ ТЕКСТУР ПО ВИДЕОПОСЛЕДОВАТЕЛЬНОСТЯМ В УСЛОВИЯХ НЕДОСТАТОЧНОЙ ОСВЕЩЕННОСТИ

А. В. Пятаева*, Ю. Д. Куликова

Сибирский федеральный университет, Институт космических и информационных технологий Российская Федерация, 660074, г. Красноярск, ул. Киренского, 26 Е-mail: anna4u@list.ru

Обнаружение динамических текстур на видеоизображениях в настоящее время находит все более широкое применение как на городских территориях (в частности, на территориях аэродромов), так и на территориях природных парков, лесных массивов. Качество работы алгоритма поиска динамических текстур зависит от наличия шумов, вносимых сложными погодными условиями и недостаточной освещенностью. Для компенсации недостаточной освещенности и повышения качества темных видеоизображений необходимо расширить диапазон яркостей, увеличить среднюю яркость пикселов, повысить контраст и избавиться от аддитивного шума. Для имитации недостаточной освещенности к изображениям с нормальной освещенностью последовательно применена гамма-коррекция, добавлен аддитивный гауссов шум и импульсный шум. Компенсация недостаточной освещенности реализована с помощью многомасштабного алгоритма «Ретинекс» с реставрацией цвета, подавление аддитивного шума выполнено с использованием фильтра Гаусса, импульсный шум устраняется с применением медианного фильтра. Для повышения резкости использован фильтр Лапласа. Использованы видеопоследовательности из набора данных Билькентского университета, компании Wildfilm-sindia и др. Дополнительно репрезентативность тестового набора повышена самостоятельно снятой авторами в ночное время видеопоследовательностью. Экспериментальные исследования проведены на примере системы обнаружения дыма на основе локальных бинарных шаблонов. Точность обнаружения дыма в условиях недостаточной освещенности по сравнению с исходным изображением в среднем ниже на 28-30 %, при этом значительно увеличивается число ошибок первого рода и число ложных срабатываний до 34,2 и 27,4 % соответственно. На изображениях, улучшенных с помощью предложенного алгоритма компенсации недостаточной освещенности, точность обнаружения существенно возрастает и составляет 94,41 %, что ниже точности обнаружения дыма относительно исходного изображения всего на 2,3 %. Таким образом, экспериментальные исследования подтверждают эффективность предложенных методов и алгоритмов анализа динамических текстур на примере обнаружения дыма на видеопоследовательностях.

Ключевые слова: недостаточная освещенность, шум, динамические текстуры, видеопоследовательность, дым.

Siberian Journal of Science and Technology. 2017, Vol. 18, No. 2, P. 283-289

VIDEO BASED DYNAMIC TEXTURE RECOGNITION UNDER SPECIFIC ILLUMINATION CONDITIONS

A. V. Pyataeva*, Y. D. Kulikova

Siberian Federal University, School of Space and Information Technology 26, Kirensky Str., Krasnoyarsk, 660074, Russian Federation Е-mail: anna4u@list.ru

Nowadays dynamic textures recognition is particularly important in different computer vision community tasks in a variety offields such as urban scenes and forest scenes. The goal of the dynamic textures recognition can be different. Real scenes may include the objects with dynamic behavior because of possible varying illumination, blurring, or weather conditions. Under bad weather conditions the imaging system is degraded to produce low visibility images. Such effects may significantly degrade the performance of outdoor vision systems which relies on image/video. For illumination effects compensation and visual quality enhancement images it is necessary to average pixel intensity increase, expand the range of brightness, image contrast increase and eliminate influence of the additive noise. For the images obtained in adverse lighting conditions imitation in this work Gamma correction, additive Gaussian noise and impulse noise was applied successively. The proposed algorithm employs Multi Scale Retinex with Color Restoration, Laplacian, Gaussian and median filters.

For experimental researches of the databases of Bilkent University, Video Smoke Detection, Wildfilmsindia, V-MOTE were used. In addition, the representativeness of the test set is increased by a video sequence, which the authors themselves recorded at night. Experiments on video based smoke detection system based on spatio-temporal local binary pattern were computed. True recognition for smoke in adverse lighting conditions is degraded to 65 %. False rare rejection and false alert errors significantly increase to 34.2 % and 27.2 % respectively.

After adverse lighting compensation algorithm work true recognition of smoke regions increases to 94.41 %. This accuracy provides the influence of adverse lighting on a quality of smoke detection is studied. Experimental results show that the proposed method is feasible and effective for video-based dynamic texture analysis in varying illumination conditions

Keywords: varying illumination, noise, dynamic textures, video sequence, smoke

Введение. Качество работы любого алгоритма компьютерного зрения падает вследствие наличия шумов, вносимых сложными погодными условиями, а также связанных с недостаточной освещенностью. Так, в работе [1] показано, что при наличии атмосферных осадков точность работы алгоритма верификации областей задымления падает на 10-15 %. Время суток существенно влияет на особенности отображения искомого объекта на видеопоследовательности. Уровень освещенности объектов на изображении является одним из основных аспектов, влияющих на качество работы алгоритмов компьютерного зрения, так как правильно различать предметы, например в сумерках при смене времени суток, бывает сложно даже человеку. Например, в работе [2] показано влияние времени суток на качество работы системы видеонаблюдения по обнаружению стоп-линий на регулируемых перекрестках, при этом количество ложных срабатываний зависело от полосы движения, времени суток, солнечной или пасмурной погоды, среднее количество ложных срабатываний варьировалось от 2 до 36 %. Для распознавания лиц при изменяющемся освещении предлагается алгоритм, основанный на представлении исходного изображения в виде матрицы изменения яркостей, что позволяет добиться устойчивости относительно изменений условий освещенности [3]. Снижение качества распознавания из-за изменений условий освещенности было описано в работах [4-9].

За последние годы было предложено множество алгоритмов по способам компенсации недостаточной освещенности, в которых можно выделить три основных подхода [10]:

1. Методы, напрямую моделирующие освещение (построение конусов освещения).

2. Методы, основой которых является представление изображения, нечувствительного к изменению освещенности (операторы Собеля, Робетса, Прюита, метод Канни, вейвлеты Габора).

3. Методы, нормализующие освещенность (методы фильтрации, устранение шумов, методы коррекции).

Для компенсации недостаточной освещенности съемки в работе использованы методы повышения качества изображения, нормализующие освещенность.

Особенности динамических текстур. Обнаружение динамических текстур в настоящее время находит широкое применение в системах видеонаблюдения как на городских территориях, так и при наблюдении за природными объектами. Целями поиска динамических текстур на видеоизображениях могут являться

экологический мониторинг, обеспечение безопасности, контроль. К динамическим текстурам относят дым и пламя, воду, группу птиц, листья, облака, толпу людей и др. Динамическая текстура может рассматриваться как расширение статической текстуры, дополнительно содержащей элементы движения. Динамические текстуры - очень широкий, но слабоизучен-ный тип текстур, который используется во многих задачах компьютерного зрения. Динамические текстуры могут иметь стохастическую и регулярную составляющую [11]. К характеристикам динамических текстур можно отнести следующие [12]:

- большое разнообразие форм;

- пространственные и временные закономерности;

- большой объем исходных данных;

- малое количество предопределенных структур.

Вероятностными особенностями динамических

текстур являются размер, ориентация в пространстве, формы и расположение составных частей объекта на видеоизображении. Методы анализа динамических текстур зависят от искомого объекта и разделяются на следующие категории:

1. Методы, основанные на нахождении движения. Это наиболее популярная категория методов, так как движение - естественное свойство динамических текстур.

2. Пространственно-временная фильтрация и методы, основанные на преобразованиях. Эта группа методов описывает динамические текстуры в различных масштабах в пространстве и времени. К ней относятся, например, вейвлет-преобразования.

3. Методы, основанные на построении математических моделей, таких как генеративные (порождающие) модели (например, линейные динамические системы). Генеративные модели могут быть использованы для синтеза, сегментации и классификации.

4. Методы, основанные на геометрических пространственно-временных свойствах. Эта группа методов базируется на свойствах движущихся поверхностей. На основе характеристик поверхности возможно выявить особенности движения и определить внешний вид исследуемой текстуры.

Для обнаружения динамических текстур часто используется анализ беспорядка областей. Сложность вариаций контура может быть оценена с помощью фрактальной размерности. Например, фрактальная размерность, описывающая стохастическое поведение каждого набора пикселов, может быть оценена с помощью четырех мер: интенсивности пиксела ц, выражение (1), временного градиента яркости цв,

выражение (2), нормального потока p.F, выражение (3) и лапласиана выражение (4) [13]:

Ц/ (Ро, to) = Ц I (p, t )dpdt,

(1)

В( Ро.Ы Г )

где /(р, г) - значение интенсивности пиксела р в видеопоследовательности изображений градации серого, г = 1, 2, ..., Ы; выражение В(р0, г0, г,, г) определяет 3Б-куб с центром в точке (р0, г0), с пространственным радиусом г, и временным радиусом г. Таким образом, определяемая по выражению (1) мера ц (р0, г0) показывает общую интенсивность в пространственно-временной области для соседей точки (р0, г0). Временной градиент яркости рассчитывается следующим образом:

аI (р, г)

Цв(Рo, to) = j

B ( Po,t0,rs )

5t

-dp,

(2)

где В(р0, г0, г,) - пространственный квадрат с центром в точке (р0, г0), с пространственным радиусом г, (таким же, как и у меры ц7). Эта мера показывает изменение суммарной временной интенсивности динамической текстуры вокруг точки (р0, г0). Для вычисления нормального потока используется формула (3), показывающая измерение перемещения пикселов вдоль направления, перпендикулярного градиенту яркости:

а/ (р, г ъ

dt

Ц F (po,to)=« L < p)i

dp.

(3)

фильтр и др. В работе использован многомасштабный алгоритм «Ретинекс» (Multi Scale Retinex) [14]. Многомасштабный алгоритм «Ретинекс» основан на понятии цветопостоянства и представляется уравнением

R (я, У) = C (x, у)<

<£ Wr (log [' (x, y)] - log [Ij (xy) • F(я, y)]).

(5)

Лапласиан, также используемый в качестве меры для динамического фрактального анализа, рассчитывается по формуле

ц ь (р0,10) = | А/ (р, г )ф. (4)

В( р0,г0,г,)

В работе качество работы алгоритма компенсации недостаточной освещенности исследовано на примере сложной динамической текстуры - дыма. В настоящие время задача детектирования дыма на видеопоследовательности является актуальной вследствие сложности объекта исследования - произвольных форм, динамических и фрактальных свойств, вариаций внутри класса, а также из-за возникающих шумов на изображениях.

Компенсация условий недостаточной освещенности. Изображения, полученные при съемке в ночное время, как правило, обладают следующими особенностями [10]:

- ограниченный диапазон малых значений яркостей;

- низкая контрастность;

- присутствие аддитивного шума.

Следовательно, для компенсации недостаточной

освещенности и повышения качества темных изображений необходимо расширить диапазон яркостей, увеличить среднюю яркость пикселов изображений, повысить контраст и избавиться от аддитивного шума.

Для компенсации недостаточной освещенности могут быть использованы методы гистограммной коррекции и усовершенствованные его формы (АНЕ, СЬАНЕ, МАНЕ), спецификация, гомоморфный

Для подавления шума на изображениях, как правило, применяют низкочастотные фильтры. К таким фильтрам относятся линейные усредняющие, нелинейные усредняющие, ранговые, полиномиальные. Наиболее эффективными фильтрами устранения аддитивного шума являются линейные усредняющие фильтры [15], основанные на операции линейной свертки, вычисляемой согласно формуле

(т-1)/2 (и-1)/2

О] = X X Кг ■Е(г+,),(]+г), (6)

,=(т-1)/2 г =(г-1)/2

где [Оу] - элемент матрицы изображения после фильтрации; [№,,г] - элемент массива ядра свертки изображения, имеющий размеры т*п; [Еу] - элемент матрицы исходного изображения.

Основными моделями аддитивного шума являются шум Гаусса, Релея, Эрланга, экспоненциальный, белый и шум квантования. Шум Гаусса, или нормальный шум, образуется в собственных электрических цепях цифровых аппаратов и в фотосенсорах при недостаточной освещенности и сильных перепадах температур. Для устранения такого шума используется фильтр Гаусса, характерный фильтр размытия изображения, который использует нормальное распределение для вычисления преобразования, применяемого к каждому пикселу изображения. Распределения Гаусса в Ы измерениях имеет вид

G(r) =

1

(2tcct2)n/2

-r2/(2а2)

или, в частном случае, для двух измерений: 1

G(u, v) = -

(u2 +v2 )/( 2а2 )

2яа

.2

(7)

(8)

2 2 2

где г - это радиус размытия, г = и + V ; с - стандартное отклонение распределения Гаусса. В случае двух измерений эта формула задает поверхность, имеющую вид концентрических окружностей с распределением Гаусса от центральной точки. Пикселы, где распределение отлично от нуля, используются для построения матрицы свертки, которая применяется к исходному изображению. Значение каждого пиксела становится средневзвешенным для окрестности. Исходное значение пиксела принимает наибольший вес (имеет наивысшее гауссово значение), и соседние пикселы принимают меньшие веса в зависимости от расстояния до них.

Импульсный шум возникает в результате ошибок декодирования, в процессе передачи фото- и видеоизображений вследствие электромагнитных наводок на канал передачи, а также в результате ошибок записи на устройствах хранения. Он характеризуется появлением случайных белых и черных точек. Наиболее

i=1

эффективными фильтрами для подавления импульсного шума являются усредняющие фильтры, а именно, медианная фильтрация, которая позволяет сохранить четкость деталей изображения. Медианные фильтры основаны на том, чтобы избавиться от резко отличающихся от других значений яркости пикселов, заменяя их значениями медианы яркости окрестности согласно выражению

Gu = med[Et+S J.+t ;(s, t) e W]; i, j e Z2

(9)

где [Оу] - элемент матрицы изображения после фильтрации; - элемент массива апертуры изображения, имеющий размеры т*п; [£у] - элемент матрицы исходного изображения.

Медианный фильтр и фильтр Гаусса не только удаляют шум, но и «размывают» мелкие детали изображений посредством удаления высоких частот, поэтому в качестве способа постобработки целесообразно для повышения резкости использовать фильтр Лапласа. Дискретный лапласиан определяется как сумма вторых производных, а вычисляется как линейная аппроксимация суммы перепадов на соседних пикселах относительно центрального пиксела:

[ / (х +1, у) + / (х -1, у) - 2 / (х, у) ] + + [/(х, у +1) + /(X, у -1) - 2/(х, у)] = (10) = / (х +1, у) + / ( х -1, у) + / (х, у +1) + + /(х, у -1) - 4/(х, у ).

Таким образом, маска фильтра, используемого для реализации дискретного лапласиана, задается матрицей (11):

"0 1 0"

1 -4 0 1

(11)

Для повышения резкости изображения с помощью лапласиана необходимо вычесть из исходного изображения лапласиан. Итоговая маска задается матрицей (12):

0 -1 0"

-1 5 -1 . (12)

0 -1 0

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Таким образом, работа алгоритма компенсации пониженной освещенности выполняется следующим образом:

1. Расширение динамического диапазона видеоизображения и увеличение контрастности с помощью многомасштабного алгоритма «Ретинекс» с реставрацией цвета (Multi Scale Retinex with Color Restoration).

2. Подавление аддитивного шума с использованием фильтра Гаусса.

3. Подавление импульсного шума применением медианного фильтра.

4. Повышение резкости изображения с помощью фильтра Лапласа.

Блок-схема алгоритма компенсации недостаточной освещенности показана на рисунке.

Экспериментальные исследования. Для оценки качества работы алгоритма компенсации недостаточной

освещенности использована система обнаружения областей задымления на видеопоследовательности с применением локальных бинарных шаблонов [16]. Дым как динамическая текстура обладает следующими особенностями: турбулентность, изменчивость, цветовые особенности, специфический способ распространения. К основным признакам визуального обнаружения дыма можно отнести цвет, форму, движение, текстуру, прозрачность. Как правило, для детектирования дыма не используют только один признак, а применяют сочетание нескольких классификаторов. Для детектирования дыма на видеоизображении в системе обнаружения областей задымления на видеопоследовательности с применением локальных бинарных шаблонов используется комбинированный способ распознавания дыма, позволяющий не только выделить движение на видеопоследовательности, но и учесть пространственно-временные свойства дыма, что увеличивает точность детектирования и уменьшает число ложных срабатываний.

Для проведения экспериментальных исследований использованы 5 видеопоследовательностей из известных тестовых наборов данных [17-20] и одна видеопоследовательность, снятая самостоятельно [21]. На видеопоследовательности, снятой самостоятельно, низкая освещенность была получена естественным образом. Для получения изображений, имитирующих условия недостаточной освещенности съемки, были последовательно применены гамма-коррекция (у = 1,9), а также изображения были зашумлены аддитивным гауссовым шумом (m = 0, с2 = 0,2, 0,5) и импульсным шумом с плотностью р = 0,1, 0,2. Кадры использованных видеопоследовательностей, а также результат компенсации низкой освещенности показаны в табл. 1.

Результаты обнаружения дыма по видеопоследовательностям на открытых пространствах показаны в табл. 2. Результаты приведены для изображений, полученных при нормальной освещенности, в условиях шума (ночной съемки для самостоятельно полученной видеопоследовательности) и при компенсации влияния недостаточной освещенности. Оценивание выполнялось с помощью следующих характеристик: True Recognition (TR), % - точность распознавания, False Rejection Rate (FRR), % - ошибка первого рода, False Acceptance Rate (FAR), % - ошибка второго рода.

Точность обнаружения дыма в условиях недостаточной освещенности по сравнению с исходным изображением в среднем ниже на 28-30 %, при этом значительно увеличивается число ошибок первого рода и число ложных срабатываний до 34,2 и 27,4 % соответственно. На изображениях, улучшенных с помощью предложенного алгоритма компенсации недостаточной освещенности, точность обнаружения существенно возрастает и составляет 94,41 %, что ниже точности обнаружения дыма относительно исходного изображения всего на 2,3 %. Таким образом, экспериментальные исследования подтверждают эффективность предложенных методов и алгоритмов компенсации недостаточной освещенности при анализе динамических текстур (на примере обнаружения дыма на видеопоследовательностях).

1. Исходное изображение A

2. MSRwCR изображение A'

ï

3. Подавление аддитивного шума Изображение A''

4. Подавление импульсного шума Изображение A'''

1

5. Повышение резкости Изображение A''''

1 г

6. Обработанное изображение В

Блок-схема алгоритма компенсации низкой освещенности Flow chart of compensation algorithm of low light conditions

Примеры кадров использованных видеопоследовательностей

Таблица 1

Исходное изображение

Зашумленное изображение

Улучшенное изображение

Video smoke detection / dry_leaf, кадр 1155 (URL: http://staff.ustc.edu.cn /~yfn/vsd.html), разрешение, пикселы: 320x240, количество кадров: 1,2000_

Wildfilmsindia/ Smoke billows from the chimney of a brick factory, кадр 122 (URL: https://www.youtube.com/ watch?v=-TUbP5ENr8w), разрешение, пикселы: 1280x720, количество кадров: 1711

Youtube/firenight, кадр 48 (URL: https://www.youtube.com/watch?v=tmBG_ v23zbk&t=12s), _разрешение, пикселы: 1280x720, количество кадров: 1330_

Окончание табл. 1

Исходное изображение Зашумленное изображение Улучшенное изображение |

- h " é •в»

Таблица 2

Результаты обнаружения дыма по видеопоследовательностям в различных условиях освещенности

Видеопоследовательность Исходное изображение Зашумленное изображение Улучшенное изображение

TR FRR FAR TR FRR FAR TR FRR FAR

Video smoke detection / dry_leaf 100,0 0,00 2,07 74,12 25,88 17,21 97,98 2,02 4,12

Wildfilmsindia/ Smoke billows from the chimney of a brick factory 100,0 0,00 1,63 82,14 17,86 16,25 98,74 1,26 2,52

V-MOTE/DV_oo4 97,69 2,31 2,87 72,19 27,81 31,21 96,12 3,88 4,12

Bilkent/DumanTest5 90,65 8,25 7,14 53,11 46,89 30,28 88,41 11,59 10,0

Bilkent/SmokeManavgatRaw 96,88 1,53 14,2 52,14 47,86 40,42 94,32 5,68 15,2

Youtube/firenight - - - 61,21 38,79 29,12 90,88 9,12 4,01

Среднее значение 97,04 2,42 5,58 65,82 34,18 27,42 94,41 5,59 6,66

Заключение. В работе показано, что изображения, полученные в реальных условиях съемки при недостаточном освещении, обладают ограниченным диапазоном малых значений яркостей, низкой контрастностью и наличием аддитивного шума. Для борьбы с влиянием недостаточной освещенности на качество изображения использован многомасштабный алгоритм «Ретинекс» с цветовой коррекцией, применены фильтры Гаусса, Лапласа и медианный фильтр. Качество обнаружения динамических текстур на видеоизображениях исследовано на примере дыма. Экспериментальные исследования подтверждают эффективность предложенного алгоритма компенсации недостаточной освещенности.

Библиографические ссылки

1. Фаворская М. Н., Пятаева, А. В. Детектирование дыма на открытых пространствах в сложных погодных условиях с применением пространственно-временных локальных бинарных шаблонов // Информационно-управляющие системы. 2016. № 1 (80). С. 16-25.

2. Madhav V. Chitturi, Juan C. Medina, Rahim (Ray) F. Benekohal. Effect of Shadows and Time of Day on Performance of Video Detection Systems at Signalized Intersections // Transportation Research. Part C: Emerging Technologies. 2010. Vol. 18, iss. 2. P. 176-186.

3. Гончаров А. В., Каракищенко А. Н. Влияние освещенности на качество распознавания фронтальных лиц // Известия ЮФУ. Технические науки. 2008. № 4. С. 88-92.

4. Adnin Y., Moses Y., Ullman S. Face recognition: The problem of compensating for changes in illumination

direction // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1997. Vol. 19, No. 7. P. 712-732.

5. Ramamoorthi R. Analytic PCA Construction for Theoretical Analysis of Lighting Variability in Images of a Lambertian Object // IEEE Transactions on Pattern Analysis and Machine Intelligenc. 2002. Vol. 24, No. 10. P. 10-21.

6. Riklin-Raviv T., Shashua A. The Quotient image: Class based recognition and synthesis under varying illumination // Proceedings of the 1999 Conference on Computer Vision and Pattern Recognition. 1999. P. 566-571.

7. Georghiades A. S., Belhumeur P. N. Illumination cone models for Faces recognition under variable lighting and Pose // IEEE Trans. Pattern Anal. Mach. Intelligence. 1998. No. 23(6). P. 643-660.

8. Shashua A., Riklin-Raviv T. The quotient image: Class-based re-rendering and recognition with varying illuminations // Transactions on Pattern Analysis and Machine Intelligence. 2001. Vol. 23, No. 2. P. 129-139.

9. Faraji M. R., Qi X. Face recognition under varying illuminations using logarithmic fractal dimension-based complete eight local directional patterns // Neurocomputing. 2016. Vol. 99. P. 16-30.

10. Analysis and Modeling of Faces and Gestures / S. K. Zhou [et al.] // Proc. of the Third International Workshop, AMFG. 2007. Vol. 2688. P. 10-18.

11. Goncalves W. N., Machado B. B., Bruno O. M. A complex network approach for dynamic texture recognition // Neurocomputing. 2015. Vol. 153. P. 211-220.

12. A survey on visual 316 content-based video indexing and retrieval / W. Hu [et al.] // IEEE Transactions on Systems, Man, and Cybernetics. 2011. P. C 41 (6). Pp. 797-819.

13. Dynamic Texture Classification Using Dynamic Fractal Analysis / Y. Xu [et al.] // 2011 International Conference on Computer Vision. Barcelona, Spain, 2011. P. 1219-1226.

14. Lin H., Shi Z. Multi-scale retinex improvement for nighttime image enhancement // Optik - International Journal for Light and Electron Optics. 2014. Vol. 125, iss. 24. P. 7143-7148.

15. Хрящев Д. А. Об одном методе анализа цифрового изображения с применением гистограмм // Вестник Астраханского государственного технического университета. Сер. «Управление, вычислительная техника и информатика». 2010. № 1. C. 109-113.

16. Система обнаружения областей задымления на видеопоследовательности с применением локальных бинарных шаблонов (DKL 3.15) : свид. о гос. регистрации программы для ЭВМ / А. В. Пятаева, М. Н. Фаворская. № 2015615904. Зарегистрировано в Реестре программ для ЭВМ 27.05.2015.

17. Video smoke detection [Электронный ресурс]. URL: http://staff.ustc.edu.cn/~yfn/vsd.html (дата обращения: 01.04.2017).

18. Database of Wildfilmsindia [Электронный ресурс]. URL: www wildfilmsindia com (дата обращения: 01.04.2017).

19. V-MOTE Database [Электронный ресурс]. URL: http://www2.imse-cnm.csic.es/vmote/english_version/ index.php (дата обращения: 01.04.2017).

20. Database of Bilkent University [Электронный ресурс]. URL: http://signal.ee.bilkent.edu.tr/VisiFire/Demo/ (дата обращения: 01.04.2017).

21. Видеопоследовательность, снятая самостоятельно [Электронный ресурс]. URL: https://www.youtube. com/watch?v=tmBG_ v23zbk&t=12s (дата обращения: 01.04.2017).

References

1. Favorskaya M. N. Pyataeva A. V. [Verification of smoke detection in video sequences based on spatiotemporal local binary patterns in outdoor spaces with different weather conditions]. Informatsionno-upravlyayushchie sistemy. 2016, Vol. 1(80), P. 16-25 (In Russ.).

2. Madhav V. Chitturi, Juan C. Medina, Rahim (Ray) F. Benekohal. Effect of Shadows and Time of Day on Performance of Video Detection Systems at Signalized Intersections. Transportation Research Part C: Emerging Technologies. 2010, Vol. 18, Iss. 2, P. 176-186.

3. Goncharov A. V., Karakishchenko A. N. [Influence of Illumination on a Quality of Frontal Face Recognition]. Izvestiya YUFU. Tekhnicheskie nauki. 2008, No. 4, P. 88924 (In Russ.).

4. Adnin Y., Moses Y., Ullman S. Face recognition: The problem of compensating for changes in illumination direction. IEEE Transactions on Pattern Analysis and Machine Intelligence. 1997, Vol. 19, No. 7, P. 712-732.

5. Ramamoorthi R. Analytic PCA Construction for Theoretical Analysis of Lighting Variability in Images of a Lambertian Object. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2002, Vol. 24, No. 10, P. 10-21.

6. Riklin-Raviv T., Shashua A. The Quotient image: Class based recognition and synthesis under varying illumination. In Proceedings of the 1999 Conference on Computer Vision and Pattern Recognition. 1999, P. 566-571.

7. Georghiades A. S., Belhumeur P. N. Illumination cone models for Faces recognition under variable lighting and Pose. IEEE Trans. Pattern Anal. Mach. Intelligence. 1998, No. 23(6), P. 643-660.

8. Shashua A., Riklin-Raviv T. The quotient image: Class-based re-rendering and recognition with varying illuminations. Transactions on Pattern Analysis and Machine Intelligence. 2001, Vol. 23, No. 2, P. 129-139.

9. Faraji M. R., Qi X. Face recognition under varying illuminations using logarithmic fractal dimension-based complete eight local directional patterns. Neurocomputing. 2016, Vol. 99, P. 16-30.

10. Zhou S. K., Zhao W., Tang X., Gong S. Analysis and Modeling of Faces and Gestures. Proc. of the Third International Workshop, AMFG Rio de Janeiro. 2007, Vol. 2688, P. 10-18.

11. Goncalves W. N., Machado B. B., Bruno O. M. A complex network approach for dynamic texture recognition. Neurocomputing. 2015, Vol. 153, P. 211-220.

12. Hu, W., Xie N., Li L., Zeng X., Maybank S. J. A survey on visual 316 content-based video indexing and retrieval. IEEE Transactions on Systems, Man, and Cybernetics. 2011, Part C 41 (6), P. 797-819.

13. Xu Y., Quan Y., Ling H., Ji H. Dynamic Texture Classification Using Dynamic Fractal Analysis. 2011 International Conference on Computer Vision. 2011, P. 1219-1226.

14. Lin H., Shi Z. Multi-scale retinex improvement for nighttime image enhancement. Optik - International Journal for Light and Electron Optics. 2014, Vol. 125, Iss. 24, P. 7143-7148.

15. Khryashchev D. A. [On a method of the analysis of digital image using histograms]. Vestnik Astrahan-skogo Gosudarstvennogo Tekhnicheskogo Universiteta, seriya Upravlenie, vychislitel'naya tekhnika i informatika. 2010, No. 1, P. 109-113 (In Russ.).

16. Pyataeva A. V., Favorskaya M. N. Sistema obna-ruzhenija oblastej zadymlenija na videoposledovatel'nosti s primeneniem lokal'nyh binarnyh shablonov [Video-based smoke detection system based on spatio-temporal local binary patterns (DKL 3.15)]. Patent RF, No.2015615904, 2015.

17. Video smoke detection. Available at: http://staff. ustc.edu.cn/~yfn/vsd.html (accessed: 01.04.2017).

18. Database of Wildfilmsindia. Available at: www wildfilmsindia com (accessed: 01.04.2017).

19. V-MOTE Database. Available at: http://www. 2.imse-cnm.csic.es/vmote/english_version/index.php (accessed: 01.04.2017).

20. Database of Bilkent University. Available at: http://signal.ee.bilkent.edu.tr/VisiFire/Demo/ (accessed

08.03.2016).

21. Youtube/firenight. Available at: https://www. youtube.com/watch?v=tmBG_ v23zbk&t=12s (accessed:

01.04.2017).

© Пятаева А. В., Куликова Ю. Д., 2017

i Надоели баннеры? Вы всегда можете отключить рекламу.