Научная статья на тему 'Определение геометрических параметров объекта с помощью анализа серии его изображений'

Определение геометрических параметров объекта с помощью анализа серии его изображений Текст научной статьи по специальности «Медицинские технологии»

CC BY
2075
187
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СИСТЕМА ВИДЕОИ ФОТОФИКСАЦИИ / ДИАМЕТР ПЯТНА РАЗМЫТИЯ / ФОКУСНОЕ РАССТОЯНИЕ / ПЛОСКОСТЬ ФОКУСИРОВКИ ИЗОБРАЖЕНИЯ / МОДЕЛЬ RGB / ЧИСЛО ДИАФРАГМЫ / ОПРЕДЕЛЕНИЕ РАССТОЯНИЯ / ТОЧНОСТЬ ВЫЧИСЛЕНИЙ

Аннотация научной статьи по медицинским технологиям, автор научной работы — Локтев Даниил Алексеевич

Основной целью работы является модификация метода определения геометрических характеристик статичного или подвижного объекта путем исследования его серии изображений. Актуальность темы представляемого исследования связана с необходимостью повышения скорости обработки информации о состоянии перемещающихся объектов для улучшения управления инфраструктурой, потоками транспорта и пассажиров, системами мониторинга и управления, а также с точки зрения комплексных систем безопасности в общественных местах, на объектах транспорта и т.д. Здесь разрабатывается комплексная методика определения параметров статичного или двигающегося объекта на основе использования алгоритмов оценки размытия изображений объекта, представленных в виде трех основных цветовых компонент модели RGB. Проведенные численные исследования показали, что предлагаемая методика лучше существующих методов определения параметров объекта по его изображению позволяет определить расстояние до искомого элемента. Размытие изображения объекта предлагается представить в виде пограничного слоя между объектом и фоном, в работе сформулировано условие принадлежности каждого пикселя изображению объекта, установлен порог чувствительности для цвета фона и цвета объекта. При использовании классической цветовой модели общая интенсивность цвета при переходе между двумя соседними пикселями записывается в виде суперпозиции интенсивностей по отдельным цветам. Численные исследования показали, что начиная с некоторого расстояния от фотодетектора до объекта растет разность между результатами теоретических (по традиционной и предлагаемой методикам) и эмпирических исследований, при этом предлагаемая комплексная методика дает результаты наиболее близкие к экспериментальным. Разработанные вычислительные схемы и методы, основанные на использования алгоритмов детектирования размытия изображений объекта, могут быть адаптированы на случай движения объекта по разным траекториям и с разной скоростью.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по медицинским технологиям , автор научной работы — Локтев Даниил Алексеевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Определение геометрических параметров объекта с помощью анализа серии его изображений»

ОПРЕДЕЛЕНИЕ ГЕОМЕТРИЧЕСКИХ ПАРАМЕТРОВ ОБЪЕКТА С ПОМОЩЬЮ АНАЛИЗА СЕРИИ ЕГО ИЗОБРАЖЕНИЙ

Локтев Даниил Алексеевич,

аспирант, кафедра "Информационные системы и телекоммуникации", Московский государственный технический университет им. Н.Э. Баумана, Москва, Россия, loktevdan@yandex.ru

Ключевые слова: система видео- и фотофиксации, диаметр пятна размытия, фокусное расстояние, плоскость фокусировки изображения, модель RGB, число диафрагмы, определение расстояния, точность вычислений.

Основной целью работы является модификация метода определения геометрических характеристик статичного или подвижного объекта путем исследования его серии изображений. Актуальность темы представляемого исследования связана с необходимостью повышения скорости обработки информации о состоянии перемещающихся объектов для улучшения управления инфраструктурой, потоками транспорта и пассажиров, системами мониторинга и управления, а также с точки зрения комплексных систем безопасности в общественных местах, на объектах транспорта и т.д. Здесь разрабатывается комплексная методика определения параметров статичного или двигающегося объекта на основе использования алгоритмов оценки размытия изображений объекта, представленных в виде трех основных цветовых компонент модели RGB. Проведенные численные исследования показали, что предлагаемая методика лучше существующих методов определения параметров объекта по его изображению позволяет определить расстояние до искомого элемента. Размытие изображения объекта предлагается представить в виде пограничного слоя между объектом и фоном, в работе сформулировано условие принадлежности каждого пикселя изображению объекта, установлен порог чувствительности для цвета фона и цвета объекта. При использовании классической цветовой модели общая интенсивность цвета при переходе между двумя соседними пикселями записывается в виде суперпозиции интенсивностей по отдельным цветам. Численные исследования показали, что начиная с некоторого расстояния от фотодетектора до объекта растет разность между результатами теоретических (по традиционной и предлагаемой методикам) и эмпирических исследований, при этом предлагаемая комплексная методика дает результаты наиболее близкие к экспериментальным. Разработанные вычислительные схемы и методы, основанные на использования алгоритмов детектирования размытия изображений объекта, могут быть адаптированы на случай движения объекта по разным траекториям и с разной скоростью.

Для цитирования:

Локтев Д.А. Определение геометрических параметров объекта с помощью анализа серии его изображений // T-Comm: Телекоммуникации и транспорт. - 2015. - Том 9. - №5. - С. 47-53.

For citation:

Loktev D.A. The definition of geometric parameters of the object by analyzing a series of images. T-Comm. 2015. Vol 9. No.5, рр. 47-53.

(in Russian).

f I л

У

В современных системах видеомониторинга, контроля удаленного доступа, идентификации отдельных объектов, автоматического управления важным элементом является блок получения первичных данных об объекте, его местоположении, состоянии, параметрах движения и т.д. Согласно традиционной классификации принято выделять ручной, автоматизированный и автоматический ввод данных в информационно-вычислительную систему, В самом общем случае практически в любую систему автоматической обработки данных и управления входят подсистемы ввода данных, их обработки, передачи и хранения. За последние десять лет были решены многие важные задачи обработки и циркуляции информации внутри системы, но также остаются и «узкие» места, одним из которых является получение первичных данных об объекте автоматизации или об объекте, исследование поведения которого автоматизируется.

Получение первичной информации можно классифицировать по удаленности модуля сбора первичных данных от исследуемого объекта, и тогда выделяются методы непосредственного контакта измерительной системы и образца, и методы удаленного получения данных. В первом случае активными элементами, измеряющими параметры и состояние образца, являются тензодатчики на основе пье-зоэлементов или волоконно-оптические датчики. Во втором случае данные об объекте формируются удаленно с использованием активных или пассивных средств наблюдения и мониторинга. Активные системы получения информации основаны на излучении электромагнитных волн определенной длины и обработке отраженного от объекта сигнала, пассивные системы в качестве первоначального массива данных используют изображение или серию изображений искомого объекта. При этом изображения, используемые в процессе исследования объекта, могут быть получены как с геометрически связанных между собой фото или видео детекторов, так и произвольно расположенных камер.

Описываемое направление научных и технических исследований активно развивается в последнее время как отечественными, так и зарубежными исследователями и целыми организациями. В существующих интеллектуальных системах выделяются несколько пассивных способов получения данных об исследуемых объектах, согласно классификации [I] можно выделить: многосенсорный подход (стереозрение), построение перспективы изображения, использование зафиксированной камеры и дополнительного освещения объекта, а также специальная калибровка фото или видеодетектора. Каждая из представленных методик имеет свои преимущества и недостатки и может вполне использоваться на практике в зависимости от поставленной задачи, типа автоматизированной системы удаленного контроля и мониторинга, а также от параметров самого объекта.

В работе [2] использовался набор интеллектуальных камер, которые предоставляли видео в режиме реального времени, при этом движение объекта определялось путем постоянного сканирования изображения, выделялись пути перемещения объектов и происходило их первичное рас-

познавание на уровне человек - не человек, в итоге по точкам, определяющим объект на изображении, анализировалось направление его движения. В исследовании [3] предлагается использовать камеру, дающую трехмерное изображение, т.е. одним из параметров получаемого изображения является глубина или расстояние до отдельных элементов. Даная камера снабжена сенсорами, определяющими глубину расположения каждого выделенного пикселя, поскольку данная технология сопряжена с большими вычислительными нагрузками на техническое обеспечение, то, обычно, выделяются не все точки объекта, а только некоторые расположенные вдоль границы объекта и на равном удалении от них. Активные камеры дают исследователю возможность панорамировать изображения, менять угол поворота и параметры фотофиксации, объектив видеодетектора может определять общие координаты, используя координаты пиксел в выбранных точках в отдельном фрейме изображения.

Для камер подобного класса очень важна процедура калибровки, чаще всего такие процедуры основаны на повороте самой камеры и включают следующие основные этапы: выделение перекрывающихся графических фреймов наблюдаемого изображения, определение функциональных точек изображения, вычисление двумерных преобразований для изображений с соответствующими точками, получение калибровочной матрицы из томографической матрицы, вычисление функциональных точек глубины, представляющие собой данные для калибровочной матрицы. В работе [4] развивается метод трехмерной реконструкции основанный на дополнительном подсвечивании исследуемого объекта и изучении формы образуемых теней.

Большинство современных камер используют различные системы и алгоритмы автофокусировки, на основе пассивного фокуса и того факта, что точно сфокусированное изображение имеет наилучший контраст относительно любых объектов в выбранной сцене [4, 5]. Для восстановления глубины изображения можно использовать фокусировку камеры, проводимую по следующему алгоритму: изображение разделяется на отдельные активные окна, наилучший контраст для выбранных окон общего изображения записывается в память и данная процедура повторяется до получения наилучшего контраста для всего изображения, по которому и производится фокусировка объектива, полученное фокусное расстояние используется после определения настоящей глубины отдельных фрагментов изображения.

Еще одним популярным методом определения расстояний до объектов на изображении является метод оценки глубины путем исследования дефокусировки [5, 6], в основу данного метода положен физический эффект зависимости определяемого расстояния до объекта на полученном изображении от фокусного расстояния или апертуры объектива. При фокусировке фотодетектора на объекте при определенной дистанции другие объекты, расположенные как ближе, так и дальше фокусного расстояния, образуют пятно размытия в зависимости от расстояния до них на плане изображений. В этом случае важно учесть, что размытие также может существенно меняться из-за

диафрагмы, поскольку уменьшение апертуры ведет к получению более четких изображений объектов на разных дистанциях, когда апертура достаточно велика, то пятно размытие увеличивается.

Описанные методы основаны на использовании дополнительного оборудования и внедрении отдельных элементов в уже существующие технические системы, а также с рядом ограничений на детектируемые объекты, направление и характер их движения, а также на внешние параметры среды детектирования. В связи с этим весьма актуальной и своевременной представляется задача разработки методики позволяющей комплексной автоматизированной системе мониторинга не зависеть от внешних параметров среды и самого объекта, а также свести к минимуму все возможные изменения в составе и настройках штатных систем фото и видеофиксации.

Настоящая работа посвящена определению параметров расположения и движения объекта с помощью анализа серии изображений, полученных из одной точки фотофиксации. Основным подходом, реализуемом в данной работе является определение геометрических и кинематических параметров исследуемого объекта по размытию, получаемому при различных настройках фото детектора. Похожая процедура была использована в работе [6], для этого используется преобразование Хаара и изображение объекта представляется а виде набора примитивов. Используемая методика построения конечного решения позволяет оценить резкость систем получения изображений с помощью вейвлет - анализа большого количества изображений, полученных, например, при аэрофотосъемке, т.е. когда движется не сам объект, а система его видео и фотофиксации. Само же размытие предлагается искать через вейвлет - анализ, как это сделано в работе [6].

В исследовании [7] определение расстояния до статичного объекта базируется на том факте, что объект, находящийся в фокусе определенной оптической системы, не подвергается размытию, в то время как объект, расположенный ближе или дальше будет размыт, причем, если объект расположен ближе расстояния до объекта в фокусе, то погрешность будет больше. Как показали данные этого исследования, при расстоянии до объекта, находящимся в фокусе - 0,5 м и реальном расстоянии до объекта -2м погрешность нахождения равна 2%, при расстоянии до объекта, находящимся в фокусе - I м - 3%, при расстоянии до объекта, находящимся в фокусе -7м- 50%.

Для нахождения величины размытия в работе [8] в качестве основной области исследования предлагается использовать не всю площадь объекта, а только его угловые границы, т.е. области а которых сходится изображение объекта и окружающей картины в двух направлениях, что повышает эффективность исследования данных зон по сравнению с областями, в которых объект граничит с фоном только а одном направлении. Параметры движение объекта оцениваются в локальных областях, при этом учитывается неравномерность размытия объекта по разным направлениям, поэтому данный алгоритм предлагается использовать даже в случае вращения камеры или самого объекта. В большинстве работ по данному направлению

[7-10] форма интересующего объекта является величиной постоянной, хотя эта гипотеза существенно зависит от траектории движения объекта и от ракурса его воспроизведения виде о детектором. Поэтому в общем случае нельзя считать форму объекта постоянной, равно как и его геометрические размеры, поэтому в данной работе наряду с объектом вводится понятие его границы, по которой можно будет легче определить параметры всего изображения.

В настоящей работе определяется расстояние до объекта через определение его размытия при регулировке фокусного расстояния [7-9], выдержки и диафрагмы [10-12]. При этом разрабатывается комплексная методика определения параметров статичного объекта на основе использования алгоритмов детектирования размытия изображений объекта, которая может быть модернизирована и обобщена на случай движения объекта по разным траекториям и с разной скоростью [13-15].

В качестве определяющего соотношения, связывающего основные параметры фотодетектора и расположения объекта в экспозиции предлагается использовать соотношение [I]

/ А

1 1 +-

(|)

оЬ

D

Ар

где фокусное расстояние, - расстояние от выбранной точки объекта до объектива фотокамеры, - расстояние между центром объектива и сфокусированным изображением наблюдаемого объекта.

Соотношение (I) необходимо разрешить для заданного фокусного расстояния относительно пары значений и Ор, по рис, I видно, что модель и характеристики реальных фотодетекторов могут существенно отличаться, для их увязки предлагается использовать коэффициент масштабирования

D,

д ./ = Г'Р -

Ь.

(2)

D.

оЬ

Щoh

где Lim - размер изображения объекта на CCD матрице, Loh - фактический размер объекта.

отображения

Искомый

П.:.хк'хп>

OOLCKI ¡1

г

Плоскость

фокусировки

изображения

Рис, I. Схема выполнения оценки глубины изображения, с использованием размытия из-за расфокусировки для случая Ог1р>Ол,

Величина

Dßp + Dob

является инвариантной для различных настоек фотодетектора и может представлять собой дополнительное граничное условие.

Для определения размытия объекта (диаметра пятна размытия или дисперсия) предлагается использовать соотношение [5]

т- - , (3)

(7 =

D

I Drip Dflp\

где с - величина размытия объекта, В - величина апертуры, - расстояние от центра объектива до плоскости в которой находится объект. Определение расстояние 0(1. может проводиться по двум выражениям, в зависимости от расположения плоскости фокусировки (рис. I)

D - Df ±5*1

"Р fip ~ о

(4)

знак «+» применяется при Drip > Dfip. знак «-» соответст-

Jßp'

вует Вф

Если в соотношениях (2) - (4) учитывать заранее устанавливаемые величины, например, фокусное расстояние фотодетектора, то можно записать

DßP =

'ob

f-D, Dob~f

(5)

Используя выражение (4) можно вычислить расчетное расстояние от точки детектирования до объекта исследования

Dcob=-

(6)

В общем случае использования предлагаемой методики, без использования разности размытий для различных цветов, расстояние от детектора до объекта, находящегося вне фокуса, при условии, что расстояние до объекта в фокусе известно, будет определяться по следующей формуле:

г =_М-__(7)

где г - искомое расстояние до объекта, фокусное расстояние, р - расстояние до объекта, находящегося в фокусной точке, О - диаметр линзы, ё - диаметр пятна размытия (считается, что размытие в точке происходит одинаково во всех направлениях).

Границы размытости зависят от числа диафрагмы /70 используемой камеры: чем выше число диафрагмы, тем меньше света попадает на матрицу камеры, и площадь круга изменяется пропорционально квадрату его радиуса [2-4],

Размытие можно представить в виде пограничного слоя между объектом и фоном, условие принадлежности каждого пикселя изображению объекта можно представить в виде:

1-

/(jc,>- + 1) —/(JC5>>)

<0.05

(8)

095|/(jy>) -/(^-1) <|/(jy+l) -/(^ <1.05|/(лу>)

где х и у координаты рассматриваемых пикселей относительно декартовых координатных осей.

Согласно этому условию, если при сравнении соседних пикселей, разница составляет более чем 5%, то в этом случае считается, что это или пограничный слой или уже другой объект, если же цвет пикселя отличается менее чем на 5%, то идентифицируется прежний объект. Имеет смысл установить порог чувствительности для цвета фона и цвета объекта /j и При использовании классической модели RGB общую интенсивность цвета пре переходе между двумя соседними пикселями можно представить в виде:

I'M -%Н)| Н^М -я^-1)!+J

(9)

или в виде

здесь функции R(x,y), G(x,y), В(х,у) определяют в выбранной точке изображения интенсивность красного, зеленого и синего цвета соответственно.

Основываясь на представленной методике можно составить карту глубины изображения, в случае наличия многих объектов на изображении, его можно первоначально сегментировать на отдельные области-фреймы.

Используя предлагаемый подход, определим расстояние до исследуемых объектов прямоугольной и круглой формы и их размытие путем анализа серии изображений, полученных с помощью фотодетектора с различными настройками (некоторые из них приведены на рис, 2).

Для нахождения точности определения расстояния до объекта по его размытию надо узнать значение дифракционного размытия всего изображения, если размеры пикселя больше дифракционного размытия изображения, то кадр получается с отличной резкостью, этот факт позволяет оценить размытие отдельного объекта относительно общей размытости кадра. Вычисление разности цветов позволяет устранять влияние общего размытия изображения, появляющегося вследствие наличия технических погрешностей и несовершенств аппаратуры и алгоритмов обработки.

Фокусные расстояния используемой линзы для разных цветов определяются опытным путем [6,7]. При использовании такого подхода некоторые сложности могут возникнуть с определением оценки размытия изображения, для этого обычно используется гауссовское или равномерное распределение. Диаметр размытия границы объекта определяется по формуле: Ах,- = АX/<*Sx, АХК - диаметр размытия границы объекта, измеренный в пикселях; 5х - размер пикселя CCD матрицы используемой камеры [I].

Размер пикселя CCD матрицы рассчитывается через пропорцию с учетом размеров получаемого кадра в пикселях (в нашем случае, это 4608 х 3072 пикселей или число эффективных пикселей для используемого фотоаппарата -14,2 Мпикс) и размеров самой матрицы используемой камеры в мм (в нашем случае, использовался фотоаппарат Nikon D3I00, размеры матрицы которого равны 15,4 х 23,1 мм), а также с учетом того, что пиксель - квадратный, Sx = 715,4мм ■ 23,\мм/(4608«шх'■ 3072ш*с) = 5-10Ги)-

120 110 100 90 SO 70 60 SO 40 30

го 10

Рис. 2. Изображения, полученные с помощью фотокамеры, при различных фокусных расстояниях: а) 24 мм; б) 35 мм; в) 45 мм; г) 55 мм

Для Nikon D6I0 размеры получаемого кадра в пикселях составляют 6016 х 4016 пикселей, размеры матрицы равны 35.9 х 24 мм, откуда

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

St -- ft 5,9лш ■ 24мм /(6016пике ■ 401 впчке) = 5,9 ■ \ 0 6 м ).

На рис. 3 приведены зависимости размытия как функции расстояния до объекта при фокусном расстоянии I м, сплошной линией показана зависимость, полученная по формуле (3) с использованием поцветовой оценки размытия (8), пунктирная линия вычислена согласно соотношению (3) без учета разности размытия отдельных цветов изображения объекта, кружками изображены точки, полученные при проведении экспериментальных исследований по методике [1].

На рис. 3 видно, что с расстояния 3 метра между фотодетектором и объектом растет разность между результатами теоретических (по традиционной и предлагаемой методикам) и эмпирических исследований, что напрямую влияет на точность определяемого расстояния. Для увеличения точности измерения больших расстояний необходимо подбирать нужные соотношения между фокусным расстоянием, выдержкой, диафрагмой, а также базой между двумя детекторами.

1 2 3 1 В 6 7 В 9г,м

Рис. 3. Зависимость размытия от расстояния до объекта

Используемая методика на примере решаемых численных задач хорошо себя показала при определении расстояний до статичных объектов, построенные графики дают количественное представление увеличения погрешности при вычислении расстояний до искомых элементов. Точка излома на кривой зависимости размытия (дисперсии) от расстояния до объекта (рис. 3) говорит о разнице в образовании пятна расфокусировки до и после фокусной точки, связанной с наличием модуля в определяющем выражении (3). При этом скорость увеличения погрешности при удалении от фокусного расстоянии, меньше чем при определении расстояний меньших фокусного. В целом точность определения расстояния зависит от фокусного расстояния, выдержки, числа диафрагмы, светосилы, гиперфокального расстояния и других параметров съемки, а также от внешних характеристик среды, а также геометрических и кинематических параметров самого объекта, но для более точного определения параметров изучаемого объекта рекомендуется получать его изображение при различных настройках видео- или фотодетектора, а затем оценивать динамику изменения тех или иных визуальных характеристик. Сравнение размытия изображения объекта, полученного при разных настройках детектора (диафрагма, фокусное расстояние) позволяет получить дополнительную информацию о форме и размерах объекта, расстоянии до него, скорости и направлении движения.

Реальное расстояние до объекта в момент фотографирования мишени (рис. 2) 3,5 м, при использовании традиционной методики определения расстояния по размытию

(I) - (7) получаем расстояние равное 4,6 м. при использовании же предлагаемого подхода с оценкой размытия отдельно по основным цветам (I) - (7), с учетом (8) и (9), определяемое расстояние составляет 3,8 м.

Как показали численные исследования, предлагаемые в работе вычислительные алгоритмы и математические модели лучше существующих теоретических методов позволяет определить расстояние до объекта, а также могут быть использованы для определения других параметров состояния или поведения объекта. Описанные вычислительные схемы и методы могут быть реализованы при детектировании как различных статичных и подвижных объ-

ектов при неподвижной системе видео- и фотофиксации (распознавание людей, транспортных средств и т.д.), так и разных неподвижных объектов при двигающейся системе получения изображений (аэрофотосъемка, работа путеизмерительных тележек при мониторинге железнодорожного пути и т.д.).

Литература

1. A/exiev К., Nikolova I., Zapryanov G. 3D scenes recovery through an active camera based on blur assessment of the resulting image. Information technologies and control. No. 3-4, 2008, pp. 10-20.

2. Chu C.W., S Hwang and S.K. Jung. Calibration-free approach to 3-D reconstruction using light stripe projections on a cube frame. In Proceeding of IEEE 3rd International conference on 3-D digital imaging and modeling, Quebec City, QC, Canada, June 2001, pp. 13-19.

3. Trucco, £., A. Verri. Introductory Techniques for 3-D Computer Vision. Englewood Cliffs, NJ: Prentice Hall 1998.

4. Chu, C. W„ 5. Hwang and S, K. Jung. Calibration-Free Approach to 3-D Reconstruction using Light Stripe Projections on a Cube Frame. In Proceedings of IEEE 3rd International Conference on 3-D Digital Imaging and Modeling, Quebec City, QC, Canada, June 2001, 13-19.

5. Li, Y. F. and S. Y. Chen. Automatic Recalibration of an Active Structured Light Vision System. - IEEE Transactions on Robotics ond Auto motion, 19, April 2003, No. 2, pp. 259-268.

6. Huei-Yung Lin, Kunjhih Li, Chia-Hong Chang. Vehicle speed detection from a single motion blurred image, Image and Vision Computing 26, 2008. P. 1327-1337.F.Deschenes, D.Ziou, P.Fuchs. Enhanced Depth from Defocus Estimation: Tolerance to Spatial Displacements.

7. Lelegard L, Vallet В., Bred if M. Multiscale Haar transform for blur estimation from a set of images. International Archives of Photogrammetry, Remote Sensing and Spatial Information Science. Munich, Germany, October 5-7, 2011, pp. 65-70,

8. Tayebeh Rajabzadeh. Static Object Depth Estimation Using Defocus Blur Levels Features. International Conference on Wireless Communications, Networking and Mobile Computing - WiCom, Chengdu, 23-25 Sept, 2010, pp. 1-4.

9. Borachi G., Coglioti V. Motion blur estimation at corners. Computer Vision Theory and Applications - VISAPP, 2008. pp. 389-395.

10. Rooms F., Pizurica A., Philips W. Estimating image blur in the wavelet domain. Proceeding of the Firth Asian Conference on Computer Vision, 2002, pp. 2f 0-21S.

I I. Tiago Caspar, Paulo Oliveira New Dynamic Estimation of Depth From Focus In Active Vision Systems. Abstract of the VISAPP, 201 I, paper Nr:l 10.

12. Koyton B. Parekh. A Computer Vision Application to Accurately Estimate Object Distance. Honors Project. Mathematics, Statistics and Computer Science. 4.20.2010. 109 p.

13. Muljowidodo K, Rasyid MA, SaptoAdi N, et aL Vision based distance measurement system using single laser pointer design for underwater vehicle. In Indian Journal Of Marine Sciences, 2009. ISSN 0379-5136.

14. Соколов СМ., Богуславский А.А, Васильев А.И., Трифонов O.B., Назаров В.Г., Фролов Р.С. Мобильный комплекс для оперативного создания и обновления навигационных карт // Известия Южного федерального университета. Технические науки. 201 I. -Т. I 16. - № 3. - С, 157-166.

15. Девятериков Е.А., Михайлов Ь.Б. Система технического зрения для измерения пути мобильного робота II Механика, управление и информатика, 2012, - № 8. - С. 219-224.

road &traffic

12-14 МАЯ 2015

Баку, Азербайджан

THE DEFINITION OF GEOMETRIC PARAMETERS OF THE OBJECT BY ANALYZING A SERIES OF IMAGES

Loktev D.A., Moscow, Russia, loktevdan@yandex.ru

Abstract

The main aim of this paper is to modify the method of determining geometric characteristics of static or movable object by examining its images. The relevance of the topic of the presented research is connected with the necessity of increasing the speed of processing information about the state of the moving object to improve the management of infrastructure, traffic and passengers, systems monitoring and management, as well as from the point of view of integrated security systems in public areas, transportation facilities, etc. Here developed a complex method of determining parameters of a static or moving object, based on the use of algorithms for the estimation of the blur of the object image into three primary color component of RGB. Numerical studies have shown that the proposed method is better than existing methods of determining parameters of an object from its image allows to determine the distance to the desired item. The blurred image of the object requested in the form of a boundary layer between the object and the background, the authors formulate the condition for membership of each pixel to the image object, set the sensitivity threshold for the background color and the color of the object. When using classic color model the overall intensity of the color transition between two neighboring pixels is written as a superposition of the intensities of the individual colors. Numerical studies have shown that starting from a certain distance from the photodetector to the object increases, the difference between the results of theoretical (traditional and proposed methods) and empirical investigations; however, we offer a comprehensive technique gives results closest to the experimental. Developed computational schemes and methods based on the use of algorithms for detecting a blur of the object image can be adapted to the case of movement of the object along different paths and at different speeds.

Keywords: system for video and photofixation, the spot diameter of the blur focal distance, the plane of focus of the image, the RGB model, the number of the diaphragm, the determination of the distance, the accuracy of the calculations.

References

1. Alexiev K., Nikolova I., Zapryanov G. 3D scenes recovery through an active camera based on blur assessment of the resulting image, Information technologies and control. No. 3-4, 2008, pp. 10-20.

2. Chu C.W., S Hwang and S.K. Jung. Calibration-free approach to 3-D reconstruction using light stripe projections on a cube frame. In Proceeding of IEEE 3rd International conference on 3-D digital imaging and modeling, Quebec City, QC, Canada, June 2001, pp. 13-19.

3. Trucco, E., A. Verri. Introductory Techniques for 3-D Computer Vision. Englewood Cliffs, NJ: Prentice Hall 1998

4. Chu, C.W., S. Hwang and S.K. Jung. Calibration-Free Approach to 3-D Reconstruction using Light Stripe Projections on a Cube Frame. In Proceedings of IEEE 3rd International Conference on 3-D Digital Imaging and Modeling, Quebec City, QC, Canada, June 2001, pp. 13-19.

5. Li Y.F. and Chen S.Y. Automatic Recalibration of an Active Structured Light Vision System. IEEE Transactions on Robotics and Automation, 19, April 2003. No. 2, pp. 259-268.

6. Huei-Yung Lin, Kun-Jhih Li, Chia-Hong Chang. Vehicle speed detection from a single motion blurred image, Image and Vision Computing 26, 2008, pp. l327-l337.F.Deschenes, D.Ziou, P.Fuchs. Enhanced Depth from Defocus Estimation: Tolerance to Spatial Displacements.

7. Lelegard L., Vallet B., Bredif M. Multiscale Haar transform for blur estimation from a set of images. International Archives of Photogrammetry, Remote Sensing and Spatial Information Science, Munich, Germany, October 5-7, 2011, pp. 65-70.

8. Tayebeh Rajabzadeh. Static Object Depth Estimation Using Defocus Blur Levels Features. International Conference on Wireless Communications, Networking and Mobile Computing - WiCom , Chengdu, 23-25 Sept. 2010, pp. 1-4.

9. Borachi G., Caglioti V. Motion blur estimation at corners. Computer Vision Theory and Applications VISAPP, 2008, pp. 389-395.

10. Rooms F., Pizurica A., Philips W. Estimating image blur in the wavelet domain. Procceding of the Firth Asian Conference on Computer Vision, 2002, pp. 210-215.

11. Tiago Gaspar, Paulo Oliveira. New Dynamic Estimation of Depth From Focus In Active Vision Systems. Abstract of the VISAPP, 2011, paper Nr:ll0.

12. Kayton B. Parekh. A Computer Vision Application to Accurately Estimate Object Distance. Honors Project. Mathematics, Statistics and Computer Science. 4.20.2010. 109 p.

13. Muljowidodo K., Rasyid M.A., SaptoAdi N., et al.: Vision based distance measurement system using single laser pointer design for underwater vehicle. In Indian Journal Of Marine Sciences, 2009. ISSN 0379-5136.

14. Sokolov S.M., Boguslavsky AA, Vasil'ev AI., Trifonov О.V., Nazarov V.G., Frolov R.S. Mobile complex for rapid creation and updating navigation maps. Southern Federal University. Technical sciences. 2011. Vol. 116. No. 3, pp. 157-166. (in Russian).

15. Devyaterikov Е.А., Mihailov B.B. Vision systems for the measurement path of the mobile robot. Mechanics, management and computer science. 2012. No. 8, pp. 219-224. (in Russian).

Information about authors: Loktev Daniil Alexeevich, post graduate student, Department "Information systems and telecommunications", Moscow state technical university m. N.E. Bauman, Moscow, Russia.

T-Comm Vol.9. #5-201 5

i Надоели баннеры? Вы всегда можете отключить рекламу.