УНИВЕРСИТЕТ ИТМО
НАУЧНО-ТЕХНИЧЕСКИИ ВЕСТНИК ИНФОРМАЦИОННЫХ ТЕХНОЛОГИИ, МЕХАНИКИ И ОПТИКИ январь-февраль 2015 Том 15 № 1 ISSN 2226-1494 http://ntv.ifmo.ru/
SCIENTIFIC AND TECHNICAL JOURNAL OF INFORMATION TECHNOLOGIES, MECHANICS AND OPTICS January-February 2015 Vol. 15 No 1 ISSN 2226-1494 http://ntv.ifmo.ru/en
УДК 004.021
АЛГОРИТМ ПРЕОБРАЗОВАНИЯ ИЗОБРАЖЕНИЙ, ПОЛУЧЕННЫХ ВСЕНАПРАВЛЕННЫМИ ОПТИКО-ЭЛЕКТРОННЫМИ СИСТЕМАМИ В.П. Лазаренко", Т.С. Джамийковь, В.В. Коротаевс, С.Н. Ярышевс
а ООО «ЭВС», Санкт-Петербург, 195253, Российская Федерация ь Технический университет, София, 1000, Болгария с Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация Адрес для переписки: [email protected] Информация о статье
Поступила в редакцию 13.05.14, принята к печати 30.09.14 doi: 10.17586/2226-1494-2015-15-1-30-39 Язык статьи - русский
Ссылка для цитирования: Лазаренко В.П., Джамийков Т.С., Коротаев В.В., Ярышев С.Н. Алгоритм преобразования изображений, полученных всенаправленными оптико-электронными системами // Научно-технический вестник информационных технологий, механики и оптики. 2015. Том 15. № 1. С. 30-39
Аннотация. Всенаправленные оптико-электронные системы находят применение в тех сферах, где критичен большой угол обзора. Однако всенаправленные оптико-электронные системы имеют большую дисторсию, что затрудняет их повсеместное использование. В работе приведено сравнение проекционных функций перспективных объективов и всенаправленных сверхширокоугольных объективов типа «рыбий глаз» с углом обзора не менее 180°, из которого следует, что такие объективы не могут быть описаны с помощью отклонения от перспективной модели. Для решения этой проблемы был предложен алгоритм преобразования изображений, полученных всенаправленными оптическими системами, к классическому перспективному виду с использованием процедуры калибровки всенаправленной оптико-электронной системы. Приведено краткое сравнение четырех методов калибровки всенаправленных оптико-электронных систем, доступных в виде инструментариев с открытым исходным кодом. Приведена геометрическая проекционная модель, используемая для калибровки всенаправленной оптической системы. Алгоритм состоит из нескольких этапов. Сначала производится калибровка всенаправленной оптической системы, результатом работы которой является проекционная функция оптической системы, которая задает связь трехмерных координат точки в пространстве предметов и координат ее изображения в плоскости фотоприемника. Затем рассчитывается массив трехмерных точек, описывающий плоскость в пространстве предметов и характеризующий таким образом поле зрения виртуальной камеры. Потом с помощью проекционной функции, полученной в результате калибровки, производится расчет массива координат изображений трехмерных точек в плоскости фотоприемника. На последнем этапе результирующее изображение формируется путем приравнивания яркости пикселей этого изображения и яркостей соответствующих им пикселей исходного всенаправленного. Разработанный алгоритм позволяет получить изображение части поля зрения всенаправленной оптико-электронной системы с исправленной дисторсией из исходного все-направленного изображения. Алгоритм предназначен для работы с всенаправленными оптико-электронными системами, как с зеркально-линзовыми оптическими системами, так и со сверхширокоугольными объективами типа «рыбий глаз». Представлены экспериментальные результаты работы алгоритма.
Ключевые слова: всенаправленные камеры, объективы типа «рыбий глаз», катадиоптрические камеры, преобразование изображений
Благодарности. Работа выполнена при государственной финансовой поддержке ведущих университетов Российской Федерации (субсидия 074-U01).
TRANSFORMATION ALGORITHM FOR IMAGES OBTAINED BY OMNIDIRECTIONAL CAMERAS V.P. Lazarenko3, T.S. Djamiykovb, V.V. Korotaev<:, S.N. Yaryshev<:
а «EVS» Ltd., Saint Petersburg, 195253, Russian Federation ь Technical University of Sofia, Sofia, 1000, Bulgaria с ITMO University, Saint Petersburg, 197101, Russian Federation Corresponding author: [email protected] Article info
Received 13.05.14, accepted 30.09.14 doi: 10.17586/2226-1494-2015-15-1-30-39 Article in Russian
Reference for citation: Lazarenko V.P., Djamiykov T.S., Korotaev V.V., Yaryshev S.N. Transformation algorithm for images obtained by omnidirectional cameras. Scientific and Technical Journal of Information Technologies, Mechanics and Optics, 2015, vol.15, no. 1, pp. 30-39 (in Russian)
Abstract. Omnidirectional optoelectronic systems find their application in areas where a wide viewing angle is critical. However, omnidirectional optoelectronic systems have a large distortion that makes their application more difficult. The paper compares the projection functions of traditional perspective lenses and omnidirectional wide angle fish-eye lenses with a viewing angle not less than 180°. This comparison proves that distortion models of omnidirectional cameras cannot be described as a deviation from the classic model of pinhole camera. To solve this problem, an algorithm for transforming omnidirectional images has been developed. The paper provides a brief comparison of the four calibration methods available in open source toolkits for omnidirectional optoelectronic systems. Geometrical projection model is given used for calibration of omnidirectional optical system. The algorithm consists of three basic steps. At the first step, we calculate he field of view of a virtual pinhole PTZ camera. This field of view is characterized by an array of 3D points in the object space. At the second step the array of corresponding pixels for these three-dimensional points is calculated. Then we make a calculation of the projection function that expresses the relation between a given 3D point in the object space and a corresponding pixel point. In this paper we use calibration procedure providing the projection function for calibrated instance of the camera. At the last step final image is formed pixel-by-pixel from the original omnidirectional image using calculated array of 3D points and projection function. The developed algorithm gives the possibility for obtaining an image for a part of the field of view of an omnidirectional optoelectronic system with the corrected distortion from the original omnidirectional image. The algorithm is designed for operation with the omnidirectional optoelectronic systems with both catadioptric and fish-eye lenses. Experimental results are presented.
Keywords: omnidirectional cameras, fish-eye lenses, catadioptric cameras, image transformation.
Acknowledgements. The work has been partially financially supported by the Government of the Russian Federation (grant 074-U01).
Всенаправленные оптико-электронные системы находят применение в тех сферах, где критичен большой угол обзора. Однако всенаправленные оптико-электронные системы имеют большую дисторсию, что затрудняет их использование в измерительных и наблюдательных телевизионных системах [1-3].
Большинство современных оптических систем могут приближенно быть описаны перспективной геометрической моделью (рис. 1, а), при этом дисторсией будет считаться отклонение от этой модели. Проекционная функция таких объективов может быть выражена следующим образом:
где г - высота изображения; / - фокусное расстояние; 6 - угол падения луча. Из выражения (1) легко заметить, что при угле падения луча, равном 90°, мы получим бесконечный радиус изображения (так как радиус изображения пропорционален тангенсу угла падения луча). Из этого следует, что сверхширокоугольные объективы типа «рыбий глаз» с углом обзора не менее 180° не могут быть описаны с помощью отклонения от этой модели. М.М. Русинов в работе [4] предложил проекционную функцию для сверхширокоугольных объективов типа «рыбий глаз», в которой радиус изображения пропорционален углу падений луча (рис. 1, б):
Введение
r
tan 9 =--,
(1)
r
Г
r
Диаметр изображения
а
б
Рис. 1. Перспективная геометрическая модель объектива (а); геометрическая модель сверхширокоугольного объектива типа «рыбий глаз» (б)
В предыдущих работах [5, 6] мы, как и некоторые другие авторы [7, 8], использовали для алгоритма данную функцию, однако стало очевидно, что на практике функция передачи меняется в зависимости от конкретной модели объектива и, в общем случае, заранее неизвестна. Чтобы решить эту проблему, был разработан алгоритм преобразования изображений, полученных всенаправленными камерами, в изображения с исправленной дисторсией, соответствующие классической перспективной модели с использованием процедуры калибровки.
Под всенаправленными оптико-электронными системами (всенаправленными камерами) мы подразумеваем оптико-электронные системы, поле зрения которых хотя бы в одной из плоскостей достигает 360°. Существует три наиболее часто встречающихся вида всенаправленных оптических систем:
1. оптические системы со сверхширокоугольными объективами типа «рыбий глаз» с углом обзора не менее 180°, способные захватывать не менее полусферы окружающего пространства;
2. зеркально-линзовые (катадиоптрические) оптические системы, представляющие собой камеры с обычным объективом с установленной на него насадкой в виде зеркала, обладающего вращательной симметрией. Форма поверхности зеркала может варьироваться от конуса до эллипса;
3. многокамерные системы, большое поле зрения которых достигается за счет использования нескольких камер с перекрывающимися полями зрения.
В работе мы ограничимся рассмотрением однокамерных оптико-электронных систем, т. е. камер с объективами типа «рыбий глаз» и катадиоптрических камер.
Целью настоящей работы является разработка алгоритма преобразования изображений, полученных камерами с всенаправленными объективами, к классическим изображениям перспективного вида с исправленной дисторсией. Конечной целью являлась разработка модуля для программы оптико-электронной системы наблюдения (ОЭСН) «Тайфун», реализующего на основе всенаправленной камеры функции немеханической поворотной камеры, работающей по детектору движения. В связи с этим к алгоритму предъявлялись дополнительные требования:
- алгоритм должен быть универсальным, т.е. работать как с всенаправленными камерами с объективом типа «рыбий глаз», так и с катадиоптрическими оптическими системами;
- процесс калибровки должен быть доступен для неквалифицированных пользователей системы и не должен требовать применения специальных технических средств.
Алгоритм может найти применение в системах видеонаблюдения, в которых могут быть использованы различные модели камер и объективов к ним, при этом алгоритм должен быть универсален, для работы потребуется предварительно провести несложную процедуру калибровки. Кроме того, алгоритм может найти применение в различных сферах робототехники, где важен широкий угол обзора, но при этом есть необходимость устранения дисторсии, свойственной всенаправленным камерам.
Существующие методы калибровки всенаправленных оптических систем
Поиск функции передачи объектива, связывающей трехмерные координаты точки в пространстве предметов с координатами ее изображения в плоскости приемника, является ключевым моментом для алгоритма преобразования изображений. Решается задача поиска функции передачи с помощью калибровки всенаправленной оптической системы.
Существует множество методов калибровки всенаправленных оптических систем. Одно из наиболее подробных сравнений этих методов приведено в работе [9]. Среди множества рассмотренных методов калибровки авторами отдельно выделена группа из четырех методов, доступных в виде инструментариев с открытым исходным кодом.
1. Mei и River [10]. Авторами используется сферическая модель камеры, для калибровки требуются несколько изображений съемки двумерного тест-объекта.
2. Puig и соавторы [11]. Также используется сферическая модель камеры. Для калибровки используется трехмерный тест-объект, состоящий из трех перпендикулярных тест-объектов в виде шахматной доски.
3. Barreto и Araujo [12]. Также используется сферическая модель камеры. Для калибровки используется одно изображение съемки камерой, содержащее минимум 3 линии.
4. Scaramuzza [13]. Всенаправленные изображения рассматриваются как искаженные, параметры искажения должны быть рассчитаны. Для калибровки используются изображения съемки двумерных тест-объектов в виде шахматной доски.
При этом третья методика не работает со сверхширокоугольными объективами типа «рыбий глаз». Оставшиеся три методики имеют примерно одинаковые показатели по точности калибровки, достаточные для решения поставленной задачи.
Из оставшихся трех методик мы стремились выбрать такую методику, которая не требовала бы специальных технических средств, а также могла быть выполнена неквалифицированным работником (или пользователем системы). Исходя из этого, была выбрана методика Scaramuzza как наиболее простая и удобная для практического применения. Методика реализована в виде инструментария «OCamCalib» для среды MATLAB. Данный инструментарий используется такими организациями, как NASA, PHILIPS,
BOSCH, DAIMLER. Для осуществления калибровки требуется сделать с помощью калибруемой оптической системы несколько снимков тест-объекта в виде шахматной доски. Дальнейший процесс калибровки практически полностью автоматизирован. Результатом калибровки являются рассчитанные параметры (такие как координаты центра и коэффициенты полинома) для двух функций, задающих прямую ((u\v')=world2cam(x,y,z)) и обратную ((x,y,z) = cam2world(u ,v')) связь трехмерных координат точки в пространстве предметов и координат ее изображения в системе координат фотоприемника. Процесс калибровки и его математический аппарат подробно описаны в работах [13, 14].
Геометрическая проекционная модель, используемая для калибровки всенаправленной оптической системы
Геометрическая проекционная модель всенаправленной камеры, используемая для калибровки, изображена на рис. 2.
-Z
P
а б в
Рис. 2. Геометрическая проекционная модель катадиоптрической всенаправленной камеры (а); геометрическая проекционная модель камеры с объективом типа «рыбий глаз» (б); координаты
в плоскости приемника камеры (в)
Здесь XYZ - система координат в пространстве объектов; UV - система координат в плоскости фотоприемника; [x, y, z] - координаты точки в пространстве объектов; p - изображение точки; [u, v] - координаты изображения этой точки в плоскости фотоприемника; P - вектор, исходящий из начала координат и направленный на точку в пространстве объектов.
Модель предполагает следующие допущения:
- катадиоптрическая камера является центрированной оптической системой, а следовательно, существует точка, в которой пересекаются все отраженные лучи. Эта точка является началом системы координат XYZ;
- фокальная плоскость оптической системы должна совпадать с плоскостью фотоприемника, допустимы только незначительные отклонения;
- зеркало имеет вращательную симметрию относительно оптической оси;
- дисторсия объектива в модели не учитывается, так как использование зеркала во всенаправленных камерах требует от объектива большого фокусного расстояния. Благодаря этому дисторсией объектива действительно можно пренебречь. Однако в случае использования объектива типа «рыбий глаз» его дисторсия уже будет включена в вычисляемую проекционную функцию.
Так как мы полагаем, что фокальная плоскость оптической системы совпадает с плоскостью фотоприемника, из этого следует, что x иy пропорциональны u и v соответственно: гхт ru-i
1.У
где а - коэффициент масштабирования, а> 0 .
Целью калибровки является нахождение функции, которая установит соответствие между точкой изображения р и трехмерным вектором P. Таким образом,
■х- а-и -
р = У = а• v
Z f(u, v)
Включим а в функцию f, тогда
■х- и
Р = У = V
z f(u, v)_
Вследствие того, что вектор P не является точкой, а лишь направлением к ней, последнее упрощение допустимо. Более того, благодаря тому, что зеркало вращательно-симметрично (как и дисторсия объ-
ектива «рыбий глаз»), функция Л(и, V) зависит только расстояния от изображения точки до центра изображения:
где р
Х- ■ и -
р У = V
Z [f(p)\
+ v¿
Таким образом, результатом калибровки является нахождение функции f(p), которая может быть описана полиномом n-ой степени:
/О) = а0 + а1р + а2р2 +а3р3 + --+апрп. р Однако, получив коэффициенты полинома а0, аг, а2... ап, нам необходимо учесть искажения, вызванные процессом дискретизации фотоприемника, а также тем, что пиксели не всегда имеют квадратную форму. Из-за этого граница кругового изображения принимает форму эллипса (рис. 3). Чтобы учесть эти искажения, дополним нашу модель аффинными преобразованиями:
ЕК КК:
где u', v ' - истинные координаты в системе координат фотоприемника; u, v - координаты без учета дис-торсии; xc', yc' - координаты центра кругового изображения.
Рис. 3. Искажения, вызванные процессом дискретизации (при использовании прямоугольных элементов матрицы) и смещением осей камеры и зеркала (объектива)
Таким образом, в результате калибровки рассчитаны все необходимые параметры для функций [14], задающих прямую и обратную связь трехмерных координат точки в пространстве предметов и координат ее изображения в системе координат фотоприемника (далее мы будем считать, что внутри этих функции уже содержатся рассчитанные параметры):
= f(x,y,z,a0, а1, а2 = f(u',v',a0, аъ а2... ап,хс',ус ',c,d,e) = cam2world^u t
(2)
Алгоритм преобразования изображений, полученных всенаправленными оптико-электронными
системами
Алгоритм состоит из трех базовых частей. Первый этап - формирование облака трехмерных точек в пространстве предметов, соответствующих полю зрения виртуальной камеры с перспективной геометрической моделью. Второй этап - нахождение координат изображений этих точек в плоскости фотоприемника. При этом используется передаточная функция всенаправленной оптико-электронной системы, найденная с помощью процедуры калибровки всенаправленных камер. Третий этап - поэлементное (по-пиксельное) формирование выходного изображения из исходного всенаправленного изображения с использованием координат, полученных на втором этапе.
Первый этап - формирование облака точек, характеризующих поле зрения виртуальной перспективной камеры. Чтобы сформировать облако точек, характеризующих поле зрения виртуальной перспективной камеры, нам необходимо задать характеристики этой камеры: Hres - горизонтальное разрешение; Kres - соотношение сторон (например, 4/3 или 16/9); Vres = Hres /Kres - вертикальное разрешение; а - угол поля зрения виртуальной камеры; ф - угол поворота виртуальной камеры вокруг оси Z; 9 - угол наклона виртуальной камеры от оси Z.
Ось Z совпадает с оптической осью всенаправленной камеры. Сначала произведем расчет поля зрения виртуальной камеры с ф = 0, 9 = 0 (рис. 4). Так как при прохождении через объектив мы теряем информацию о дальности до объекта, то плоскость поля зрения виртуальной камеры мы можем разместить на произвольном расстоянии. Для упрощения расчетов поместим ее на расстоянии в 1 м.
B
Г
Рис. 4. Поле зрения виртуальной камеры с ф = 0, 9 = 0
Таким образом, поле зрения виртуальной камеры будет представлять собой прямоугольную область ABCD, расположенную параллельно плоскости YOX на единичном расстоянии. Прямоугольная область представляет собой массив Mкоординат трехмерных точек Ру размером Hres на Vres элементов:
М =
Рц =
Ро,о
оуге5-1
Хц Уи МЛ
-1Уге5-1
Таким образом, точке А будет соответствовать Р00; B - РНгеБ-1,о'; C - Р0уг D - Рнгез-1угез-1. Произведем расчет геометрических размеров области ABCD:
АО =
АС = ^АБ2 -АВ2 = АВ = АС/Кге8 =
(21да)2^К2е:
К2 +1
N
(2£да)2 • К2е,
К2 +1
Найдем координаты вершин A, B, C, D:
хо,о' -АС/2
А — Ро,о — Уо,о = —АВ/2
.20,0. 1
Х0Уге5—1 -АС/2
в~ роуге5.1 - = АВ/2
2оугез-1. 1
С = Р»
-1,0
0=Рн V
АС/2 —АВ/2 1
Ун,
- 1УгеБ 1-
АС/2 АВ/2 1
Отметив, что для всех строк х^ = Х;Д =. .. = *г,у 1, для всех столбцов а для всех точек z = 1, получим: АС АС
Унг,
-1,7'
X: =
У] =
■ + ■
' • I,
АВ АВ '~ + Уге5-1
Ри =
У] . .1.
Далее необходимо рассчитать поле зрения M в соответствии с углами поворота ф и наклона 9 (рис. 5). Произведем наклон поля зрения M на угол 9, при этом xi останется неизменным:
Р и =
[х'Л
у) = —гБтв + У^СОБЭ = У^СОБЭ — этв
А _ гсоБв + У]Бт6 У]3тв + созв_
B
Z
C
O
с _ /
Б
X
Л'
Рис. 5. Наклон поля зрения виртуальной камеры на угол 9
Далее повернем поле зрения М относительно оси I на угол ф (рис. 6), при этом г^ останется неизменным:
Гх ' '■ •! 1,] ' X '¿СОБф + у'^Ыф '
Р' ' = У' '■ ■ = —х'^Ыф + у' .соБф , (3)
г' '■ z 1
X
Л'
Рис. 6. Поворот поля зрения виртуальной камеры на угол ф относительно оси Z
Второй этап - поиск координат изображений точек. Чтобы получить соответствие между пространственными координатами точки Р' 'у, полученными в выражении (3), и пиксельными координатами р' ее изображения в системе координат фотоприемника, применим функцию прямой связи координат (2), с параметрами, рассчитанными в результате калибровки:
(V
'' = №огШ2сат(Р''¿¿) = №огШ2сат\
Таким образом, мы получим массив М', содержащий пиксельные координаты изображений точек для рассчитанного поля зрения:
Р и =
I,]
У' '■ • г' '■
е
М =
и 0,0 и нге8-ъо
V о,о. V' НгеБ-1.0-1
ОУгеь-1
' Н V
Третий этап - формирование исправленного изображения. Теперь нам осталось только сформировать результирующее изображение попиксельно из исходного всенаправленного изображения:
I =
1(и 0,1
где Ь - величина сигнала в данном пикселе фотоприемника (или исходного всенаправленного изображения) с координатами и у.р'у. При этом повысить качество результирующего изображения можно с помощью алгоритмов интерполяции, так как мы имеем дело с дробными значениями координат.
Экспериментальные результаты
Была произведена калибровка всенаправленной камеры с помощью инструментария «ОСатСаИЬ». Для этого было сделано 9 снимков тест-объекта в виде шахматной доски на калибруемую камеру. Нами была использована двухмегапиксельная 1Р-камера с установленным на нее сверхширокоугольным объективом типа «рыбий глаз» (Бщтоп РБ185С046ИЛ-1).
Калибровка была произведена со следующими результатами:
- координаты центра кругового изображения (пиксель): хс' = 580,718,ус' = 770,693;
- среднеквадратическая ошибка перепроецирования (пиксель): 0,794;
- аффинные коэффициенты: с = 0,999779217318396, ё = 0,0000913037, е = -0,00037467188;
- коэффициенты полинома: а0 = -338,2953325845469, а1 = 0, а2 = 0,00000010675995669, а3 = -0,00000000007556347, а4 = - 0,00000000000015930.
Как видно из результатов, среднеквадратическая ошибка перепроецирования (другими словами, ошибка функции прямой связи координат м>вгМ2сат) оказалась менее одного пикселя, в чем можно убедиться на рис. 7, б. Такой точности достаточно как для задач наблюдения, так и для большинства измерительных задач.
-1-1-1-1-1-1-
МИ
к
б
Рис. 7. Результаты калибровки с помощью инструментария «ОСатСаИЬ». Пример неверного определения
калибровочных параметров [13] (а); результат экспериментальной калибровки - положение калибровочных точек и перепроецированных точек совпадает, что подтверждает верное определение калибровочных параметров (б). Кресты - найденные калибровочные точки тест-объекта, кружки - результат проецирования рассчитанных в процессе калибровки трехмерных координат калибровочных точек обратно на изображение. Размер каждого квадрата тест-объекта - 20 мм
Далее параметры, найденные в результате калибровки, были использованы в алгоритме, реализованном в модуле для ОЭСН «Тайфун» [15]. Модуль реализует на основе всенаправленной камеры функции немеханической поворотной камеры, поворачивающейся вслед за движущимися объектами. На рис. 8 приведен пример работы программы.
Таким образом, с помощью разработанного алгоритма нами реализована немеханическая поворотная камера на основе всенаправленной камеры, при этом среднеквадратическая ошибка перепроецирования точек из исходного всенаправленного изображения на изображение с исправленной дисторсией составила менее одного пикселя.
а
а б
Рис. 8. Реализация алгоритма в ОЭСН «Тайфун»: исходное изображение (а); виртуальная РТ7-камера,
направляемая детектором движения (б)
Заключение
Разработан алгоритм преобразования изображений, полученных всенаправленными камерами, в изображения с исправленной дисторсией, соответствующие классической проекционной геометрической модели. Разработанный алгоритм позволяет получить изображение части поля зрения всенаправленной камеры с исправленной дисторсией. Алгоритм подходит для работы с всенаправленными камерами, как с катадиоптрическими оптическими системами, так и с объективами типа «рыбий глаз».
Алгоритм был успешно применен в программном модуле для оптико-электронной системы наблюдения «Тайфун», реализующем на основе всенаправленной камеры функции немеханической поворотной камеры, поворачивающейся вслед за движущимися объектами [15].
Алгоритм может найти применение в системах видеонаблюдения, в которых могут быть использованы различные модели камер и объективов к ним, при этом алгоритм универсален, для работы потребуется предварительно провести несложную процедуру калибровки. Кроме того, алгоритм может найти применение в различных сферах робототехники, где важен широкий угол обзора, но при этом есть необходимость устранения дисторсии, свойственной всенаправленным камерам.
Литература
1. Yarishev S., Konyahin I.A., Timofeev A.N. Universal opto-electronic measuring modules in distributed measuring systems // Proceedings of SPIE - The International Society for Optical Engineering. 2009. V. 7133. Art. 71333Y. doi: 10.1117/12.821251
2. Konyahin I.A., Timofeev A.N., Yarishev S.N. High precision angular and linear mesurements using universal opto-electronic measuring modules in distributed measuring systems // Key Engineering Materials. 2010. V. 437. P. 160-164. doi: 10.4028/www.scientific.net/KEM.437.160
3. Korotaev V.V., Konyahin I.A., Timofeev A.N., Yarishev S.N. High precision multimatrix optic-electronic modules for distributed measuring systems // Proceedings of SPIE - The International Society for Optical Engineering. 2010. V. 7544. Art. 75441E. doi: 10.1117/12.886294
4. Русинов М. Техническая оптика: Учебное пособие. Л.: Машиностроение, 1979. 488 с.
5. Lazarenko V., Yarishev S. The algorithm for transforming a hemispherical field-of-view image // Proc. 3 rd Int. Topical Meeting on Optical Sensing and Artificial Vision (0SAV'2012). St. Petersburg, Russia, 2012. P. 35-38.
6. Лазаренко В.П., Ярышев С.Н. Алгоритм трансформации изображений с полусферическим полем зрения // Актуальные теоретические и практические вопросы современного оптико-электронного приборостроения. Сборник трудов молодых ученых / Под ред. В.В. Коротаева. СПб.: НИУ ИТМО, 2012. С. 103-105.
7. Schwalbe E. Geometric modelling and calibration of fisheye lens camera systems // Panoramic Photogram-metry Workshop. 2005. V. 36. Part 5/W8.
8. Цудиков М.Б. Приведение изображения из камеры типа «рыбий глаз» к стандартному телевизионному // Известия ТулГУ. Технические науки. 2011. № 5-1. С. 232-237.
9. Paniagua C., Puig L., Guerrero J.J. Omnidirectional structured light in a flexible configuration // Sensors (Basel, Switzerland). 2013. V. 13. N 10. P. 13903-13916.
10. Mei C., Rives P. Single view point omnidirectional camera calibration from planar grids // Proc. IEEE Int. Conf. on Robotics and Automation (ICRA'07). Rome, Italy, 2007. Art. 4209702. P. 3945-3950. doi: 10.1109/ROBOT.2007.364084
11. Puig L., Bastanlar Y., Sturm P., Guerrero J.J., Barreto J. Calibration of central catadioptric cameras using a DLT-like approach // International Journal of Computer Vision. 2011. V. 93. N 1. P. 101-114. doi: 10.1007/s11263-010-0411-1
12. Barreto J.P., Araujo H. Geometric properties of central catadioptric line images and their application in calibration // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2005. V. 27. N 8. P. 1327-1333. doi: 10.1109/TPAMI.2005.163
13. Scaramuzza D., Martinelli A., Siegwart R. A flexible technique for accurate omnidirectional camera calibration and structure from motion // Proc. 4th IEEE Int. Conf. on Computer Vision Systems (ICVS'06). NY, USA, 2006. V. 2006. Art. 1578733. P. 45. doi: 10.1109/ICVS.2006.3
14. Scaramuzza D., Martinelli A., Siegwart R. A toolbox for easily calibrating omnidirectional cameras // Proc. IEEE Int. Conf. on Intelligent Robots and Systems (IROS 2006). Beijing, China, 2006. Art. 4059340. P. 5695-5701. doi: 10.1109/IR0S.2006.282372
15. Голушко М.Н., Ярышев С.Н. Оптико-электронная система наблюдения «Тайфун» // Вопросы радиоэлектроники. Cерия: Техника телевидения. 2014. № 1. С. 38-42.
Лазаренко Василий Петрович
Джамийков Тодор Стоянов Коротаев Валерий Викторович
Ярышев Сергей Николаевич
инженер-программист, ООО «ЭВС», Санкт-Петербург, 195253, Российская Федерация, [email protected]
доцент, Технический университет, София, 1000, Болгария, [email protected] доктор технических наук, профессор, декан факультета, Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация, korotaev@grv .ifmo.ru
кандидат технических наук, доцент, доцент, Университет ИТМО, 197101, Санкт-Петербург, Российская Федерация, [email protected]
Vasiliy P. Lazarenko Todor S. Djamiykov Valery V. Korotaev Sergei N. Yaryshev
engineer, «EVS» Ltd., Saint Petersburg, 195253, Russian Federation, [email protected]
Associate professor, Technical University of Sofia, Sofia, 1000, Bulgaria, [email protected]
D.Sc., Professor, Dean, ITMO University, Saint Petersburg, 197101, Russian Federation, [email protected]
PhD, Associate professor, Associate professor, ITMO University, Saint Petersburg, 197101, Russian Federation, [email protected]