Информационные технологии
DOI: 10.18721/JCSTCS.11201 УДК 004.932
сравнительный анализ методов обнаружения особых точек на изображениях при различных уровнях освещения
А.С. Макаров, М.В. Болсуновская
Санкт-Петербургский политехнический университет Петра Великого,
Санкт-Петербург, Российская Федерация
Проведен сравнительный анализ методов нахождения особых точек на изображении, являющийся частью работы по созданию системы кругового обзора для крупногабаритных транспортных средств. Так как особенно опасным для вождения и наиболее сложным для проведения сшивки изображений является темное время, особое внимание в данной статье уделено возможности поиска особых точек и сшивки при низком освещении. Разработана методика и проведены эксперименты по нахождению особых точек на изображениях методами SURF, MSER, BRISK, Harris, FAST и MinEigen. Осуществлен поиск общих особых точек для пары изображений, а также проведены анализ их количества и сшивка изображений разными методами при различных уровнях освещения.
Ключевые слова: поиск особых точек, сшивка изображений, низкий уровень освещения, методика сравнения, SURF.
Ссылка при цитировании: Макаров А.С., Болсуновская М.В. Сравнительный анализ методов обнаружения особых точек на изображениях при различных уровнях освещения // Научно-технические ведомости СПбГПУ. Информатика. Телекоммуникации. Управление. 2018. Т. 11. № 2. C. 7—18. DOI: 10.18721/ JCSTCS.11201
comparative analysis of methods for detecting
special points in images at different levels of illumination
A.S. Makarov, M.V. Bolsunovskaya
Peter the Great St. Petersburg Polytechnic University, St. Petersburg, Russian Federation
In this article, we have carried out a comparative analysis of methods for detecting special points in an image, which is part of the study on developing an around view system for large vehicles. Because nighttime is especially dangerous for driving and most difficult for stitching images, this article focused on the possibility of detecting
special points and stitching in low illumination. We made a comparative analysis of the methods for detecting special points in images, developed a technique and conducted experiments to find special points in images using such methods as SURF, MSER, BRISK, Harris, FAST and MinEigen. During the study, we have performed a search for identical special points for a pair of images, an analysis of their number and stitching of images by different methods at different levels of illumination. The results of the experiments are given in graphs and tables.
Keywords: detecting special points, stitching images, low level of illumination, comparison technique, SURF.
Citation: Makarov A.S., Bolsunovskaya M.V. Comparative analysis of methods for detecting special points in images at different levels of illumination. St. Petersburg State Polytechnical University Journal. Computer Science. Telecommunications and Control Systems, 2018, Vol. 11, No. 2, Pp. 7-18. DOI: 10.18721/JCSTCS.11201
Введение
В последнее время стало уделяться много внимания автоматизации управления безопасностью на дорогах.
Вождение сопряжено с неконтролируемым риском малых столкновений и наездов на пешеходов из-за «слепых зон». Ежегодно на дорогах Европы в авариях, в которых участвуют грузовые автомобили, погибает более семи тысяч человек, а около ста тысяч получают повреждения [1]. Европейская Комиссия и представители Международного союза автомобильного транспорта (IRU) провели исследование, в ходе которого выяснилось, что около 75 % дорожно-транспортных происшествий с участием грузовых транспортных средств случаются именно из-за «слепых зон» [2].
Основной целью исследования является разработка системы кругового обзора для крупногабаритных транспортных средств. Результатом должен стать программно-аппаратный комплекс, состоящий из четырех широкоугольных fish-eye камер, аппаратного блока, монитора, интерфейса и программного обеспечения, реализующего разработанные алгоритмы обработки видеосигнала.
Данный комплекс, получая изображения с четырех камер, выведет на монитор в режиме реального времени единое изображение ТС и его окружения «с высоты птичьего полета».
Получение такого изображения состоит из двух этапов:
1. Получение ортографического вида
сверху с четырех камер (этот этап описан в статьях [3, 4]).
2. Сшивка изображений, полученных на первом этапе, в единое изображение.
В настоящей статье рассматриваются подходы к реализации второго этапа. Вследствие того, что наиболее опасным для вождения и сложным для проведения сшивки изображений является темное время суток, особое внимание уделено возможности поиска особых точек и сшивки изображений при низком освещении.
Обзор существующих методов
В данном разделе приведено краткое описание и сравнительный анализ существующих методов поиска особых точек на изображении. Наиболее часто используемыми методами являются SURF и SIFT.
Метод SURF (Speeded up Robust Features) [5] обычно применяется для решения двух задач: поиска особых точек на изображении и создания их дескрипторов (описательного элемента, инвариантного к изменению масштаба и поворота). Кроме того, сам поиск ключевых точек тоже должен обладать инвариантностью, т. е. повернутый объект сцены должен обладать тем же набором ключевых точек, что и образец.
Метод ищет особые точки с помощью матрицы Гессе. Детерминант матрицы Гессе (т. н. гессиан) достигает экстремума в точках максимального изменения градиента яркости. Для двумерной функции ее детерминант определяется следующим образом [6]:
H(f (x, у)) =
df df
dx2
d2 f
dx ду
_ df
dx ду ду2
L(x, у, ст) = G(x, у, ст) * I(x, у),
(1)
det(H) = |Z ff
dx ду
d2 f dx ду
где H — матрица Гессе; f (x, у) — функция изменения градиента яркости.
Стандартная версия SURF в несколько раз быстрее, чем SIFT, и, как утверждают ее авторы, более инвариантна против различных преобразований изображений, чем SIFT [5].
В методе SIFT (Scale-Invariant Feature Transform) [7] ключевые точки объектов сначала извлекаются из набора опорных изображений и сохраняются в базе данных. Объект распознается в новом изображении путем индивидуального сравнения каждого признака нового изображения с базой данных и поиска подходящих кандидатов на основе евклидова расстояния их векторов признаков. Из полного набора совпадений идентифицируются подмножества ключевых точек, которые согласуют объект и его местоположение, масштаб и ориентацию на новом изображении, чтобы отфильтровать хорошие совпадения. Определение последовательных кластеров выполняется быстро, используя эффективную реализацию хэш-таблицы обобщенного преобразования Хафа. Каждый кластер из трех или более объектов, которые согласуются с объектом и его позицией, затем подвергается дальнейшей детальной проверке модели. Впоследствии лишние объекты отбрасываются. Наконец, вычисляется вероятность того, что определенный набор признаков указывает на наличие объекта, с учетом точности соответствия и количества вероятных ложных совпадений.
Основным моментом в детектировании особых точек является построение пирамиды гауссианов и разностей гауссианов (Difference of Gaussian — DoG). Гауссианом (или изображением, размытым гауссовым фильтром) является изображение:
где L — значение гауссиана в точке с координатами (х, y); ст — радиус размытия; G — гауссово ядро; I — значение исходного изображения; * — операция свертки [8].
Существуют и другие методы, основанные на описанных выше методах и расширяющие их возможности.
В методе BRISK (Binary Robust Invariant Scalable Keypoints) [9] обнаружение ключевой точки осуществляется на основании масштаба: точки интереса идентифицируются как по размеру изображения, так и по масштабу с использованием критерия значимости. Чтобы повысить эффективность вычислений, ключевые точки обнаруживаются в октавных слоях пирамиды изображения, а также в промежуточных слоях. Расположение и масштаб каждой ключевой точки могут быть получены в непрерывной области с помощью квадратичной функции.
Для дескриптора ключевой точки в данном методе используется образец выборки, состоящий из одной точки, лежащей на соответствующим образом масштабированных концентрических окружностях, который применяется в окрестности каждой ключевой точки для получения значений оттенков серого цвета: путем обработки локальных градиентов интенсивности и определения характерного направления функции. Ориентированный образец выборки BRISK используется для получения парных результатов сравнения яркостей, которые собираются в двоичный дескриптор BRISK.
Преимуществами метода MSER (Maximally Stable Extremal Regions) [10] являются:
• инвариантность к аффинному преобразованию интенсивностей изображения;
• ковариация к преобразованию (непрерывному) сохранения соседства T : D ^ D в области изображения;
• стабильность: выбираются только регионы, опора которых почти одинакова в диапазоне пороговых значений;
• многомасштабный поиск без какого-либо сглаживания: обнаруживается как
мелкая, так и большая структура;
• повторяемость: обнаружение MSER точек в масштабной пирамиде повышает повторяемость, а количество соответствий между масштабами изменяется;
• определенность: множество всех экстремальных областей можно перечислить в худшем случае O(n), где n — количество пикселей на изображении.
Метод FREAK (Fast Retina Keypoint) [11] использует дескриптор ключевых точек, похожий на структуру зрительной системы человека, а точнее — сетчатки. Каскад двоичных строк вычисляется путем эффективного сравнения интенсивностей изображения по шаблону выборки сетчатки. Авторы утверждают, что FREAK точки обычно быстрее вычисляются с более низкой нагрузкой на память, а также они более надежны, чем SIFT, SURF или BRISK. Они предлагают рассматривать углы как ключевые точки. В данном дескрипторе используются углы Harris. Применяется сетка для отбора сетчатки круглой формы, отличающаяся более высокой плотностью точек вблизи центра. Предлагается подражать быстрым версион-ным движениям глаз, осуществляющимся скачками при зрительном поиске («сакка-дический поиск»), путем разбора дескриптора на несколько шагов. Применение метода начинается поиском с использованием первых 16 байтов дескриптора FREAK, представляющего необработанную информацию. Если расстояние меньше порога, продолжается сравнение со следующими байтами для анализа более точной информации. В результате выполняется каскад сравнений, ускоряющий еще один шаг согласования.
Метод KAZE Features [12] использует многомасштабный 2Б-детектор и алгоритм описания в нелинейных масштабных пространствах. Предыдущие подходы обнаруживают и описывают признаки на разных уровнях масштаба путем построения или аппроксимации гауссовского масштабного пространственного изображения. Однако гауссовское размытие не учитывает естественные границы объектов и сглаживает в равной степени как детали, так и шум, снижая точность лока-
лизации и отличительность. Напротив, в данном методе обнаруживаются и описываются 2Б-функции в пространстве нелинейного масштаба посредством нелинейной диффузионной фильтрации. Таким образом, становится возможным сделать размытие локально адаптивным к данным изображения, уменьшая шум, но сохраняя границы объектов, получая превосходную точность локализации и отличительность. Нелинейное масштабное пространство построено с использованием эффективных методов аддитивного разложения операторов (AOS) и диффузии переменной проводимости.
Метод FAST [13] применяется в тех случаях, когда в приложениях с частотой кадров в режиме реального времени используются функциональные точки и необходим высокоскоростной детектор признаков. Функциональные детекторы, такие как SIFT (DoG), Harris и SUSAN, являются хорошими методами, обеспечивающими высококачественные функции, однако они слишком требовательны к вычислительным ресурсам для использования в приложениях реального времени любой сложности. Авторы показывают, что машинное обучение может использоваться для получения детектора признаков, который может полностью обрабатывать видео в реальном времени с использованием менее 7 % доступного времени обработки. При сравнении с ранее описанными методами необходимо отметить, что ни детектор Харриса (120 %), ни SIFT (300 %) не могут работать с полной частотой кадров.
По мнению авторов [13], очевидным является вывод о том, что высокоскоростной детектор имеет ограниченное применение, если созданные признаки не подходят для последующей обработки. В частности, одна и та же сцена, просматриваемая с двух разных позиций, должна использовать признаки, соответствующие тем же реальным 3D-местоположениям. Поэтому вторым важным вкладом авторов являются угловые детекторы сравнения, основанные на этом критерии, применяемые к 3D-сценам.
Метод Harris [14] использует дискрет-
ные признаки изображения. По мнению авторов, чтобы обеспечить явное отслеживание признаков изображения, признаки изображения должны быть дискретными, а не формировать континуум, например, текстуру, или крайние пиксели (эглеры). Однако отсутствие возможности соединения точек-объектов является основным ограничением данного метода при получении дескрипторов более высокого уровня, таких как поверхности и объекты. В методе используются детекторы углов Моравеца, которые рассматривают локальное окно на изображении и определяют средние изменения интенсивности изображения, возникающие в результате сдвига окна на небольшое количество пикселей в разных направлениях.
Метод MinEigen [15] осуществляет выбор признаков и контроль функций во время отслеживания. Выбор специфически максимизирует качество отслеживания и поэтому оптимален по конструкции, в отличие от более специальных мер текстурирования. Мониторинг является недорогостоящим и надежным в вычислительной области и позволяет различать хорошие и плохие признаки на основе степени несходства, которая использует движение как базовую модель изменения изображения.
Представленные описания особенностей и функциональных возможностей методов обнаружения особых точек не позволяют сделать обоснованный выбор метода для формирования единого изображения
на основе ортографического вида сверху, полученного с четырех камер в разное время суток, поэтому основная задача экспериментального исследования — получение данных для выполнения сравнительного анализа методов обнаружения особых точек на изображениях при различных уровнях освещения.
Методика проведения экспериментов
Для проведения экспериментов использовался инструментарий среды моделирования MATLAB. Для повторяемости предлагаемых экспериментов и возможности верификации полученных результатов в программной реализации методов применялись встроенные функции определения особых точек (табл. 1) [16]. Для определения общих особых точек на двух изображениях использовалась функция matchFeatures.
Источниками исходных данных для экспериментальных исследований были несколько специализированных баз изображений (Matlab Stitching Example [17], Adobe Panoramas Dataset [18], Panoramic Image Database [19], IIIA Panorama Dataset [20]), содержащих в совокупности 445 наборов для панорам, в каждый из которых входило от 5 до 32 изображений (рис. 1, 2), которые в дальнейшем сшивались в единое изображение по особым точкам, полученным разными методами.
Для проведения экспериментов изображения подвергались искусственному затемнению, для чего использовалась встроенная функция imadjust среды MATLAB [21].
Таблица 1
Функции поиска особых точек
Функция Тип особых точек
detectFASTFeatures Углы. Одномасштабное обнаружение
detectMinEigenFeatures
detectHarrisFeatures
detectBRISKFeatures Углы. Многомасштабное обнаружение
detectSURFFeatures «Капли» (blobs). Многомасштабное обнаружение
detectMSERFeatures Области однородной интенсивности. Многомасштабное обнаружение
Рис. 1. Пример исходного набора изображений (Matlab Stitching Example)
Li МЛ л t
Рис. 2. Пример исходного набора изображений (cvc01passadis-cyl-pano10 из IIIA Panorama dataset)
Рис. 3. Набор изображений после последовательного затемнения (слева направо — исходное изображение, gamma = 2, gamma = 4)
Весь диапазон значений яркости изображения (0; 255) преобразовывался в диапазон (0; 150), коэффициент гамма-коррекции gamma при этом последовательно менялся от 1 до 6 с шагом 0.1, что позволило получить по 50 модифицированных изображений для каждого набора (рис. 3).
В соответствии с табл. 1 каждый из наборов подвергался обработке в MATLAB для получения единого изображения. На рис. 4 показаны изображения, полученные при сшивке по особым точкам, которые определены методом SURF.
Проведение визуального сравнительного анализа эффективности обработки методами SURF и MSER из набора 4 (рис. 5) по итоговому изображению панорамы достаточно затруднительно. Для выполнения оценки эффективности методов предложено выполнение сравнения результатов осуществлять на более раннем этапе работы алгоритмов: на этапе определения общих особых точек на двух изображениях. Метрикой для сравнения методов выбрана оценка среднего количества общих особых точек на изображе-
Рис. 4. Результаты сшивки наборов изображений с разным значением gamma методом SURF
Рис. 5. Сшивка изображений с поиском особых точек разными методами: сверху — методом SURF, снизу — методом MSER
ниях для каждого набора. Результаты расчета среднего количества общих особых точек на изображениях для каждого набора для разных методов представлены в следующем разделе статьи.
Результаты
В ходе проведения экспериментальных исследований качество сшивки изображений определялось по количеству общих точек между парой анализируемых изображений.
Рис. 6. График зависимости количества общих особых точек от уровня освещенности изображения
Таблица 2
Значения инвариантности методов поиска особых точек к степени освещения
Метод Инвариантность, %
SURF 9,85
MSER 10,71
BRISK 34,62
Harris 6,88
FAST 34,62
MinEigen 8,99
На графике (рис. 6) показана зависимость количества общих особых точек от уровня освещенности.
График показывает, что метод SURF имеет наилучшие результаты как при сильном, так и при слабом освещении, в том числе при съемке ночью.
Другой важный параметр, по которому нами сравнивались методы поиска особых точек, — это инвариантность к степени освещения, рассчитываемая по формуле:
inv =-min * 100%, (3)
max
где max — максимальное количество общих точек между парой изображений; min — минимальное количество общих точек между парой изображений.
В табл. 2 приведены значения инвариантности для всех методов.
В соответствии с полученными результатами можно сделать вывод, что метод SURF не инвариантен к изменению освещения, а, следовательно, качество сшивки с его применением будет значительно отличаться в светлое и темное время суток.
Методы BRISK и FAST показали одинаково высокую инвариантность к освещению, т. е. оно наименее значительно повлияло на качество поиска особых точек и, соответственно, на сшивку. Значительным минусом метода BRISK при этом является очень маленькое количество най-
денных общих особых точек для пары изображений.
Другой интересный вывод, который можно сделать из приведенного выше графика: методы MinEigen и MSER значительно превосходят FAST при высоком освещении, при низком уровне FAST показывает результаты немного лучше конкурентов, что говорит о том, что FAST не только инвариантен, но и в целом лучше работает при низком освещении.
Заключение
Таким образом, нами проведены эксперименты по нахождению особых точек на изображениях методами SURF, MSER, BRISK, Harris, FAST и MinEigen. Реализован поиск общих особых точек для пары изображений, а также анализ их количества. Проведена сшивка изображений разными методами при различных уровнях освещений.
Результаты показали, что из исследованных нами методов SURF является наилучшим по качеству полученной сшивки, а метод FAST наиболее инвариантен к изменению освещения.
В дальнейшем предполагается провести сравнение этих методов по их быстродействию, что необходимо для сшивки в режиме real time. Тогда на основании данного и следующего исследований можно будет сделать выводы о том, какие методы, в какой комбинации и при каких условиях
следует применять. Планируется разработка нового метода, который должен иметь высокое качество сшивки, инвариантность
к освещению и быстродействие, позволяющее производить сшивку изображений в реальном времени.
список литературы
1. Почему автомобили попадают в аварии? // URL: http://www.transportal.by/obsujdaem/ pochemu-gruzovye-avtomobilipopadayut-v-avarii. html (Дата обращения: 23.09.2017).
2. Что такое мертвая зона и как обезопаситься? // URL: http://www.gazu.ru/safety/bdd/10225/ (Дата обращения: 23.09.2017).
3. Makarov A.S., Bolsunovskaya M.V. The 360° around view system for large vehicles, the methods of calibration and removal of barrel distortion for omnidirectional cameras // Supplementary Proc. of the 5th Internat. Conf. on Analysis of Images, Social Networks and Texts. Yekaterinburg, 2016. Vol. 1710. Pp. 183-192.
4. Makarov A.S., Bolsunovskaya M.V. The method of obtaining orthographic top view for around view system at vehicles // Proc. of the 2017 IEEE Conf. of Russian Young Researchers in Electrical and Electronic Engineering. St. Petersburg. IEEE, 2017. Pp. 697-699.
5. Bay H., Ess A., Tuytelaars T., Gool L.V. Speeded-up robust features (SURF) // Computer Vision and Image Understanding. Academic Press, 2008. Vol. 110. No. 3. Pp. 346-359.
6. Применение метода SURF в системах контроля и управления доступом на основе биометрических технологий // URL: https://habrahabr. ru/post/152679/ (Дата обращения: 23.09.2017).
7. Lowe D.G. Object recognition from local scale-invariant features // The Proc. of the 7th IEEE Internat. Conf. on Computer Vision. 1999. Vol. 2. Pp. 1150-1157.
8. Построение SIFT дескрипторов и задача сопоставления изображений // URL: https:// habrahabr.ru/post/106302/ (Дата обращения: 23.09.2017).
9. Leutenegger S., Chli M., Siegwart R.Y. BRISK: Binary robust invariant scalable keypoints // The Proc. of the IEEE Internat. Conf. on Computer Vision. 2011. Pp. 2548-2555.
10. Matas J., et al. Robust wide-baseline stereo from maximally stable extremal regions // Image and Vision Computing. 2004. Vol. 22. No. 10. Pp. 761-767.
11. Alahi A., Ortiz R., Vandergheynst P. Freak:
Fast retina keypoint // Proc. of the IEEE Computer Society Conf. on Computer Vision and Pattern Recognition. 2012. Pp. 510-517.
12. Alcantarilla P.F., Bartoli A., Davison A.J.
KAZE features // European Conf. on Computer Vision. Springer, Berlin, Heidelberg, 2012. Pp. 214-227.
13. Rosten E., Drummond T. Machine learning for high-speed corner detection // European Conf. on Computer Vision. 2006. Pp. 430-443.
14. Harris C., Stephens M. A combined corner and edge detector // Alvey Vision Conference. 1988. Vol. 15. No. 50. Pp. 105-244.
15. Shi J., et al. Good features to track // Proc. of the IEEE Computer Society Conf. on Computer Vision and Pattern Recognition. 1994. Pp. 593-600.
16. Point Feature Types // URL: https://www. mathworks.com/help/vision/ug/point-feature-types. html (Дата обращения: 23.09.2017).
17. Feature Based Panoramic Image Stitching // URL: https://www.mathworks.com/help/vision/ examples/feature-based-panoramic-image-stitching. html
18. Adobe Panoramas Dataset // URL: https:// sourceforge.net/adobe/adobedatasets/panoramas/ home/Home/ (Дата обращения: 31.03.2018).
19. Mníler R., Vardy A., Kreft S., Ruwisch S. Visual homing in environments with anisotropic landmark distribution // Autonomous Robots. 2007. Vol. 23(3). Pp. 231-245 // URL: http://www. ti.uni-bielefeld.de/html/research/avardy/index.html (Дата обращения: 31.03.2018).
20. Ramisa A., Tapus A., Lopez de Mantaras R., Toledo R. Mobile robot localization using panoramic vision and combination of local feature region detectors // Proc. of the IEEE Internat. Conf. on Robotics and Automation. Pasadena, California, 2008. Pp. 538-543 // URL: http://www.iiia.csic. es/~aramisa/datasets/iiiapanos.html (Дата обращения: 31.03.2018).
21. Список функций Image Processing Toolbox: Улучшение изображений. Imadjust // URL: http://matlab.exponenta.ru/imageprocess/ book3/10/imadjust.php (Дата обращения: 31.03.2018).
Статья поступила в редакцию 10.11.2017.
references
1. Pochemu avtomobili popadayut v avarii? [Why do cars get into accidents?] Available: http://www. transportal.by/obsujdaem/pochemu-gruzovye-avtomobilipopadayut-v-avarii.html (Accessed: 23.09.2017). (rus)
2. Chto takoye mertvaya zona i kak obezopasitsya? [ What is a dead zone and how to protect yourself ?] Available: http://www.gazu.ru/safety/bdd/10225/ (Accessed: 23.09.2017). (rus)
3. Makarov A.S., Bolsunovskaya M.V. The 360° around view system for large vehicles, the methods of calibration and removal of barrel distortion for omnidirectional cameras. Supplementary Proceedings of the 5th International Conference on Analysis of Images, Social Networks and Texts, Yekaterinburg, Russia, 2016, Vol. 1710, Pp. 183-192.
4. Makarov A.S., Bolsunovskaya M.V. The method of obtaining orthographic top view for around view system at vehicles. Proceedings of the 2017 IEEE Conference of Russian Young Researchers in Electrical and Electronic Engineering, St. Petersburg, Russia, 2017. IEEE, 2017, Pp. 697-699.
5. Bay H., Ess A., Tuytelaars T., Gool L.V. Speeded-up robust features (SURF). Computer Vision and Image Understanding. Academic Press, 2008, Vol. 110, No. 3, Pp. 346-359.
6. Primeneniye metoda SURF v sistemakh kontrolya i upravleniya dostupom na osnove biometricheskikh tekhnologiy [Application of the SURF method in control and management systems based on biometric technologies]. Available: https://habrahabr. ru/post/152679/ (Accessed: 23.09.2017). (rus)
7. Lowe D.G. Object recognition from local scale-invariant features. Proceedings of the 7th IEEE International Conference on Computer Vision. IEEE, 1999, Vol. 2, Pp. 1150-1157.
8. Postroyeniye SIFT deskriptorov i zadacha sopostavleniya izobrazheniy [The construction of SIFT descriptors and the task of mapping images]. Available: https://habrahabr.ru/post/106302/ (Accessed: 23.09.2017).
9. Leutenegger S., Chli M., Siegwart R.Y. BRISK: Binary robust invariant scalable keypoints. Proc. of the IEEE International Conference on Computer Vision. IEEE, 2011, Pp. 2548-2555.
10. Matas J., et al. Robust wide-baseline stereo from maximally stable extremal regions. Image and vision computing, 2004, Vol. 22, No. 10,
Received 10.11.2017.
Pp. 761-767.
11. Alahi A., Ortiz R., Vandergheynst P. Freak: Fast retina keypoint. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2012, Pp. 510-517.
12. Alcantarilla P.F., Bartoli A., Davison A.J. KAZE features. European Conference on Computer Vision. Springer, Berlin, Heidelberg, 2012, Pp. 214-227.
13. Rosten E., Drummond T. Machine learning for high-speed corner detection. European Conference on Computer Vision, 2006, Pp. 430-443.
14. Harris C., Stephens M. A combined corner and edge detector. Alvey Vision Conference, 1988, Vol. 15, No. 50, Pp. 105-244.
15. Shi J., et al. Good features to track. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE, 1994, Pp. 593-600.
16. Point Feature Types. Available: https://www. mathworks.com/help/vision/ug/point-feature-types. html (Accessed: 23.09.2017).
17. Feature Based Panoramic Image Stitching. Available: https://www.mathworks.com/help/vision/ examples/feature-based-panoramic-image-stitching. html
18. Adobe Panoramas Dataset. Available: https:// sourceforge.net/adobe/adobedatasets/panoramas/ home/Home/ (Accessed: 31.03.2018).
19. Mniler R., Vardy A., Kreft S., Ruwisch S. Visual homing in environments with anisotropic landmark distribution. Autonomous Robots, 2007, Vol. 23(3), Pp. 231-245. Available: http://www. ti.uni-bielefeld. de/html/ research/ avardy/index. html (Accessed: 31.03.2018).
20. Ramisa A., Tapus A., Lopez de Mantaras R., Toledo R. Mobile robot localization using panoramic vision and combination of local feature region detectors. Proceedings of the IEEE International Conference on Robotics and Automation, Pasadena, California, 2008, Pp. 538-543. Available: http:// www.iiia.csic.es/~aramisa/datasets/iiiapanos.html (Accessed: 31.03.2018).
21. Spisok funktsiy Image Processing Toolbox: Uluchsheniye izobrazheniy. Imadjust [List of Functions Image Processing Toolbox: Image enhancement. Imadjust]. Available: http://matlab.exponenta.ru/ imageprocess/book3/10/imadjust.php (Accessed: 31.03.2018). (rus)
сведения об авторах / the authors
МАКАРОВ Алексей Сергеевич MAKAROV Aleksei S.
E-mail: [email protected]
БОлсунОВСКАя Марина Владимировна BOLSuNOVSKAYA Marina V.
E-mail: bolsun [email protected]
© Санкт-Петербургский политехнический университет Петра Великого, 2018