НАУЧНО-ТЕХНИЧЕСКИИ ВЕСТНИК ИНФОРМАЦИОННЫХ ТЕХНОЛОГИИ, МЕХАНИКИ И ОПТИКИ июль-август 2016 Том 16 № 4 ISSN 2226-1494 http://ntv.ifmo.ru/
SCIENTIFIC AND TECHNICAL JOURNAL OF INFORMATION TECHNOLOGIES, MECHANICS AND OPTICS
July-August 2016
Vol. 16 No 4 ISSN 2226-1494
http://ntv.ifmo.ru/en
УДК 004.93'1, 004.932.2, 681.7
ИЗМЕРЕНИЕ РАССТОЯНИЯ ПО ЕДИНСТВЕННОМУ ДЕФОКУСИРОВАННОМУ СНИМКУ Н.А. Деготинский% В.Р. Луцивь
a Санкт-Петербургский государственный университет аэрокосмического приборостроения, Санкт-Петербург, 190000, Российская Федерация
ь Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация Адрес для переписки: [email protected] Информация о статье
Поступила в редакцию 27.04.16, принята к печати 14.06.16 doi: 10.17586/2226-1494-2016-16-4-663-669 Язык статьи - русский
Ссылка для цитирования: Деготинский Н.А., Луцив В.Р. Измерение расстояния по единственному дефокусированному снимку // Научно-технический вестник информационных технологий, механики и оптики. 2016. Т. 16. № 4. С. 663-669. doi: 10.17586/22261494-2016-16-4-663-669
Аннотация
Предмет исследования. Исследован метод извлечения информации об удаленности объектов с использованием единственного дефокусированного снимка. Метод основан на анализе величины размытия изображения в точках, выделенных на нем контуров, соответствующих граничным точкам объектов. Предполагается, что перепад яркости на нерасфокусированном изображении границы можно моделировать идеальной ступенчатой функцией - функцией Хевисайда. Метод. На исходно имеющемся изображении выделяются контуры, соответствующие локальным максимумам модуля градиента яркости. Координаты контурных точек запоминаются для дальнейшего анализа. Затем изображение дополнительно размывается гауссовым фильтром с заданным известным параметром дисперсии. По величине отношения модулей градиентов исходного и дополнительно размытого изображения в точках контуров оценивается величина дефокусировки исходного изображения в зонах, соответствующих границам объектов. Полученные оценки образуют разреженную карту относительной удаленности границ сфотографированных объектов. При помощи специально выбранного метода интерполяции оценки удаленности распространяются на остальные точки изображения, образуя «плотную карту глубины». Основные результаты. Приводятся результаты применения описанного метода для оценки относительной удаленности объектов на реальных фотоснимках, демонстрирующие его высокую эффективность. Практическая значимость. В отличие от широко используемых стереоскопических методов и методов, анализирующих наборы дефокусированных изображений, рассматриваемый подход позволяет иметь дело с единственным снимком, сделанным стандартным способом без использования дополнительных условий и ограничений. Если можно ограничиться оцениванием не абсолютной дальности до сфотографированных объектов, а их относительной удаленности, отпадает также необходимость выполнять специальную калибровку использованной фотокамеры, что позволяет анализировать снимки, полученные ранее, в самых разнообразных ситуациях. Ключевые слова
оценка расстояния, обработка изображений, контур, расфокусировка, градиент
DISTANCE MEASUREMENT BASED ON A SINGLE DEFOCUSED PHOTOGRAPH
N.A. Degotinskya, V.R. Lutsivb
a State University of Aerospace Instrumentation, Saint Petersburg, 190000, Russian Federation b ITMO University, Saint Petersburg, 197101, Russian Federation Corresponding author: [email protected] Article info
Received 27.04.16, accepted 14.06.16 doi: 10.17586/2226-1494-2016-16-4-663-669 Article in Russian
For citation: Degotinsky N.A., Lutsiv V.R. Distance measurement based on a single defocused photograph. Scientific and Technical Journal of Information Technologies, Mechanics and Optics, 2016, vol. 16, no. 4, pp. 663-669. doi: 10.17586/2226-1494-2016-16-4-663-669
Abstract
Subject of Research. We studied a method of estimating the object distance on the basis of its single defocused photograph. The method is based on the analysis of image defocus at the contour points corresponding to borders of photographed objects. It is supposed that the brightness drop in not defocused image of border can be simulated with an ideal step function - the Heaviside function. Method. The contours corresponding to local maxima of brightness gradient are detected in the
initial image to be analyzed and recorded for further analysis. Then the initial image is subjected to additional defocusing by a Gaussian filter having the dispersion parameter of defined in advance value. The ratios of local gradient values for the initial and additionally defocused images are then calculated at the contour points, and the defocus values of initial image at the points of objects borders are estimated based on these ratios. A sparse map of relative remoteness is built on the basis of these estimations for the border points of photographed objects, and a dense depth map of relative distances is then calculated using a special interpolation technique. Main Results. The efficiency of described technique is illustrated with the results of distance estimation in the photographs of real environment. Practical Relevance. In contrast to the widely applied stereo-technique and distance measurement methods analyzing the sets of defocused images, the investigated approach enables dealing with a single photograph acquired in a standard way without setting any additional conditions and limitations. If the relative remoteness of objects may be estimated instead of their absolute distances, no special calibration is needed for the camera applied, and the pictures taken once previously in diversified situations can be analyzed using the considered technique. Keywords
distance estimation, image processing, contour, image defocus, gradient
Введение
Автоматическое измерение расстояния до удаленных объектов в течение многих лет остается актуальной технической проблемой. Помимо собственно информации об удаленности объекта, в результате измерения расстояния можно получить информацию о его форме, особенностях пространственного положения и движения и т.п. Методы измерения расстояния делятся на две группы: методы, использующие активное воздействие на объект, и «пассивные» методы измерения. К первой категории относятся, например, технологии, использующие структурированную подсветку или лазерную подсветку анализируемой области. Такой подход с успехом применяется в промышленном производстве для контроля качества изготовления деталей. К этой же категории можно отнести устройства, работающие по принципу локации, - испускающие зондирующий сигнал и принимающие затем сигналы, отраженные окружающими предметами. Подобный прием используют, например, парковочные радары, устанавливаемые в автомобилях. Однако в определенных случаях, например, в случае необходимости измерения расстояния до биологических объектов, применение методов, связанных с активным на них воздействием, может быть недопустимо. В такой ситуации обращаются к «пассивным» методам измерения дальности. Такие методы основываются на анализе изображений и часто используют дополнительную информацию об особенностях процесса формирования изображения на поверхности световоспринимающего датчика. Существует целый ряд подходов к извлечению информации об удаленности объектов по нескольким или даже одному изображению. Такие методы «пассивного» измерения дальности кратко рассмотрены в разделе «Методы измерения расстояния до объектов на изображении». В разделах «Использованная модель дефокусировки изображения» и «Оценка дефокусировки в точках оригинального снимка» описан альтернативный метод, позволяющий оценивать относительные удаленности объектов по дефокусировке их границ на единственном снимке. В разделе «Построение «плотной» карты расстояний» описывается способ распространения вычисленных на границах оценок относительной удаленности на все изображение. В разделе «Результаты экспериментов» приводятся результаты практически выполненных экспериментов, демонстрирующие эффективность выбранного подхода. В заключение анализируются достоинства и недостатки рассмотренного метода и перспективы его использования.
Методы измерения расстояния до объектов на изображении
Многие современные методы обработки изображений были заимствованы в живых зрительных системах. Изображения окружающего мира, формируемые по отдельности каждым глазом, несколько отличаются друг от друга. Эффект различия положений объектов на таких изображениях, связанный с различающимися углами наблюдения, называется диспарантностью и широко используется для измерения расстояний. В современных компьютерных стереосистемах роль глаз выполняют две камеры, находящиеся на определенном расстоянии друг от друга (см., например, [1, 2]). Подобные методы измерения расстояния много лет применяют в астрономических вычислениях. Среди недостатков современных стереосистем можно упомянуть большие вычислительные затраты, связанные с построением «гладких» плотных карт глубины, необходимость обеспечить свободную видимость объектов обеими камерами, а также ненадежную работу при анализе гладких поверхностей, не имеющих характерных локальных отличительных признаков.
Метод восстановления структуры из движения [3, 4] основан на применении схожих принципов, однако отличается тем, что использует пару снимков, сделанных одной и той же камерой в разные моменты времени. Точность работы метода сильно зависит от корректности установки соответствий между точками последовательно сформированных изображений.
Возможность восстановления формы объекта по данным о затенении поверхности была впервые продемонстрирована Хорном и Уинстоном [5]. Позже этот метод был подробно рассмотрен Марром [6]. В указанных работах была показана работоспособность этого метода при анализе изображений гладких поверхностей. Однако построение карты коэффициентов отражений, на основе которой работает метод,
является вычислительно сложной задачей, а его использование не дает корректных решении в зонах «разрыва» наблюдаемой глубины. Помимо этого, очевидным недостатком метода является зависимость от освещенности сцены.
Метод вычисления дальности «по фокусировке» [3] оперирует серией снимков сцены, сделанных с разными значениями параметров фокусировки камеры при ее фиксированном пространственном положении. Метод основан на поиске сфокусированного изображения для каждой точки сцены, затем по найденным сфокусированным изображениям и зафиксированным для них параметрам настройки камеры определяется расстояние от объектива до найденных точек. Как отмечается в [3], метод достаточно прост и универсален, но все же имеет недостатки, главными из которых являются высокие затраты времени на поиск сфокусированного изображения для каждого пиксела сцены и невозможность применения метода к изображениям с плохо выраженной текстурой.
Альтернативой методу вычисления расстояния до объекта «по фокусировке» является ряд методов, позволяющих оценить удаленность «по дефокусировке». Подход, впервые предложенный в [7, 8], основан на анализе нескольких фотографий, сделанных с разной фокусировкой камеры. Было показано, что существует прямая зависимость между величиной размытия изображения объекта и его удаленностью от объектива. Идеи анализа глубины «по дефокусировке» нашли дальнейшее развитие в подробной работе [3], а в [9] было показано, как применить аналогичный математический аппарат, используя изображения в разных цветовых слоях одной и той же цветной фотографии в качестве снимков, дефокусированных по-разному в связи с эффектом продольной хроматической аберрации.
Настоящая работа посвящена методу извлечения информации об относительной удаленности объектов по их единственному дефокусированному снимку. Впервые данная возможность была показана в [10]. Метод демонстрирует возможность использования отношения градиентов яркости пикселов оригинального и повторно дефокусированного снимков для оценки величины дефокусировки оригинального снимка на краях объектов. Рассмотрена также задача распространения полученных на краях оценок на все изображение.
Использованная модель дефокусировки изображения
В настоящей работе предполагается, что дефокусировка изображения подчиняется закону отображения объектов на плоскости сенсорной матрицы при помощи тонкой линзы, как показано на рис. 1.
Поверхность объекта
Поверхность, изображение которой сфокусировано
Линза
Плоскость изображения
1
С X
й
Рис. 1. Отображение объекта, полученное с помощью тонкой линзы
Для получения сфокусированного изображения необходимо, чтобы все лучи, приходящие от точки на поверхности объекта, проходя через линзу, пересеклись в одной из точек изображения. В случае, когда объект не находится в фокусе, лучи, проходящие через линзу, пересекают плоскость сенсорной матрицы камеры в разных точках, в результате чего его изображение получается размытым. Диаметр пятна размытия рассчитывается по следующей формуле:
С = -
а - а г
^2
(1)
а N (а/ - ^)
где ^ - фокусное расстояние линзы; N - число диафрагмы; й ^ - расстояние до объекта, находящегося в
фокусе; й - расстояние до объекта, находящегося не в фокусе [11]. Как показано в [12], размытие изображения может быть промоделировано его сверткой с двумерным гауссианом:
1
(
ё (*, У,о) =-
2по2
-ехр
х2 + у2 ^ 2о2
где х, у - декартовы координаты пиксела, а между параметром о и диаметром С пятна размытия имеется прямо пропорциональная зависимость [10].
Оценка дефокусировки в точках оригинального снимка
Рассматриваемый метод оценки расстояний основан на анализе величины размытия изображения в точка, выделенных на нем контуров, соответствующих граничным точкам объектов, поскольку предполагается, что перепад яркости на нерасфокусированном изображении границы можно моделировать идеальной ступенчатой функцией - функцией Хевисайда. В связи с этим оценивание размытия (дефокусировки) оригинального изображения выполняется в виде следующей последовательности операций.
Шаг 1. Выделение границ объектов. Среди многообразия алгоритмов выделения границ существуют так называемые комбинированные, обеспечивающие значительно более высокие результаты. Такой алгоритм реализуется, в частности, детектором контуров Кэнни [13]. Он формирует неразрывные контуры, достаточно точен и устойчив к шумам [13], поэтому мы использовали его при практической реализации рассматриваемого в настоящей работе метода.
Шаг 2. Модель градиента яркости на границах объектов. «Идеальная» модель перепада яркости на границе объекта может быть представлена выражением f (x) = A • u(x) + B, где и(x) - функция Хевисайда; Л - амплитуда перепада яркости; Б - линейное смещение. Отметим, что это выражение описывает границу, имеющую координату х = 0 . Модель размытой границы на анализируемом оригинальном изображении может быть представлена с помощью свертки '(х) = f (х) * g (х, с) «идеальной» границы с гауссианом g(х,с), имеющим неизвестный (искомый) параметр смаза с, где * - оператор свертки. В результате дифференцирования оператора свертки формула для вычисления градиента яркости на границе согласно [14] принимает вид
У'( х) = Л • g (х,с) =
Л
Л
гехр
2пс2
2 с2
(2)
Шаг 3. Повторное размытие изображения и вычисление градиента яркости на границах объектов. В результате повторного размытия изображения путем его свертки с гауссианом, имеющим известный параметр размытия с0, модель повторно размытой границы примет вид
г (х) = '(х) * g (х,Со) = f (х) * g (х,с) * g (х,Со).
Тогда с использованием свойства свертки двух гауссианов1 градиент яркости на повторно размытом изображении границы будет иметь вид
( \
Уг (х) =
Л
2 + Со2)
гехр
2 (с2 + с02)
(3)
Шаг 4. Расчет неизвестной (искомой) величины параметра дефокусировки изображения.
Сперва вычисляем отношение модулей градиентов, рассчитанных по формулам (2) и (3):
( у
Я =
I У'(х) | = Уг (х)| \
2 2 с2 + Со2
ехр
2 с2
2(с2+с2)
Затем записываем отношение градиентов для граничных точек объектов, учитывая, что на границах (для х = 0) значение градиента максимально:
Я =
2 2 с2 + с02
На основании полученного таким образом отношения Я градиентов находим искомое значение величины дефокусировки (параметра размытия) изображения на границах объектов:
с =
Я2 -1
(4)
Построение «плотной» карты расстояний
В предыдущем разделе были рассчитаны параметры дефокусировки изображения на границах содержащихся в нем объектов. Как было указано в начале настоящей работы, имеется прямо пропорциональная зависимость с = Шпс(С) между величиной параметра с дефокусировки изображения и диаметром С пятна размытия точки, рассчитанным по формуле (1). Таким образом, подставив в формулу с = Шпс(С) вычисленное значение параметра дефокусировки с, рассчитав из этой формулы диаметр пятна рассеяния С и подставив его в формулу (1), можно вычислить дальность до сфотографированных объектов в точках их
2
с
с
о
1 http://www.tina-vision.net/docs/memos/0003-003.pdf (01.04.16)
границ. Однако для построения зависимости с = Шпс(С) необходимо выполнить калибровку оптической системы, использованной при фотографировании, а это - уже тема отдельной публикации. Исходя из этого, в данной работе мы ограничимся анализом не абсолютных значений расстояния, а относительной удаленности сфотографированных объектов, величина которой пропорциональна измеренному параметру расфокусировки изображения. Таким образом, для краткости измеренная величина дефокусировки с и соответствующая ей относительная удаленность будут далее упоминаться как дальность.
Выше мы показали, как, согласно формуле (4), оценить дальность на границах сфотографированных объектов. Теперь необходимо построить «плотную» карту расстояний (глубины), показывающую оценку дальности в каждой точке изображения, и эта задача оказалась самой трудной в выполненной нами работе. Для ее решения подходит ряд методик, одной из которых является применение интерполирующего (матирующего) лапласиана, что и было сделано в работе [10] Жуо и Сима, впервые предложивших метод оценивания дальности, рассматриваемый в настоящей работе. К сожалению, эти авторы лишь кратко упомянули набор средств, примененных ими для выполнения интерполяции, оставив за рамками своей работы [10] важные детали использованных методов и трудности, возникающие при их практической реализации. Описанные ниже подходы, использованные нами для преодоления таких трудностей, как раз и стали одним из важных этапов нашей работы.
Итак, в контексте задачи, решаемой в данной работе, матирование - это восстановление изображения с помощью предоставления восстанавливающей системе подсказок в виде специальной «разметки». Данная методика подробно описана в [15]. В настоящей работе в качестве разметки использована «разреженная» карта дальности - изображение, содержащее рассчитанные на предыдущем этапе оценки дальности на граничных точках сфотографированных объектов. Согласно выбранному методу [15], задача нахождения плотной карты глубины может быть решена минимизацией целевой функции (5), в которой и - разреженная карта глубины, записанная в векторной форме, d - плотная карта глубины, записанная в векторной форме, L - матрица матирующего лапласиана, D - диагональная матрица, элементы Б. которой равны единице, если пиксел исходного изображения с индексом i лежит на границе, X - параметр, отвечающий за баланс между точностью и гладкостью результатов интерполяции. Здесь и далее под представлением двумерных данных (изображений, карт глубины и т.п. данных, имеющих вид двумерного массива) в векторной форме подразумевается представление их в виде одномерного массива размера Ы, сформированного конкатенацией столбцов соответствующего двумерного массива:
Е (ё) = Дт ЬД + - й/ D(d - и). (5)
Матрица Ь - симметричная матрица размера N х N, где N - размерность изображения, представленного в векторной форме. Элементы Ь, . матрицы Ь рассчитываются по формуле (6), в которой 5,. - дельта-функция Кронекера, равная единице при равенстве индексов и нулю в противном случае, - матрица средних значений цветов пикселов исходного анализируемого изображения в окне юк, £к - ковариационная матрица цветов пикселов в окне юк, I! - цвет пиксела с индексом . в изображении, представленном в векторной форме, |юк | - размер окна, и - единичная матрица, е- параметр регуляризации [15]:
Ь = I
к |(., У )ешк
( ( ( е V ^
т
5..--!
у I ^
1 + ( - Ъ )Т + Г^Ш ( - * )
. 1юк I и ,
(6)
/у
Размер сканирующего окна юк определяет протяженность охватываемой области вокруг пиксела, для которого производится вычисление £к и , регулируя, таким образом, степень влияния соседних пикселов на расчет. В экспериментах размер окна выбирался равным трем пикселам по ширине и высоте, при этом |юк | будет равен девяти.
Минимизация функции (5) может быть выполнена путем решения следующей системы линейных уравнений [15]:
(Ь + ХБ) Д = ХБД . (7)
Система уравнений (7) является разреженной по причине того, что матрица коэффициентов Ь + ХБ в левой части выражения имеет характерный разреженный вид, т.е. содержит большое количество нулевых элементов. Для эффективного решения подобных систем существуют специальные методы, один из которых - стабилизированный метод бисопряженных градиентов [16] - мы используем в данной работе. Стоит отметить, что, несмотря на оптимизацию при помощи метода бисопряженных градиентов, точное решение системы (7) для успешной работы алгоритма интерполяции вычислительно все равно довольно сложно, и для больших изображений вычисления могут занимать десятки секунд, поэтому, как показали наши эксперименты, когда размерность изображения высока, целесообразно разбивать изображения на части и применять алгоритм интерполяции для них по отдельности. Полное изображение затем
можно восстановить из интерполированных по отдельности частей. Также отдельно необходимо отметить роль параметра регуляризации е при решении задачи интерполяции. Данный параметр определяет гладкость интерполяции и может принимать значения от нуля до единицы. Оптимальное значение параметра неоднозначно и зависит от анализируемой сцены. В наших расчетах мы остановились на величине е = 0,00005 , и результаты, продемонстрированные в следующем разделе, получены с использованием этого значения.
Результаты экспериментов
Описанный выше метод был реализован в виде программной модели и опробован на серии реальных фотографий естественного окружения. Результаты работы алгоритма для каждой из представленных ниже фотографий показаны с помощью трех изображений: исходного изображения (а); контурного (б), демонстрирующего оценки величин дефокусировки границ величиной яркости контурной линии; и итогового (в), представляющего построенную плотную карту глубины. Самым темным цветом обозначены объекты, находящиеся ближе всего к камере. На рис. 2, в, видны незначительные погрешности оценки дальности на мелких деталях, но в целом алгоритм достаточно точно определил относительную удаленность объектов от камеры. Ошибка определения ободка на столбе, вероятно, связана с отражением в нем поверхности земли.
щ щ -гр.гг^ -ч К
! "ф I ■ да ; ! 1 1 1 ! Р Г [ 1 *®>
а б в
Рис. 2. Результаты анализа сцены «Переход»: исходное изображение (а); изображение с оценками глубины на контурах (б); плотная карта глубины (в). Рисунки представлены в масштабе 1:3 пикселей
На рис. 3, в, также видны только небольшие погрешности измерения дальности мелких деталей в правой части фотографии. С помощью анализа третьей фотографии (рис. 4) продемонстрирована возможность корректной интерполяции на участках изображения, соответствующих гладким наклонным поверхностям с плавно изменяющейся дальностью.
I
1
щш
ш
Щт
'■Ж®*!
шйМшмш
а б в
Рис. 3. Результаты анализа сцены «Невский Проспект»: исходное изображение (а); изображение с оценками глубины на контурах (б); плотная карта глубины (в). Рисунки представлены
в масштабе 1:3 пикселей
. г4
V 1'
ш
а б в
Рис.4. Результаты анализа сцены «Поверхность стола»: исходное изображение (а); изображение с оценками глубины на контурах (б); плотная карта глубины (в). Рисунки представлены
в масштабе 1:3 пикселей
Заключение
В работе исследован один из возможных путей решения задачи оценки удаленности объектов на изображении путем анализа единственного дефокусированного снимка. Исследованный метод оценки удаленности довольно прост в реализации, что является его преимуществом перед другими методами решения этой задачи. Результаты выполненного компьютерного моделирования подтвердили, что рассмотренный метод обладает удовлетворительной точностью при анализе изображений реальных сцен. В связи с этим можно считать описанный метод одним из актуальных современных инструментов решения нетривиальной задачи измерения расстояния по единственному снимку. В то же время при проверке работоспособности исследованного метода на программной модели выяснилась тенденция к возникновению ошибок измерения дальности объектов небольшого размера. Такие же ошибки заметны и на плотных картах глубины, приведенных в работе Жуо и Сима [10], предложивших такой метод измерения дальности впервые. В наших дальнейших исследованиях мы собираемся выяснить причины возникновения таких ошибок измерения.
Литература
1. Chilian A., Hirschmuller H. Stereo camera based navigation of mobile robots on rough terrain // IEEE Int. Conf. on Intelligent Robots and Systems (IROS). St. Louis, USA, 2009. P. 4571-4576. doi: 10.1109/IROS.2009.5354535
2. Mrovlje J., Vrancic D. Distance measuring based on stereoscopic pictures // Proc. 9th International PhD Workshop on Systems and Control. Izola, Slovenia, 2008.
3. Chaudhuri S., Rajagopalan A.N. Depth from Defocus: A Real Aperture Imaging Approach. Springer, 1999. 172 p. doi: 10.1007/978-1-4612-1490-8
4. Szeliski R. Computer Vision: Algorithms and Applications. Washington: Springer, 2011. 812 p. doi: 10.1007/978-1-84882-935-0
5. Horn B.K.P. Obtaining shape from shading information / In: The Psychology of Computer Vision (P.H. Winston, Ed.). McGraw-Hill, 1975.
6. Marr D. Vision. A Computer Investigation into the Human Representation and Processing of Visual Information. NY: W.H. Freeman and Company, 1982. 415 p.
7. Pentland A. A new sense for depth of field // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1987. V. PAMI-9. N 4. Р. 523-531. doi: 10.1109/TPAMI.1987.4767940
8. Grossmann P. Depth from focus // Pattern Recognition Letters. 1987. V. 5. N 1. P. 63-69. doi: 10.1016/0167-8655(87)90026-2
9. Волкова М.А., Луцив В.Р. Использование эффекта продольной хроматической аберрации для измерения расстояний по единственной фотографии // Научно-технический вестник информационных технологий, механики и оптики. 2016. Т. 16. № 2. C. 251-257. doi:10.17586/2226-1494-2016-16-2-251-257
10.Zhuo S., Sim T. On the recovery of depth from a single defocused image // Lecture Notes in Computer Science. 2009. V. 5702. P. 889-897. doi: 10.1007/978-3-642-03767-2_108
11.Ray S.F. Applied Photographic Optics: Lenses and Optical Systems for Photography, Film, Video, and Electronic Imaging. Oxford: Focal Press, 2002. 89 p.
12.Гонсалес Р., Вудс Р., Эддинс С. Цифровая обработка изображений в среде MATLAB. М.: Техносфера, 2006. 616 с.
13. Canny J. A computational approach to edge detection // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1986. V. PAMI-8. N 6. P. 679-698. doi: 10.1109/TPAMI.1986.4767851
14.Damelin S., Miller W. The Mathematics of Signal Processing. Cambridge: Cambridge University Press, 2012. 462 p.
15.He K., Sun J., Tang X. Fast matting using large kernel matting Laplacian matrices // Proc. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). San Francisco, 2010. P. 21652172. doi: 10.1109/CVPR.2010.5539896
16.Van der Vorst H.A. Bi-CGSTAB: a fast and smoothly converging variant of Bi-CG for the solution of nonsymmetric linear systems // SIAM Journal on Scientific Computing. 1992. V. 13. P. 631-644.
Деготинский Никита Анатольевич - студент, Санкт-Петербургский государственный университет
аэрокосмического приборостроения, Санкт-Петербург, 190000, Российская Федерация, [email protected] Луцив Вадим Ростиславович - доктор технических наук, профессор, Университет ИТМО, Санкт-
Петербург, 197101, Российская Федерация, [email protected]
Nikita A. Degotinsky - student, State University of Aerospace Instrumentation, Saint Petersburg,
190000, Russian Federation, [email protected] Vadim R. Lutsiv - D.Sc., Professor, ITMO University, Saint Petersburg, 197101, Russian
Federation, [email protected]