Научная статья на тему 'АВТОМАТИЧЕСКИЙ МЕТОД СЕГМЕНТАЦИИ ФЛУОРЕСЦЕНТНЫХ ИЗОБРАЖЕНИЙ, ПОЛУЧЕННЫХ В БЛИЖНЕМ ИНФРАКРАСНОМ ДИАПАЗОНЕ'

АВТОМАТИЧЕСКИЙ МЕТОД СЕГМЕНТАЦИИ ФЛУОРЕСЦЕНТНЫХ ИЗОБРАЖЕНИЙ, ПОЛУЧЕННЫХ В БЛИЖНЕМ ИНФРАКРАСНОМ ДИАПАЗОНЕ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
88
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АВТОМАТИЧЕСКАЯ СЕГМЕНТАЦИЯ / ПОРОГОВАЯ СЕГМЕНТАЦИЯ / МЕТОД ОЦУ / ФЛУОРЕСЦЕНТНЫЕ ЛАПАРОСКОПИЧЕСКИЕ ИЗОБРАЖЕНИЯ / ЦИФРОВАЯ ОБРАБОТКА ИЗОБРАЖЕНИЙ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Обухова Н.А., Ян Синь

Введение. В настоящее время технология флуоресцентной визуализации в ближнем инфракрасном диапазоне широко применяется при проведении лапароскопических операций. Основой технологии является сегментация области флуоресценции на изображениях, полученных в ближнем инфракрасном диапазоне (БИК-изображениях). Для повышения качества и эффективности навигации необходимо разработать автоматический метод, позволяющий сегментировать флуоресцентные области на БИК-изображениях с максимальной точностью.Цель работы. Повышение точности автоматической сегментации флуоресцентных изображений, полученных в ближнем инфракрасном диапазоне.Материалы и методы. Предложенный метод состоит из двух этапов. На первом этапе выполняется предварительная сегментация изображения на основе адаптивного порога, найденного по методу Оцу. На втором этапе сегментированная область уточняется с помощью взвешенного метода Оцу. Главной особенностью метода является автоматическое определение параметра α, являющегося ключевым для эффективной работы взвешенного метода Оцу. Экспериментальное исследование метода было выполнено на реальных лапароскопических изображениях, общее число изображений в исследовании - 276. Значение ошибки сегментации (метрика ME - misclassification error) было использовано для оценки качества работы предложенного метода.Результаты. Среднее значение ошибки сегментации (метрика ME) предложенного метода составляет 10.4 %, а традиционного метода Оцу - 27.1%.Заключение. По сравнению с традиционным методом Оцу использование разработанного метода позволяет повысить точность сегментации флуоресцентных изображений. Это обеспечивает высокую чувствительность и специфичность при проведении диагностики и позволяет реализовать более эффективную навигацию в процессе лапароскопической операции.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Обухова Н.А., Ян Синь

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

AUTOMATIC METHOD FOR SEGMENTATION OF FLUORESCENT IMAGES OBTAINED IN THE NEAR-INFRARED REGION

Introduction. Near-infrared fluorescence imaging technology is widely used in laparoscopic surgery. Intraoperative fluorescence navigation is based on accurate segmentation of fluorescent regions in near-infrared images (NIR images), thus increasing the accuracy and safety of surgical intervention. Moreover, it is an important auxiliary technology for laparoscopic surgery. Therefore, the search for an automatic method that allows for accurate segmentation of fluorescent regions in NIR images can contribute to an improved efficiency of intraoperative navigation.Aim. Development of a method for automatic segmentation of fluorescent images obtained in the near infrared range. Materials and methods. The proposed method consists of two stages. At the first stage, a preliminary segmentation of the image is performed based on the adaptive threshold found by Otsu’s method. At the second stage, the segmented area is refined using Otsu’s weighted method. The main advantage of the proposed method consists in the automatic determination of parameter α, which determines the performance of Otsu’s weighted method. Experiments were carried out using 276 actual laparoscopic images. The metric misclassification error (ME) was used to assess the quality of segmentation.Results. The average ME of the proposed method was found to be 10.4 %, compared to that obtained by the conventional Otsu’s method of 27.1 %.Conclusion. In comparison with Otsu’s method, the developed method shows an increased efficiency and accuracy of fluorescent image segmentation. This allows for a higher diagnostic accuracy and a more efficient navigation during laparoscopic surgery.

Текст научной работы на тему «АВТОМАТИЧЕСКИЙ МЕТОД СЕГМЕНТАЦИИ ФЛУОРЕСЦЕНТНЫХ ИЗОБРАЖЕНИЙ, ПОЛУЧЕННЫХ В БЛИЖНЕМ ИНФРАКРАСНОМ ДИАПАЗОНЕ»

Телевидение и обработка изображений

УДК 615.47:616-072.7 Оригинальная статья

https://doi.org/10.32603/1993-8985-2022-25-6-40-49

Автоматический метод сегментации флуоресцентных изображений, полученных в ближнем инфракрасном диапазоне

Н. А. Обухова, С. Янн

Санкт-Петербургский государственный электротехнический университет "ЛЭТИ"

им. В. И. Ульянова (Ленина), Санкт-Петербург, Россия

н877355442@gg.com

Аннотация

Введение. В настоящее время технология флуоресцентной визуализации в ближнем инфракрасном диапазоне широко применяется при проведении лапароскопических операций. Основой технологии является сегментация области флуоресценции на изображениях, полученных в ближнем инфракрасном диапазоне (БИК-изображениях). Для повышения качества и эффективности навигации необходимо разработать автоматический метод, позволяющий сегментировать флуоресцентные области на БИК-изображениях с максимальной точностью. Цель работы. Повышение точности автоматической сегментации флуоресцентных изображений, полученных в ближнем инфракрасном диапазоне.

Материалы и методы. Предложенный метод состоит из двух этапов. На первом этапе выполняется предварительная сегментация изображения на основе адаптивного порога, найденного по методу Оцу. На втором этапе сегментированная область уточняется с помощью взвешенного метода Оцу. Главной особенностью метода является автоматическое определение параметра а, являющегося ключевым для эффективной работы взвешенного метода Оцу. Экспериментальное исследование метода было выполнено на реальных лапароскопических изображениях, общее число изображений в исследовании - 276. Значение ошибки сегментации (метрика ME - misclassification error) было использовано для оценки качества работы предложенного метода. Результаты. Среднее значение ошибки сегментации (метрика ME) предложенного метода составляет 10.4 %, а традиционного метода Оцу - 27.1 %.

Заключение. По сравнению с традиционным методом Оцу использование разработанного метода позволяет повысить точность сегментации флуоресцентных изображений. Это обеспечивает высокую чувствительность и специфичность при проведении диагностики и позволяет реализовать более эффективную навигацию в процессе лапароскопической операции.

Ключевые слова: автоматическая сегментация, пороговая сегментация, метод Оцу, флуоресцентные лапароскопические изображения, цифровая обработка изображений

Для цитирования: Обухова Н. А., Ян С. Автоматический метод сегментации флуоресцентных изображений, полученных в ближнем инфракрасном диапазоне // Изв. вузов России. Радиоэлектроника. 2022. Т. 25, № 6. С. 40-49. doi: 10.32603/1993-8985-2022-25-6-40-49

Конфликт интересов. Авторы заявляют об отсутствии конфликта интересов.

Источник финансирования. Исследование проводится при поддержке Государственного комитета по стипендиям КНР (грант № 202009010036).

Статья поступила в редакцию 12.09.2022; принята к публикации после рецензирования 13.10.2022; опубликована онлайн 29.12.2022

40

© Обухова Н. А., Ян С., 2022

Television and Image Processing

Original article

Automatic Method for Segmentation of Fluorescent Images Obtained in the Near-Infrared Region

Nataliia A. Obukhova, Xin YangH

Saint Petersburg Electrotechnical University, St Petersburg, Russia

H877355442@gg.com

Abstract

Introduction. Near-infrared fluorescence imaging technology is widely used in laparoscopic surgery. Intraoperative fluorescence navigation is based on accurate segmentation of fluorescent regions in near-infrared images (NIR images), thus increasing the accuracy and safety of surgical intervention. Moreover, it is an important auxiliary technology for laparoscopic surgery. Therefore, the search for an automatic method that allows for accurate segmentation of fluorescent regions in NIR images can contribute to an improved efficiency of intraoperative navigation. Aim. Development of a method for automatic segmentation of fluorescent images obtained in the near infrared range. Materials and methods. The proposed method consists of two stages. At the first stage, a preliminary segmentation of the image is performed based on the adaptive threshold found by Otsu's method. At the second stage, the segmented area is refined using Otsu's weighted method. The main advantage of the proposed method consists in the automatic determination of parameter a, which determines the performance of Otsu's weighted method. Experiments were carried out using 276 actual laparoscopic images. The metric misclassification error (ME) was used to assess the quality of segmentation.

Results. The average ME of the proposed method was found to be 10.4 %, compared to that obtained by the conventional Otsu's method of 27.1 %.

Conclusion. In comparison with Otsu's method, the developed method shows an increased efficiency and accuracy of fluorescent image segmentation. This allows for a higher diagnostic accuracy and a more efficient navigation during laparoscopic surgery.

Keywords: automatic segmentation, threshold segmentation, Otsu's method, fluorescent laparoscopic images, digital image processing

For citation: Obukhova N. A., Yang X. Automatic Method for Segmentation of Fluorescent Images Obtained in the Near-Infrared Region. Journal of the Russian Universities. Radioelectronics. 2022, vol. 25, no. 6, pp. 40-49. doi: 10.32603/1993-8985-2022-25-6-40-49

Conflict of interest. The authors declare no conflicts of interest.

Acknowledgements. The study was realized with the support of the China Scholarship Council (grant no. 202009010036).

Submitted 12.09.2022; accepted 13.10.2022; published online 29.12.2022

Введение. В настоящее время технология флуоресцентной визуализации в ближнем инфракрасном диапазоне (Near-infrared fluorescence - NIRF) широко применяется при проведении лапароскопических операций. Принцип данной технологии визуализации основан на том, что при освещении тканей, с введенным флуоресцентным красителем, светом с длиной волны 690...900 нм (ближний инфракрасный (БИК) диапазон) возникает флуоресценция с длиной волны более 760 нм [1]. В клинической практике в качестве красителя используют ин-доцианиновый зеленый (ICG), разрешенный к

применению FDA (Food and Drugs Administration) с 1956 г. [1, 2]. Разные ткани имеют разную скорость метаболизма ICG: в тканях, соответствующих злокачественной опухоли, краситель накапливается быстрее. При видеонаблюдении с сенсором NIRF это свойство позволяет определить границу опухоли и упрощает навигацию в процессе лапароскопической операции [3, 4].

По сравнению с традиционными технологиями визуализации технология визуализации в NIRF имеет высокую чувствительность [5]. На практике наибольший интерес для врачей

41

представляет интенсивность флуоресценции в области патологии, а также ее точная локализация на изображении. Поэтому важно разработать автоматический метод, обеспечивающий максимально точную сегментацию области патологии на флуоресцентных изображениях.

Существует значительное число методов сегментации изображений. Наиболее часто используемыми являются метод разрастания областей, метод выделения краев и метод на основе пороговых ограничений [6]. Принцип сегментации изображения на основе пороговых ограничений достаточно прост, он предполагает разделение изображения на области с одинаковой яркостью с помощью найденных адаптивных порогов. Этот метод подходит для изображений, в которых фон и объекты интереса занимают разные диапазоны значений яркости. Ключевым шагом в данном методе является алгоритм формирования порога. Выделяют две группы алгоритмов: формирующие глобальный порог и формирующие локальный порог [6]. Среди множества различных алгоритмов формирования глобального адаптивного порога наиболее широко используемым является метод Оцу [6]. Его главные преимущества - простота реализации и высокая скорость обработки. Основной недостаток заключается в том, что эффект сегментации на его основе слаб, если разница площадей между объектом интереса и фоном на изображении велика. Чтобы устранить это ограничение, предложены несколько модификаций метода Оцу, например взвешенный метод Оцу [7, 8] и многомерный метод Оцу [9, 10].

В данной статье для автоматической обработки флуоресцентных изображений, полученных в БИК-диапазоне, предложен метод, включающий двухэтапную сегментацию. Метод состоит из сегментации, выполненной на основе метода Оцу и сегментации на основе взвешенного метода Оцу. Реальные лапароскопические флуоресцентные изображения были использованы для оценки эффективности предложенного метода. Среднее значение ошибки сегментации (метрика ME - misclassification error) предложенного метода составляет 10.4 %, а традиционного метода Оцу - 27.1 %.

Предложенный метод. Рассмотрим общую структуру предложенного метода (рис. 1).

Метод включает следующие шаги: 42.............................................................................................................

- преобразование исходного трехканально-го флуоресцентного изображения в однока-нальное (полутоновое) изображение;

- использование традиционного метода Оцу для предварительной сегментации изображения. Цель - достаточно грубо разделить фон и объект интереса;

- синтез препарата изображения путем присваивания пикселям сегментированного объекта интереса значений 0;

- использование метода адаптивной коррекции гистограммы с ограничением контраста (Contrast Limited Adaptive Histogram Equalization - CLAHE) [11] для повышения контраста синтезированного изображения;

Флуоресцентное изображение, полученное

Исходное изображение

Преобразование в полутоновое изображение

Сегментация традиционным методом Оцу

Фон/объект

Присваивание пикселям объекта интереса значений 0

Метод CLAHE

Определение параметра взвешенного метода Оцу

Сегментация взвешенным методом Оцу

+ н-

Результат сегментации

Рис. 1. Общая схема предложенного метода Fig. 1. General scheme of the two-stage method

- использование взвешенного метода Оцу для уточняющей сегментации изображения;

- формирование окончательного результата сегментации комбинацией областей объекта интереса, полученных на этапе предварительной и уточняющей сегментации.

Метод Оцу и взвешенный метод Оцу. Метод Оцу, предложенный японскими исследователями в 1979 г. [12], считается одним из самых эффективных походов к формированию порогового ограничения при сегментации изображений.

С помощью данного метода вычисляется порог, минимизирующий среднюю ошибку сегментации, т. е. среднюю ошибку принятия решения о принадлежности пикселей изображения объекту или фону. Значения яркостей пикселей изображения можно рассматривать как случайные величины, а их гистограмму -как оценку плотности распределения вероятностей. Если плотности распределения вероятностей известны, то можно определить оптимальный (в смысле минимума ошибки) порог для сегментации изображения на два класса -объекты и фон.

Метод основан на принципе максимизации дисперсии между классами, в данном случае это классы "пиксели фона" и "пиксели объекта интереса" (область патологии). Поскольку дисперсия является мерой разброса уровней яркости вокруг среднего значения, то большое ее значение свидетельствует о большом отклонении от среднего. Чем больше значения дисперсии между фоном и объектом интереса, тем больше разница между двумя частями изображения. Следовательно, когда разница между классами достигает максимального значения, это означает, что объект и фон изображения разделены лучше всего. Порог сегментации в этот момент является оптимальным порогом.

Вычисление дисперсии между классами основано на определении среднего значения яркости для изображения и вероятности различных классов. Пусть размер изображения М х N элементов разложения, а диапазон значений яркости составляет [0, 255]. Вероятность рI для различных значений яркости 7 определяется как

= п

р = М х N'

где п - количество пикселей в изображении

со значением яркости i.

Среднее значение яркости для всего изображения в целом определяется как

L-1 m = 2 iPi. i=0

Пусть изображение разделено на два класса Q и C2 по порогу сегментации к. Следовательно, диапазон значений яркостей для класса Ci составляет [0, к], а для C2 [к +1, 255]. Средние значения яркости mi (к) и m2 (к) для классов C1 и C2 определяются как

к

m1 (к) = 2 iPi;

i=0

L-1

m2 (к )= 2 ipi.

i=k+1

Вероятность P1(к) и p (к) для классов Q и C2 определяется как

P(к )= 2 Pi;

i=0

L-1

P2(к )= 2 Pi.

i=k+1

При использовании метода Оцу дисперсия между классами рассчитывается следующим образом:

ст2 (к ) = P1 (к)[ m1( к)- m ] 2 + + P2 (к)[m2(к)- m]2.

Тогда рассчитываем

Порог Оцу = arg max {ст2 (к)} =

1 < k < L

= arg max

1<k < L

+P

{Pi (k)[mi (k)-m]2 ( k )[m2 ( k )- m ]2}.

Рассмотренный метод формирует адаптивный глобальный порог. Одним из основных ограничений метода Оцу является то, что если яркостная гистограмма изображения имеет одну моду, то эффект сегментации будет слабый. Для преодоления этого недостатка в [7] предлагается взвешенный метод Оцу.

Разница между взвешенным методом Оцу и традиционным методом заключается в том, что при вычислении дисперсии между классами используется вероятность классов со степенью а .

Тогда дисперсия между классами рассчитывается следующей формулой:

:( к ) = P1 ( к )а[ m1 ( к )- m ]2

+

+ .

P2 (k)а [m2 (k)- m ]2,

где а - весовой коэффициент. Таким образом, рассчитываем

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Порог взвешенного Оцу = arg max (с2 (k)} =

1<к < L

{p (к)а[mi (к )- m]2 +P2 (к)а[m2 (к )- m]2 }.

= arg max

1<к < L

Параметр а определяется особенностями обрабатываемого изображения. В [7] показано, что выбор значения параметра а является самым важным для эффективной работы взвешенного метода Оцу. В ходе работы мы предложили автоматический метод расчета параметра а для флуоресцентных изображений, полученных в

Предложенный метод основан на оценке "контраста объекта интереса", определяемого отношением

I -1ь

C = -

I

b

где I - яркость объекта, в данном случае среднее значение яркости объекта интереса т^ к); 1ь - яркость фона, в данном случае среднее значение пикселей фона т2 (к).

Таким образом, "контраст объекта интереса" рассчитывается следующим образом:

т^ (к) - т2 (к)

C = -

m2 ( к )

Предложенный метод формирования порога предполагает нахождение такого значения параметра а, при котором значение величины С максимально.

Результаты экспериментального исследования. Для оценки качества сегментации была использована метрика МЕ [13], которая определяется как

ME = 1 -

Bo n Bt| + Fo ni Ft

Bo| + Fol

где В0 и Р0 - множество пикселей фона и объекта интереса при "эталонной сегментации" изображения ^гоип&гие); Вх и ^ - множество пикселей фона и объекта интереса, полученных в результате сегментации изображения предложенным методом; П - оператор пересечения; | | - оператор вычисления количества пикселей.

Диапазон значений МЕ составляет [0, 1]. Чем больше МЕ, тем больше ошибочно классифицированных пикселей и тем хуже результат сегментации. Равенство МЕ единице означает полностью неверную сегментацию.

В экспериментальном исследовании использованы реальные лапароскопические изображения. "Эталонными сегментированными" изображениями считаются изображения, полученные в результате ручной разметки. Рассмотрим пример изображения и результата его "эталонной сегментации" (рис. 2).

а б

Рис. 2. Примерное изображение и его стандартная метка сегментации: а - лапароскопическое изображение;

б - ручная метка сегментации Fig. 2. Example image and its standard segmentation label: a - laparoscopic image; б - manual segmentation label

C 60

50

40

30

20

0.5

1.0

1.5

2.0

a

2.5

3.0

Рис. 3. Значения МЕ и С при разных значениях коэффициента a Fig. 3. ME and С with different a coefficients

ME

0.250

0.225

0.200

0.175

0.150

0.125

0.100

0.075

J_

3.5

б

а

Рис. 4. Пошаговые результаты при использовании предложенного метода: а - изображения в оттенках серого; б - после грубой сегментации методом Оцу; в - после присваивания пикселям объекта интереса значений 0; г - после повышения контраста синтезированного изображения; д - после уточняющей сегментации взвешенным

методом Оцу; е - окончательный результат сегментации

Fig. 4. Step-by-step results by using the two-stage method: а - images in grayscale; б - result of rough segmentation by Otsu's method; в - result of assigning value 0 for the object of interest pixels; г - results of synthesized image contrast enhancement; д - result of segmentation by Otsu's weighted method; е - final result of segmentation

На рис. 2 область черного цвета - область фона; область белого цвета - область объекта интереса.

Рассмотрим более подробно использование взвешенного метода Оцу для сегментации изображений (рис. 2, а). Значения параметра а рассчитываются с использованием предложенного метода. Значения МЕ и С при различных значениях параметра а представлены на рис. 3.

Видно, что при увеличении коэффициента а (в диапазоне от 0.5 до 3.5 по оси абсцисс) значение С - "контраст объекта интереса" сначала увеличивается, а затем снижается, тенденция изменения МЕ является противоположной. Значение параметра а, соответствующее максимальному значению С, является самым лучшим порогом сегментации. В данном случае значение параметра а равно 2.3.

Результаты, полученные на каждом шаге при использовании предложенного метода сег-

ментации изображения (рис. 2, а), представлены на рис. 4.

Для оценки эффективности предложенного метода сегментации флуоресцентных изображений было выполнено его сравнение с традиционным методом Оцу.

Результаты сегментации различных изображений представлены в табл. 1, где область черного цвета - правильное сегментирование области фона; область желтого цвета - правильное сегментирование области объекта интереса; область красного цвета - неправильное сегментирование области объекта интереса, т. е. "объектом интереса" считается "фон"; область зеленого цвета - неправильное сегментирование области фона, т. е. "фоном" считается "объект интереса". Для уточняющей сегментации изображения с использованием взвешенного метода Оцу значения МЕ и С при различных значениях параметра а приведены в по-

Табл. 1. Результаты сегментации лапароскопических изображений Tab. 1. Results of laparoscopic images segmentation

Исходное изображение

Традиционный метод Оцу

Предложенный метод

Значения МЕ (красная линия) и С (зеленая линия) при разных значениях коэффициента а

ME = 36.42 %

ME = 10.47 %

ME = 39.45 %

ME = 8.01 %

Табл. 2. Результаты сегментации ФДТ изображений Tab. 2. Results of PDT image segmentation

следнем столбце табл. 1. Видно, что по сравнению с традиционным методом Оцу предложенный метод обеспечивает существенно более точное выделение области флуоресценции. Экспериментальное исследование метода было выполнено на реальных лапароскопических изображениях, общее число изображений в исследовании 276. Среднее значение ошибки сегментации (метрика МЕ) предложенного метода составляет 10.4 %, а традиционного метода Оцу - 27.1 %.

Дополнительно предложенный метод с двухэтапной сегментацией был применен для сегментации области лечения при фотодинамической терапии заболеваний шейки матки.

Фотодинамическая терапия (ФДТ) - это терапия на основе низкочастотного лазерного излучения, позволяющая радикально и одновременно щадяще проводить лечение заболеваний шейки матки [14, 15]. Это позволяет считать его "методом выбора" у пациенток репродуктивного возраста [16].

Перед операцией врач вводит пациентке фотосенсибилизатор (ФС), и в течение 1.5...2 ч препарат накапливается в пораженной области. Далее области с накопленным ФС обрабатываются лазером.

Фотосенсибилизаторы индуцируют красную флуоресценцию при воздействии ультрафиолетового света. Контроль динамики накопления и фотовыгорания ФС в тканях реализуют с помощью визуального анализа. Эффект при-

сутствия ФС при осмотре тканей в белом свете очень слабо выражен, но эти области (красного цвета) имеют существенный цветовой контраст по отношению к фону (черного цвета) на флуоресцентных изображениях.

Важной задачей для проведения эффективной ФДТ является автоматическая сегментация и оценка площади области накопления фотосенсибилизатора. Результаты применения предложенного метода для сегментации областей накопления препарата в процессе фотодинамической терапии представлены в табл. 2. Желтый контур -это результат эталонной (ручной) сегментации, синий контур - результат сегментации методом Оцу, а зеленый контур - сегментация предложенным методом. Результаты показывают, что наш метод сегментирует область лечения на изображении существенно более точно, чем метод Оцу.

Заключение. Предложен метод для автоматической сегментации области флуоресценции изображений, полученных в БИК-диапазоне. Ошибка сегментации предложенного метода составляет 10 %, в то время как традиционный метод Оцу приводит к ошибке в 27 %. Таким образом, использование разработанного метода позволяет повысить эффективность и точность сегментации флуоресцентных изображений. Это позволяет обеспечить высокую точность при проведении диагностики и более эффективную навигацию в процессе лапароскопической операции.

Список литературы

1. Zhu B., Sevick-Muraca E. M. A review of performance of near-infrared fluorescence imaging devices used in clinical studies // The British J. of Radiology. 2015. Vol. 88, № 1045. P. 20140547. doi: 10.1259/ bjr.20140547

2. Clinical applications of indocyanine green (ICG) enhanced fluorescence in laparoscopic surgery / L. Boni, G. David, A. Mangano, G. Dionigi, S. Rausei, S. Spampatti, E. Cassionotti, A. Fingerhut // Surgical Endoscopy. 2015. Vol. 29, № 7. P. 2046-2055. doi: 10.1007/s00464-014-3895-x

3. The clinical use of indocyanine green as a near-infrared fluorescent contrast agent for image-guided oncologic surgery / B. E. Schaafsma, J. S. D. Mieog, M. Hut-teman, J. R. Vorst, P. J. K. Kuppen, C. W. G. M. Lowik, J. V. Frangioni, C. J. H. Velde, A. L. Vahrmeijer // J. of Surgical Oncology. 2011. Vol. 104, № 3. P. 323-332. doi: 10.1002/jso.21943

4. Real-time navigation for liver surgery using projection mapping with indocyanine green fluorescence: development of the novel medical imaging projection system / H. Nishino, E. Hatano, S. Seo, T. Nitta, T. Sai-to, M. Nakamura, K. Hattori, M. Takatani, H. Fuji, K. Taura, Sh. Uemoto // Annals of surgery. 2018. Vol. 267, № 6. P. 1134-1140. doi: 10.1097/ SLA.0000000000002172

5. Near-infrared fluorescence imaging in humans with indocyanine green: a review and update / M. V. Marshall, J. C. Rasmussen, I.-Ch. Tan, M. B. Aldrich, K. E. Adams, X. Wang, C. E. Fife, E. A. Maus, L. A. Smith, E. M. Sevick-Muraca // The Open Surgical Oncology J. 2010. Vol. 2, № 2. P. 12-25. doi: 10.2174/1876504101002010012

6. Bali A., Singh S. N. A review on the strategies and techniques of image segmentation // 5th Intern. Conf. on Advanced Computing & Communication Technologies, Haryana, India, 21-22 Feb. 2015. Pisca-taway: IEEE, 2015. P. 113-120. doi: 10.1109/ ACCT.2015.63

7. Qiao W., Wu C. Weighting Otsu's Segmentation Method and Its Fuzzy Theory Explanation. Computer Engineering. 2009. Vol. 10. P. 211-213. doi: 10.3969/j.issn. 1000-3428.2009.10.070 (In Chinese)

8. Yuan X., Wu L., Peng Q. An improved Otsu method using the weighted object variance for defect detection // Applied surface science. 2015. Vol. 349. P. 472-484. doi: 10.1016/j.apsusc.2015.05.033

9. Zhang J., Hu J. Image segmentation based on 2D Otsu method with histogram analysis // Intern. Conf. on computer science and software engineering, Wuhan, China, 12-14 Sept. 2008. Piscataway: IEEE, 2008. Vol. 6. P. 105-108. doi: 10.1109/CSSE.2008.206

10. A multi-scale 3D Otsu thresholding algorithm for medical image segmentation / Y. Feng, H. Zhao, X. Li, X. Zhang, H. Li // Digital Signal Processing. 2017. Vol. 60. P. 186-199. doi: 10.1016/j.dsp.2016.08.003

11. Salem N., Malik H., Shams A. Medical image enhancement based on histogram algorithms // Procedia Computer Science. 2019. Vol. 163. P. 300-311. doi: 10.1016/j.procs.2019.12.112

12. Otsu N. A threshold selection method from gray-level histograms // IEEE transactions on systems, man, and cybernetics. 1979. Vol. 9, № 1. P. 62-66. doi: 10.1109/TSMC.1979.4310076

13. Sezgin M., Sankur B. Survey over image thresholding techniques and quantitative performance evaluation // J. of Electronic imaging. 2004. Vol. 13, № 1. P. 146-165. doi: 10.1117/1.1631315

14. Clinical development and potential of photothermal and photodynamic therapies for cancer / X. Li, J. F. Lovell, J. Yoon, X. Chen // Nature Reviews Clinical Oncology. 2020. Vol. 17, № 11. P. 657-674. doi: 10.1038/s41571-020-0410-2

15. Photodynamic therapy for management of cervical intraepithelial neoplasia II and III in young patients and obstetric outcomes / M. C. Choi, S. G. Jung, H. Park, S. Y. Lee, C. Lee, Y. Y. Hwang, S. J. Kim // Lasers in Surgery and Medicine. 2013. Vol. 45, № 9. P. 564-572. doi: 10.1002/lsm.22187

16. Отдельнова О. Б., Хашукоева А. З., Ибрагимова М. И. Возможности фотодинамической терапии с использованием фотосенсибилизатора фото-дитазин в лечении гинекологических заболеваний // Российский биотерапевтический журн. 2008. Т. 7, № 4. С. 47-52.

Информация об авторах

Обухова Наталия Александровна - доктор технических наук (2009), зав. кафедрой телевидения и видеотехники Санкт-Петербургского государственного электротехнического университета "ЛЭТИ" им. В. И. Ульянова (Ленина). Автор более 130 научных работ. Сфера научных интересов - цифровая обработка изображений; машинное обучение; видеоаналитика и прикладные телевизионные системы. Адрес: Санкт-Петербургский государственный электротехнический университет "ЛЭТИ" им. В. И. Ульянова (Ленина), ул. Профессора Попова, д. 5 Ф, Санкт-Петербург, 197022, Россия E-mail: naobukhova@etu.ru

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ян Синь - магистр по направлению "Радиотехника" (2020), аспирант кафедры телевидения и видеотехники Санкт-Петербургского государственного электротехнического университета "ЛЭТИ" им. В. И. Ульянова (Ленина). Автор двух научных работ. Сфера научных интересов - цифровая обработка изображений. Адрес: Санкт-Петербургский государственный электротехнический университет "ЛЭТИ" им. В. И. Ульянова (Ленина), ул. Профессора Попова, д. 5 Ф, Санкт-Петербург, 197022, Россия E-mail: 877355442@qq.com

References

1. Zhu B., Sevick-Muraca E. M. A Review of Performance of Near-Infrared Fluorescence Imaging Devices Used in Clinical Studies. The British J. of Radiology. 2015, vol. 88, no. 1045, p. 20140547. doi: 10.1259/bjr.20140547

2. Boni L., David G., Mangano A., Dionigi G., Rausei S., Spampatti S., Cassionotti E., Fingerhut A. Clinical Applications of Indocyanine Green (ICG) Enhanced Fluorescence in Laparoscopic Surgery. Surgical Endoscopy. 2015, vol. 29, no. 7, pp. 2046-2055. doi: 10.1007/s00464-014-3895-x

3. Schaafsma B. E., Mieog J. S. D., Hutteman M., Vorst J. R., Kuppen P. J. K., Lowik C. W. G. M., Fran-gioni J. V., Velde C. J. H., Vahrmeijer A. L. The Clinical Use of Indocyanine Green as a Near - Infrared Fluorescent Contrast Agent for Image - Guided Oncologic Surgery. J. of Surgical Oncology. 2011, vol. 104, no. 3, pp. 323-332. doi: 10.1002/jso.21943

4. Nishino H., Hatano E., Seo S., Nitta T., Saito T., Nakamura M., Hattori K., Takatani M., Fuji H., Taura K., Uemoto Sh. Real-Time Navigation for Liver Surgery Using Projection Mapping with Indocyanine Green Fluorescence: Development of the Novel Medical Imaging Projection System. Annals of Surgery. 2018, vol. 267, no. 6, pp. 1134-1140. doi: 10.1097/ SLA.0000000000002172

5. Marshall M. V., Rasmussen J. C., Tan I.-Ch., Aldrich M. B., Adams K. E., Wang X., Fife C. E., Maus E. A., Smith L. A., Sevick-Muraca E. M. Near-Infrared Fluorescence Imaging in Humans with Indocyanine Green: a Review and Update. Open Surgical Oncology J. 2010, vol. 2, no. 2, pp. 12-25. doi: 10.2174/1876504101002010012

6. Bali A., Singh S. N. A Review on the Strategies and Techniques of Image Segmentation. 5th Intern. Conf. on Advanced Computing & Communication Technologies, Haryana, India, 21-22 Feb. 2015. Pisca-taway, IEEE, 2015, pp. 113-120. doi: 10.1109/ACCT.2015.63

7. Qiao W, Wu C. Weighting Otsu's Segmentation Method and Its Fuzzy Theory Explanation. Computer Engineering. 2009, vol. 10, pp. 211-213. doi: 10.3969/j.issn. 1000-3428.2009.10.070 (in Chinese)

8. Yuan X., Wu L., Peng Q. An Improved Otsu Method Using the Weighted Object Variance for Defect Detection. Applied Surface Science. 2015, vol. 349, pp. 472-484. doi: 10.1016/j.apsusc.2015.05.033

9. Zhang J., Hu J. Image Segmentation Based on 2D Otsu Method with Histogram Analysis. Intern. Conf. on Computer Science and Software Engineering. Wuhan, China, 12-14 Sept. 2008. Piscataway, IEEE, 2008, vol. 6, pp. 105-108. doi: 10.1109/ CSSE.2008.206

10. Feng Y., Zhao H., Li X., Zhang X., Li H. A Multi-Scale 3D Otsu Thresholding Algorithm for Medical Image Segmentation. Digital Signal Processing. 2017, vol. 60, pp. 186-199. doi: 10.1016/j.dsp.2016.08.003

11. Salem N., Malik H., Shams A. Medical Image Enhancement Based on Histogram Algorithms. Procedia Computer Science. 2019, vol. 163, pp. 300-311. doi: 10.1016/j.procs.2019.12.112

12. Otsu N. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics. 1979, vol. 9, no. 1, pp. 62-66. doi: 10.1109/TSMC.1979.4310076

13. Sezgin M., Sankur B. Survey over Image Thresholding Techniques and Quantitative Performance Evaluation. J. of Electronic Imaging. 2004, vol. 13, no. 1, pp. 146-165. doi: 10.1117/1.1631315

14. Li X., Lovell J. F., Yoon J., Chen X. Clinical Development and Potential of Photothermal and Photo-dynamic Therapies for Cancer. Nature Reviews Clinical Oncology. 2020, vol. 17, no. 11, pp. 657-674. doi: 10.1038/s41571-020-0410-2

15. Choi M. C., Jung S. G., Park H., Lee S. Y., Lee C., Hwang Y. Y., Kim S. J. Photodynamic Therapy for Management Of Cervical Intraepithelial Neoplasia II and III in Young Patients and Obstetric Outcomes. Lasers in Surgery and Medicine. 2013, vol. 45, no. 9, pp. 564-572. doi: 10.1002/lsm.22187

16. Otdelnova O. B., Khashukoeva A. Z., Ibra-gimova M. I. Photodynamic therapy with photodytazin in treatment of gynecologic diseases. Russian J. of Bio-therapy. 2008, vol. 7, no. 4, pp. 47-52. (In Russ.)

Information about the authors

Nataliia A. Obukhova, Dr Sci. (Eng.) (2009), Head of Television and Video Equipment Department, Saint Petersburg Electrotechnical University. The author of more than 130 scientific publications. Area of expertise: digital image processing; machine learning; video analytics.

Address: Saint Petersburg Electrotechnical University, 5 F, Professor Popov St., St Petersburg 197022, Russia E-mail: naobukhova@etu.ru

Xin Yang, Master on Radio Engineering (2020), Postgraduate Student at Television and Video Equipment Department, Saint Petersburg Electrotechnical University. The author of two scientific publications. Area of expertise: digital image processing.

Address: Saint Petersburg Electrotechnical University, 5 F, Professor Popov St., St Petersburg 197022, Russia E-mail: 877355442@qq.com

i Надоели баннеры? Вы всегда можете отключить рекламу.