Научная статья на тему 'О существующих методах удаления зашумлений на изображении'

О существующих методах удаления зашумлений на изображении Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
36
10
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
обработка изображений / фильтрация изображений / машинное зрение / распознавание образов

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — М.C. Мосева, К.Р. Харрасов

В данной работе было проведено исследование существующих классических и нейросетевых методов борьбы с зашумлениями в системах компьютерного зрения. Несмотря на то, что нейросетевые классификаторы демонстрируют высокую точность, добиться устойчивости на зашумленных данных не удается. Рассмотрены методы улучшения изображения на основе билатерального фильтра, гистограммы ориентированных градиентов, интеграции фильтров с Retinex, гамма-нормальной модели, комбинировании темного канала с различными инструментами, а также изменения в архитектуре сверточных нейронных сетей путем доработки или замены ее компонентов и применимости ансамблей нейронных сетей.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — М.C. Мосева, К.Р. Харрасов

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «О существующих методах удаления зашумлений на изображении»

О существующих методах удаления зашумлений на изображении

М.С. Мосева, К.Р. Харрасов Московский технический университет связи и информатики, Москва

Аннотация: В данной работе было проведено исследование существующих классических и нейросетевых методов борьбы с зашумлениями в системах компьютерного зрения. Несмотря на то, что нейросетевые классификаторы демонстрируют высокую точность, добиться устойчивости на зашумленных данных не удается. Рассмотрены методы улучшения изображения на основе билатерального фильтра, гистограммы ориентированных градиентов, интеграции фильтров с Retinex, гамма-нормальной модели, комбинировании темного канала с различными инструментами, а также изменения в архитектуре сверточных нейронных сетей путем доработки или замены ее компонентов и применимости ансамблей нейронных сетей.

Ключевые слова: обработка изображений, фильтрация изображений, машинное зрение, распознавание образов.

Введение

В современном мире системы машинного зрения (далее СМЗ) получили широкое распространение. Благодаря их использованию, удалось достичь ускорения различных работ и автоматизации процессов, в частности, детектированию и классификации образов на изображении. Области применения варьируются от беспилотных транспортных средств, сельскохозяйственных роботизированных систем и сервисов доставки до армейских разведывательных аппаратов и комплексов. Поэтому задачи компьютерного зрения активно исследуются научным сообществом.

Несмотря на преимущества использования таких технологий, они не всегда корректно справляются с условиями внешней среды, в которой выполняют свои функции, поскольку изображение, поступающее на вход, может содержать различные искажения, вызванные погодными условиями (дождь, снег, туман, пылевая буря), фотометрическими преобразованиями (изменение яркости, контрастности, угла обзора), а также шумы (импульсный шум, потеря пакетов, отсутствие частей изображения). Наличие зашумлений на изображении сказывается на точности классификаторов, чьи показатели становятся гораздо хуже относительно чистых изображений. При этом стоит

заметить, что системы фото и видеофиксации не обладают способностью получать чистые данные идеального качества.

В связи с этим одним из способов решения задачи анализа зашумленных изображений является их предобработка. Стандартными методами такой категории являются алгоритмы коррекции цветов, сглаживания, изменения контраста, устранения шума. Несмотря на высокие показатели эффективности, время выполнения подобных алгоритмов зачастую достаточно велико, что делает их неприменимыми к системам реального времени.

В последнее время методы машинного обучения демонстрируют высокое качество классификации изображений. Однако добиться таких же высоких показателей точности классификации и сохранения устойчивости классических нейросетевых архитектур на зашумленных данных не удается. За счет нелинейности функций потерь, малейшие искажения на входе ведут к сильным отклонениям показателей точности на выходе нейросети. Более того, ряд исследователей предполагают, что нейросети, обучающиеся на зашумленных изображениях, выявляют совершенно другие признаки, чем из чистых изображений. Вследствие этого, внимание научного сообщества направлено на разработку и создание устойчивых методов детектирования и классификации объектов на изображении.

Методы удаления шума на изображении

СМЗ сталкиваются с серьезной проблемой из-за наличия зашумлений на реальных данных, делающих изображения непригодными для обработки. В том числе, зашумленные данные влияют на снижение точности классификаторов [1]. Одним из способов решения этой задачи является предобработка и восстановление изображения с целью удаления шума [2]. Существующие методы борьбы с шумом на изображении можно разделить на две категории: классические и нейросетевые.

Классические методы, основанные на усилении

В свою очередь в данной категории методов выделяются два направления исследований. Первое заключается в восстановлении изображений путем улучшения за счет усиления различных параметров изображения, а второй опирается на физику процессов, вызывающих зашумления.

Принцип работы методов усиления направлен на усиление отдельных параметров изображения, таких, как яркость и контрастность, а также выделение деталей и признаков.

Один из методов сглаживания цифрового изображения с сохранением мелких деталей - билатеральный фильтр (1, 2) [3]. Это нелинейный шумоподавляющий фильтр, заменяющий интенсивность каждого пикселя средневзвешенным значением интенсивности соседних пикселей для уменьшения шума с сохранением краев изображения:

Р/ШегеаЫ = ^£т7еп^(т;)/г(II Р(т]) - F(т) И)д3(И т] - т ||)(1)

где РрМегеа - отфильтрованное изображение, F - исходное изображение, т - координаты текущего пикселя, подлежащего фильтрации, П — окно с центром в т, 1Г — ядро диапазона для сглаживания различий в интенсивностях, д5 — пространственное ядро для сглаживания различий в координатах, а нормированный член Шп определяется, как:

= £ш,еп/г(11 Р(т]) - ^(т) Ц)д5(Ц т] - т ||) (2)

Настройка параметров билатерального фильтра является трудоемким процессом. Важно отметить, что для выбора значений его параметров отсутствует теоретическое обоснование. Этот аспект определяет необходимость поиска искомой конфигурации эмпирическим путем, позволяя достичь требований конкретного приложения. В [4] Юти и др.

проводят исследование оптимальных параметров билатерального фильтра с целью улучшения точности классификации объектов современными нейросетевыми моделями (Inception-v3, MobileNet-v2 и SqueezeNet), комбинируя билатеральный фильтр с исходными нейронными сетями, достигая более высокой скорости и точности распознавания, чем в подобных популярных архитектурах. Inception-v3 с интегрированным в нее билатеральным фильтром продемонстрировала точность распознавания в 99.99% на наборе данных CompCars со значениями параметров сглаживания оа = 0,1 с ог = 2 и оа = 0,2 с ог = 0,5.

поврежденных частей на изображении на основе доминирующей ориентации локальных градиентов. Предложенный алгоритм вычисляет ориентацию градиента пикселей для составления матрицы ориентации путем построения гистограммы ориентированных градиентов (далее ГОГ):

где - евклидово расстояние между д-м пикселем и отсутствующим пикселем р, ^ - исходный регион выбранного участка, о - параметр дисперсии функции Гаусса, - участок границы с центром в точке р.

ГОГ способна отображать градиентные структуры или края, что делает ее одной из важнейших локальных характеристик изображения. Получение самого высокого пика на области дает искомую доминирующую ориентацию [6], необходимую для заполнения отрисовкой вычисляемых областей. Скорость обработки изображения 512х512 пикселей в зависимости от степени повреждения варьируется в диапазоне от 0.35 до 0.75 секунд.

В [5] Vahid и др. представляют подход прорисовки

<Рр = {Я : Я е грр П <р, в (д) = к}

М Инженерный вестник Дона, №8 (2023) ivdon.ru/ru/magazine/arcliive/n8y2023/8643

Деградация изображений в подводной среде (размытие, понижение контрастности, уменьшение дальности видимости) также приводит к необходимости улучшения качества получаемых данных вследствие рассеяния и поглощения света. Для решения проблемы авторы [7] представляют метод улучшения подводного изображения LAB-MSR, основанный на фреймворке Retinex [8], имитирующем зрительную систему человека и комбинацию билатерального и трехстороннего [9] фильтров. Retinex призван решать задачу стремления к достижению постоянства цвета, когда в «сцене изображения» преобладает определенное освещение. Тогда как традиционный Retinex применяет процесс свертки к локальным окнам с использованием фильтра Гаусса (3) для аппроксимации компонента освещения, LAB-MSR дополняет его структуру для улучшения подводного изображения за счет расширения охвата учета пространственных областей. Комбинация фильтров (4, 5) используется для разных цветовых каналов подводных изображений для обработки пикселей на трех цветовых каналах.

ЯMSR(x>y) = £?=i WiVog[S(x,y)] - log[F{a¡) х S(x,y)]}

■ 1 - [ (х -х-с еп t erw in)2 + (у - У ■ с en terw in)2 ] \ (3)

t ~ 2па} Р V 2тг<7? )

где S (х,у) - наблюдаемый пиксель изображения в точке (х,у) , <r¿ — коэффициент ядра Гаусса, wi — вес, п — количество весов, I о д [S (х ,у) ] =

- это две составляющие наблюдаемого изображения: яркость и коэффициент отражения, соответственно.

Rbf.msrС-*-»у) = E?=1 Wi{log[S(x,y)] - log[F(ßi)H(ßl)S(xty)]}

г 1 ( - [S (х,у)-S (х■ с en t erw ы,у ■ centerwin)] 2\ (4) -i^p-)

где F(() использует ту же функцию, что и в (5) - распределение Гаусса в пространственной области, обозначает распределение Гаусса

в области значений интенсивности в пределах диапазона фильтра.

(*TFMSR^,y) = ZtiWiilog[S(x,y)] - logiFiajHiaDGianS&y)]}

где F (с7{) и Н(а?) используют те же функции, что и в (5, 6), а С(о[') обозначает фильтр Гаусса на локальных градиентах пикселей.

Они сохраняют края и выступают альтернативой Гауссовому фильтру, учитывая неравномерность распределения деградации не только в пространственной области, но и в соседних значениях интенсивности. Переход в цветовое пространство CIELAB также вызван структурным подобием восприятия человеческим зрением. Предложенный авторами метод значительно улучшает изображения, осветляя их содержимое, исправляя размытые подводной средой цвета, при этом позволяя достигать оптимальной контрастности, а также нивелирует проблему появления артефактов ареола у объектов с резкими краями, присущий фильтрации Гаусса. Значение среднеквадратичной ошибки после обработки изображений предложенным и классическим методом Ке1тех достигает разницы в 1,44 -3,77 раз.

При обработке изображений, содержащих дымку, объекты на таких данных плохо различимы. Для восстановления туманного изображения Грачева и Копылов [10] достигают повышения контрастности и улучшения цветопередачи посредством использования гамма-нормальной модели, заключающейся в применении байесовского подхода: рассмотрении двухкомпонентного случайного поля. При такой формализации задачи восстановления изображения оценивание скрытой байесовской компоненты Х = (хЬ = 1, ...,Ы),Т = {г = ( , ^ = 1, ...,N^2 = 1, ...,N2} происходит по двум изображениям: анализируемому изображению У = (уг, t ЕТ), содержащему дымку и скрытому случайному полю, являющемуся результатом обработки в виде карты рассеивания,

г> Г tt\ 1 /

{Grad [S(x,y)]}-Grad [S (х.center Win,у .center Win)]

2

)

V

получаемой при применении метода темного канала [11]. Авторы опираются на модель атмосферного рассеивания (6) для нахождения очищенного от тумана пикселя ,

уг = таргхг + (1- тара (6)

где - атмосферный свет, , -

карта светопередачи.

Учитывая специфику работы темного канала:

у? = Ш 1 п с Е (Н, с,в )( т1 П/ Е п (с) (у/) ) (7)

где - темный канал изображения , - значение

цветового канала изображения , - локальный блок с центром в . Затем находится значение карты передачи:

(8)

где - коэффициент уровня белого, найдено в результате одной итерации операции Гаусса-Зайделя.

Результирующее изображение получается на основе оценок параметров из (7, 8) после вычисления (6):

У г ~ а

Хг =--1- а

тар1

Авторам удалось достичь эффективности при удалении дымки наряду с получением улучшенной цветопередачи и высокой контрастности. Стоит учитывать тот факт, что время работы данного алгоритма линейно зависит от размера входного изображения.

Основной недостаток данной категории методов заключается в том, что они не учитывают механизм деградации изображения, вследствие чего может происходить сглаживание резких краев, артефакты на краю объектов и прочие искажения, являющиеся причиной потери точности детектирования и классификации объектов на изображении.

Классические методы, основанные на физике

Данная группа методов восстановления изображения в основном рассматривают первопричину ухудшения входных данных с точки зрения физики процесса зашумления и его окончательного влияния на изображение для последующего восстановления цвета. Многие сферы применения СМЗ подвержены воздействию погодных условий. В частности, такая проблема возникает в условиях дымки или тумана при работе беспилотных летательных аппаратов или автопилотируемых транспортных средств. В такой среде атмосферные частицы преломляют или отражают световые лучи, приводя к ухудшению качества изображения - слабому контрасту и низкой цветовой насыщенности.

Теме уменьшения влияния тумана уделяется большое внимание научного сообщества. Среди алгоритмов удаления дымки на изображении в научном сообществе широкое распространение получил метод темного канала (далее МТК), интегрированный с другими инструментами. Согласно Kaiming и др. [12], в большинстве локальных зон изображения в условиях тумана хотя бы на одном цветовом канале содержится несколько темных пикселей, чья интенсивность равна нулю. Таким образом, изображение J можно формализовать с помощью МТК Jdarк следующим образом:

]dark{x) = - min ( min /с(у)) « О

ce{R,G,B} убП*(х)

где - одноканальное (цветное) изображение , -

цветовой канал, - локальная выборка с центром в пикселе .

Для борьбы с распознаванием пораженных растений в агропромышленном секторе в условиях дымки Isha и др. [13] выполняют предобработку затуманенных изображений с применением МТК, необходимых для последующего обучения нейросетевого классификатора. Предложенный метод заключается в вычислении параметра яркости земной атмосферы посредством использования МТК с последующим получением

М Инженерный вестник Дона, №8 (2023) ivdon.ru/ru/magazine/arcliive/n8y2023/8643

карты передачи из нормализованного задымленного изображения для его восстановления на основании найденных параметров.

В [14] Arif и др. впервые объединяют МТК для аппроксимации карты передачи, впоследствии преобразовываемой в карту глубины, и Гауссову кривизну (9) для оценки воздушно-световой карты. Первый компонент предложенного метода выполняет оценку толщины дымки и восстановление «сцен изображения», а второй - сохранение текстур и резких краев.

_ УФЯ*(Ф)УФТ

Ксс = ¡УФг (9)

УФ = (Фх, Фу, Ф2)с - вектор градиента, |УФ| = + + ф2 - это

нормирование УФ, Н(Ф) = I ФуХ Фуу Фуг I , и

уу^гг

ху^уг

это матрица Гессе и ее присоединенная матрица, соответственно.

Для регуляризации Гауссовой кривизны исследователи применили расширенный метод Лагранжа, представляющий из себя систему линейных дифференциальных уравнений в частных производных. Достижение быстрой сходимости выполнено посредством применения быстрого преобразования Фурье. Сравнение с подобными современными методами показало более высокие показатели эффективности борьбы с туманом, а также уменьшение влияния негативных эффектов как на реальных, так и на синтетических данных, сохраняя естественный вид изображений.

Несмотря на принципиально иной подход к устранению зашумлений, основанный на причине появления таковых, простоту и высокие показатели эффективности, данная группа методов занимает большое время обработки данных, что делает их неспособными обрабатывать большие объемы данных

/Ф Ф / ^XX ^ху Фхг\

УФ, Н(ф) = 1 Фух Фуу Фуг I ,

\ ф ф

— ф ф ф ф — Ф Ф Ф Ф — ф ф УУ гх

— Ф Ф Ф Ф — Ф Ф Ф Ф — Ф Ф

— Ф Ф Ф Ф — Ф Ф Ф Ф — ^хх^уу Ф Ф ^ху^ух

в реальном времени, демонстрирует плохие результаты для частей изображения, содержащих небо или белые объекты, вследствие чего существует вероятность некорректного определения параметра атмосферного света, а также неэффективна при неоднородном тумане. Также в реальных системах таким методам необходимы дополнительные параметры для корректной настройки, например, глубина резкости, недоступные конечным пользователям систем и приложений.

Нейросетевые методы

По мере роста сложности, объема и скорости передачи и обработки данных, задействованных во многих вычислительных процессах, парадигма машинного обучения (далее МО) распространилась и заняла главенствующее положение в области аналитики и принятия решений. Технологии искусственных нейронных сетей (далее ИНС) перешли к глубоким нейронным сетям (далее ГНС), применение которых в критически важных для безопасности приложениях (интеллектуальный транспорт, здравоохранение) может привести к негативным последствиям, поэтому требует достаточной устойчивости, в том числе, при работе с зашумленными данными.

В задачах компьютерного зрения детектирование и классификация объектов ГНС демонстрируют выдающиеся результаты, в частности, сверточные нейронные сети (далее СНС). Благодаря чередованию слоев свертки и субдискретизации в многослойной композиции, модель выделяет существенные признаки изображения, переходя к абстрактным деталям и отбрасывая маловажные. Однако наличие шумов на входных данных значительно ухудшает показатели классификации [15]. Aghdam и др. [16] провели множество исследований устойчивости СНС к шуму на изображении. Даже при минимальном искажении, едва заметном человеческому глазу, показатели точности классификации СНС падают. Они

связывают это с тем, что СНС основаны на нелинейных алгоритмах, где небольшое искажение на входе вызывает сильные преобразования выходных данных. Также было проведено исследование устойчивости ансамбля из нескольких СНС при классификации зашумленных данных. По его результатам было доказано, что производительность ансамбля ниже, чем производительность СНС, обученной на незашумленном наборе данных. Несмотря на то, что большое количество исследователей отмечает, что расширение обучающей выборки за счет зашумленных или искаженных изображений может нивелировать проблему робастности классификации, авторы данной статьи утверждают, что после такой методологии обучения СНС по-прежнему остаются чувствительными к шуму. Tsipras и др. [17] предполагают, что снижение показателей точности робастных классификаторов на не зашумленных данных происходит потому, что устойчивые классификаторы обучаются кардинально другим особенностям, чем стандартные классификаторы.

В [18] Momeny и др. предложили архитектуру СНС для классификации зашумленных изображений, устойчивую к различным зашумлениям и искажениям, не требующую предварительной обработки. Данный метод изменяет архитектуру базовой СНС, добавляя в начало сети слой карты шума, а также слой адаптивного изменения размера изображения и адаптивную фильтрацию в виде измененной операции свертки. Слой карты шума служит для обнаружения искажений. Для каждого изображения в зависимости от типа зашумленности создается карта шума. Импульсный шум выявляется с помощью схемы локального консенсусного индекса [19], потеря пакетов при передаче изображения обнаруживается на основе содержимого изображения, отсутствующие части изображения выявляются, используя целевые области, поврежденные изображения - с использованием статистического подхода [20] и искаженные изображения - с использованием

метода аутентификации изображений [21]. Слой адаптивного изменения размера улучшает стандартный метод уменьшения изображения, учитывая карту шума для удаления зашумленного пикселя. Таким образом, отбрасывание зашумленных пикселей предотвращает их появление на следующих слоях. Адаптивная операция свертки также предотвращает попадание зашумленных пикселей на следующий слой за счет отказа от обработки таких пикселей. Учитывая, что оператор свертки последовательно применяется несколько раз, такая процедура может проводиться многократно, что позволяет повысить показатели классификации.

Несмотря на высокие показатели устойчивости классификации к различным видам шума на изображении, отсутствие необходимости предварительной обработки зашумленных данных и ускорение классификации на этапе обучения за счет архитектурных изменений, данная модель робастна только к импульсному шуму, битым пикселям и потере кадров и не сможет увеличить надежность системы, работающей в тяжелых погодных условиях.

Li и др. [22] исследуют применимость вейвлета в современных архитектурах СНС (VGG, ResNet, DenseNet) для подавления негативного эффекта шума. Вейвлеты [23] широко применяются в качестве инструментов обработки сигналов для частотно-временного анализа. Операция дискретного вейвлет преобразования (далее ДВП) раскладывает данные на компоненты в различных частотных диапазонах, а операция обратного дискретного вейвлет преобразования (далее ОДВП) восстанавливает данные с использованием выходных данных ДВП. Зашумления на изображении обычно состоят из высокочастотных компонентов, тогда как низкочастотные компоненты хранят базовую структуру объектов, необходимых для извлечения признаков и корректного обучения СНС. Применение обычной операции объединения может привести к субдискретизации шума и ухудшению

помехоустойчивости СНС. Авторы предлагают методологию на основе замены операции объединения на сочетание процедур ДВП и ОДВП. Предложенный метод позволяет разложить данные на низкочастотную и высокочастотную составляющую для последующей фильтрации высокочастотных компонентов, содержащих общий шум, и понижения частоты дискретизации с использованием ДВП, и затем восстановить обработанные данные посредством ОДВП.

Результаты [24] исследования указывают на необходимость применения методов шумоподавления до передачи изображений в классификатор в условиях работы с реальными данными, основанных на ГНС. Однако в процессе борьбы с шумом под воздействием методов пространственной фильтрации изображения могут становиться размытыми. Авторы работы [25], основанной на подобной методологии, также сталкиваются с проблемами точности классификации в случае с сильно зашумленными данными. Более того, на практике часто подразумевается, что классификаторы эффективны при определенном уровне шума, который соответствует обучающему набору данных.

Широкое применение для борьбы с шумом на изображении получила вариация автоэнкодера, названная шумоподавляющим автоэнкодером (далее ША) [26]. ША представляет собой трехслойную нейросеть, относящуюся к типу обучаемой без учителя. В отличие от базового автоэнкодера на скрытом слое собирается информация о статистической зависимости данных друг от друга вместо изучения тривиальных особенностей. ША получает на вход искаженное произвольным шумом изображение, которое он обучается восстанавливать до исходного вида. Sudipta Singha Roy и др. [27] предлагают подход на основе комбинации ША и СНС: первая модель обучается на изображениях с низким уровнем шума, вторая - на не зашумленных изображениях. Оба процесса проходят независимо друг от друга. Затем

модели упорядочиваются следующими способами в нескольких конфигурациях: СНС, ША-СНС, ША-ША-СНС, и результаты трех комбинаций объединяются для работы всей системы. СНС, обучающаяся на не зашумленных изображениях, дает высокие показатели классификации изображений, не содержащих шум, а структура с одиночным и двойным последовательным ША устойчива к слабо и сильно зашумленным изображениям соответственно. Точность классификации данной модели не зависит от уровня шума, но зависит от его типа. Эффективность работы как на чистых, так и на различной степени зашумленных изображениях достигается за счет трех архитектурных блоков, однако метод рассчитан на устойчивость только к одному типу шума, искажающего данные обучающей выборки.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Благодарность

Авторы выражают признательность декану факультета Информационные технологии Московского Технического Университета Связи и Информатики Городничеву Михаилу Геннадьевичу за чуткое руководство, содействие и ценные советы при написании настоящей статьи.

Литература

1. Liao F., Liang M., Dong Y., Pang T., Hu X., Zhu, J. Defense against adversarial attacks using high-level representation guided denoiser, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018, pp. 1778-1787.

2. Islam M.T., Mahbubur Rahman S.M., Omair Ahmad M., Swamy M.N.S. Mixed Gaussian-impulse noise reduction from images using convolutional neural network, Signal Process. Image Commun. 2018. 68. pp. 26-41.

3. Tomasi C., Manduchi R. Bilateral filtering for gray and color images, Sixth International Conference on Computer Vision, 1998, pp. 839-846.

4. Kiran V., Dash Sonali, Parida Priyadarsan Edge preserving noise robust deep learning networks for vehicle classification, Concurrency and Computation: Practice and Experience. 2022. 10.1002/cpe.7214. pp. 1-14.

5. Vahid K. Alilou, Farzin Yaghmaee Non-texture image inpainting using histogram of oriented gradients, Journal of Visual Communication and Image Representation. 2017. Volume 48. ISSN 1047-3203. pp. 43-53.

6. Lowe D. G. Distinctive image features from scale-invariant keypoints, International journal of computer vision. 2004. 60 (2). pp. 91-110.

7. Zhang S., Wang T., Dong J., Yu H. Underwater image enhancement via extended multi-scale Retinex, Neurocomputing. 2017. Volume 245. ISSN 0925-2312. pp. 1-9.

8. Land E.H. The retinex, Am. Sci. 1964. 52. pp. 247-264.

9. Choudhury P., Tumblin J. The trilateral filter for high contrast images and meshes, Eurographics Workshop on Rendering Techniques, 2003, Leuven, Belgium, pp. 186-196.

10.Грачева И.А., Копылов А.В. Быстрые алгоритмы обработки изображений на основе гамма-нормальной модели скрытого поля, Машинное обучение и анализ данных. 2015. Т. 1. № 12, 1. 1677. 10.21469/22233792.1.12.03.

11.He K., Sun J., Tang X. Single image haze removal using dark channel prior, IEEE Trans. Pattern Anal. Mach. Intell. 2010. vol. 33. no. 12. pp. 2341-2353.

12.Kaiming H., Jian S., Xiaoou T. Single image haze removal using dark channel prior, In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2009. 33(12). pp. 1956-1963.

13.Isha K., Vikas Kh., Jyoti V., Renu P., Rajeev K. IoT-Fog-enabled robotics-based robust classification of hazy and normal season agricultural images for

weed detection, Paladyn, Journal of Behavioral Robotics. 2023. vol. 14. no. 1. pp. 20220105.

14.Arif M., Badshah N., Khan T.A., Ullah A., Rabbani H., Atta H., et al. A new Gaussian curvature of the image surface based variational model for haze or fog removal, PLoS ONE 18(3): e0282568, 2023, pp. 1-29.

15.Xie C., Wu Y., Laurens van der M., Alan L Yuille, He K. Feature denoising for improving adversarial robustness, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019, pp. 501-509.

16.Aghdam H., Heravi E., Puig D. Analyzing the Stability of Convolutional Neural Networks against Image Degradation, Proceedings of the 11th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, 2016, pp. 370-382.

17.Tsipras D., Santurkar S., Engstrom L., Turner A., Madry A. Robustness may be at odds with accuracy, arXiv preprint arXiv: 1805.12152, 2018, pp. 1-24.

18.Momeny M., Sarram M., Latif A., Sheikhpour R., Zhang Y. A Noise Robust Convolutional Neural Network for Image Classification, Results in Engineering. 2021. Volume 10. 100225. ISSN 2590-1230. pp. 1-12.

19.Xiao X., Xiong N.N., Lai J., Wang C.-D., Sun Z., Yan J. A Local Consensus Index Scheme for Random-Valued Impulse Noise Detection Systems, IEEE Trans. Syst. Man, Cybern. Syst., 2019, pp. 1-17.

20.Everitt R.G., Glendinning R.H. A statistical approach to the problem of restoring damaged and contaminated images, Pattern Recognit. 2009. 42. pp. 115-125.

21.Qin C., Chang C.C., Chen K.N. Adaptive self-recovery for tampered images based on VQ indexing and inpainting, Signal Processing. 2013. 93. pp. 933946.

22.Li Q., Shen L., Guo Sh., Lai, Zh. Wavelet Integrated CNNs for Noise-Robust Image Classification, IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 7243-7252.

23.Stephane G Mallat A theory for multiresolution signal decomposition: the wavelet representation, IEEE Transactions on Pattern Analysis & Machine Intelligence. 1989. (7). pp. 674-693.

24.Lu D., Weng Q. A survey of image classification methods and techniques for improving classification performance, International Journal of Remote Sensing. 2007. vol. 28. issue 5. pp. 823-870.

25.Du B., Xiong W., Wu J., Zhang L., Zhang L., Tao D. Stacked convolutional denoising auto-encoders for feature representation, IEEE Transactions on Cybernetics. 2017. vol. 47. issue 4. pp. 1017-1027.

26.Vincent P., Larochelle H., Bengio Y., Manzagol P. A. Extracting and composing robust features with denoising autoencoders, Proceedings of the 25th International Conference on Machine Learning, 2008, pp. 1096-1103.

27.Sudipta Singha Roy, Imran Hossain Sk., Akhand M. A. H., Murase K. A Robust System for Noisy Image Classification Combining Denoising Autoencoder and Convolutional Neural Network, International Journal of Advanced Computer Science and Applications (IJACSA). 2018. 9(1). pp. 224-235.

References

1. Liao F., Liang M., Dong Y., Pang T., Hu X., Zhu, J. Defense against adversarial attacks using high-level representation guided denoiser, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018, pp. 1778-1787.

2. Islam M.T., Mahbubur Rahman S.M., Omair Ahmad M., Swamy M.N.S. Signal Process. Image Commun. 2018. 68. pp. 26-41.

3. Tomasi C., Manduchi R. Bilateral filtering for gray and color images, Proceedings of the IEEE Sixth International Conference on Computer Vision, 1998, pp. 839-846.

4. Kiran V., Dash Sonali, Parida Priyadarsan Concurrency and Computation: Practice and Experience. 2022. 10.1002/cpe.7214. pp. 1-14.

5. Vahid K. Alilou, Farzin Yaghmaee Journal of Visual Communication and Image Representation. 2017. Volume 48. ISSN 1047-3203. pp. 43-53.

6. Lowe D. G. International journal of computer vision. 2004. 60 (2). pp. 91110.

7. Zhang S., Wang T., Dong J., Yu H. Neurocomputing. 2017. Volume 245. ISSN 0925-2312. pp. 1-9.

8. Land E.H. Am. Sci. 1964. 52. pp. 247-264.

9. Choudhury P., Tumblin J. Eurographics Workshop on Rendering Techniques, 2003, Leuven, Belgium, pp. 186-196.

10.Gracheva I.A., Kopylov A.V. Machine Learning and Data Analysis. 2015.Vol. 1 (12). 1. 1677. 10.21469/22233792.1.12.03.

11.He K., Sun J., Tang X. Single image haze removal using dark channel prior, Proceedings of the IEEE Trans. Pattern Anal. Mach. Intell. 2010. vol. 33. no. 12. pp. 2341-2353.

12.Kaiming H., Jian S., Xiaoou T. Single image haze removal using dark channel prior, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2009. 33(12). pp. 1956-1963.

13.Isha K., Vikas Kh., Jyoti V., Renu P., Rajeev K. Journal of Behavioral Robotics. 2023. vol. 14. no. 1. pp. 20220105.

14.Arif M., Badshah N., Khan T.A., Ullah A., Rabbani H., Atta H., et al. PLoS ONE 18(3): e0282568, 2023, pp. 1-29.

15.Xie C., Wu Y., Laurens van der M., Alan L Yuille, He K. Feature denoising for improving adversarial robustness, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019, pp. 501-509.

16.Aghdam H., Heravi E., Puig D. Analyzing the Stability of Convolutional Neural Networks against Image Degradation, Proceedings of the 11th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, 2016, pp. 370-382.

17.Tsipras D., Santurkar S., Engstrom L., Turner A., Madry A. arXiv preprint arXiv:1805.12152, 2018, pp. 1-24.

18.Momeny M., Sarram M., Latif A., Sheikhpour R., Zhang Y. Results in Engineering. 2021. Volume 10. 100225. ISSN 2590-1230. pp. 1-12.

19.Xiao X., Xiong N.N., Lai J., Wang C.-D., Sun Z., Yan J. A Local Consensus Index Scheme for Random-Valued Impulse Noise Detection Systems, Proceedings of the IEEE Trans. Syst. Man, Cybern. Syst., 2019, pp. 1-17.

20.Everitt R.G., Glendinning R.H. Pattern Recognition. 2009. 42. pp. 115-125.

21.Qin C., Chang C.C., Chen K.N. Signal Processing. 2013. 93. pp. 933-946.

22.Li Q., Shen L., Guo Sh., Lai, Zh. Wavelet Integrated CNNs for Noise-Robust Image Classification, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 7243-7252.

23.Stephane G Mallat A theory for multiresolution signal decomposition: the wavelet representation. Proceedings of the IEEE Transactions on Pattern Analysis & Machine Intelligence. 1989. (7). pp. 674-693.

24.Lu D., Weng Q. International Journal of Remote Sensing. 2007. vol. 28. issue 5. pp. 823-870.

25.Du B., Xiong W., Wu J., Zhang L., Zhang L., Tao D. Stacked convolutional denoising auto-encoders for feature representation, Proceedings of the IEEE Transactions on Cybernetics. 2017. vol. 47. issue 4. pp. 1017-1027.

26.Vincent P., Larochelle H., Bengio Y., Manzagol P. A. Extracting and composing robust features with denoising autoencoders, Proceedings of the 25th International Conference on Machine Learning, 2008, pp. 1096-1103. 27.Sudipta Singha Roy, Imran Hossain Sk., Akhand M. A. H., Murase K. International Journal of Advanced Computer Science and Applications (IJACSA). 2018. 9(1). pp. 224-235.

i Надоели баннеры? Вы всегда можете отключить рекламу.