Научная статья на тему 'Алгоритм автоматического построения процедуры локальной нелинейной обработки изображений на основе иерархической регрессии'

Алгоритм автоматического построения процедуры локальной нелинейной обработки изображений на основе иерархической регрессии Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
429
91
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЛОКАЛЬНАЯ ОБРАБОТКА / ИЕРАРХИЧЕСКАЯ РЕГРЕССИЯ / ВЫЧИСЛИТЕЛЬНАЯ ЭФФЕКТИВНОСТЬ / LOCAL PROCESSING / HIERARCHICAL REGRESSION / COMPUTATIONAL EFFICIENCY

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Копенков Василий Николаевич, Мясников Владислав Валерьевич

В работе предложен алгоритм автоматического построения (конструирования) вычислительной процедуры локальной обработки цифровых сигналов/изображений. Вычислительная процедура основана на локальном дискретном вейвлет-преобразовании изображения, используемом для предварительного анализа изображения, и иерархической регрессии, используемой для получения результата преобразования. Построение процедуры производится на основе анализа прецедентов обработки (пар изображений «вход»-«выход»), учитывает ограничение по сложности конструируемого преобразования и максимизирует качество обработки и обобщающую способность.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Копенков Василий Николаевич, Мясников Владислав Валерьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

AN ALGORITHM FOR AUTOMATIC CONSTRUCTION OF COMPUTATIONAL PROCEDURE OF NON-LINEAR LOCAL IMAGE PROCESSING ON THE BASIS OF HIERARCHICAL REGRESSION

An algorithm of the automatic construction of a computational procedure of the local digital signal and image processing is presented. The computational procedure is based on a local discrete wavelet transform of the image used for the preliminary image analysis, and a hierarchical regression used to obtain the transformation results. The construction process based on the precedent usage analysis ("input" "output" image pairs) takes into consideration the limitation on the complexity of the conversion constructed, maximizing the processing quality and generalization capability.

Текст научной работы на тему «Алгоритм автоматического построения процедуры локальной нелинейной обработки изображений на основе иерархической регрессии»

АЛГОРИТМ АВТОМАТИЧЕСКОГО ПОСТРОЕНИЯ ПРОЦЕДУРЫ ЛОКАЛЬНОЙ НЕЛИНЕЙНОЙ

ОБРАБОТКИ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ИЕРАРХИЧЕСКОЙ РЕГРЕССИИ

Копенков В.Н.1,2, Мясников В.В. 2 1 Самарский государственный аэрокосмический университет имени академика С.П. Королёва (национальный исследовательский университет), 2 Институт систем обработки изображений РАН

Аннотация

В работе предложен алгоритм автоматического построения (конструирования) вычислительной процедуры локальной обработки цифровых сигналов/изображений. Вычислительная процедура основана на локальном дискретном вейвлет-преобразовании изображения, используемом для предварительного анализа изображения, и иерархической регрессии, используемой для получения результата преобразования. Построение процедуры производится на основе анализа прецедентов обработки (пар изображений «вход»-«выход»), учитывает ограничение по сложности конструируемого преобразования и максимизирует качество обработки и обобщающую способность.

Ключевые слова: локальная обработка, иерархическая регрессия, вычислительная эффективность.

Введение

Локальная обработка изображений - один из важнейших этапов анализа визуальной информации. Обычно такая обработка связана с выполнением некоторого количества вычислительных процедур, предназначенных для решения таких задач, как восстановление и фильтрация изображений, контрастирование, повышение яркости, поэлементные преобразования, ранговые операции, поэлементная классификация, индексация и сегментация, классификация областей на изображении. Исторически первыми для обработки использовались линейные локальные методы, допускающие построение оптимальных в некотором смысле процедур обработки [1 - 6]. Однако появление новых задач обработки цифровых сигналов (обработка видеоинформации, звука, космических снимков и т.п.), задач обработки больших объёмов информации в режиме реального времени, а также требование повышения эффективности обработки привели к необходимости использования нелинейных преобразований [5, 7, 10 - 12].

Традиционный путь построения процедур обработки включает в себя полуэвристический подбор или синтез большого числа разнообразных обрабатывающих процедур, покрывающих собой всё разнообразие математических моделей формирования и обработки оптических сигналов. После чего проверяется применимость отобранных алгоритмов и функций для каждого конкретного случая, что ведёт к разрастанию и усложнению компьютерных систем анализа и обработки сигналов и изображений, а также к снижению вычислительной эффективности. Сами же алгоритмы зачастую обладают низкой вычислительной эффективностью и не обеспечивают требуемого качества обработки. И хотя сам алгоритм может оказаться достаточно простым, сам процесс построения / выбора процедуры обработки остаётся очень ресурсоёмким.

При разработке алгоритмов автоматической обработки изображений одним из основных требований остаётся универсальность их применения, что, в

свою очередь, требует адаптивности самих алгоритмов. Общая схема построения адаптивных процедур описана в работах [4, 5, 11, 12]. При этом либо накладываются ограничения на вид функции (нелинейная функция - сплайны, кусочно-постоянные функции, нейросети), либо задаётся специфический (в большинстве случаев параметрический) класс алгоритмов обработки. Самому этапу обработки изображения (применению выбранной функции или алгоритма) предшествует этап анализа, необходимый для выявления всевозможных характеристик сигнала, и последующая «подстройка» параметров выбранных алгоритмов, что является вычислительно сложной задачей. Недостатком такого подхода являются привязка к конкретному классу процедур обработки изображений, сложность оценки их параметров, а также малая чувствительность к изменяющимся свойствам входных данных. Поэтому актуальной остаётся проблема построения (конструирования) вычислительных процедур, существенным образом зависимых от свойств обрабатываемых данных и примеров обработки. Дополнительным ограничением на выбор конкретных вычислительных процедур являются жёсткие требования к вычислительной эффективности, которые присутствуют в различных задачах анализа и обработки сигналов.

Один из наиболее распространённых на настоящий момент подходов заключается в реализации кибернетического принципа «чёрного ящика» (термины других авторов: обработка через распознавание, обработка по прецедентам), когда само преобразование и его параметры определяются на основании анализа входных и выходных сигналов или изображений [7, 12, 15]. Наиболее известным подходом к построению относительно универсальных вычислительных процедур локальной адаптивной обработки цифровых сигналов и изображений, реализующих принцип «чёрного ящика», является использование аппарата нейронных сетей [12]. Альтернативным, но существенно менее развитым подходом, является использование иерархических вычислительных конструкций, таких, как дерево

решений и дерево регрессии [7, 10 - 11]. Построение эффективных вычислительных процедур локальной обработки изображений на основе иерархической регрессии требует одновременного учёта таких критериев, как вычислительная сложность процедуры, качество решающего правила (ошибка), его обобщающая способность и соответствие ограничениям по достаточности обучающей выборки. Разработка алгоритма построения вычислительной процедуры локальной обработки сигналов/изображений, удовлетворяющего указанным требованиям, является основной целью настоящей работы. Кроме того, в работе демонстрируется работоспособность разработанной процедуры, а также эффективность её применения для решения различных задач локальной обработки изображений.

Работа организована следующим образом. Формальная постановка задачи локальной обработки, а также схема построения процедуры обработки на основе иерархической регрессии представлены в первом разделе. Во втором разделе рассматривается описание технологии формирования описания фрагмента изображения (признаков) на основе дискретного локального вейвлет-преобразования. Третий раздел посвящён описанию технологии построения древовидных иерар-

х(п1,п2)

ООО 0 0 0

ООО г.е— 0 [0 0 0 0 0

0 0

0 |о 0 0 0

о [р__0_ _о| 0 0

ООО 0 0 о'

ООО 0 0 0

ООО 0 0 0

ООО 0 0 0

хических структур вместе с анализом обобщающей способности древовидной модели по критериям Вап-ника и Воронцова [1 - 2]. Далее, в четвёртом разделе, приведена схема разработанного алгоритма построения вычислительно эффективной процедуры локальной обработки изображений на основе иерархической регрессии с ограничениями. В пятом разделе представлены результаты различных экспериментальных исследований по анализу применимости и эффективности разработанного алгоритма. В заключение работы приведены выводы, рекомендации, благодарности и список использованной литературы.

1. Постановка задачи построения вычислительной процедуры локальной обработки изображений

Модель локальной обработки изображений, реализующая принцип «чёрного ящика» (обработка через распознавание, обработка по прецедентам), предполагает разбиение преобразования на два этапа: этап формирования описания фрагмента изображения (формирования признаков) и этап вычисления результатов преобразования. Общая схема обработки представлена на рис. 1.

г(п !,п2)

*|е

Построение

описания фрагмента

Ф1

У1

У2

Ук-1

Функция регрессии /

преобразования ф2

0 0 0 0 0 0

о о о о о о

0 0 0 0 0 0

О ОI» ООО

0/0 0 ООО

О 0 0 0 0 0

0 0 0 0 0 0

0 0 0 0 0 0

0 0 0 0 0 0

Рис. 1. Схема локальной Для формализации задачи локальной обработки изображения на основе представленной схемы введём следующие обозначения:

0 = {(п1,п2),п1 = 0,Ы1 -1,п2 = 0,Ы2 -1} - область определения изображения, х: 0 ® Я - входное изображение,

(П| ,п2 х(п1 ,п2)

0(п1,п2) с0, - фрагмент изображения:

0(п1,п2) ={(п1 + т1,п2 + т2) : т1 = 0,М1 — 1,т2 = 0,М2 — 1}

(сужение изображения на область 9: х9

; п1.п2)

),

М1 М1

9(nl, п2) = |(п1 + ml, п2 + т2): т1 = 2 - 2- 2 2 - 2

- центрированный фрагмент,

Ы1, Ы2 - размеры изображения, М1,М2 - размеры фрагмента («окна» обработки).

На первом этапе из некоторых априорных сведений об объекте (фрагменте изображения X) производится формирование определённого набора свойств, описаний, или, в терминах распознавания образов, признаков у = (у0,у1,...,ук—1)Т, у е , на

обработки изображений

основе преобразования Ф1 : кМ>хМ2 ® Як . Такое преобразование решает две задачи. Во-первых, приведение данных к виду, удобному для дальнейшей обработки. Во-вторых, построение описания вычислительно эффективным образом - в режиме «скользящего окна» - позволяет существенно повысить эффективность методов расчёта.

Сформированное описание фрагмента изображения на втором этапе используется для вычисления результата преобразования Ф2: Як ® К (построения результирующего изображения Т).

Построение преобразования (вычислительной процедуры) осуществляется на основе прецедентов обработки - набора согласованных пар

{х| ?(пх, п2)} (обучающей выборки)

I |9(п1'пг) -I (п1 ,п2 ):9(п! ,п2 )с0

так, чтобы ошибка обработки была минимальной. В работе рассматривались преобразования двух типов: - преобразования с вещественным выходом К ° Я и определением ошибки преобразования в виде:

1

(п1 ,п2 )

е = |0 X 2(п1,пг) — Ф2(ФДх|

9(п1 ,п2 )

))

® шт ;(1)

Ф1.Ф2

2

- преобразования с выходом в виде К = {0,1,2,...Ь-1} (конечное множество значений) и определением ошибки преобразования в виде:

е = Л X !(ф2(ф1((

И С»1.»2)

>„И2))),г("1,П2))

где (И],п2): е(и1,и2) С0, 1(а,Ь) =

0,

а = Ь [1, а ф Ь'

Преобразования первого типа характерны для задач фильтрации, восстановления изображений, препарирования и др. Второй тип - для задач поэлементной или локальной классификации, выделения границ, углов и т. п.

В качестве составляющих указанной вычислительной процедуры в настоящей работе выступают:

- для описания фрагмента изображения (реализации

отображения ф1 ) - семейство признаков на основе локальных ДВП сигналов и изображений (п. 2 работы),

- для вычисления результата преобразования (реали-

зации отображения ф2 ) - дерево регрессии / решений (п. 3 работы).

2. Описание фрагмента изображения

В качестве семейства признаков предлагается использовать семейство признаков на основе локальных ДВП сигналов и изображений. Такие признаки соответствуют следующим требованиям:

• существуют эффективные алгоритмы расчёта [13 - 14];

• полнота описания исходного сигнала;

• последовательное получение и использование. Вопросы, связанные с построением признаков на

основе локальных ДВП, а также их достоинства и особенности при использовании в задачах локальной обработки изображений рассмотрены в работах [13 - 14].

Помимо этого, представляется логичным использование различных алгоритмов расчёта ЛДВП, в зависимости от типа решаемой задачи обработки изображения:

> на основе рекурсивного алгоритма [14] - для работы с низкочастотной составляющей, для решения задач классификации объектов на изображениях, сегментации изображений и т. д.;

> на основе модифицированного алгоритма [13 - 14] - для работы одновременно как с низкочастотной, так и с высокочастотной составляющими, что позволяет эффективно решать задачи фильтрации, восстановления, поэлементных преобразований изображений и т. д.

Традиционная схема расчёта ЛДВП, основанная на схеме Малла [12], представима в виде:

1(р) = X к(" - 2Р) • Щ+ (п), Щ+Др) =

= X 8(п - 2р) • < (п)

где I = 0, М , М - размер локального окна.

В случае использования базиса Хаара, вычислительная сложность такой обработки составит:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

и* (Ц,Ь2) = 2(2-1)

операций на отсчёт для всех вейвлетов уровня от уровня Ь1 до уровня Ь2.

При использовании модифицированного алгоритма сложность обработки сократиться до:

и* (А,ь2) ~ 212 -Ь +1.

N

Рекурсивный алгоритм в случае использования базиса Хаара представим в виде:

щ (п) = м- (п -1) - х (п + 21 -1) + +2х(п) - х (п - 2-1 -1).

И сложность обработки, соответственно:

и*( 11,Ь2) = 3( 12 -11 +1).

3. Деревья регрессии и решений

Дерево регрессии (или дерево решений) [10, 11] представляет собой иерархическую структуру, нетерминальные вершины которой определяют разбиение пространства признаков, а терминальные -элементарную функцию преобразования значений признаков в значение результата преобразования.

Процедуры на основе деревьев регрессии обладают преимуществами (в частности, перед нейронными сетями):

• автоматическая коррекция «архитектуры» преобразования;

• автоматическая локальная селекция признаков как следствие процесса разбиения;

• конечность процесса построения и настройки (вычислительная эффективность);

• простота параметрической настройки элементарной регрессии.

Процесс построения дерева регрессии состоит из следующих этапов:

1) Построение дерева регрессии. Сначала необходимо определить параметры и способ построения иерархической структуры, а именно: выделить вершины, требующие деления на основе оценки ошибки в них, а также определить параметры разбиения вершины (порог и количество разбиваемых вершин) с сопутствующим выбором «лучшего признака», совокупность которых даёт максимальное уменьшение ошибки.

После чего выполняется расчёт коэффициентов регрессии для каждой терминальной вершины метода наименьших квадратов (решение СЛАУ по всем элементам обучающей выборки, попавшим в вершину):

/(У) = аТУ'; У =(Уo, .>'l,..., Ук-1,1)Т.

е2 = Е\\аТУ-8(У) ||2, е2 = (аТи - Г)Т(аТи - Г),

где а = (ииТ )-1иГ .

пеП

пеП

8

При этом в случае использования линейной регрессии возможны варианты, когда элементов выборки, попавших в вершину, недостаточно для расчёта коэффициентов регрессии. Для решения данной проблемы проводится регуляризация, то есть доопределение СЛАУ за счёт элементов выборки верхнего уровня, и решение системы с ограничениями, гарантирующими нулевую ошибку для точек целевой терминальной вершины.

(аТУ„ = я(Уп), п = 1, N,

|(aTU-г) (aTU-г)

® min.

Для решения этой задачи используется метод множителей Лагранжа с последующим решением соответствующей системы уравнений:

JF M k

JF = X 2 yfm >( g (У>) - 5ХУ«) -

"a,- m=1 k=0

- X У-(и)ти = 0, i = 0, *,

J^ = g (У(j)) - X

(j) _

= 0, j = 1, N.

Для преобразования второго типа (выходы в виде K = {0,1,2,...!-1}- решение задач классификации) решение формируется в виде: f (У) = с,

где с = {l: nj = max nj}.

I l j=0,!-1 jJ

При этом аналогичная регуляризация заключается в использовании результатов классификации вершины «верхнего» уровня для определения номера класса в целевой терминальной вершине:

I j-1

l = argmaxnj ,

jcS,

где Sv = {l: nj = max nj},

I j=0,!-1 j J

j - терминальная вершина, j_1 - нетерминальная вершина, предшествующая вершине j, Sv - множество индексов для вершины j ,

njj - количество объектовj-ого класса, попавших

в область вершины j . При этом ошибка классификации:

е = N2 X!(f (У),z), где I(a, b) = j0,

a = b a ф b

2) Анализ обобщающей способности дерева регрессии.

При ограниченном объёме имеющихся данных нельзя неограниченно увеличивать сложность решающего правила, иначе процедура обработки

«максимально адаптируется» к обучающей выборке и будет демонстрировать плохие результаты на других изображениях рассматриваемого класса. С другой стороны, если «недоучить» процедуру, то ошибка преобразования будет неприемлемой как на обучающей, так и на контрольной выборке. Очевидно, что для всякой задачи существует оптимальная сложность модели, при которой достигается наилучшее качество обобщения.

Для выбора правила остановки процедуры обучения традиционно используется статистическая теория Вапника-Червоненкиса [1], которая устанавливает взаимосвязь трёх параметров обучения: ошибку обучения, достоверность (надёжность) и длину обучающей выборки. Теория справедлива для любой восстанавливаемой зависимости, произвольного распределения объектов в пространстве и очень широкого класса методов обучения, то есть не учитываются многие существенные особенности процесса обучения. Как следствие, получаемые с её помощью оценки длительности обучения оказываются чрезмерно завышенными. В настоящей работе используется альтернативный подход к оценке обобщающей способности обучения, основанный на комбинаторной теории надёжности обучения по прецедентам К. Воронцова [2]. Основные исследования в комбинаторной теории направлены на то, чтобы показать, как именно следует проводить настройку параметров, чтобы избежать опасности переобучения.

Как было сказано ранее, малая частота ошибок на заданной обучающей выборке в общем случае не гарантирует, что построенный алгоритм будет столь же хорошо работать на остальных выборках. При этом частота ошибок на некоторой контрольной выборке О', в общем случае не пересекающейся с обучающей выборкой О*, также не вполне адекватно характеризует качество обучения. Недостаток такого подхода в том, что фиксируется некоторое, вообще говоря, произвольное разбиение выборки

ОТ = О* и О' на обучающую и контрольную части

2

и даже если значение еО' достаточно мало, то нет гарантии, что при другом разбиении ОТ = О* и О' той же выборки значение еО'. будет также мало.

Из этих соображений вытекает естественное требование, чтобы функционал, характеризующий качество обучения на конечной выборке, был инвариантен относительно произвольных перестановок выборки [2].

Обозначим через (О*п, О'п), п = 1,2,..., N все возможные разбиения выборки ОТ на обучающую и контрольную. Введём у(|(Оп),О'п) как частоту

ошибок алгоритма |(Оп), построенного на основе выборки Оп, проверяемого по выборке О'п. Число всех N разбиений выборки равно С!Т .

И=1

Функционал полного скользящего контроля, характеризующий качество обучения метода т(О) на конечном наборе объектов О и обладающий свойством инвариантности:

1 "

ягс (т(О), О)=- X Кт(оп), оп).

N п=1

(2)

В [2] доказано, что математическое ожидание данного функционала качества ограничено:

(т(О), о) < р; (л),

где Р;'(Л) - функционал равномерного отклонения частоты ошибок в 2 выборках из теории Вапника-Червоненкиса [1 - 2].

Далее, если рассматривать к как ёмкость класса решающих функций, то можно выписать оценку для (2) в виде:

е;'е (т(О), О) < (С?+с?+...с?к)

с;

к\ ^Т—е'

(3)

Данная оценка позволяет существенно (на порядки) снизить требования к длине обучающей выборки. Кроме того, данная оценка учитывает все три фактора: особенности распределения объектов, особенности восстанавливаемой зависимости и особенности метода обучения.

4. Алгоритм автоматического построения вычислительной процедуры локальной обработки сигналов и изображений

Для эффективной реализации «универсальной» нелинейной схемы обработки на основе иерархической регрессии необходимо решить ряд задач:

1) формирование эффективных систем локальных признаков вместе с разработкой алгоритмов быстрого вычисления значений признаков;

2) выбор и обоснование параметров иерархической структуры, таких, как параметры остановки, разбиение признакового пространства, выбор вида элементарной регрессии в терминальных вершинах и т.д., позволяющих строить вычислительно эффективные алгоритмы;

3) построение общего эффективного алгоритма, использующего как эффективные алгоритмы расчёта признаков, так и построенную на их основе нелинейную функцию регрессии. Построение эффективных алгоритмов локальной

обработки изображений на основе иерархической регрессии и признаков, рассчитанных посредством локального дискретного вейвлет-преобразования исходного сигнала, требует одновременного учёта таких критериев, как вычислительная сложность процедуры, качество решающего правила (ошибка), его обобщающая способность и соответствие ограничениям по достаточности обучающей выборки. Что, в свою очередь, ведёт к необходимости минимизации ошибки преобразования на обучающей и на контрольной выборках с поддержанием определённого уровня достоверности в условиях ограничен-

ной вычислительной эффективности конечного правила и длины обучающей выборки.

Использование локального ДВП для формирования признакового пространства вносит дополнительные зависимости и ограничения в процесс построения древовидной структуры. Модифицированный алгоритм рассчитывает признаки последовательно, поэтому и в дереве регрессии они должны учитываться только последовательно. Таким образом, для построения регрессии и разбиения признакового пространства используются лишь те признаки, которые есть, то есть начальный словарь из К признаков, до тех пор, пока есть возможность что-то классифицировать и правила остановки процесса разбиения и ограничения на вычислительную сложность и объём обучающей выборки позволяют проводить разбиение. Если классифицировать дальше не получается либо ошибка обработки не изменяется, то рассчитывается новый признак и присоединяется к процессу построения функции иерархической регрессии.

Зависимость данного рода позволяет избежать многократных процедур переобучения правил регрессии и перестроения древовидных структур и свести полный перебор по элементам признакового пространства к линейной процедуре выбора эффективного подмножества признаков для решения задач обработки изображений на основе метода иерархической регрессии.

Обобщённая процедура построения «универсального» преобразования с ограничениями по сложности и качеству исполнения выглядит следующим образом. В качестве входных параметров задаются: Х - входной сигнал (изображение); к - доступное количество признаков; Т - длина входного сигнала - доступное количество векторов признаков с разбиением на обучающие и контрольную части - ': Т = ; + ';

ишах - ограничение по вычислительной сложности конечного алгоритма;

ашп - наилучший алгоритм; ушт - качество наилучшего алгоритма. V', У;, пг - качество алгоритма на контрольной, обучающих выборках и в процессе обучения, соответственно.

Схема алгоритма представлена на рис. 2. Разработанный алгоритм предполагает последовательное наращивание набора признаков (локальных ДВП) до тех пор, пока функционал скользящего контроля убывает (происходит улучшение качества обработки) и вычислительная сложность процедуры локальной обработки на основе дерева регрессии находится в допустимых пределах. Вопрос объёмов выборочных данных при «обучении» и проблема переобучения решаются эффективно вследствие того, что нет необходимости переобучать всю процедуру, так как можно рассчитать следующий уровень ДВП и получить дополнительный признак.

Алгоритм построения

Алгоритм обучения (ц)

/ к=0 / XT=XS+Xt ♦

/ Xs, Xl г=0 /

новый признак k=k+l

I

иирование

выоорок: Л*, X*

X

Обучение дерева регрессии, a=\j.(Xs) получение: viaX) v(a,X')

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Выбор вершин для деления. Оценка сложности дерева регрессии после деления - С/*

1'г

v; =vs

а* =а

Деление вершин г:=г+1, получение а

I

Расчёт параметров элементарной регрессии. Расчёт vr=v{a,Xt), v{a,Xs)

Расчёт QrQfoX*)

нет

Ufnin =ak-

V min = Vk. vmin

Рис. 2. - Алгоритм построения процедуры локальной обработки с ограничениями

5. Экспериментальные исследования

Решение задачи фильтрации изображений. При фильтрации изображений возможна ситуация, когда можно указать желаемый результат обработки, например, в виде согласованной пары изображений, интерпретируемых как «входное» X и «выходное» 2. Таким образом, задача фильтрации сводится к задаче аппроксимации функции решения, и возможно использование представленной выше двухэтапной технологии на основе дерева регрессии. По паре изображений У и 2, используемых в качестве обучающей выборки, строится процедура преобразования, состоящая из формирования по X набора изображений -признаков Х = {У0,У1,..., Ук-1} - и построения функции

фильтрации 2 = /(У0,У1,...,Ук-1,X). Тогда задача

фильтрации (получение оператора преобразования / ) сводится к задаче восстановления регрессии, если

рассматривать в качестве обучающей выборки отсчёты заданной пары изображений.

Процедуры формирования признаков и аппроксимации функции решения, настроенные в итоге обучения на неформально заданное преобразование данных, далее используются при обработке других изображений того же класса.

В качестве первого эксперимента проведено сравнение различных методов (дерева регрессии и нейронной сети). Сравнение качества обработки и вычислительной сложности представлено в табл. 1.

Таблица 1. Результаты сравнения

NN e 10,92 10,78 10,69 10,67 10,63 10,62 10,62 10,64

U 54 99 189 279 369 459 549 621

RT e 11,28 11,01 10,89 10,81 10,72 10,62 10,57 10,61

U 31 38 41 44 46 48 50 52

В качестве второго эксперимента проведено сравнение различных способов аппроксимации функции

решения (линейная регрессия, кусочно-линейная регрессия, кусочно-постоянная регрессия) с фильтром Винера для различных вариантов соотношения сигнал/шум. Сравнение качества обработки представлено в табл. 2.

Таблица 2. Результаты сравнения для различных е2

1 2 5 10

Винер 0,128 0,1806 0,2812 0,4062

ЛА 0,129 0,1811 0,2793 0,4034

КЛА 0,1207 0,1618 0,2435 0,3251

КПА 0,1222 0,1638 0,2455 0,3367

Задача восстановления изображений по построению и принципу решения аналогична задаче фильтрации. Тесты проводились на различных изображениях (как смоделированных, так и на реальных космических снимках). В качестве базы для сравнения были рассмотрены:

- технология восстановления на основе иерархической регрессии (ИР) с линейной функцией элементарной регрессии в терминальных вершинах;

- алгоритм винеровской фильтрации (ФВ) (ковариационная функция входного сигнала оценивалась непосредственно по имеющемуся «идеальному» изображению);

- искусственная нейронная сеть (ИНС) общего вида с различными параметрами.

В качестве признаков использовались:

- обобщённые моменты с полиномиальными (степенными) ядрами второго порядка и моментные инварианты (МИ);

- признаки, построенные на основе локального ДВП до 4-го уровня коэффициентов вейвлет-разло-жения.

Качественный эффект от применения иерархической регрессии аналогичен случаю фильтрации -уменьшение расфокусировки, лучшее воспроизведение участков с контурами, повышение резкости, уменьшение шума. В табл. 3, для сравнения, приведены абсолютные значения е2.

Таблица 3. Остаточная дисперсия ё восстановления

Image ВФ ИНС, МИ. ИР, МИ. ИНС, ДВП ИР, ДВП

Мозаика 269 214 200 227 191

Самолёты 206 174 117 164 114

Косм.сн. 1 327 245 211 264 198

Косм.сн.2 561 365 368 314 280

Задачи классификации отсчётов изображения. При классификации отсчётов изображений технология построения и применения иерархической регрессии аналогична задаче фильтрации изображений с той лишь разницей, что количество выходных классов ограничено. Если представить исходные данные как «входное» изображение X и «выходное»

изображение Т, представляющее собой индексное изображение, каждая точка которого соответствует номеру класса, то задача поэлементной классификации сводится к задаче восстановления регрессии, если рассматривать в качестве обучающей выборки отсчёты заданной пары изображений.

При сравнении метода иерархической регрессии с нейронной сетью, как и в случае фильтрации и восстановления изображений, разработанный метод демонстрирует небольшое повышение качества обработки при существенном увеличении вычислительной эффективности процедур обучения и применения классификаторов. Примеры классификации представлены на рис. 3 - 4.

Рис. 3. Фрагмент снимка с КА БРОТ-4 и результаты работы алгоритма ЛОИ-ИР при разбиении на 9 классов

Рис. 4. Исходное изображение и результат классификации в 12 классов с индексной палитрой для номеров классов

Результаты экспериментальных исследований позволяют сделать следующие выводы:

- конструируемая вычислительная процедура локальной обработки обладает большей эффективностью при решении задач фильтрации и восстановления изображений по сравнению с известным фильтром Винера как по скорости, так и по качеству обработки;

- вычислительная процедура локальной обработки и метод её построения демонстрируют преимущества по сравнению с методом обработки и построения, основанном на использовании аппарата искусственных нейронных сетях. В плане вычислительной сложности выигрыш значителен.

Выводы и рекомендации

На основании полученных результатов можно сделать выводы относительно эффективности и применимости разработанного алгоритма автоматического построения процедуры локальной нелинейной обработки изображений. Кроме того, конструи-

руемая вычислительная процедура локальной обработки обладает заранее заданными вычислительной сложностью и надёжностью (для доступного объёма обучающих данных), а также наилучшим, в рамках ограничения по сложности и надёжности, показателем качества.

Наиболее предпочтительным является использование метода локальной обработки на основе иерархической регрессии в системах, работающих в режиме «реального времени», где требуются высокая скорость обработки и малые требования к ресурсам, а также при обработке больших объёмов данных.

Благодарности

Работа выполнена при частичной финансовой поддержке грантов РФФИ (проекты 11-07-12060-офи-м-2011, 11-07-12062-офи-м-2011, 12-07-00021-а) и программы фундаментальных исследований Президиума РАН «Фундаментальные проблемы информатики и информационных технологий», проект 2.12.

Литература

1. Вапник, В.Н. Теория распознавания образов /

B.Н. Вапник, А.В. Червоненкис. - М.: Наука, 1974.

2. Воронцов, К.В. Комбинаторный подход к оценке качества обучаемых алгоритмов // Математические вопросы кибернетики / Под ред. О.Б. Лупанов. - М.: Физматлит, 2004. - Т. 13. - С. 5-36.

3. Глумов, Н.И. Применение полиномиальных базисов для обработки изображений в скользящем окне / Н.И. Глумов, В.В. Мясников, В.В. Сергеев // Компьютерная оптика. - 1995. - Выпуск 14-15, Часть 1. -

C. 55-68.

4. Даджион, Д. Цифровая обработка многомерных сигналов / Д. Даджион, Р. Мерсеро. - М.: Мир, 1998.

5. Методы компьютерной обработки изображений. Под редакцией В.А. Сойфера / М.В. Гашников, Н.И. Глумов, Н.Ю. Ильясова, В.В. Мясников [и др.], под общей редакцией В.А. Сойфера. - 2-е изд., испр. -М.: Физматлит, 2003. - 784 с.

6. Прэтт, У. Цифровая обработка изображений / У. Прэтт. - М.: Мир, 1982. - Т. 1-2

7. Сергеев, В.В. Сравнительный анализ методов нейронных сетей и иерархической аппроксимации в задачах фильтрации изображений / В.В. Сергеев, В.Н. Копенков, А.В. Чернов // Автометрия. - 2006. - Том 42, № 2. - С. 100-106.

8. Уоссермен, Ф. Нейрокомпьютерная техника: Теория и практика / Ф. Уоссермен. - М.: Мир, 1992. - 240 с.

9. Гонсалес, Р. Цифровая обработка изображений / Р. Гонсалес, Р. Вудс. - М.: Техносфера, 2005. - 1072 с.

10. Ahn, H. Tree-structured exponential regression modeling / H. Ahn // Biometrical Journal. - 2007. - Vol. 36. - P. 4361.

11. Breiman, L. Classification and regression trees / L. Bre-iman, J.H. Friedman, R.A. Olshen and C.J. Stone.// Monterey, Calif., U.S.A.: Wadsworth, Inc., 1984.

12. Haikin, S. Neural Networks: A Comprehensive Foundation / S. Haikin. - М.: «Vilyams», 2006. - 1104 p.

13. Kopenkov, V. Effecient algorithms of local discret wavelet transform with HAAR-like bases / V. Kopenkov // Pattern Recognition and Image Analysis. - 2008. - Vol. 18, N 4. - P. 654-661.

14. Kopenkov, V.N. Research the Performance of a Recursive Algorithm of the Local Discrete Wavelet Transform. / V.N. Kopenkov, V.V. Myasnikov // 20-th International Conference on Pattern Recognition (ICPR-2010). - Istam-bul, Turcey August 23-26, 2010. Abstract book. - P. 317.

15. Kopenkov, V.N. Regression restoration methods as applied to solve the problem of multidimensional indirect measurements / V.N. Kopenkov, V.V. Sergeev, E.I. Timbai // Pattern Recognition and Image Analysis. - 2011. -Vol. 21, N 2. - P. 480-483.

References

1. Vapnik, V.N. Theory of Pattern Recognition / V.N. Vap-nik, A.V. Chervinenkis. - Moscow: "Nauka" Publisher, 1974. - (In Russian).

2. Vorontsov, K. A combinatorial approach to assessing the quality of training algorithms // Mathematical problems of cybernetics / Ed O.B. Lupanov. - Moskow: "Fizmatlit" Publisher. - 2004. - Vol. 13. - P. 5-36. - (In Russian).

3. Glumov, N.I. Using of the polynomial bases for image processing in a sliding window / N.I. Glumov, V.V. Myasnikov, V.V. Sergeev // Computer Optics. - 1995. -N 1415, Vol 1. - P. 55-68. - (In Russian).

4. Dudgeon, D.P. Multidimensional Digital Signal Processing / D.P. Dudgeon, R. Mersero. - Moscow: "Mir" Publisher, 1998. - (In Russian).

5. Methods of computer image processing. Part II: Methods and algorithms, Ed. V.A. Soifer. - Moscow: "Fizmatlit" Publisher, 2009. - 784 p. - (In Russian).

6. Pratt, W.K. Digital image processing / W.K. Pratt. -Moscow: "Mir" Publisher, 1982. - B.2. - 480 p. - (In Russian).

7. Sergeev, V.V. Comparative analysis of methods for neural networks and hierarchical approximation in problems of image filtering / V.V. Sergeev, V.N. Kopenkov, A.V. Chernov // Avtometriya. - 2006. - Vol. 42, N 2. -P. 100-106. - (In Russian).

8. Wasserman, P.D. Neural Computing. Theory and Practice / P. Wasserman. - Moscow: "Mir" Publisher, 1992. -240 p. - (In Russian).

9. Gonzalez, R. Digital image processing / R. Gonzalez and R. Woods. - Moscow: "Technosphere" Publisher, 2005. -1072 p. - (In Russian).

10. Ahn, H. Tree-structured exponential regression modeling / H. Ahn // Biometrical Journal. - 2007. - Vol. 36. - P. 4361.

11. Breiman, L. Classification and regression trees / L. Bre-iman, J.H. Friedman, R.A. Olshen and C.J. Stone.// Monterey, Calif., U.S.A.: Wadsworth, Inc., 1984.

12. Haikin, S. Neural Networks: A Comprehensive Foundation / S. Haikin. - Moscow: «Vilyams», 2006. - 1104 p.

13. Kopenkov, V. Effecient algorithms of local discret wavelet transform with HAAR-like bases / V. Kopenkov // Pattern Recognition and Image Analysis. - 2008. - Vol. 18, N 4. - P. 654-661.

14. Kopenkov, V.N. Research the Performance of a Recursive Algorithm of the Local Discrete Wavelet Transform. / V.N. Kopenkov, V.V. Myasnikov // 20-th International Conference on Pattern Recognition (ICPR-2010). - Istam-bul, Turcey August 23-26, 2010. Abstract book. - P. 317.

15. Kopenkov, V.N. Regression restoration methods as applied to solve the problem of multidimensional indirect measurements / V.N. Kopenkov, V.V. Sergeev, E.I. Timbai // Pattern Recognition and Image Analysis. - 2011. -Vol. 21, N 2. - P. 480-483.

AN ALGORITHM FOR AUTOMATIC CONSTRUCTION OF COMPUTATIONAL PROCEDURE OF NON-LINEAR LOCAL IMAGE PROCESSING ON THE BASE OF HIERARCHICAL REGRESSION

V.N. Kopenkov 12, V. V. Myasnikov 2 1 S.P. Korolyov Samara State Aerospace University, 2 Image Processing Systems Institute of the RAS

Abstract

An algorithm of automatic construction of the computational procedure of the digital signal and images local processing is presented in this article. The computational procedure is based on local discrete wavelet transform of the image used for the pre-image analysis, and hierarchical regression used to obtain the transformation results. The construction process based on the analysis of the precedent usage (image pairs "input" - "output"), takes into consideration the limitation on the complexity of the constructing conversion and maximize the processing quality and generalization capability.

Key words: local processing, hierarchical regression, computational efficiency.

Сведения об авторах Копенков Василий Николаевич, 1978 года рождения. В 2001 г. окончил Самарский государственный аэрокосмический университет (СГАУ). В 2011 защитил диссертацию на степень кандидата технических наук. В настоящее время работает ассистентом кафедры геоинформатики и информационной безопасности СГАУ и, по совместительству, научным сотрудником в Учреждении Российской Академии Наук Институте систем обработки изображений РАН. Круг научных интересов включает цифровую обработку сигналов и изображений, геоинформатику, распознавание образов. Имеет 36 публикаций, из них 10 статей. Является членом Российской ассоциации распознавания образов и анализа изображений. Страница в интернете: http://www.ipsi.smr.ru/staff/kopenkov.htm . E-mail: [email protected].

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Vasiliy Nikolaevich Kopenkov (1978 b.), graduated from the S.P. Korolyov Samara State Aerospace University (SSAU) at 2001, received her PhD in Technical sciences at 2011. At present he is an assistant at SSAU's Geoinformatics and Information Security sub-department, holding a part-time position of a researcher at the Image Processing Systems Institute of the Russian Academy of Sciences. The area of interests includes digital signals and image processing, geoinformatics, pattern recognition. He is co-author of 36 scientific papers, including 10 articles. He is a member of Russian Association of Pattern Recognition and Image Analysis.

Мясников Владислав Валерьевич, 1971 года рождения. В 1994 году окончил Самарский государственный аэрокосмический университет (СГАУ). В 1995 году поступил в аспирантуру СГАУ, в 1998 году защитил диссертацию на степень кандидата технических наук, а в 2008 - диссертацию на степень доктора физико-математических наук. В настоящее время работает ведущим научным сотрудником в Институте систем обработки изображений РАН и, одновременно, доцентом кафедры геоинформатики и информационной безопасности СГАУ. Круг научных интересов включает цифровую обработку сигналов и изображений, геоинформатику, нейронные сети, компьютерное зрение, распознавание образов и искусственный интеллект. Имеет около 100 публикаций, в том числе 40 статей и две монографии (в соавторстве). Член Российской ассоциации распознавания образов и анализа изображений.

E-mail: [email protected] .

Страница в интернете: http://www.ipsi.smr.ru/staff/MyasVV.htm .

Vladislav Valerievich Myasnikov (1971 b.), graduated (1994) from the S.P. Korolyov Samara State Aerospace University (SSAU). He received his PhD in Technical sciences (2002) and DrSc degree in Physics & Maths (2008). At present he is a leading researcher at the Image Processing Systems Institute of the Russian Academy of Sciences, and holding a part-time position of Associate Professor at SSAU's Geoinformatics and Information Security subdepartment. The area of interests includes digital signals and image processing, geoinformatics, neural networks, computer vision, pattern recognition and artificial intelligence. He's list of publications contains about 100 scientific papers, including 40 articles and 2 monographs. He is a member of Russian Association of Pattern Recognition and Image Analysis.

Поступила в редакцию 16 марта 2012 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.