ПЕРЕЧЕНЬ ССЫЛОК НадШшла
1. Аллен Р. Математическая экономия. - М.: Иниздат, 1963. - 648 с.
2. ВалтерЯ. Стохастические модели в экономике. - М.: Статистика, 1976. - 232 с.
3. Герасин С. Н. Стабилизация распределений марковских цепей с переменным числом состояний за конечное время // Доповш HAH УкраТни. - 2004. - № 12. -C. 59-63.
4. Герасин С. Н., Дикарев В. А., Числин Н. И. Сходимость к предельному распределению в конечных неоднородных марковских процессах за конечное время // ДоповШ HAH УкраТни. - 1998. - № 7. - С. 15-19.
5. Герасин С. Н. Стабилизация решений в задачах динамического распределения ресурсов // ДоповШ HAH УкраТни. - 2001. - № 10. - С. 73-78.
17.10.07
Запропонована стохастична 1нтер-притащя Modeëi динам1чного poçnodiëy pecypcie. Фoрмалiзм Modeëi ви-користовуе мову нeoднopiдних мар^всъких ланцюгiв. Показана Moœëueicmb використання запропонованоЧ мoдeлi в розвязант задач eкoнoмiчнoгo прогнозування.
Stochastic interpretation of model of dynamic allocation of resources is offered. Model formalism is utilized by the language of inhomogeneous Markov's chains. Possibility of the use of the offered model is solution in the tasks of economic prognostication.
УДК 004.932.2
В. А. Гороховатский, С. В. Кузьмин
СТАТИСТИЧЕСКИЙ АНАЛИЗ ЗНАЧЕНИЙ ХАРАКТЕРНЫХ ПРИЗНАКОВ ПРИ РАСПОЗНАВАНИИ ИЗОБРАЖЕНИЙ
Приведены результаты исследований по применению статистического подхода при формировании, оценке значений, анализе свойств и установлении эквивалентности характерных признаков изображений в целях структурного распознавания объектов. Экспериментальные оценки подтверждают возможность построения оптимальных локальных решений.
ВВЕДЕНИЕ
Структурные методы распознавания изображений, основанные на построении характерных признаков фрагментов, имеют несомненные преимущества перед традиционными интегральными подходами в плане гибкости, универсальности, а также устойчивости к фоновым и локальным помехам [1, 2]. Характерными признаками (ХП) (другие названия: точки интереса, ключевые точки) считают значимые отклики локальных фильтров изображений [2-4]. ХП относятся к структурным признакам низкого уровня, по которым либо непосредственно осуществляется распознавание, либо на их основе формируют признаки более высокого уровня. Как правило, ХП получаются в результате двухэтап-ной процедуры, где вначале вычисляется значение признака, а затем принимается решение о значимости и об участии в распознавании. Оптимальные отклики локальных фильтров, на основе которых формируются ХП, описывают конечный набор свойств сигнала изображения в фиксированной локальной окрестности (фрагменте).
Возможность снижать влияние локальных и фоновых помех заложена непосредственно в структурном
© Гороховатский В. А., Кузьмин С. В., 2007
подходе к анализу изображения. В то же время действие случайных помех, вызванных условиями формирования изображения, в частности, влиянием дискретизации, геометрическими преобразованиями объектов и цифровыми методами вычисления инвариантных значений ХП, требует дополнительного исследования. Эти помехи носят характер шума и непосредственно сказываются на точности измерения значений признаков и, в конечном итоге, на результатах распознавания.
Цель работы - применение статистического анализа для оценки параметров моделей формирования, оценки значимости и установления эквивалентности значений ХП. Задачами исследования есть изучение распределений, свойств ХП, а также построение достоверных оценок порогов при принятии решения о значении или эквивалентности признаков.
1 СТАТИСТИЧЕСКИЕ МОДЕЛИ ПОСТРОЕНИЯ И ОПИСАНИЯ ХП
Образ объекта представляет собой упорядоченную совокупность признаков. Класс - совокупность образов, обладающих некоторыми общими свойствами [5-8]. Одна из форм описания ХП - это и-мерные числовые
векторы V = (»1, ..., »и), VI е К, г = 1, п (К - пространство действительных чисел). При решении практических задач часто считают, что значения векторов имеют нормальное распределение с известными параметрами: математическим ожиданием ц = (ц^ ..., ) и матрицей
ковариации признаков Е = {сту} (или среднеквадрати-ческим отклонением ст = (ст^...,^)). Информация о типе и пространственном расположении ХП в структурном представлении объекта содержится в векторе Р = {х, у, £}, где х, у - координаты, £ - тип ХП.
В конкретной реализации имеем множества V = {V*},
{Р*} = {х*, у*, }, * = 1, 5, 5 - сформированное количество ХП. Заметим, что величина £ и компоненты вектора V = (»1, ..., »п) должны быть инвариантами относительно допустимых геометрических преобразований фрагмента.
Наиболее простым в вычислительном плане есть принятие решения по одному признаку, т. е. вариант п = 1. Здесь признак имеет нормальное распределение 2
ст ) и его среднее ц должно различаться для разных классов при относительно небольшой дисперсии.
Примером может быть величина среднего значения 1
= £ ^ В(х, у), где В(х, у) - функция яркости,
х, у Е П
Ь - количество точек во фрагменте П. Признак компактно представляет фрагмент в структурном методе частных корреляций вместо значений функции яркости [7].
Формирование набора ХП, а также отбор среди них множества значимых ХП, - это предмет отдельных процедур. Первая из них 01 осуществляет отображение О^М ^ V из множества функций яркости М =
= {В(х, у)} во множество значений признаков V с Кп. Второе О: V ^ О - формирует значимый набор из 5
описаний О = {о^ ..., о5}, = {»¿, pi}, i = 1,5.
Основными способами построения отображений 01, О2 являются: 1) сопоставление фрагмента с шаблонами (корреляция); 2) свертка с маской, подчеркивающей наличие признака во фрагменте [4]; 3) анализ градиентов функции яркости.
Удобным и универсальным инструментом анализа низкоуровневых признаков считается структурный тензор, который отображает фрагмент в значение некоторой случайной величины [2, 4]. Построение тензора базируется на дифференциальных свойствах изображения путем определения компонент вектора градиента [Вх, Ву] как производных функции яркости В(х, у) по направлениям х, у. Эти компоненты в целях сглаживания помех традиционно вычисляются через свертку с гауссианом (параметры: среднее - 0, дисперсия -ст2), т. е. Вх = Яхст*В, Ву = Яу^ст*В, где * - символ свертки, ях ст, Яу ст - пространственные производные двумерного гауссиана
Яа( х,у) =
-(х2 + у2)/2ст2
Декартово произведение транспонированного век-Т
тора градиента [Вх Ву] с самим собой в каждой точке изображения дает матрицу градиентного тензора
С =
г -
С11 С12 =
С21 С22
В
ВхВу
ВхВу
В
у J
а пространственное сглаживание элементов этого тензора вторым фильтром гауссиана (с параметром ст2) приводит к структурному тензору:
Л =
Х11 Х12 Х21 Х22
где Ху = Яст*Су, (¿,у е {1, 2}). Вторая свертка усиливает двумерные свойства сигнала. Собственные значения матрицы Л отражают кривизну автокорреляционной функции изображения в анализируемой точке.
В качестве детекторов локальных признаков как функций структурного тензора используются величины [3]
а1 = det(Л), а2 = det(Л)/ ^ (Л),
2
а
3 = det(Л) - 0, 04(^(Л))
(1)
2пст
(здесь det - определитель, ^ - след матрицы), отражающие вклад ориентации и величины градиента в точке изображения. Значение а3 соответствует детектору Харриса, который является базовым для многих современных структурных методов распознавания.
Большинство локальных операций, используемых при формировании ХП, связано с цифровыми свертками и носит линейный характер. Однако отдельные из них, например, «немаксимальное подавление», применяемое с целью сокращения количества анализируемых ХП [2, 7], реализует ранговую обработку и нелинейно влияет на оценивание значений признаков.
Результат распознавания в значительной степени зависит от базы моделей (набор эталонов). В большинстве практических задач компьютерного зрения трудно предположить, что вероятностное распределение интегральных признаков изображений имеет существенные различия для разных элементов базы моделей [5]. Как правило, речь идет лишь о принципиальной разнице в значениях отдельных параметров распределений. Сказанное относится и к множеству значений ХП, так как оно обычно имеет значительно большее разнообразие, чем система интегральных признаков. Более того, значения ХП часто оказываются достаточно близкими для разных эталонов.
е
Одним из возможных вариантов статистической модели есть такой, когда ХП для всех эталонов являются значением одной и той же случайной величины. Здесь тип ХП одинаков для всех классов. Распознавание на основе такого признака осуществить невозможно, однако, эту модель с успехом применяют на предварительном этапе обработки.
В целях реализации стратегии по сокращению объема вычислений формирование множества ХП часто реализуется в два этапа. На первом путем применения «быстрого» решения на основе одного из ключевых признаков фиксируется множество координат ХП, а далее в этих точках вычисляется более полное (и более точное) представление изображения в виде вектора. При этом требование инвариантности, устойчивости к помехам и сохранения различий классов относится к обоим этапам обработки. Примерами процедур первого этапа есть вычисление близких к своему глобальному максимуму значений детектора Харриса, второго -определение в выделенных точках значений вектора локальных потоков [6, 7].
Суть локального потока состоит в представлении функции яркости фрагмента в виде множества векторов, отражающих степень изменчивости яркости путем разложения изображения в ряд Тейлора в точке, соответствующей центру фрагмента. Потоки второго порядка позволяют оценивать ориентацию линий, потоки третьего порядка - кривизну. На основе значений потока можно построить инварианты [6]. Структурный тензор и инварианты на базе локальных потоков относятся к универсальным дифференциальным признакам, которые обеспечивают инвариантность к группе движений (смещение и поворот) и достаточно высокую устойчивость к помехам [7]. Отличительным моментом их построения, что в целом значительно уменьшает требуемый объем вычислений, является одна и та же вычислительная база - компоненты вектора градиента.
Другим вариантом статистического анализа есть модель независимых признаков - каждый ХП каждого из эталонов представляет собой отдельную случайную величину, которая «голосует» за свой эталон [7]. Третий вариант предполагает наличие корреляционных связей и даже статистическую зависимость между признаками как одного, так и разных эталонов [2, 5]. В целом задача создания универсального подхода при формировании ХП еще ждет своего решения.
2 КЛАССИФИКАЦИЯ И СХОДСТВО В ПРОСТРАНСТВЕ ХП
Эффективность распознавания в значительной мере зависит от различия значений ХП для разных эталонов, а также от меры, используемой для их сопоставления. Сходство между ХП определяется в рамках принятой статистической модели [5].
В структурных методах распознавания глобальное
сходство объектов строится на частичном сходстве р(V1, V) в пространстве ХП с учетом эквивалентности их типа
(ti = tj). Для определения значения р(V1, V) может быть использована стандартная мера сходства (различия) в векторном пространстве Еп. Примерами наиболее часто используемых в компьютерном зрении метрик
1 2
для произвольных двух векторов V , V являются
1 2 п 1 2
Р1(v , v ) = ^ = 1 к - vг\,
2
Р2(^ ^) = 1 /ехр[£П = 1 И - ,
Рз(У, 1>2) = Еп = 1- ^/Стг!, (2)
где - знак модуля действительного числа.
Величины (2) непосредственно связаны с вероятностным описанием и имеют статистическую интерпретацию. Например, принятие решения по минимуму Р1 для бинарных признаков дает минимальную вероятность ошибки [5].
При известных статистических описаниях базы моделей эффективным может оказаться применение мер, основанных на значениях параметров моделей классов.
Если известны статистические характеристики (мате-
22
матическое ожидание и дисперсия) Ц1, и Ц2, ст2 двух случайных величин, то степень эквивалентности (соответствия) этих величин можно оценить на основе статистики [4]
[ ( а 2 + а 2 ) / 2 + ( ( Ц 1 - Ц2 ) / 2 ) 2] 2 2 . а1а2
(3)
В качестве сравниваемых величин в (3) могут быть, например, характеристики яркости фрагментов, а также значения ХП. Для известных параметров можно рассматривать г как положительную детерминированную величину. При совпадении значений исходных па-
22
раметров, т. е. при = ^2, СТ1 = СТ2, величина г = 1.
22
С ростом различия между парами Ц1, Ц2; а^ а2 значение г увеличивается. В условиях шума величина г приобретает статистический вид и определяется законами распределений сравниваемых случайных величин.
В случае независимых компонентов вектора V = = (Vl, ..., vn) можно применить схемы, включающие решения отдельных компонент, и получение общего решения путем их интеграции (например, по значению максимального соответствия среди всех значений компонент, по числу соответствий, превышающих задан-
г =
ный порог, путем суммирования величин соответствий и т. п.). Аналогичные схемы применяются также на более высоких уровнях иерархии анализа множеств ХП при сопоставлении с эталонными моделями.
Для сопоставления ХП можно использовать также функции подобия [5], например, нормированное скалярное произведение, определяющее косинус угла между векторами
3 РАЗДЕЛЯЮЩИЕ ФУНКЦИИ И УРОВЕНЬ ОШИБОК
В соответствии с байесовским классификатором [5] минимальный уровень ошибки при отнесении ХП к одному из классов осуществляется посредством построения и оптимизации разделяющих функций вида
1
дг(») = - 1 (V - Ц)'Е;-1 (» - Ц)-11п|Еу| + 1пР
1
V
(6)
1 т 2
, 1 2Л (V ) V
Р(О , О ) = II 11Ц 2ц ,
где Ы - норма вектора, Т - символ транспонирования. Для бинарных признаков функция подобия отражает меру обладания общими атрибутами (значениями признаков).
Если же параметры распределений классов имеют незначительные отличия, для надежного распознавания применяют нормированное эвклидово расстояние, а также расстояние Махаланобиса, которое, кроме внутренней нормировки, учитывает корреляционные связи между компонентами вектора признаков
где ] - количество классов изображений, у = 1,/, Ру -
й(с1, V2) = Л
1 2^-1, 1 2Л V - V ) Е (V - V ),
(4)
-1
где Е ' - матрица, обратная к матрице ковариации Е, имеющая размер вектора признаков и вычисленная на подготовительном этапе для множества ХП базы моделей. В случае статистически независимых признаков
Е = diag(ст^2, ..., стП), и
у
априорная вероятность класса у, ц - вектор математического ожидания признаков для у-го класса.
При одинаковых ковариационных матрицах ХП имеем упрощение Еу = Е, и можно пренебречь вторым слагаемым, а слагаемое 1пРу можно отбросить в случае, если априорные вероятности классов одинаковы. В результате оптимальное решающее правило реализуется через определение квадратичного махаланобисова расстояния й2 = (V - цу) Е 1(V - цу) от анализируемого
вектора V до каждого из ] векторов цу средних значений ХП и отнесение вектора V к классу, соответствующему ближайшему среднему значению.
Для случая статистически независимых признаков с многомерным нормальным законом распределения при равных априорных вероятностях для двух классов байесовский уровень ошибки определяется выражением
Е =
ТЕ 1 етр[-2 "2]йи, (7)
где й2 - квадратичное махаланобисово расстояние между средними векторами классов
2 1 2 п
й (V , V ) = ^
i = 1
( 1 2^ V - V
(5)
В матрице Е содержится важная для распознавания информация, которая более полно отражает свойства окрестности, для которой формируются значения ХП. Из различных вариантов её использования в структурных методах, где значимым считается каждый ХП, наиболее целесообразным представляется подход, когда отдельный ХП базы моделей имеет индивидуальную матрицу ковариации. Именно этот вариант не ограничивает выбор эталонов и делает анализ универсальным. Другие варианты, например, когда матрица Е считается одинаковой для множества ХП отдельного класса или одинаковой для всех ХП базы моделей, упрощают решения, но в то же время приводят к ограничениям на базу моделей.
2 12 1 2 Т -11 2
а (Ц ,Ц ) = (Ц - Ц ) Е (Ц - Ц ).
Вероятность ошибки (7) убывает с ростом й. В случае независимых признаков махаланобисово расстояние имеет вид (5), откуда видно, что каждый из признаков влияет на уменьшение вероятности ошибки. Наилучшими в этом смысле являются признаки, у которых разность средних значений велика по сравнению со стандартными отклонениями. Вместе с тем из (5) видно, что ни один из признаков не бесполезен, если его средние значения для разных классов различны [5].
Если же каждый ХП базы моделей представить независимым случайным вектором с математическим ожиданием цку и ковариационной матрицей Е*у где у -номер класса, к - номер ХП в базе моделей, то разделяющая функция (6) будет представлена в виде
ду(V) = -1-(V - Цк;)ТЕк](V - цку) -11п|Еку| + 1пРк;-,(8)
причем оптимизацию (8) нужно производить по всему множеству эталонных значений ХП всех классов. Распознавание в соответствии с (8) более трудоемко в вычислительном плане, однако для случая структурного анализа на основе ХП оно более приемлемо с точки зрения универсальности базы моделей и адекватности представления изображения. Дело в том, что оно учитывает часто возникающую ситуацию, когда значения векторов ХП в силу особенностей локального представления могут быть достаточно близки между собой как в пределах одного эталона, так и для разных эталонов [1].
4 ОЦЕНКА ПАРАМЕТРОВ МОДЕЛЕЙ
Определение параметров распределений и качественная оценка процесса расспознавания проводилась для полутоновых изображений автомобилей размером 64x64 (яркость в пределах 0-255), показанных на рис. 1. Можно заметить, что визуально распределения яркостей у эталонов рис. 1, б и рис. 1, в близки между собой. Гистограммы значений детектора Харриса для них оказываются также похожими. На рис. 2 приведено анализируемое изображение (в виде белых крестиков показаны отклики детектора Харриса), которое представляет собой эталон рис. 1, б на сложном фоне. На рис. 3 приведены гистограммы значений детектора Харриса для одного из эталонов (рис. 1, б) и анализируемого изображеня (рис. 2).
Можно заметить характерные для всех трех эталонов скопления точек их гистограмм в интервалах значений 1-3, 5, 7, 12, что, в принципе, является дополнительным фактором при выделении ХП, а также может использоваться при распознавании. Диапазон значений детектора Харриса для эталонов составил 3,6...1,8е10, а после пороговой обработки, в процессе которой отбирались точки со значениями в пределах 1 % от максимума, этот диапазон сузился до 1,8е8... 1,8е10 с небольшими отклонениями для разных эталонов (запись еЫ традиционно понимается как 10м). При этом порог для точек интереса определялся независимо для каждого из эталонов. Диапазон значений детектора Харриса для изображения рис. 2 составил 1,98е5...1,98е7, что несколько отличается от эталонного диапазона и в целом говорит о зависимости отклика от яркости фона.
Параметры распределения значений ХП разных классов в предположении нормального закона оценивались экспериментально следующим образом. Для каждого из эталонов определялись множества ХП в соответствии с детектором Харриса. Затем для сформированных множеств координат вычислялись значения инвариантных локальных потоков V = (..., »4), основанных на производных до 2-го порядка включительно с учетом сглаживания гауссианом [7]. Учитывая,
а) 6) в)
Рисунок 1 - Примеры эталонов
Рисунок 2 - Изображение с откликами детектора Харриса
0 0.2 0.4 0.6 0.В 1 1.2 1.4 16 1.8 2
х 107
Рисунок 3 - Гистограммы значений детектора Харриса для изображений рис. 1, б и рис. 2
что величины потоков из-за ограниченных размеров фрагментов, на которых они строятся, чувствительны к ошибкам дискретизации (особенно при поворотах), значения эталонных признаков усреднялись по серии изображений в пределах углов поворота 0-90°. При усреднении в целях снижения влияния хвостов распределения применялась ранговая обработка. Для этого отбрасывалось 10 % наименьших и 10 % наибольших значений. В результате для трех конкретных эталонов рис. 1 получены оценки матожидания и дисперсии признаков, приведенные в табл. 1. В целом диапазон значений инвариантных локальных потоков составил: для признака Vl: 9,4... 4320, для »2: -6,2е5...- 71,6, для -432. -32, для 503.93620.
Что касается подтверждения нормального закона распределения значений локальных потоков, то следует отметить, что для анализируемого в эксперименте количества ХП (20-30 для разных эталонов) нельзя принять однозначное решение о нормальном законе распределения, т. к. данных недостаточно. Однако, как показали дополнительные исследования, с увеличением количества ХП для одного эталона (в пределах 200-300) принятие гипотезы о нормальности можно считать вполне правомочным.
Как видим из табл. 1, значения математических ожиданий для признаков разных эталонов имеют различия, что в целом позволяет применить для распознавания методы ближайшего среднего или ближайшего соседа, опираясь на оценки ц,, ст,. Заметим при этом, что ни один из признаков в отдельности не дает возможности надежного распознавания, т. к. их значения для некоторых пар эталонов близки между собой. Как видно из таблицы, значения потоков для 2-го и 3-го эталонов достаточно близки. Кроме того, дисперсия признаков достаточно велика по отношению к среднему, что не дает возможности установить четкие границы для значений эталонных признаков.
Усредненная по всем характерным точкам 2-го эталона матрица ковариации имеет вид, показанный в табл. 2.
Анализ значений матриц ковариации в пространстве локальных потоков показал, что их в данном эксперименте нельзя считать ни одинаковыми для всех классов, ни одинаковыми для каждого из классов в отдельности, что подтверждает целесообразность использования выбранной модели независимых ХП с индивидуальной матрицей ковариации.
Оценим теперь порог для значений сходства ХП. Учитывая, что квадрат расстояния Махаланобиса между двумя векторами с нормально распределенными
компонентами - это случайная величина с распределе-2
нием х [2], можно при заданном уровне значимости установить оптимальное значение порога для принятия решения об эквивалентности двух значений ХП. Это выглядит следующим образом. Если при заданном уровне значимости а и числе степеней свободы у расстояние (4) (эмпирическое значение критерия) меньше заданного порога (критического значения из таблицы
Х2-распределения), т. е. й <х*Да; у], то нет оснований отвергать гипотезу об эквивалентности значений ХП и они считаются одинаковыми. Величина у равна количеству слагаемых, т. е. размеру п вектора признаков 2
у = п. Например, ХкА0, 05;4] = 9, 49. Таким образом, вектор размерности 4 признаков объекта, имеющий величину расстояния Махаланобиса й < 9, 49 до эталонного вектора ХП, с вероятностью 0,95 может быть отнесен к данному эталону. Эти теоретические расчеты полностью подтверждаются экспериментом.
Посредством оптимального порога при заданном уровне значимости имеется возможность регулировать надежность распознавания отдельного ХП, а на ее основе оценивать и вероятность правильного глобального решения.
Приведенный подход анализа на основе х2-распре-деления можно использовать и для метрики эвклидова
Таблица 1 - Параметры распределений характерных признаков
vl v4
Эталон Ц1 2 ст1 Ц2 2 ст2 Ц3 2 ст3 Ц4 2 ст4
а 1,05е3 1,05е6 -1,21е5 1,53е10 -224 9,87е3 2,99е4 5,95е8
б 1,55е3 1,22е6 -1,75е5 1,94е10 -235 7,61е3 3,12е4 4,33е8
в 1,50е3 1,83е6 -1,79е5 3,69е10 -216 9,98е3 2,81е4 5,17е8
Таблица 2 - Усредненная матрица ковариации для 2-го эталона
1,64е+06 -2,18е+08 -36734 2,10е+06
-2,18е+08 3,02е+10 6,06е+06 -5,65е+08
-36734 6,06е+06 11574 -2,74е+06
2,10е+06 -5,65е+08 -2,74е+06 6,93е+08
расстояния, что соответствует случаю некоррелированности компонентов вектора признаков между собой. При этом значения признаков нужно нормировать в виде V* = (VI - цчтобы в итоге суммировать значения случайных нормальных величин с параметрами
(ц = 0, = 1).
Отдельной проблемой стоит выбор порогов для разделения значений признаков изображений разных классов. Для некоторых корреляционных подходов при структурном распознавании такая возможность имеется [1]. Для модели независимого анализа ХП, имеющиеся статистические данные говорят о том, что, учитывая разнообразие и диапазон значений, а также значительные величины дисперсий и ковариационных матриц, определение оптимальных порогов вызывает затруднения. Большую определенность в этой ситуации имеет вычисление порогов для величин локального сходства.
Типичные итоговые гистограммы голосования значений ХП за тот или иной эталон с использованием оптимальных порогов для сходства в приведенном примере задачи распознавания показаны на рис. 4. Цифры 1-3 соответствуют номерам эталонов, а значения гистограмм - количеству полученных голосов. На рис. 4, а изображена гистограмма при распознавании изображения рис. 1, 6. Рис. 4, 6 соответствует распознаванию изображения рис. 2. Из диаграмм рис. 4 видим достаточно высокую схожесть между 2-м и 3-м эталонами в пространстве ХП, которая усиливается влиянием фона. Важным моментом при построении итоговых гистограмм является устранение учета откликов ХП на краях изображения. Эти отклики часто неразличимы
40
35 30 25 20 15 10
1 2 3
а)
6)
Рисунок 4 - Гистограммы голосования:
а - для изображения рис. 1, 6; 6 - для изображения рис. 2
для разных эталонов. Результаты исследования помехоустойчивости исследуемого метода относительно аддитивных и локальных помех подробно описаны в [7].
ЗАКЛЮЧЕНИЕ
Новизна работы заключается в применении методов статистического анализа для оценки значений и величины сходства векторов ХП фрагментов изображений при решении задачи структурного распознавания объектов. Для фиксированного уровня значимости имеется возможность оптимальным образом устанавливать эквивалентность признаков по значению сходства. Для этой цели использованы метрические и статистические свойства векторов признаков.
Важной практической особенностью используемой системы признаков есть общая вычислительная база (в виде компонент вектора градиента) как для формирования точек интереса, так и для вычисления в этих точках значений векторов-признаков.
Статистические оценки показывают, что более универсальными и приемлемыми в практическом плане моделями для представления множеств ХП являются те, в которых каждый ХП базы моделей имеет индивидуальную матрицу ковариации при участии в распознавании. Другие варианты приводят к ограничениям на базу моделей.
Практическая значимость обсуждаемых результатов состоит в экспериментальном подтверждении процедур проверки гипотез об эквивалентности признаков, а также таких принципиально важных свойств детекторов ХП, как инвариантность, помехоустойчивость, универсальность применения для разных видов признаков и базы распознаваемых моделей. Перспективы исследования состоят в статистическом обосновании решения по множеству отношений характерных признаков и их сравнение с решениями по одиночным признакам.
ПЕРЕЧЕНЬ ССЫЛОК
1. Гороховатский В, А, Распознавание изображений в условиях неполной информации. - Харьков: ХНУРЭ, 2003. - 112 с.
2. Schmid С,, Mohr R, Local Greyvalue Invariants for Image Retrieval. - IEEE Transactions on Pattern Analysis and Machine Intelligence. - 1997. - 19(5). - P. 530-534.
3. Kothe, U, Edge and Junction Detection with an Improved Structure Tensor. - Pattern Recognition. Proc. 25th DAGM Symp. - Magdeburg-Germany: Springer, 2003. - P. 25-32.
4. Шапиро Л,, Стокман Дж, Компьютерное зрение. Пер. с англ. - М.: Бином. Лаборатория знаний, 2006. - 752 с.
5. Дуда Р,, Харт П, Распознавание образов и анализ сцен. - Москва: Мир, 1976. - 512 с.
6. Koenderink J,J,, Doorn A,J, Representation of local geometry in the visual system. - Biol. Cybernetics. -1987. - № 55. - P. 367-375.
7. Путятин E, П,, Гороховатский В, А,, Кузьмин С, В, Распознавание изображений в пространстве инвари-
антных локальных признаков // Радиоэлектроника и информатика. - 2006. - № 1(32). - С. 69-73. 8. Гонсалес Р., Вудс Р. Цифровая обработка изображений. - М: Техносфера, 2005. - 1072 с.
Надшшла 27.04.07
Приведет результати досл1джень по застосуванню статистичного тдходу при формувант, оцтщ значень, анал1з1 властивостей та установленню екв1валентност1 характерних ознак зображень в щлях структурного розтзнання об'ект1в. Експериментальш ощнки тдтвер-
dxymmb Moxëueicmb noôydoeu onmuMaëbnux ëouaëbnux pimenb.
Results of researches on application of the statistical approach are resulted at formation, an estimation of values, the analysis of properties and an establishment of equivalence of characteristic attributes of images with a view of structural recognition of objects. Experimental estimations confirm an opportunity of construction of optimum local decisions.
УДК 681.3.06
В. И. Долгов, А. В. Неласая
ГЕОМЕТРИЧЕСКИЙ ПОДХОД К СЛОЖЕНИЮ ДИВИЗОРОВ ГИПЕРЭЛЛИПТИЧЕСКОЙ КРИВОЙ
В статье приводится понятийный аппарат теории дивизоров гиперэллиптических кривых, а также рассматриваются примеры применения геометрического правила сложения для дивизоров различного типа гиперэллиптической кривой второго рода.
ВВЕДЕНИЕ
Современные мировые стандарты цифровой подписи, в том числе и украинский стандарт ДСТУ 41452002, основаны на арифметике эллиптических кривых над конечными полями. Сейчас интерес исследователей направлен еще на одну перспективную алгебраическую структуру - группу дивизоров гиперэллиптических кривых, размер основного поля которых может быть уменьшен в несколько раз в зависимости от рода кривой без потери стойкости. Однако групповая операция в этом случае усложняется.
Целью данной статьи является краткое изложение понятийного аппарата теории дивизоров гиперэллиптических кривых, а также примеров применения геометрического правила сложения различных типов дивизоров кривой второго рода с использованием специализированного математического пакета.
1 ПОНЯТИЙНЫЙ АППАРАТ ТЕОРИИ
ДИВИЗОРОВ ГИПЕРЭЛЛИПТИЧЕСКИХ
КРИВЫХ
В целях популяризации сведений из теории гиперэллиптических кривых, а также для большего понимания дальнейших рассуждений, следуя работе [1], приведем здесь некоторые важные понятия и определения.
Определение 1. Пусть Г - конечное поле и пусть Г - алгебраическое замыкание Г. Гиперэллиптическая кривая С рода д > 1 над Г определяется как множество
решений (х, у) е Г х Г уравнения 2
С:у + Н (х )у = f( х), (1)
где Н (х) е Г [х ] - полином степени не более д, f(х) е Г[х] - нормированный полином степени 2д + 1, и при этом не существует решений (х, у) е Г х Г, которые бы одновременно удовлетворяли уравнению (1) и уравнениям с частными производными 2у + Н (х) = 0 и Н'(х)у - f(x) = 0.
Для конечной точки Р = (х, у) гиперэллиптической кривой С противоположной является точка -Р = = (х, - у - Н(х)). Точка на бесконечности Рх противоположна сама себе.
Определение 2. Координатным кольцом С над Г называется факторкольцо
Г[С] = Г[и, V]/(V2 + Н(и)V - Ди)),
2
где (V + Н(и)V - f(и)) - идеал в Г[и, V], порожденный 2
полиномом V + Н(и)V - Ди); Г[и, V] - кольцо многочленов от двух переменных, полученное последовательным присоединением к полю Г сначала переменной и, а потом V.
Координатное кольцо С над Г определяется аналогично
Г[С] = Г[и, V]/(V2 + Н(и)V -^и)).
© Долгов В. И., Неласая А. В., 2007 44 ISSN 1607-3274 «Радюелектрошка. 1нформатика. Управлшня:» № 2, 2007