Научная статья на тему 'Гибридная модель распознавания для инвариантных и вариантных образов'

Гибридная модель распознавания для инвариантных и вариантных образов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
179
78
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННЫЕ СЕТИ / РАСПОЗНАВАНИЕ ОБРАЗОВ / ОБУЧЕНИЕ / АРХИТЕКТУРА СЕТИ / ГИБРИДНАЯ МОДЕЛЬ / АНАЛИЗ / NEURON NET / PATTERN IDENTIFICATION / EDUCATION / NETWORK ARCHITECTURE / HYBRID MODEL / ANALYSIS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Жетимекова Гаухар Женисовна

В статье рассматривается гибридная модель распознавания для инвариантных и вариантных образов. Распознавание образов в известном смысле независимо от позиции, размера, яркости и ориентации в визуальном пространстве было целью обширного текущего исследования. Для достижения максимальной утилизации и гибкости, используемые методы должны быть нечувствительны к небольшим изменениям форм и обеспечивать лучшее выполнение при повторных испытаниях.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Жетимекова Гаухар Женисовна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

A HYBRID MODEL OF IDENTIFICATION FOR INVARIANT AND VARIANT PATTERNS

The article deals with a hybrid model of identification for invariant and variant patterns. Identification of the pattern was the goal of this extensive study, in a certain sense, regardless of position, size, brightness and orientation in visual space. To achieve maximum utilization and flexibility, used methods should be insensitive to small changes of forms and ensure the best execution in retesting.

Текст научной работы на тему «Гибридная модель распознавания для инвариантных и вариантных образов»

ГИБРИДНАЯ МОДЕЛЬ РАСПОЗНАВАНИЯ ДЛЯ ИНВАРИАНТНЫХ И ВАРИАНТНЫХ ОБРАЗОВ

Жетимекова Гаухар Женисовна

старший преподаватель, Карагандинский государственный университет им. Е.А. Букетова,

Республика Казахстан, г. Караганды E-mail _ jelimekova@mail. ru

A HYBRID MODEL OF IDENTIFICATION FOR INVARIANT AND VARIANT PATTERNS

Gauhar Zhetimekova

Senior Lecturer, the Karaganda Stale University of the name of Academician E.A. Buketov, Kazakhstan, Karaganda

АННОТАЦИЯ

В статье рассматривается гибридная модель распознавания для инвариантных и вариантных образов. Распознавание образов в известном смысле независимо от позиции, размера, яркости и ориентации в визуальном пространстве было целью обширного текущего исследования. Для достижения максимальной утилизации и гибкости, используемые методы должны быть нечувствительны к небольшим изменениям форм и обеспечивать лучшее выполнение при повторных испытаниях.

ABSTRACT

The article deals with a hybrid model of identification for invariant and variant patterns. Identification of the pattern was the goal of this extensive study, in a certain sense, regardless of position, size, brightness and orientation in visual space.

Жетимекова Г.Ж. Г ибридная модель распознавания для инвариантных и вариантных образов // Universum: Технические науки : электрон. научн. журн. 2015. № 4-5 (17) .

URL: http://7universum.com/ru/tech/archive/item/2156

To achieve maximum utilization and flexibility, used methods should be insensitive to small changes of forms and ensure the best execution in retesting.

Ключевые слова: нейронные сети, распознавание образов, обучение, архитектура сети, гибридная модель, анализ.

Keywords: neuron net, pattern identification, education, network architecture, hybrid model, analysis.

Нейронные сети представляют собой мощный инструмент в искусственном интеллекте. Область их применения очень широкая, начиная от распознавания образов, заканчивая теорией игр и моделированием человеческого мозга. Существуют множество видов нейронной сетей: персептронные, обратного распространения, карты Кохонена и другие. Виды нейронных сетей зависят от их природы, где существуют распознавание с обучением, т. е. с учителем, и распознавание без обучения.

Тип образца, который сеть без обучения обнаруживает во входных данных, зависит от архитектуры сети. Архитектура сети без обучения довольно проста, но осложнения и тонкость приходят главным образом от правил обучения. В этом случае, в отличии от сетей с обучением и с учителем, процесс распознавания совмещен с процессом обучения. Некоторые из известных сетей состоят лишь из единственного слоя, а известной многослойной сетью является сеть с прямой связью адаптивной теории резонанса [2].

Постановка задачи

В гибридной модели алгоритм Sanger применяется для сокращения размерности входных данных как по строкам, так и по столбцам, представляющим входные данные.

Основная часть

Обычно используемым методом статистик для анализа данных является принцип покомпонентного анализа. Извлекаемые признаки согласно принципу покомпонентного анализа неизменны. Это становится полезным для извлечения

собственных векторов каждого образца для сокращения размерности в описании исходных образов [1].

В качестве примера используются встречающиеся формы цифр, для того чтобы их классифицировать (распознать). В противовес к подходам, основанным на нейронной сети, существуют другие методы, такие как методы типа принципа покомпонентного анализа и типа пар линейной классификации. Распознавание образов в известном смысле независимо от позиции, размера, яркости и ориентации в визуальном пространстве было целью обширного текущего исследования. Для достижения максимальной утилизации и гибкости, используемые методы должны быть нечувствительны к небольшим изменениям форм и обеспечивать лучшее выполнение при повторных испытаниях. Форма граничных сегментов может быть описана количественно с использованием моментов. Другие методы включают кодирование цепочки, используемое Freeman, дискретный описатель Фурье, многоугольное приближение, предложенное Pavlidis, и синтаксическое распознавание образов.

Моментные инварианты стали классическим инструментом для объектного распознавания в течение прошедших 30 лет. Существуют различные подходы к теоретическому образованию инвариантов вращения на основе моментов. Hu использовал результаты теории алгебраических инвариантов и получил семь известных инвариантов вращения двумерных объектов [5].

Г ибридная модель распознающей нейросетей без «обучения»

Строится гибридная модель распознающей нейросетей без «обучения» на основе принципа покомпонентного анализа (PCA) и самоорганизующей карты Кохенена (рис. 1), используемая как для инвариантных (неизменяемых), так и для вариантных (изменяемых) образов.

На основе гибридной модели удается построить распознающий алгоритм, включающий две компоненты

1- алгоритм без обучения Sanger Правило (PCA);

2- распознавание образов с использованием сети Кохенена.

Рисунок 1. Гибридная модель распознающей нейросети

Принцип покомпонентного анализа (РСА)

В теории связей РСА известен как Karhunen-Loeve преобразование. Суть его состоит в том, чтобы найти набор М ортогональных векторов в пространстве данных, которые вычисляются в максимально возможной степени дисперсии данных. Проектирование данных от их первоначального N-мерного пространства на М-мерное подпространство, заполненное данными векторами, выполняет сокращение размерности, в общем случае М <N, что часто сохраняет большинство встроенной информации в данных [4].

Алгоритм состоит из следующих шагов:

1. Вычислить среднее из всех входов в данные и затем его вычесть:

1 n

ц = Е{ х) = - £ Xj (1)

ni=1

2. Вычислить матрицу ковариации и ее собственные векторы X и собственные значения w

C = Е((х-М)(х-Mf ) (2)

Cw=Xw (3)

(4)

X = wf Cw

3. Сохранить собственные векторы, соответствующие М наибольших собственных значений

яЯ >л2 > ... > яп

4. Спроектировать входные векторы на собственные векторы.

Нейронные сети могут быть использованы для сокращения размерности.

Двухуровневый perceptron с линейными устройствами вывода (количество скрытых модулей равно М, M<d ) обучен отображать входные векторы на себя при помощи минимизации ошибки суммы квадратов и способен выполнить линейный анализ основного компонента. Если два дополнительных нелинейных скрытых уровня позволено поместить в сеть, то сеть может быть сделана так, чтобы выполнить нелинейный принцип покомпонентного анализа. В общем случае может быть показано, что k-ое направление основного компонента проходит вдоль направления собственного вектора, принадлежащего k-ому наибольшему собственному значению матрицы полной ковариации входного вектора. Принцип покомпонентного анализа (РСА) использует Hebbian сеть с двумя уровнями для того, чтобы вычислить собственные векторы и собственные значения входных образцов. Фактическое количество собственных значений определяется путем сравнения первых k-ых наибольших собственных значений со среднеквадратичным отклонением вводов [6].

Обучение без учителя по Хеббу (Hebbian)

Выбор или извлечение признака является процессом выбора карты формы y= fx), при котором выборка x(x1, x2, ... xn) в n-мерном измеренном

пространстве ^n преобразована в точку y(y1, y2, ..., yq) в q-мерном (q<n) ^q пространстве признака. Основная цель данной задачи состоит в том, чтобы сохранить оптимальные существенные характеристики, необходимые для процесса распознавания и уменьшения размерности пространства так, чтобы была возможна эффективная классификация. Самый общий метод уменьшения размерности входного пространства — принцип покомпонентного анализа (РСА).

Существует схожее соответствие между поведением самоорганизующихся нейронных сетей и статистического метода принципа покомпонентного анализа. Фактически, самоорганизация, полностью связанная двухуровневая сеть с i входами и j выходами (i> j), может использоваться для извлечения первых j основных компонентов из входного вектора, таким образом сокращая размер входного вектора на j-i элементов. При j=1 такая сеть действует как максимум собственного фильтра (eigenfilter), извлекающий первый основной компонент из входного вектора.

Принцип покомпонентного анализа (РСА), использующий Hebbian двухуровневые сети, показан на рисунке 2. Узлы входа и выхода используют линейные функции активации и полностью взаимосвязаны соединениями Hebbian. Алгоритм неконтролируемого Hebbian обучения извлекает первые j основных компонентов из входного вектора х, используя вектор веса w. Окончательный выходной вектор у может затем использоваться в качестве входного вектора для регулярной сети с прямой связью.

Правило Hebbian

Без обучения с учителем обучение сети по правилу Hebbian было сделано с помощью регулирования весов в соответствии с правилом (5)

Awi = ^Yxj (5)

где ц управляет скоростью обучения. Необходимы только фиксированные точки для процедуры обучения по правилу Hebbian (5). Предложено множество подходов для изменения правила Hebbian, так было представлено два правила: правило Oja и правило Sanger.

Правило Oja

Данное правило может предотвратить расходимость обучения Hebiann, сдерживая рост вектора веса w. Для этого существуют несколько способов:

I

простая пере-нормализация всех весов Wj = awj после каждого обновления,

выбирая а так, чтобы

w

1. Но Oja [1982] предложил более разумный подход.

Непосредственно модифицируя правило Hebbian, он показал, что возможно

заставить весовой вектор приблизиться к постоянной длине без необходимости проведения всякой нормализации вручную [3].

*1

v,

V,

х --------------------------► У

1 > J

Рисунок 2. Hebbian сеть с 2-х уровнями

Правило Oja соответствует добавлению для уменьшения веса, пропорционального Y2 к Hebbian правилу. По правилу Oja находят модуль весового вектора, который максимизирует среднеквадратичный выход.

Awi =^Y(xj -Ywj ) (6)

и М согласно правилу Oja равно:

n

Awij = л Yi(xj- Ё Yk wi) (7)

к=1

Заметим, что это напоминает обучение по правилу обратной дельта; A w зависит от разности между фактическим входом и выходом по обратному распространению.

В гибридной модели алгоритм Sanger применяется для сокращения размерности входных данных как по строкам, так и по столбцам, представляющим входные данные. С помощью метода PCA осуществляется выбор признаков из статичных образов. Правило Sanger является модификацией правила Hebbian, в котором вектор весов является собственными значениями матрицы W.

Список литературы:

1. Dony R.D., Haykin S. Image segmentation using a mixture of principal components representation // Proc. Inst. Elect. Eng.—Vis. Image Signal Processing. — 1997. — Vol. 144. — PP. 73—80.

2. Kambhatla N., Lee T.K. Dimension reduction by local principal component analysis // Neural Comput. — 1997. — Vol. 9. — PP. 1493—1516.

3. Kohonen T. Generalizations of the self-organizing map. — Nagoya, 1993.

4. Kohonen T., Kaski S., Lappalainen H. Self-organized formation of various invariant-feature filters in the adaptive subspace SOM // Neural Comput. — 1997. — Vol. 9. — PP. 1321—1344.

5. Kohonen T., Oja E., Simula O. et al. Engineering applications of the selforganizing map // Proc. IEEE. — 1996. — Vol. 84. — PP. 1358—1384.

6. Sanger T.D. Optimal unsupervised learning in a single-layer linear feedforward neural network // Neural Networks. — 1989. — Vol. 2. — PP. 459—473.

i Надоели баннеры? Вы всегда можете отключить рекламу.