Научная статья на тему 'Метод потенциальных функций в распознавании образов'

Метод потенциальных функций в распознавании образов Текст научной статьи по специальности «Математика»

CC BY
798
84
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Метод потенциальных функций в распознавании образов»

УДК 681.039 Богоносцева Т.А.

Пензенский государственный университет

МЕТОД ПОТЕНЦИАЛЬНЫХ ФУНКЦИЙ В РАСПОЗНАВАНИИ ОБРАЗОВ

Аннотация. В статье рассмотрено распознавание образов, основанное на методе потенциальных функций, а также несколько вариантов алгоритма и способы его реализации.

Ключевые слова: распознавание образов, потенциальная функция, разделяющая функция.

Термин "распознавание образов" охватывает поле деятельности, связанное как с реальными жизненными потребностями, так и с решением научных и технических задач. Способность "распознавать" считается основным свойством живых организмов, в том числе и человека. Каждый день мы совершаем процесс распознавания окружающих нас объектов и в соответствии с этим совершаем определенные действия. В частности, мозг обрабатывает информацию, получаемую от органов чувств, сортирует её и затем принимает решение, которое с помощью импульсов передается, к примеру, органам движения.

Известно [1], системе в процессе обучения предъявляется изображение sк ОЛ которому соответствует точка Хк в пространстве X. С изображением связывается функция U(x,Xk), заданная на всем пространстве X и зависящая от того, как выбрана точка Хк. Функция U (x,Xk) называется потенциальной. Потенциальная функция определяет близость двух точек x и х^ Функция U (х,хк) монотонно уменьшается с увеличением расстояния.

Метод потенциальных функций предполагает существование в пространстве X системы функций (Pi(x),( i = 1,2,. . .), позволяющих для каждой пары разделяемых множеств найти число N, при котором разделяющую функцию можно представить в виде <Р 0)=£Г= 1 Ср i(x) ■ (1)

Функция позволяет полностью разделить множества изображений, принадлежащих разным обра-

зам. Разделяющая функция р (х) обладает свойством:

ср(х) > 0, если х Е Vlt

р (х) < 0, е сл и х EV2. (2)

т.е. изображение относится к образу V., если разделяющая функция положительна; в противном случае изображение относится к образу V2.

Потенциальную функцию можно представить

в виде скалярной функции двух векторных аргументов:

U (x,х') = £Г=1 a2рt(x) рt(x ), (3)

где Pt (x) - линейно независимая система функций, at - действительные числа, отличные от нуля для всех i =1, 2, ..., N; x ' - точки, появляющиеся в процессе обучения. Предполагается, что р t( х ) и U (x, X ' ) ограничены при x Е V. U V2.

Каждому изображению , предъявляемых в процессе обучения соответствует точки

в пространстве X. Каждая из точек принадлежит образу или .

При появлении точки строится потенциальна функция , равная потенциалу, взятому со

знаком множества, к которому принадлежит точка , т.е.

( U{х, ду), если хг Е У±,

{—U (х,х.) , еелиXi Е V2,

После появления i-ой точки строится потенциал U (х) . На шаге ( i + 1 ) после чего возможны четыре случая:

ПО)

(4)

появляется точка

( xi+1^

1)

2)

3)

4) xi+1 Е V2 , Ui ( xi+1 ) Ф* 0 . (5)

Знак множества, которому

принадлежит точка

У+1

и знак

Ut(x , в первом и втором случаях

J i+1,

совпадают. Из чего можно сделать вывод, что алгоритм правильно классифицирует изображение т.е. принимается

Ui+1 (x) = Ui (Х) (6)

В третьем и четвертом случаях имеется ошибка классификации. Необходимо скорректировать потенциальную функцию, т.о. для третьего случая принимается

Ui+1 (x) = Ui (x) + U (x,Xi+1), (7)

для четвертого -Ui+1 (x) = Ui (x) — U (x,xi+а.

Построенный после -го шага потенциал можно записать как:

U (x,Xk)—X ЕХ<-> Е V,U(X,X4), (9)

(8)

Ui ( Х ) Е 1 Е

где и -

К

, подстановка которых в предшествующие по-

точки, принадлежащие образу тенциалы приводила к ошибке.

Существует несколько вариантов алгоритмов, основанных на методе потенциальных функций [1]. Они различаются выбором законов корреляции, разделяющей функции от шага к шагу.

Рассмотрим первый алгоритм. Будем считать, что р0 (х) = 0. Пусть построена разделяющая функция и на предъявлена точка , для которой известно действительное значение разделяю-

щей функции р (Xi+1). Это значение сообщается учителем. Тогда функция Pi+1 (x) строится по правилу: Pi+1 (x) = P i (x) + ai+1sign[p (xi+1) —P i (xi+1)] U (x,xi+l), (10)

где ai+1- любая последовательность чисел, удовлетворяющая следующим условиям: ряд Xr_1ai расходится, а ряд X Г_ 1a2 сходится.

Что касается второго алгоритма, мы как и прежде, функции осуществляется по формуле:

р i+1 (x) = р i (x) + [р (х+1 ) — р i (х+г ]1u (x,x+1 ), (11)

где - действительное значение разделяющей

константа, удовлетворяющая условию:

Я = 1m axU ( x, x ')■ (12)

принимаем . Переход функции

функции;

произвольная положительная

По мнению авторов, метод потенциальных функций может быть реализован двумя способами [2]. Для первого способа характерно: все точки х±,х2,.. ■,хт , показанные в процессе обучения и для которых требуется исправление ошибки, хранятся в памяти машины. Отнесение точек к множествам и V? зависит от знака числа аг,а2,...,0-т ( aj = i 1), которые также хранятся в памяти машины.

При появлении на (р + 1) -м шаге точки х* машина вычисляет величины U(х, х“) (i = 1, 2,..., т) и сумму

Up (х * ) = X™ 1aiU ( х i,x * ). (13)

Если Up(x *) > 0 и х * G V± ( или Up(х *) < 0 и х * G V2), тогда результаты вычислений на этом шаге и координаты точки забываются. Далее предъявляется новое изображение.

Если и и , то в память машины заносится дополнительная

точка хт+i= х* и число ат+i. Все остальные числа, посчитанные на этом шаге, забываются.

К концу процесса обучения в памяти машины хранятся лишь координаты точек х^х2 ,.. .,хт и соответствующие им числа ai,a2 ,.. .,ат. Значения потенциальных функций U(x,x‘) и вырабатываемой в процессе работы функции U(x’) не должны храниться в памяти. Они вычисляются по мере надобности, а затем стираются.

Второй способ реализации не требует запоминания координат точек, предъявляемых в процессе обучения. Следует помнить N составляющих направляющего вектора. Пусть потенциальная функция выбрана так, что коэффициенты при , т.е.

U (х,х*) = ХГ=1“[У (х) (Pi (х*). (14)

К р-му шагу в памяти машины хранятся N составляющих направляющего вектора гиперплоскости.

При предъявлении на (р-1) - шаге точки вычисляются величины и сумма

Up (х) = X?L 1 !^ip« iP i (х*). (15)

Далее считаем число

если и либо и

1, если Up (х *) < 0 и х * G V1 , (16)

если и

Новые значения +1),...,%(p+1) рассчитываются по формуле

V (р+1) = Vp + 5p«iP i (х * ). (17)

Затем старые значения и все вычисления забываются, а в памяти машины остаются лишь новые значения . Преимущества той или иной реализации зависят от соотношений размерностей про-

странства X и длины обучающей последовательности.

ЛИТЕРАТУРА

1. Васильев В.И. Распознающие системы.- Киев: Наукова думка, 1969. - 292 с.

2. Айзерман М.А., Браверман Э. М., Розоноэр Л. И. Метод потенциальных функций в теории обучения машин. - М. : Наука, 1970. - 384 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.