Научная статья на тему 'Параметрическая нейронная сеть с внешним полем'

Параметрическая нейронная сеть с внешним полем Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
66
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Параметрическая нейронная сеть с внешним полем»

Секция «Искусственный интеллект»

ПАРАМЕТРИЧЕСКАЯ НЕЙРОННАЯ СЕТЬ С ВНЕШНИМ ПОЛЕМ*

Д.И. Алиева, д. ф. - м. н. Б.В. Крыжановский Институт оптико-нейронных технологий РАН e-mail: [email protected]

Введение

В работах [1], [4], [5] предложен вариант ассоциативной памяти, базирующейся на процессах параметрического четырехволнового смешения (four-wave mixing process)[5]. Информативные сигналы, которыми обмениваются между собой нейроны, передаются по межсвязям в виде квазимонохроматических импульсов на q различных частотах Mk , k=1, 2,..., q. Иными словами, такая нейронная сеть способна хранить и обрабатывать информацию, закодированную в виде частотно-фазовой модуляции.

За основу сети был принят «параметрический» нейрон - обладающий кубической нелинейностью элемент, способный к преобразованию и генерации частот в процессах параметрического четырехволнового смешения Mi - Mj + Mk ^ Mr . Эквивалентную схему нейрона можно представить как устройство, состоящее из сумматора входных сигналов, набора q идеальных частотных фильтров Mk, блока сравнения сигналов по амплитуде и q генераторов квазимонохроматических сигналов Mk. Работа нейрона осуществляется в следующей последовательности: входные сигналы, пришедшие к нему от других нейронов сети, суммируются; суммарный сигнал пропускается через q параллельно соединенных частотных фильтров; выходные сигналы с фильтров сравниваются по амплитуде; сигнал с максимальной амплитудой инициирует генерацию выходного импульса, частота и фаза которого совпадают с частотой и фазой инициирующего сигнала. Важным элементом рассмотренной в [1], [4] схемы является принцип несоизмеримости частот в процессе FWM: Mi - Mj + Mk е {Mr}q только когда Mj совпадает либо с Mk, либо с Mi. Как оказалось, именно принцип несоизмеримости частот гарантирует высокую степень подавления в системе внутренних шумов.

Рассмотренную модель ассоциативной памяти было предложено назвать параметрической нейронной сетью (ПНС). Составляющие ее основу параметрические нейроны относятся к классу q-нарных нейронной, поскольку могут находиться в q различных

* Работа выполнена при финансовой поддержке РФФИ (проект №02-07-90125)

состояниях. Один из принятых подходов к описанию такой нейросети состоит в том, что состояния нейронов описываются векторными (а не скалярными) величинами. Разработанный нами векторный формализм выявляет близость ПНС к известной Поттс-стекольной нейросети [3], являющейся прямым обобщением модели Хопфилда ассоциативной памяти.

В настоящей работе излагается векторный формализм для ПНС и рассматривается другой тип параметрического четырехволнового смешения, для которого принцип несоизмеримости частот формулируется следующим образом: - Ю| + юк е {юг}4 только когда Ю| совпадает с юк. Кроме того вводится эквивалент внешнего магнитного поля. Соблюдение этих условий гарантирует еще более высокую степень подавления внутренних шумов, чем в [1], [4] и, соответственно, большие помехоустойчивость сети и объем памяти. В отличии от моделей, рассмотренных в [1], [4], [5], предлагаемая здесь модель более приспособлена к оптической реализации, поскольку не требует условий фазового согласования, достаточно трудно осуществляемого в эксперименте.

Рассмотрим сеть, состоящую из N связанных друг с другом формальных нейронов. Под нейронами будем понимать объекты, способные принимать одно из q различных дискретных состояний (1>2). Состоянию с номером к (к=1,..,ф ставится в соответствие орт ек в пространстве К .

Состоянием сети X как целого называется набор из N таких д-мерных векторов Х=(х1,х2,..,хп). Сеть будем интерпретировать как систему взаимодействующих д-мерных спинов и использовать соответствующую терминологию. [5]

Будем считать, что сеть построена на М исходных образах (паттернах) Хт = (хЦ1,

т=1,..М Поскольку нейроны у нас изображаются векторами, локальное поле, действующее на 1-й нейрон со стороны сети, тоже будет вектором Ъ{. По аналогии с обычной моделью Хопфилда запишем:

1.Описание векторной модели

2

(11)

(1.2)

Величина межсвязи между г-м иу'-м нейронами задается (д х д) - матрицей:

(1.3)

т

И 1 Чрт - порог нейрона - аналогии с физическими системами эквивалент

где

т

внешнего магнитного поля сети.

С учетом (1.2)-(1.3) гамильтониан системы принимает вид:

1 ^ • . ^ ^ . „ .

Н = - 11 И О У'Х у + I I X гТ'Х у (М)

Амплитудами сигнала будем называть величины:

4° = ки (1.5)

Обозначим индексом тах максимальную по модулю амплитуду.

Динамика системы определяется естественным образом: г-й нейрон под воздействием локального поля И; принимает положение, наиболее близкое к направлению этого поля (спин не может ориентироваться в точности по направлению поля, поскольку принимает только дискретные состояния). То есть, пусть Х=Х@) - состояние сети в момент времени I , тогда решающее правило для динамики нейрона таково: под воздействием локального поля г-й нейрон в момент времени 1+1 ориентируется вдоль орта етах , т.е.

X (( + 1) = ^ктах (1.6)

Эволюция системы состоит в последовательном изменении состояний нейронов по правилу (1.6). Процесс ориентации вдоль поля сопровождается понижением энергии (1.4) и, следовательно, система релаксирует в локальный минимум по энергии - сеть сходится к неподвижной точке.

2.Эффективность распознавания случайных паттернов

Оценим память данной модели для произвольных значений М в пределе Ы^ю. Пусть начальное состояние сети задается искаженным ц-м паттерном

Хт = (Ь1хт 1' Ь2хт2'-' Ьыхты ) (2.1)

Здесь Xт = (х 1, х 2,.., х) е{Хц}р - ц-й паттерн, а Ъ } - мультипликативный шум:

оператор Ъi с вероятностью Ъ изменяет направление вектора хт1 (направляет его случайным

образом вдоль иного орта) и с вероятностью 1 -Ъ оставляет его неизменным.

Проанализируем, при каких условиях нейронная сеть восстановит паттерн Хм .

Согласно правилу (1.6) /-й нейрон примет состояние хм1, т.е. правильно распознает

вектор хц/ при выполнении условия:

X (х0]■ - £0)Ъ]х0хт1(ек - •0)Е ^Хм - £0Ъ'х01

(2.4)

}*1 м *1 }*1

В противном случае произойдет ошибка распознавания, вероятность которой дается выражением:

( N-1 Ь

РГ/ = Рг X г г

I г=1 г=1

(2.5)

• • л, • •• • /• • \ „, •

где Ь=(К-1)(М-1), а (х0] - £0)Ь>х 1 и Л = [хм1(ек - ек0)](хм; - £0 РIх01 - случайные величины, которые в отсутствие корреляции между паттернами можно считать независимыми случайными переменными с распределениями:

1

(1 - \ 1 - Ъ

х = Ц' Ъ- л =

+1,

/ч'

0, 1 - 1 / (

-1, к

(2.6)

Для оценки вероятности (2.5) воспользуемся центральной предельной теоремой. В результате, для вероятности ошибки распознавания паттерна X получим:

(

Р =

1 ег1

— ехр

N41ж

2

N4 ~ 2 -(1 - Ъ)

Л

V

где Ъ =

Ъч

(2.7)

С ростом N эта вероятность сходится к нулю всякий раз, когда величина М как функция N растет медленнее, чем

М = —^ч 2(1 - Ъ)2

(2.8)

21п N

Это позволяет рассматривать величину (2.8) как асимптотически достижимую емкость памяти ПНС.

3. Обсуждение результатов

Прежде всего надо отметить, что рассмотренная модель ни при каком ч не трансформируется к стандартной модели Хопфилда.

Из (2.7) видно, что с ростом ч помехозащищенность рассматриваемой ассоциативной памяти экспоненциально возрастает. Одновременно растет и объем нейросетевой памяти,

2

который в q2 раз превышает аналогичный показатель для модели Хопфилда. В отличии от сети Хопфилда, число паттернов, которые способна хранить ПНС, может во много раз превышать число нейронов N. Работа данной сети моделировалась на компьютере. При числе нейронов N=100 и числе различных состояний нейронов q=32 в память сети записывалось то или иное количество M случайных паттернов (32-цветных изображений). При M=200 сеть надежно распознавала любой из этих паттернов, зашумленный не более чем на 85%. С увеличением числа паттернов помехоустойчивость сети, естественно, уменьшалась: при M=2000 (MN=20) сеть распознавала паттерны с искажениями до 60%, а при M=5000 (MN=50) - с искажениями до 50%. Напомним, что в свое время демонстрацией распознающей способности сети Хопфилда считалось восстановление зашумленного на 30% паттерна при M/N=0.1.

Сравним рассмотренную нами модель с Поттса-стекольной нейросетью, которая для q = 2 переходит в модель Хопфилда. Согласно оценкам, приведенным в [3], емкость памяти этой модели оценивается выражением ac=^ q(q-1) a0 , где q>2, a0 » 0.138, ac = M/N. Для ПНС справедливо соотношение ac (q) = q2a0 при q >1. Таким образом, при q>>1 емкость памяти ПНС в два раза превосходит емкость памяти Поттс-стекольной модели [3], а при больших искажениях ПНС работает более надежно. Кроме того, алгоритм представленной модели ПНС работает в q раз быстрее, чем модель Поттса, что позволяет использовать его как алгоритм быстрого поиска.

Список литературы

1. Крыжановский Б.В., Микаэлян А.Л. О распознающей способности нейросети на нейронах с параметрическим преобразованием частот// Доклады РАН. 2002. Т. 383(3), с. 318-321.

2. Chernov N.//Ann. Math. Statistics. 1952. V.23. p. 493-507.

3. Kanter I. Potts-glass models of neural networks//Physical Review A. 1988. vol.37(7),p.p. 2739-2742.

4. Fonarev A. Kryzhanovsky B.V. et al. Parametric dynamic neural network recognition power// Optical Memory&Neural Networks. 2001. vol. 10, N0. 4, pp. 31-48.

5. Kryzhanovsky B. V., Litinskii L. B. and Fonarev A. Optical Neural Network based on the parametrical Four-wave mixing process// Proc. of IC0NIP-2002. vol. 4, pp. 1704-1707, Singapore-2002.

i Надоели баннеры? Вы всегда можете отключить рекламу.