Научная статья на тему 'Восстановление ассоциативной памяти в случае уничтожения части нейронов'

Восстановление ассоциативной памяти в случае уничтожения части нейронов Текст научной статьи по специальности «Математика»

CC BY
239
46
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АСОЦИАТИВНАЯ ПАМЯТЬ / СЕТЬ ХОПФИЛДА / УНИЧТОЖЕНИЕ НЕЙРОНОВ / ВОССТАНОВЛЕНИЕ ПАМЯТИ / ASSOCIATIVE MEMORY / HOPFIELD NETWORK / NEURONS KILLING / MEMORY RECOVERY

Аннотация научной статьи по математике, автор научной работы — Новицкий Д. В.

Рассматривается задача восстановления ассоциативной памяти в случае, если часть ее нейронов был а полностью уничтожен а. На модели сети типа Хопфилда показано, что для полного восстановления функционирования памяти достаточно информации о ранее запомненных образах в количестве, равном числу удаленных нейронов. В численном эксперименте восстановление пр о водится путем дообучения, аналогично обычному обучению ассоциативных нейросетей.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

We consider re-learning ability of a Hopfield-type network after killing some neurons. Neurons were "killed" by means of ification of corresponding rows and columns of the synaptic matrix. We show that one can restore recognition ability of this network using re-training with the vectors, which was memorized before. The number of needed vectors is equal to the number of deleted neurons. It does not depend on network's size and on volume of stored data.

Текст научной работы на тему «Восстановление ассоциативной памяти в случае уничтожения части нейронов»

УДК 681.513.7 Д.В. НОВИЦКИЙ

ВОССТАНОВЛЕНИЕ АССОЦИАТИВНОЙ ПАМЯТИ В СЛУЧАЕ УНИЧТОЖЕНИЯ ЧАСТИ НЕЙРОНОВ

Анотація. Розглядається задача відновлення нейронної асоціативної пам ’яті у випадку, коли частину її нейронів було цілком знищено. На моделі мережі типу Хопфілда показано, що для цілковитого відновлення функціонування пам ’яті достатньо інформації про таку кількість початково завантажених образів, що дорівнює числу вилучених нейронів. У чисельному експерименті таке відновлення здійснюється шляхом донавчання, подібно до звичайного навчання такого типу мереж.

Ключові слова: асоціативна пам ’ять, мережа Хопфілда, знищення нейронів, відновлення пам ’яті.

Аннотация. Рассматривается задача восстановления ассоциативной памяти в случае, если часть ее нейронов была полностью уничтожена. На модели сети типа Хопфилда показано, что для полного восстановления функционирования памяти достаточно информации о ранее запомненных образах в количестве, равном числу удаленных нейронов. В численном эксперименте восстановление проводится путем дообучения, аналогично обычному обучению ассоциативных нейросетей.

Ключевые слова: асоциативная память, сеть Хопфилда, уничтожение нейронов, восстановление памяти.

Abstract. We consider re-learning ability of a Hopfield-type network after killing some neurons. Neurons were "killed" by means of nullification of corresponding rows and columns of the synaptic matrix. We show that one can restore recognition ability of this network using re-training with the vectors, which was memorized before. The number of needed vectors is equal to the number of deleted neurons. It does not depend on network's size and on volume of stored data.

Keywords: associative memory, Hopfield network, neurons killing, memory recovery.

1. Введение

Известно, что сети нейронной ассоциативной памяти типа Хопфилда отличаются большой информационной избыточностью. Так, при применении классического правила обучения Хопфилда (Хэбба) сеть с n нейронами может корректно запомнить не более 0,14 n образов [1]. При применении псевдоинверсного правила обучения это число возрастает до 0,25 n; количество весов такой сети равно n2 . Хотя такая избыточность и требует значительных вычислительных ресурсов при больших n , она обеспечивает устойчивость при различного рода искажениях. Так, например, можно удалить (приравняв соответствующие веса нулю) значительную часть связей такой сети без заметного ухудшения характеристик ассоциативной памяти [2].

Интересен вопрос, можно ли восстановить информацию, содержащуюся в сети, если часть нейронов была полностью «убита» и заменена «пустыми» - со всеми весами связей, равными нулю? Мы покажем теоретически, что для этого достаточно знать столько обучающих векторов (из числа содержавшихся в памяти до повреждения), сколько нейронов было удалено из сети. При этом восстанавливаются все ранее запомненные образы, а не только те, которые повторно вводились в сеть.

Численные эксперименты показывают, что для восстановления памяти может быть использовано дообучение системы по тем же правилам, что и при обычном псевдоинверс-ном алгоритме. Хотя полученная таким образом матрица весов не тождественна исходной, система показала способность к воспоминанию, близкую к первоначальной.

© Новицкий Д.В., 2012

ISSN 1028-9763. Математичні машини і системи, 2012, № 4

В данной работе мы используем модель ассоциативной памяти на основе сетей Хопфилда с псевдоинверсным правилом обучения [3]. В сетях этого типа запоминаются

биполярные векторы: Ук е{—1, 1}”, к = 1...т . Пусть эти векторы образуют столбцы матри-

цы V размером т х” . Синаптическая матрица С дается соотношением

С = ^, (1)

где V+ - матрица, псевдообратная к V по Муру-Пенроузу. Ее можно вычислить напрямую

по формуле V+ = (VTV) Vт или по формулам Гревиля [4, 5].

Ассоциативный поиск осуществляется с помощью процедуры экзамена: входной вектор х0 служит начальной точкой итераций вида

Хм = / (СХ), (2)

где I - монотонная нечетная функция, такая что Ншх®±¥ / (^) = ±1. К векторному аргументу она применяется покомпонентно. Устойчивую неподвижную точку этого отображения будем называть аттрактором. Максимальное расстояние по Хэммингу между входным вектором х0 и запомненным образом Ук такое, что процедура экзамена все еще сходится к \к и называется аттракторным радиусом.

2. Теория восстановления памяти

Рассмотрим поведение сети Хопфилда, обученной с помощью псевдоинверсного алгоритма, в которой часть нейронов удалена путем обнуления значений веса связей на их входах и выходах. При таком удалении сеть теряет способность к конвергенции, вследствие чего происходит разрушение ассоциативной памяти (АП), ее содержимое становится недоступным. Покажем, что такую АП можно полностью восстановить путем повторного запоминания лишь части векторов из числа запомненных ранее. Пусть из сети удалено р нейронов. Тогда исходную (проекционную) матрицу сети можно представить в виде

С =

X I

(3)

здесь X, I, 2 - матрицы размером (” — р)х(” — р), (” — р)хр , рхр соответственно. Они связаны соотношениями

X = X2 + УУт

2 = 22 + П . (4)

I = XI + Ут2

Если известна только матрица X усеченной сети, соотношения (4) можно разрешить относительно I, что позволит восстановить исходную проекционную матрицу С. Но это решение неоднозначно: I можно домножить справа на произвольную ортогональную матрицу и размером р х р . Однако неоднозначность может быть снята путем дообучения на некотором наборе векторов из исходного множества.

Количество вновь запоминаемых векторов, необходимое для восстановления памяти, равно числу удаленных нейронов р и не зависит от размеров сети и объема запомненных ею данных.

Теорема 1. Если известны матрица X, а также произведение исходной матрицы С на р векторов из исходного запоминаемого множества, матрица С восстанавливается однозначно.

Доказательство. Матрица У находится из системы (2) с точностью до умножения на ортогональною матрицу и размером т хт . При этом 2 определяется однозначно. Пусть Упр - матрица, образованная из р линейно независимых векторов, содержавшихся в исходной памяти. Разделим ее на блоки Уп_ р Ур , относящиеся к сохранившимся и удаленным нейронам соответственно. Затем найдем и, решая систему

иУоТУп_р, р + 2Ур, р = Ур, р, (5)

где У0 - какое-нибудь решение системы (4). и находится в виде

и = (1_2)урр(УУр,р)* ■

3. Экспериментальные результаты

Возможность восстановления связей утраченных нейронов подтверждают эксперименты по дообучению [6]. Использованный там алгоритм базируется на проекционном правиле обучения АП. Для дообучения предъявлялись р образов из числа запомненных ранее. Такой метод не дает точного решения систем (2)-(3), однако обеспечивает его приближение.

О качестве приближения можно судить по спектрам получаю-

щихся матриц.

На рис. 1 приведены данные для матрицы связей

256x256, в которой после запоминания 120 векторов было обнулено по 40 строк и столбцов. Графики отражают спектры до

обучения, после обучения на 10, 30 и 40 векторах, запомненных сетью ранее. Как видно, при удалении нейронов ранг матрицы сохраняется, но величины 40 из 120 собственных значений заметно уменьшились. При запоминании каждого следующего вектора ранг матрицы увеличивается на единицу, причем добавляется одна компонента с единичным собственным значением и происходит перераспределение и сокращение значений 40 ранее ослабленных компонент спектра. После запоминания 40 векторов они образуют “хвост” спектра матрицы и по значению не превосходят 0,47. Образование “хвоста” вызвано тем, что собственные векторы сети, образовавшейся после обнуления части связей, имеют составляющие, ортогональные ранее запомненным векторам. При обучении восстановление ранее запомненных собственных векторов сопровождается запоминанием ортогональных составляющих, собственные значения которых менее 0,5.

Приведенные на рис. 1 данные относятся к случаю плотного заполнения памяти (т / п = 0,47) при удалении более 15% нейронов. На рис. 2 приведены аналогичные данные для такой же сети при малом заполнении памяти

(т = 40, т /п = 0,15)

и удалении всего 10 нейронов (менее 4%). Приведены спектры в начале обучения, после обучения на 5, 9 и 10 векторах, запомненных сетью до разрушения связей, а также после дополнительного обучения на

новых 20 векторах. Отметим, что появление 20 новых единичных собственных значений при запоминании новых векторов практически не повлияло на 10 дополнительных малых составляющих спектра, образовавшихся в результате удаления нейронов.

При малом заполнении памяти (т / п < 0,2) появление новых составляющих спектра практически не влияет на поведение сети. Однако при высоком заполнении памяти появление дополнительных компонент увеличивает число ложных аттракторов сети и сокращает объем свободной ассоциативной памяти. Применяя метод разнасыщения синаптической матрицы, удается значительно уменьшить их влияние. Более радикальным решением может быть возведение синаптической матрицы в высокую степень, после чего в ней сохранятся лишь собственные значения, близкие к единице.

На рис. 3 показана динамика аттракторных свойств АП по мере ее обучения. Сеть с

«убитыми» нейронами полностью теряет способность к конвергенции (лишь для аттрактора №100 был случайно зафиксирован ненулевой радиус). По мере дообучения аттракторный радиус тех образов, которые были повторно предъявлены сети, сразу восстанавливается до первоначального значения, всех остальных - постепенно увеличивается. В момент, когда число векторов для дообучения сравнивается с числом уничтоженных нейронов, ат-тракторные свойства системы полностью восстанавливаются.

4. Выводы

Явление восстановления АП с уничтоженными нейронами с помощью подмножества ранее содержавшихся в ней образов напоминает широко известные примеры излечения больных амнезией путем напоминания пациентам ярких событий из их прошлого.

Рис. 3. Изменение радиуса аттракторов сети в процессе дообучения

1 6 11 16 21 26 31 36 41 46 51 56 61 Є6 71 76

Рис. 2. Эволюция спектра при обучении на запомненных данных и последующем обучении на 20 новых векторах. М=40+20

СПИСОК Л1ТЕРАТУРЫ

1. Amit D. Modeling Brain function / D. Amit // The world of attractor networks. - Cambridge Univ. Press, 1989. - 528 р.

2. Сычев А.С. Селекция связей в нейронных сетях с псевдоинверсным алгоритмом обучения / А.С. Сычев // Математические машины и системы. - 1998. - № 2. - С. 25 - 30.

3. Personnaz L. Collective computational properties of neural networks: New learning mechanisms / L. Personnaz, I. Guyon, G. Dreyfus // Phys. Rev. A. - 1986. - Vol. 34, N 5. - P. 4217 - 4228.

4. Albert А. Regression and the Moore-Penrose pseudoinverse / А. Albert. - New-York-London: Academic Press, 1972. - 180 р.

5. Кириченко Н.Ф. Псевдообращение матриц в проблеме проектирования ассоциативной памяти / Н.Ф. Кириченко, А.М. Резник, С.П. Щетенюк // Кибернетика и системный анализ. - 2000. - № 3. -С. 18 - 27.

6. Associative Memories with "Killed" Neurons: the Methods of Recovery / A.M. Reznik, A.S. Sitchov, O.K. Dekhtyarenko [et al.] // Proc. of the International Joint Conference on Neural Networks. - Portland: Neural Networks, 2003. - Vol. 4. - P. 2579 - 2582.

Стаття надійшла в редакцію 19.11.2012

i Надоели баннеры? Вы всегда можете отключить рекламу.