УДК 681.513:620.1
В.Д. ДМИТРИЕНКО, д-р техн. наук, НТУ "ХПИ",
В.И. НОСКОВ, канд. техн. наук, ГП «Электротяжмаш»,
И.П. ХАВИНА, НТУ "ХПИ"
АЛГОРИТМЫ ОБУЧЕНИЯ ДИСКЕТНЫХ СЕТЕЙ АРТ БЕЗ АДАПТАЦИИ ВЕСОВ СВЯЗЕЙ РАСПРЕДЕЛЕННЫХ РАСПОЗНАЮЩИХ НЕЙРОНОВ
Проаналізовані недоліки існуючих нейронних мереж адаптивної резонансної теорії (APT). Запропоновані нові алгоритми навчання цих мереж без адаптації вагових зв'язків розподілених нейронів, що розпізнають. На прикладах продемонстрована працездатність нових алгоритмів навчання.
Lacks of existing neural networks adaptive resonant theories (ART) are analysed. New algorithms of training these networks without adaptation of weights of connections distributed recognizing neurons are offered. It is shown on examples of working capacity of new training algorithms.
Постановка проблемы и анализ литературы. Системы управления на основе искусственных нейронных сетей многими авторами рассматриваются как альтернатива классическим системам управления. В настоящее время известен целый ряд возможных архитектур для построения нейросетевых систем управления, а также систем управления, где нейрорегуляторы работают параллельно обычным регуляторам [1 - 5]. Большой интерес к нейросетевым системам управления связан с тем, что они имеют ряд полезных свойств, которых трудно добиться с помощью других методов. В частности, речь идет о робастности систем управления, об определении управлений в условиях, когда неточно известна модель объекта, более гибком реагировании на изменяющиеся внешние условия, возможности обработки данных различной природы. Можно также отметить, что для нейросетевых моделей не существует ограничений, связанных с нелинейностью системы, ее порядком или видом применяемого функционала.
Для идентификации и управления в реальном времени динамическими объектами, содержащими в своих структурах "черные" и "серые" ящики применяются нейронные сети, основанные на аппроксимации нелинейностей, например, рядами Вольтера, Винера, полиномами Колмогорова-Габора, нелинейными разностными уравнениями. Однако в тех случаях, когда управление "черным" или "серым" ящиком должно осуществляться на распознавании ситуаций, которые определяются некоторым множеством динамических процессов, несмотря на большое число работ в этой области, до сих пор удовлетворительных систем управления разработать не удалось. Это связано с особенностью обучения нейронных сетей, которая, как правило, требует наличия всей исходной информации, поскольку обучение новому образу методом обратного распространения ошибки или генетическими
алгоритмами, или другими методами требует, как правило, полного переобучения сети. Невозможность с помощью уже известных нейронных сетей решить проблему восприятия новой информации при сохранении уже имеющейся (т.е. решить проблему стабильности - пластичности) привело к разработке принципиально новых конфигураций нейросетей - сетей адаптивной резонансной теории (АРТ). Эти сети в определенной степени решают противоречивые задачи чувствительности (пластичности) к новым данным и сохранения полученной ранее информации (стабильности). Поэтому проблемы распознавания конкретных режимов динамических объектов и адаптация системы в процессе эксплуатации могут решаться на основе нейросетей АРТ [6 - 10]. Однако известные дискретные нейронные сети АРТ имеют и существенные недостатки, если требуется запоминать сотни или тысячи реализаций одного и того же динамического процесса, так как матрица весов связей между S- и 7-нейронами размерностью n х m (n - число S-нейронов входного слоя; m - число распознающих 7-нейронов) хранит только одно изображение, полученное в результате пересечения запоминаемых динамических процессов. При малых значениях параметра сходства в режиме распознавания память нейронной сети АРТ не имеет необходимого объема информации (наборов фрагментов изображений) для принятия обоснованных решений, а при больших значениях параметра аналогичные изображения, отличающиеся небольшим числом второстепенных деталей, запоминаются как прототипы разных классов изображений с помощью разных 7-нейронов. Это делает практическое использование этих сетей сомнительным из-за чрезмерно большого числа 7-элементов распознающего слоя.
Другой недостаток сетей АРТ - связан с наличием только одного способа обучения нейронной сети путем адаптации весов связей распознающих нейронов, что может приводить к искажению или потере, хранящейся в памяти сети информации. Еще одним недостатком сети АРТ-1 является отсутствие режимов обучения сети с учителем, а также возможности влиять на конечные результаты обучения..
В работах [10, 11] были предложены алгоритмы обучения дискретных нейронных сетей АРТ с участием учителя, с новыми способами формирования информации в весах связей распознающих нейронов и с запрещением адаптации весов связей части распознающих нейронов, выделенных в отдельный слой. Решение конкретных практических задач с помощью новых нейронных сетей подтвердило их работоспособность и показало целесообразность совершенствования методов их обучения.
Целью статьи является разработка новых алгоритмов обучения дискретных нейронных сетей адаптивной резонансной теории, позволяющих расширить область их применения.
Архитектура и алгоритмы функционирования сети АРТ-1. Детально архитектура и алгоритмы функционирования сети описаны в работах [9 - 11]. Здесь же мы коснемся только самого необходимого. Архитектура сети АРТ-1 приведена на рис. 1. Эта сеть относит предъявленное входное изображение к одному из запомненных классов только в том случае, если оно достаточно похоже на прототип этого класса, то есть на изображение, хранящееся в весах связей нейронной сети. Если такое свойство, установленное с помощью специального параметра сходства между двумя изображениями, имеет место, то найденный прототип модифицируется, чтобы стать более похожим на предъявленное сети входное изображение. При отсутствии достаточного сходства между предъявленным изображением и прототипами всех имеющихся классов, оно запоминается сетью как прототип нового класса. Это возможно благодаря тому, что информация об изображениях-прототипах хранится локально, только в весах связей одного распознающего нейрона, и сеть имеет значительное число неиспользуемых распознающих нейронов, избыток которых уменьшается по мере поступления новой входной информации. Наличие избыточных распознающих нейронов является принципиальной особенностью нейронных сетей АРТ, поскольку при их отсутствии новые входные изображения просто теряются. Таким образом, локальное хранение информации и наличие избыточных распознающих нейронов позволяет запоминать новую информацию (новые образы), не искажая или теряя уже имеющуюся [8 - 11].
Основу архитектуры нейронной сети составляют три слоя нейронов:
- слой чувствительных 5-нейронов, воспринимающих входную информацию в виде черно-белых изображений или бинарных входных векторов;
- слой бинарных интерфейсных 2-нейронов; 2- и 5-элементы объединяются в поле ¥\ входных обрабатывающих нейронов;
- слой распознающих 7-нейронов.
Кроме этого имеются еще три управляющих нейрона: Я, О1 и 02 .
Выход каждого бинарного нейрона 5г- (і = 1, п) входного слоя связан однонаправленной связью с единичным весовым коэффициентом с бинарным нейроном 2І (і = 1, п) интерфейсного слоя. Выходные сигналы всех чувствительных элементов поступают также на входы управляющих нейронов Я, Оі и О2. Каждый интерфейсный нейрон 2{ (і = 1, п) связан со всеми элементами У- (у = 1, т) распознающего слоя и с управляющим нейроном Я. Связи с весовыми коэффициентами Щ1 (і = 1, п; у = 1, т), 0 < Щ1 < 1 передают сигналы с выхода каждого 2-элемента на входы каждого 7-нейрона. Бинарные связи с весовыми коэффициентами Щ2 (у = 1, т; і = 1, п;) связывают выход каждого распознающего нейрона со входом каждого интерфейсного нейрона. Информация о запомненных изображениях хранится в весах связей Щг, Щ2 распознающих нейронов.
Нейроны 7-слоя с помощью дополнительной нейронной сети, на рис. 1 не показанной, образуют слой конкурирующих нейронов.
2- и 7-нейроны получают сигналы из трех источников: 2-нейроны - от управляющего нейрона О1 и от нейронов слоев 5 и 7; 7-нейроны - от управляющих нейронов О2, Я и от 2-нейронов. 2- и 7-элементы переходят в активное состояние по правилу "два из трех", то есть только при наличии сигналов из двух различных источников.
Для обучения дискретных нейронных обычно используется метод быстрого обучения, при котором равновесные веса связей нейронов определяются за одно предъявление входного изображения [9 - 11].
В исходном состоянии перед началом обучения все нейроны сети имеют нулевые выходные сигналы. При подаче на вход сети первого бинарного
изображения І1 = (і^, 5^, ...^1) 5-элементы, получившие единичные входные сигналы, переходят в активное состояние. Их единичные возбуждающие сигналы переводят в активное состояние управляющие нейроны О1 и О2, а также поступают на входы соответствующих интерфейсных нейронов. Поскольку 2-нейроны переходят в активное состояние по правилу "два из трех", то в активное состояние перейдут только те 2-элементы, которые
получат единичные входные сигналы как от нейрона 01, так и от
соответствующего 5-элемента. Возбуждающие сигналы с выходов 2-элементов по связям с весами (г = 1, п; у = 1, т) поступят на входы всех
распознающих нейронов. 7-нейроны в активное состояние также переходят по правилу "два из трех", получая возбуждающие сигналы как от 2-нейронов, так и от управляющего нейрона 02. Входные и выходные сигналы распознающих нейронов рассчитываются по соотношениям:
п ___
ивх7у = У иты^ I, ивых7^ = ивх7у , ] = 1, т ■
г=1
Затем в 7-слое происходит выделение единственного нейрона 3 с максимальным выходным сигналом. Если оказывается, что в 7-слое имеется несколько элементов с одинаковым максимальным сигналом, то в качестве нейрона-победителя выделяется 7-нейрон, имеющий минимальный индекс. В результате латерального процесса на выходах 7-нейронов появятся следующие сигналы: иШЛху] = \ ивыхГ, = 0, у т , у ф 3.
Единичный возбуждающий сигнал нейрона-победителя 73 поступает на входы всех интерфейсных нейронов и этот же единичный сигнал переводит в неактивное состояние нейрон G1. Поскольку интерфейсные элементы переходят в активное состояние по правилу "два из трех", то единичные выходные сигналы появятся на выходах только тех 2-нейронов, которые получат возбуждающий сигнал как от нейрона 73, так и от 5-элемента. Возбуждающие сигналы с выходов элементов входного слоя и тормозящие с выходов 2-слоя поступят на входы управляющего нейрона Я, который рассчитывает параметр сходства изображений р = ||ивых^|| /| |ив^1х5|| =
П П
= СУРвых2, )/(^ивых5.), где ||.0|| - норма вектора Б. В зависимости от
7=1 7=1
величины параметра сходства нейрон либо переходит в активное состояние, либо остается пассивным. При пассивном управляющем Я-нейроне в сети АРТ-1 наступает резонанс и происходит адаптация весов связей
(г = 1, п) нейрона-победителя с помощью входного изображения. Если управляющий нейрон Я - активен, то его единичный выходной сигнал затормаживает нейрон-победитель 73 (С/вых^ = -1), исключая его из участия
в соревнованиях распознающих нейронов при текущем входном изображении. После этого в выходном слое определяется новый нейрон-победитель. Если ни одно из изображений, хранящихся в весах связей распределенных 7-нейронов, не оказывается близким ко входному, то все распределенные нейроны будут
заторможены и нейроном-победителем окажется нераспределенный элемент с минимальным индексом, который и запомнит предъявленное изображение.
Недостатки нейронной сети АРТ-1. Поясним недостатки сети АРТ-1 с помощью следующего примера.
Пример 1. Пусть требуется с помощью сети разделить на два класса множество векторов: М = { £ = (1, 1, 1, 1, 0, 0, 0, 0), £2 = (0, 1, 1, 1, 0, 0, 0, 0),
£3 = (1, 0, 1, 1, 0, 0, 0, 0), £4 = (1, 1, 0, 1, 0, 0, 0, 0), £5 = (1, 1, 1, 0, 0, 0, 0, 0),
£б = (0, 0, 0, 0, 1, 1, 1, 1), £7 = (0, 0, 0, 0, 0, 1, 1, 1), £8 = (0, 0, 0, 0, 1, 0, 1, 1),
£9 = (0, 0, 0, 0, 1, 1, 0, 1), £10 = (0, 0, 0, 0, 1, 1, 1, 0)}.
Классификация приведенных векторов может быть выполнена многими способами. Один из наиболее напрашивающихся - отнести к первому классу векторы £*, £2, ..., £5, а ко второму классу - векторы £б, £7, ..., £10, то есть сформировать классы векторов, отличающихся друг от друга не более, чем двумя компонентами. Попробуем получить эту классификацию с помощью нейронной сети АРТ-1. Возьмем сеть с параметрами: т = 6 - число 7-нейронов в распознающем слое сети; п = 8 - число нейронов во входном слое сети; р = 0,5 - параметр сходства; выбирается такое числовое значения исходя из того, что векторы £*, £2, ..., £5 и £б, £7, ..., £10 в каждом классе отличаются друг от друга не более, чем двумя компонентами, а параметр сходства рассчитывается только с помощью единичных компонент векторов;
= 1/(1 + п) = 0,111 - начальные значения весов связей ж! (г = 1, 8; у = 1, б); Ж2 = 1 - начальные значения весов связей Ж2 (у = 1, б; г = 1, 8) .
В процессе обучения нейронной сети получаются следующие результаты.
Последовательное предъявление нейронной сети первых пяти векторов
£*, £2, ..., £5 и расчет равновесных весов связей [9 - 11] приведет к следующим матрицам весовых коэффициентов:
0 0,500 0,111 0,111 0,111 0,111
0 0,500 0,111 0,111 0,111 0,111 0 0 1 1 0 0 0 0
0,500 0 0,111 0,111 0,111 0,111 1 1 0 0 0 0 0 0
0,500 0 0,111 0,111 0,111 0,111 , ж2 = 1 1 1 1 1 1 1 1
0 0 0,111 0,111 0,111 0,111 1 1 1 1 1 1 1 1
0 0 0,111 0,111 0,111 0,111 1 1 1 1 1 1 1 1
0 0 0,111 0,111 0,111 0,111 1 1 1 1 1 1 1 1
0 0 0,111 0,111 0,111 0,111
Нетрудно проверить, что последующая подача на вход нейронной сети как векторов £б, £7, ..., £10, так и векторов £*, £2, ..., £5 не приведет к изменению первых двух столбцов матрицы ж 1 и первых двух строк матрицы Ж2. Таким образом, анализ результатов примера показывает, что сеть АРТ-1 не может решить поставленную задачу классификации векторов £1, £2, ..., £10. Дополнительный анализ показывает, что разбиение векторов £*, £2, ..., £5 на два класса при заданной величине параметра сходства зависит и от порядка их предъявления в обучающей последовательности. Например, нетрудно получить следующие классификации Кг векторов £1, £2, ..., £5:
К1 = {{£1, £2, £3}, {£4, £5}} (получена в приведенных расчетах);
К2 = {{£1, £2, £4}, {£3, £5}}; К3 = {{£1, £2, £5}, {£3, £4}};
К4 = {{£1, £3, £5}, {£2, £4}} и т.д.
Неудача с решением задачи классификации указанного множества векторов связана с особенностями архитектуры и алгоритма функционирования нейронной сети АРТ-1. Во-первых, сеть в весах связей распознающего нейрона запоминает пересечение бинарных входных векторов. Во-вторых, близость бинарных векторов определяется с помощью параметра сходства, учитывающего только единичные элементы сравниваемых векторов. В анализируемом примере пересечением бинарных векторов £1, £ 2 , ... , £5 (а
также векторов £б, £7, ..., £10) является вектор со всеми нулевыми компонента:
£0 = £1 п £2 п £3 п £4 п £5 = £1б п £7 п £8 п £9 п £10 = (0, 0, 0, 0, 0, 0, 0, 0).
Таким образом, при пересечении рассматриваемых множеств векторов полностью утеряна информация об единичных компонентах бинарных векторов. Запоминание информации в виде пересечения входных бинарных векторов или изображений в нейронной сети также приводит к потере информации. При малых значениях параметра сходства может теряться основная часть информации по классифицируемым или распознаваемым изображениям. В связи с этим возникает идея о запоминании информации в виде объединения, а не пересечения бинарных изображений или векторов. В
этом случае в рассматриваемом примере имеем: £1 ^ £2 ^ £3 ^ £4 ^ £5 = £1.
Запоминание единственного вектора £1 приводит к получению матриц весов связей Ж', Ж2, с помощью которых могли бы правильно
распознаваться первые пять входных изображений, если бы после предъявления входных векторов не было адаптации весов связей, меняющей память сети.
Однако запоминание объединения бинарных векторов без учителя также имеет свои недостатки, поскольку могут легко появляться матрицы весов
связей, имеющих в своих столбцах (матрица W1) или строках (матрица W2) для распределенных 7-нейронов минимальное число нулевых элементов или даже не имеющих их совсем. Поэтому при запоминании объединения бинарных векторов необходима коррекция работы алгоритма или участие учителя [10, 11].
Примеры успешного использования при обучении нейронной сети пересечения или объединения входных изображений указывают на то, что, видимо, могут быть получены обучающие изображения и с помощью комбинации этих операций, а также с использованием других операций над бинарными множествами, в частности, операции "НЕ".
Таким образом, можно сделать вывод о том, что адаптация весов связей сети в том виде, в котором она применяется в нейронной сети АРТ-1, может быть недостатком сети. Недостатком, как показал рассмотренный пример, может быть и отсутствие учителя.
Алгоритмы обучения без адаптации весов связей распределенных распознающих нейронов. Вначале покажем целесообразность использования в дискретной нейронной сети АРТ режимов обучения без адаптации весов связей распределенных распознающих 7-нейронов. Прежде всего, на примерах проиллюстрируем работоспособность и достоинства предлагаемого метода обучения сети.
Пример 2. Пусть требуется с помощью нейронной сети АРТ-1 при величине параметра сходства p = 0,5 выполнить классификацию множества векторов:
S1 = (1, 1, 1, 1, 0, 0, 0, 0), S2 = (0, 1, 1, 1, 0, 0, 0, 0), S3 = (1, 0, 1, 1, 0, 0, 0, 0),
S4 = (1, 1, 0, 1, 0, 0, 0, 0), S5 = (1, 1, 1, 0, 0, 0, 0, 0), S6 = (0, 0, 0, 0, 1, 1, 1, 1),
S7 = (0, 0, 0, 0, 0, 1, 1, 1), S8 = (0, 0, 0, 0, 1, 0, 1, 1), S9 = (0, 0, 0, 0, 1, 1, 0, 1),
S10 = (0, 0, 0, 0, 1, 1, 1, 0), S11 = (0, 0, 1, 0, 0, 0, 0, 0), S12 = (0, 0, 0, 1, 0, 0, 0, 0),
S13 = (0, 0, 0, 1, 1, 0, 0, 0), S14 = (0, 0, 0, 0, 1, 0, 0, 0), S15 = (0, 0, 1, 0, 0, 1, 0, 0),
где первые десять векторов взяты из примера 1.
Для классификации возьмем сеть АРТ-1, начальные значения весов
связей Wy, W;2 (j = 1, 7; i = 1, 8) и параметры n, p, которой совпадают с параметрами сети примера 1, а число 7-нейронов сети равно семи.
Ж2 =
Анализ примера 1 показывает, что для определения числа выделенных
классов входных векторов достаточно одной из матриц Ж1, Ж2 , поэтому в
дальнейшем будем использовать только матрицу Ж2 как более компактную.
В процессе обучения нейронной сети получаются следующие результаты. Как следует из результатов примера 1, после предъявления первых десяти
изображений £1 - £10 матрица Ж2 весовых коэффициентов будет иметь вид:
0 0 1 1 0 0 0 0
1 1 0 0 0 0 0 0
0 0 0 0 0 0 1 1
0 0 0 0 1 1 0 0
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
Анализ матрицы Ж 2 показывает, что первые десять изображений разбиты на четыре класса. После предъявления изображения £11 = (0, 0, 1, 0, 0, 0, 0, 0) получим, что победителем будет нейрон ^ . Адаптации весовых коэффициентов этого нейрона уменьшит в первой строке матрицы Ж 2 число ненулевых значений весов связей до одного.
Последовательное предъявление нейронной сети изображений £12 - 15, 1 приводит к распределению нейронов и 76. Затем только при предъявлении на вход сети изображения £9 = (0, 0, 0, 0, 1, 1, 0, 1) произойдет распределение седьмого 7-нейрона и появлению в седьмой строке матрицы Ж2 пяти нулевых элементов: ^71 = ^72 = ^73 = ^74 = ^77 = 0 . После
предъявления изображения £10 = (0, 0, 0, 0, 1, 1, 1, 0) матрица Ж2 примет вид
W2 =
0 0 1 0 0 0 0 0
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0
0 0 1 1 0 0 0 0
0 0 0 0 1 1 0 1
Последующие предъявления изображений
£1 - £10
уже не
изменят элементы матрицы Ж 2 .
Таким образом, с помощью нейронной сети АРТ-1 при величине параметра сходства р = 0,5 за две эпохи выполнена классификация исходного множества векторов. Получено семь классов, однако необходимо отметить следующее: в множествах {£1, £2, ...,£5}, (£б, £7, ...,£10} векторы отличаются друг от друга не более, чем двумя единичными компонентами, то есть при по парном сравнении векторов параметр сходства не меньше 0,5. Поэтому было бы логичнее, чтобы на основе каждого множества был сформирован один, а не два класса изображений.
Проанализируем полученную матрицу Ж2. Сопоставление элементов строк матрицы Ж2 с векторами £11, £12, £14 показывает, что три класса изображений сформированы этими векторами, имеющими минимальное число единичных компонент. Четыре остальных строки матрицы Ж 2 сформированы парами изображений, имеющих по три единичных компонента. Отсюда следует предположение, что сеть АРТ можно обучать без адаптации весов связей путем предъявления некоторой упорядоченной последовательности
входных изображений: £к, £к+1, £к+2, ..., £д-1, £д.
Порядок предъявления изображений определяется величиной нормы входного вектора, причем первыми сети предъявляются изображения с
минимальной нормой, то есть |£к || < | £к+11| < | £к+21| <... < 11£?-11| < | ||.
Пример 3. Выполним обучение сети АРТ с параметрами, заданными в примере 2, последовательностью изображений £11, £12, £14, £13, £15, £2 - £5, £7 - £10, £1, £б, упорядоченных по величине их нормы. При этом полагаем, что при наступлении резонанса адаптации весов связей не происходит.
При предъявлении изображений
£11, £12, £14
распределяются распознающие нейроны 71, 72, 73 приобретает вид
последовательно и матрица весов связей
Ж 2 =
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 1 0 0 0
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
Ж 2 =
Входные изображения £ = (0, 0, 0, 1, 1, 0, 0, 0), £ = (0, 0, 1, 0, 0, 1, 0, 0) при величине параметра сходства р = 0,5 относятся соответственно ко второму и первому классу изображений и не вызывают изменений в матрице
Ж2. Входное изображение £2 = (0, 1, 1, 1, 0, 0, 0, 0) вызывает распределение четвертого 7-нейрона и соответствующие изменения в четвертой строке матрицы весовых коэффициентов. Предъявление изображений £3 - £5 не вызывает распределения новых 7-нейронов, поскольку все изображения при р = 0,5 относятся к четвертому классу. Пятый нейрон распознающего слоя распределяется при поступлении на вход сети изображения
£7 = (0, 0, 0, 0, 0, 1, 1, 1). Это приводит и к изменению матрицы Ж 2
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 1 0 0 0
0 1 1 1 0 0 0 0
0 0 0 0 0 1 1 1
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
Нетрудно убедиться, что предъявление изображений £8 - £10, £1, £б, а также любых других из входной последовательности не приводит к изменению матрицы Ж2.
Таким образом, при данном способе обучения дискретной нейронной сети классификация векторов выполнена за одну эпоху. При этом она более соответствует исходным данным, чем классификация векторов, полученная в примере 2, то есть с помощью обычно алгоритма нейронной сети АРТ-1. Следовательно, алгоритм обучения дискретной сети нейронной сети АРТ последовательностью изображений, упорядоченных по возрастанию величины их нормы, и без адаптации весов связей при наступлении резонанса действительно работоспособен.
Теперь покажем на примере целесообразность использования в дискретной нейронной сети АРТ режима обучения без адаптации весов связей распределенных распознающих 7-нейронов, когда предъявляется последовательность входных изображений: £к, £к+1, £к+2, ..., £д-1, £д,
упорядоченных по убыванию величины нормы входного вектора, то есть
||£к II > | |£к+11| > | £+21| >... > 11£?-1|| > I М|.
Пример 4. Выполним обучение нейронной сети АРТ с параметрами, заданными в примере 2, последовательностью изображений £1, £ б ,
£2 - £5, £7 - £10, £13, £15, £11, £12, £14, упорядоченных по возрастанию величины их нормы. При этом полагаем, что при наступлении резонанса адаптации весов связей не происходит. Параметр сходства в этой сети определим отношением р =| ивых2 || /| ||, то есть зависимостью, отличной
от параметра сходства в сети АРТ-1. Это связано с тем, что число единичных компонент во входных изображениях никогда не превосходит число единичных компонент, хранящихся в весах связей победившего 7-нейрона.
При предъявлении изображений £1, £ б последовательно распределяются распознающие нейроны У1, У2 . Входные изображения £2 - £5, £7 - £10 при величине параметра сходства р = 0,5 относятся соответственно к первому и второму классу изображений и не вызывают изменений в матрице Ж 2. Входные изображения £13 = (0, 0, 0, 1, 1, 0, 0, 0), и £15 = (0, 0, 1, 0, 0, 1, 0, 0) вызывают распределение третьего и четвертого 7-нейронов и соответствующие изменения в матрице весовых коэффициентов
1 1 1 1 0 0 0 0
0 0 0 0 1 1 1 1
0 0 0 1 1 0 0 0
0 0 1 0 0 1 0 0
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
Предъявление изображений £11 = (0, 0, 1, 0, 0, 0, 0, 0), £12 = (0, 0, 0, 1,
0, 0, 0, 0), £14 = (0, 0, 0, 0, 1, 0, 0, 0) не вызывает распределения новых
распознающих 7-нейронов, поскольку изображения £12, £14 при р = 0,5
относятся к третьему классу, а изображение £11 - к четвертому.
Нетрудно убедиться, что последующие предъявления любых изображений из входной последовательности не приводит к изменению матрицы Ж 2.
Таким образом, при данном способе обучения дискретной нейронной сети классификация векторов выполнена за одну эпоху. При этом она не противоречит здравому смыслу и не уступает классификациям векторов, полученных в примерах 2 и 3.
Успешное функционирование алгоритмов обучения нейронной сети АРТ последовательностями изображений, упорядоченных по убыванию или возрастанию величины их нормы и без адаптации весов связей, указывает на возможность и алгоритмов обучения сети АРТ последовательностями изображений, упорядоченных учителем. Причем в обучающей последовательности могут использоваться подпоследовательности как с возрастанием, так и с убыванием нормы входных изображений. Работоспособность таких алгоритмов легко проверить на конкретных примерах.
Таким образом, предложен новый метод обучения дискретных нейронных сетей АРТ без адаптации весов связей сети в процессе обучения и на его основе разработан ряд новых алгоритмов функционирования дискретных нейронных сетей адаптивной резонансной теории в режиме обучения. Каждый из предложенных алгоритмов имеет свои достоинства (но не лишен и недостатков), поэтому целесообразно совместное использование новых алгоритмов в одной сети АРТ. В связи с этим предлагается дискретная нейронная сеть АРТ с базовой архитектурой сети АРТ-1, но с множеством алгоритмов ее функционирования в режимах обучения:
1. Алгоритм функционирования сети АРТ-1.
2. Алгоритмы функционирования сети, в которых входные изображения не могут адаптировать веса связей распределенных распознающих нейронов после наступления резонанса.
2.1. Алгоритм обучения дискретной сети АРТ последовательностью изображений, упорядоченных по возрастанию величины их нормы, причем, первыми сети предъявляются изображения с минимальной нормой.
2.2. Алгоритм обучения дискретной сети АРТ последовательностью изображений, упорядоченных по убыванию величины их нормы, причем, первыми сети предъявляются изображения с максимальной нормой.
2.3. Алгоритм обучения дискретной сети АРТ последовательностями изображений, упорядоченных учителем, причем в обучающей последовательности используются подпоследовательности как с возрастанием, так и с убыванием нормы входных изображений.
2.4. Алгоритм обучения дискретной сети нейронной сети АРТ, в котором начальные значения весов связей задаются учителем, использующим комплексные входные изображения, которые получены из исходных с помощью логических операций "И", "ИЛИ", "НЕ", других математических операций, эвристик или комбинации указанных способов формирования обучающих изображений.
3. Алгоритмы обучения, использующие совместное применение алгоритма обучения сети АРТ-1 и алгоритмов обучения без адаптации весов связей нейронной сети при наступлении резонанса.
Выводы. Проанализированы недостатки известных нейронных сетей адаптивной резонансной теории, не позволяющие их эффективно использовать в реальных системах управления и распознавания:
- сеть в весах связей распознающего нейрона запоминает пересечение бинарных входных векторов, поэтому невозможно компактное хранение больших массивов изображений, относящихся к одному классу;
- конечный результат обучения дискретной сети АБТ может зависеть от последовательности предъявления изображений;
- адаптация весов связей распределенных распознающих Г-нейронов сети в том виде, в котором она применяется в нейронной сети АБТ-1, часто не позволяет решать даже тривиальные задачи классификации и обучения, то есть может быть существенным недостатком сети;
- отсутствует режим обучения сетей с учителем, что сужает класс решаемых с помощью сети задач классификации и распознавания.
Впервые разработан метод обучения дискретных нейронных сетей АБТ без адаптации весов связей распределенных распознающих нейронов сети в процессе обучения и на его основе предложен ряд новых алгоритмов функционирования дискретных нейронных сетей адаптивной резонансной теории в режиме обучения. Каждый из предложенных алгоритмов имеет свои достоинства, поэтому целесообразно совместное использование новых алгоритмов в одной сети АБТ. В связи с этим предлагается дискретная нейронная сеть АБТ с базовой архитектурой сети АБТ-1, но с множеством возможных алгоритмов ее функционирования в режиме обучения.
Список литературы: І. Wang Bielei Zhao, Lin Tan Zhenfan. Neural network based online selflearning adaptive PID control II Proceedings of the 3rd World Congress on Intelligent Control and Automation, Heffei, China, 28 June - 2 July 2000. - Vol. 2. - P. 908 - 9І0. 2. Комашинский В.И., СмирновД.А. Нейронные сети и их применение в системах управления и связи. - М.: Горячая линия - Телеком, 2002. - 94 с. З. Neural networks for control I Edited by W. Thomas Miller III, Richard
5. Sutton, and Paul J. Werbos, - Cambridge, Massachusetts, London: MIT Press, І996. - 524 P. 4. Барский А.Б. Нейронные сети: распознавание, управление, принятие решений. - М.: Финансы и статистика, 2004. - 176 с. 5. Галушкин А.И. Нейрокомпьютеры и их применение на рубеже тысячелетий в Китае. В 2-х томах. Том 2. - М.: Горячая линия - Телеком, 2оо4. - 4б4 с.
6. Grossberg S. Competitive learning: From interactive activation to adaptive resonance II Cognitive Science. - І987. - Vol. ІІ. - P. 23 - 63. 7. Carpenter G.A., Grossberg S. A massively parallel architecture for selforganizing neural pattern recognition machine II Computing, Vision, Graphics and Image Processing. - І987. - Vol. 37. - P. 54 - ІІ5. S. Дмитриенко В.Д., Корсунов Н.И. Основы теории нейронных сетей. - Белгород: БИИММАП, 2001. - 159 с. 9. Fausett L. Fundamentals of Neural Networks. Architectures, Algorithms and Applications. - New Jersey: Prentice Hall International, Inc., І994. - 46І p. 10. Дмитриенко В.Д., Расрас Р.Д., Сырой А.М. Специализированное вычислительное устройство для распознавания динамических режимов объектов управления II Інформаційно-керуючі системи на залізничному транспорті. - 2002. - № 1. - С. 15 - 22. 11. Моделирование и оптимизация систем управления и контроля локомотивов / Носков В.И., Дмитриенко В.Д., Заполовский Н.И., Леонов С.Ю. - Х.: ХФИ Транспорт Украины, 2оо3. - 248 с.
Поступила в редакцию 20.03.2006