Научная статья на тему 'Гибридный метод обучения искусственной нейронной сети на основе модифицированного алгоритма муравья'

Гибридный метод обучения искусственной нейронной сети на основе модифицированного алгоритма муравья Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
246
52
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННЫЕ СЕТИ / АЛГОРИТМ МУРАВЬИНОЙ КОЛОНИИ / NEURAL NETWORK / ANT COLONY OPTIMIZATION / BACK PROPAGATION ALGORITHM / HYBRID ALGORITHM / NEURAL NET- WORK TRAINING

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Котляров Е. В., Петрушина Т. И.

В статье предложен модифицированный алгоритм муравьиной колонии для гибридного метода обучения искусственной нейронной сети. Данный алгоритм ориентирован на индивидуальную корректировку весов нейронной сети

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

HYBRID TRAINING METHOD OF ARTIFICIAL NEURAL NETWORK ON THE BASIS OF THE MODIFIED ANT ALGORITHM

Back propagation of error algorithm is one of the training methods of artificial neural network. Its creation gave an additional incitement to the development of artificial neural network theory. An increase and appearance of the new tasks had led to the appearance of hybrid algorithms based on classical and stochastic ones. They emphasize the advantages and decrease the drawbacks of each other. The article suggests the hybrid training algorithm of neural network based on the ant colony and back propagation of error algorithms. The ant colony algorithm is used to choose the priority ways of moving along the neural network and to change the network balance with the help of pheromones.In comparison with the basic algorithm the ant colony one is changed. Instead of distance records between each pair of connected nodes and total network error records, they use the record of error value on the each exit node at the end of each ant travel.In the modified algorithm, each network weight changes the coefficient with the glance of the value of pheromone matrix elements, the error on the each node of exit layer and suggested function for pheromone accounting. The algorithm performance was checked on the famous databases [http://archive.ics.uci.edu/ml/]. The results of the experiments show that in comparison with another algorithm the modified one accelerates the training of neural network. The algorithm implementation was approved on the Microsoft SQL Server 2005 in Analysis Services. It will help to apply suggested algorithm to solve another problems of classification

Текст научной работы на тему «Гибридный метод обучения искусственной нейронной сети на основе модифицированного алгоритма муравья»

Восточно-Европейский журнал передовым технологий ISSN 1729-3774

В статтi запропонова-но модифтований алгоритм мурашиног колони для гiбрид-ного методу навчання штучног нейронног мережi. Даний алгоритм орieнтований на тди-вгдуальне коректування вагiв нейронног мережi

Ключовi слова: нейронт мережi, алгоритм мурашиног колони

□-□

В статье предложен модифицированный алгоритм муравьиной колонии для гибридного метода обучения искусственной нейронной сети. Данный алгоритм ориентирован на индивидуальную корректировку весов нейронной сети

Ключевые слова: нейронные сети, алгоритм муравьиной колонии

УДК 004.8

ГИБРИДНЫЙ МЕТОД ОБУЧЕНИЯ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ НА ОСНОВЕ МОДИФИЦИРОВАННОГО АЛГОРИТМА МУРАВЬЯ

Е.В. Котляров

Ассистент* Контактный тел.: 050-392-75-36 Е-mail: jimis@ua.fm Т.И. Петрушина

Кандидат физико-математических наук, доцент* Е-mail: tatyana.petrushina@gmail.com *Кафедра математического обеспечения компьютерных систем

Одесский национальный университет им. И.И. Мечникова ул. Дворянская, 2, г. Одесса, Украина, 65026

Постановка проблемы и анализ публикаций

Одной из основных задач теории искусственного интеллекта является обучение искусственной нейронной сети. Многие задачи ввода и обработки информации, передачи информации в коммуникационных системах связи, в интернете, в экономике, бизнесе, медицине, при автоматизации производства, в политологических и социологических технологиях, в охранных системах, в геологоразведке и другие [1-2] решены при использовании нейронных сетей.

Основным методом обучения является возникший в 1974 году одновременно и независимо друг от друга в работах А.И. Галушкина [3] и Пола Дж. Вербоса [4] метод обратного распространения ошибки. В последующие годы этот метод получил существенное развитие в работах Дэвида И. Румельхарта, Дж. Е. Хинтона и Рональда Дж. Вильямса [5], и С.И. Барцева и В.А. Охо-нина [6] и многочисленные применения к различным задачам. Его появление позволило преодолеть некоторые теоретические трудности и дать дополнительный толчок развитию теории искусственных нейронных сетей. Однако такие недостатки метода обратного распространения ошибки как паралич сети, наличие локальных минимумов, сложность корректного выбора размера шага, временная неустойчивость процесса, не всегда позволяют решить поставленную прикладную задачу.

Возникла потребность для оптимизации обучения нейронной сети усовершенствовать метод обратного распространения ошибки при помощи гибридного алгоритма.

Использование в гибридном алгоритме вместе с методом обратного распространения ошибки алгоритма муравьиной колонии началось в начале XXI века.

В работе [7] гибридное обучение нейронной сети с использованием алгоритма муравья применено для исследования тоннелей угольных шахт. Нейронная сеть обучается комбинацией алгоритмов: нечеткого алгоритма С-средних и алгоритма муравья, что позволило снизить вычислительную сложность задачи. Сеть используются для предсказания обрушения тоннелей, при этом факторы, влияющие на прочность стен, обладают такими характеристиками как изменчивость, нелинейность, нечеткость и др.

В работе [8] гибридный алгоритм обучения применяется для решения задач приближения функций и моделирования количественных активных отношений гербицидов. Сеть обучается двумя алгоритмами: алгоритмом обратного распространения ошибки и алгоритмом муравьиной колонии. Результаты экспериментов показали, что предложенный гибридный алгоритм достигает заданную точность за меньшее количество итераций, чем алгоритм обратного распространения. При этом также изучается вопрос о возможности изменения количества узлов на скрытых слоях.

Использование алгоритма муравья при обучении нейронной сети алгоритмом обратного распространения для комбинационной оптимизации проводится в работе [9]. При этом претерпел изменения базовый алгоритм муравья: обе матрицы - дискретная матрица феромонов и вероятностная матрица - предполагаются не дискретными, а непрерывными.

Основная часть

Рассматривается задача обучить искусственную нейронную сеть алгоритмом муравьиной колонии для решения задач классификации. Т.к. для таких задач в

© Е.Е

качестве искусственном нейронной сети, как правило, выбирается многослойный персептрон, то рассмотрим обучение многослойного персептрона гибридным алгоритмом, сочетающим алгоритм муравьиной колонии и алгоритм обратного распространения ошибки с «учителем».

Обучаемой нейронной сетью является многослойный персептрон с одним скрытым слоем. При этом рассматривается зафиксированная конфигурация сети (рис. 1): на входном слое - п узлов, на скрытом слое - т узлов и на выходном слое - р узлов. Количество узлов на входном и выходном слоях задаются с учетом конкретной решаемой прикладной задачи.

Заметим, что количество узлов на скрытом слое или задается с учетом смысла конкретной решаемой задачи, или зависит от количества узлов на входном и выходном слоях.

Worn

Рис. 1. Структура нейронной сети

Опишем структуру обучаемой нейронной сети. Пусть и = (и1,и2,...,ип) - вектор входных сигналов и е = (е1,е2,...,еп) - вектор выходных сигналов. Каждый нейрон входного слоя связан с каждым нейроном скрытого слоя со своим весом. Обозначим матрицу значений весов между входными и скрытыми узлами через W = |—^Ц, где - вес между ¿-м входным и j-м скрытым узлами (1 = 1,2,...,п,] = 1,2,...,т) . Матрицу значений весов между скрытым и выходным слоями обозначим через А = |Щ, где а^ - вес между ¿-м скрытым и j-м выходным узлами (1 = 1,2,...,т,] = 1,2.....р).

Каждый нейрон скрытого и выходного слоев имеет смещение, т.е. введем вектора смещений: скрытого слоя W0 = (—01,—02,...,—0т), где - смещение на ¿-м узле скрытого слоя, выходного слоя А0 = (а01,а02,...,а0р), где - смещение на ¿-м узле выходного слоя.

В качестве сумматора используем оператор нахождения взвешенной суммы по формуле:

Vj = £wijui + woj,J = 1,2,...,m -

Пусть у = f(х) - активационная функция. Заметим, что для алгоритма обратного распространения ошибки, как правило, выбирается или f еС^ЭД), или если f еС(ЭД), то функция f дифференцируема почти всюду в ЭД . При этом либо ^ ЭД^ [0;1], либо ^ ЭД^ (0;1) , либо ^ ЭД^ [0;1) , либо ^ ЭД^ (0;1], либо f: ЭД^ (-1;1).

При этом, не загромождая работу лишними обозначениями, если х = (х1,х2,...,хк), где xj еЭД,] = 1,2.....к , под

f (х) будем понимать вектор

f (x)=(f (x4 ),f (x 2 )_f (xk )).

(2)

Значения на выходе каждого узла скрытого слоя при помощи активационной функции находим по формуле:

(3)

Vj = f (Vj),J = l>2>...,m .

Обозначим через V = ) - вектор вы-

ходного сигнала скрытого слоя. Тогда значения на выходе скрытого слоя, найденные по формуле (3), согласно (2) в векторно-матричной форме имеют вид: V =f(V).

Переходим к выходному слою. 7'-тый выходной сигнал работы сети вычислим по формуле

ej = f

£ a.jv.+aoj

V i=i

,J = 1,2.....p.

(4)

Формула (4) согласно (2) в векторно-матричной форме имеет вид е = f (V ■ А + А0).

Рассмотрим одну итерацию обучения сети, используя обучение «с учителем». Изначально элементы матриц W,A и компоненты векторов смещения W(),A0 зададим произвольными вещественными числами из промежутка [-1;1]. Зададим вектор входных сигналов и и вектор «правильных» выходных сигналов с = (с1,с2,...,ср).

Согласно формулам (1), (3) и (4) прогоняем входной сигнал и по сети и получаем выходной сигнал е. Значение ошибки для ¿-того выходного узла с учетом «правильных» выходных сигналов полагаем равным:

erri = ci -ei,i = 1,2,...,p .

(5)

(1)

где Vj,j = 1,2,...,т- найденный входной сигнал j-го скрытого узла.

Обозначим через "V = 2,...^ т) - вектор входного сигнала скрытого слоя, тогда формула (1) в векторно-матричной форме имеет вид V = и ■ W + W0.

Вводя вектор ошибки err = (err1,err2,...,errp) , где его

компоненты en;,i = 1,2.....p , вычисляются по формуле

(5), получаем возможность оценивать «близость» значений компонент вектора полученного выходного сигнала e и «правильного» выходного сигнала с.

Описанный в данном пункте алгоритм основан на классическом алгоритме распространения сигнала в многослойных персептронах. В дальнейшем, используя данный алгоритм, ставим задачу его модификации так, чтобы ускорить обучение многослойного персептрона. Для этого будет использован также модифицированный алгоритм муравьиной колонии.

Предложим модификацию алгоритма муравьиной колонии для выбора приоритетных путей движения по нейронной сети при ее обучении. Основная цель,

которая при этом преследуется, состоит в ускорении в дальнейшем процесса обучения нейронной сети.

Пусть количество агентов (муравьев), используемых для обучения нейронной сети, равно 1 ■ п , где 1 eN - количество муравьев на 1 входной узел. Будем находить I по формуле:

1=в ■ сеп [ тах^

где BeN - параметр, которым может управлять пользователь, чтобы увеличить или уменьшить количество муравьев на 1 входной узел,

сеП(х)=

[х] +1, х еЪ, [х],х eZ,

[х]- целая часть числа х. Формула подсчета количества муравьев на 1 входной узел обеспечивает посещение муравьями всех узлов на скрытом и выходном слоях сети.

Равномерно распределим муравьев по п узлам входного слоя, по I муравьев на каждом входном узле. Будем считать, что за свое путешествие один муравей посещает всего 3 узла, по одному узлу на каждом слое, а значит, нет необходимости использовать список табу.

Для взаимодействия друг с другом и выбора приоритетных путей муравьи используют феромоны (секреты специальных желез). На каждом участке пути один муравей «оставляет» некоторое количество феромонов, подсчет которого проведем ниже.

Для обеспечения посещения всех узлов при первом путешествии муравьев, когда в сети еще нет феромонов, введен дополнительный алгоритм случайного выбора еще не посещенных узлов муравьями на скрытом и выходном слоях.

Идея алгоритма заключается в том, что муравей, будучи на входном или скрытом слое, имеет определенный набор еще не посещенных узлов «следующего» слоя. Если этот список - пуст, то муравей может выбрать любой следующий узел.

После выбора некоторым муравьем узла, для следующих за ним муравьев этот узел становится недоступным.

Запускаем муравьев.

Под одним путешествием 1п муравьев понимаем последовательный запуск по одному муравью из каждого из п входных узлов до тех пор, пока все 1п муравьев не закончат свои путешествия. При этом каждый муравей запоминает две пары узлов, в которых он находился, а значит, запоминает те участки пути, по которым он прошел. Когда все муравьи закончили очередное одно путешествие, проводится распределение феромонов между узлами входного и скрытого слоев и между узлами скрытого и выходного слоев.

Распределение феромонов существенно зависит от того, в какой выходной узел пришел муравей, а точнее, от величины ошибки (5) в ¿-м выходном узле. Наличие, в том числе и количество, или отсутствие феромонов на фиксированном участке пути являет-

ся сигналом для каждого муравья, который попал в узел начала следующего участка пути, нужно ли на следующем шаге выбирать этот участок или нет. При этом на следующем шаге, выходя из узла, в котором он оказался, муравей будет выбирать тот путь, количество феромонов на котором не меньше, чем на остальных путях, исходящих из данного узла. Здесь существенно то, что при наличии одинакового количества феромонов на нескольких путях, остается случайный выбор участка пути муравьем.

Будем также считать, что с течением времени феромоны испаряются, т.е. «притупляется» информация о выборе следующего участка пути, а значит, также будем учитывать испарение феромонов при помощи коэффициента испарения ре(0;1). Если на двух последовательных итерациях, т.е. после окончания очередного одного путешествия муравьев, пути муравьев не изменились, то останавливаем путешествия муравьев, и считаем, что приоритетные пути движения по нейронной сети выбраны.

Опишем алгоритм выбора приоритетных путей муравьями при помощи формул.

Для хранения значений феромонов между слоями зададим матрицы феромонов Фи ¥ . Обозначим матрицу значений феромонов между входными и скрытыми узлами через Ф = ||ф^||, где ф. - количество феромонов между ¿-м входным и j-м скрытым узлами.

Матрицу значений феромонов между скрытым и выходным слоями обозначим через ¥ = где

у. - количество феромонов между ¿-м скрытым иj-м выходным узлами .

Изначально все элементы матриц Ф и ¥ полагаем равными нулю.

Приоритет при выборе муравьем следующего участка пути будем определять так:

- выходя из ¿-того входного узла, муравей выбирает .-тый скрытый узел, если

к=1,2...,т

(6)

- муравей выбирает 7'-тый выходной узел, выходя из ¿-того скрытого узла, если

у¡. = тах у1к

1 к=1,2,...,р 1к

(7)

- при движении или из входного узла, или из скрытого узла, если найдены несколько ребер с максимальной концентрацией феромонов, то муравей случайным образом выбирает любое из них.

Обновление матриц Ф и ¥ , будем проводить тогда, когда все 1п муравьев закончили очередное свое одно путешествие, т.е., выйдя из некоторого входного узла, пришли в выбранные, с учетом формул (6) и (7), фиксированные скрытый и, далее, в выходной узлы. При этом количество феромонов, которое муравьи распространяют на пройденных ребрах сети, предлагаем считать зависящим от выходного узла, в который пришел муравей. Для этого:

1. Количество феромонов, которое муравей оставляет на каждом из двух пройденных ребер, вычисляем по формуле:

рЬег! = г^7,1 = 1,2.....р ,

егг

(8)

где Q - задаваемая в каждой конкретной задаче фиксированная постоянная, отвечающая количеству феромонов одного муравья;

2. После того, как все муравьев закончили очередное свое одно путешествие, обновление матриц Фи ¥ проведем по следующей схеме:

a) если муравей не проходил по ребру, то значение соответствующего элемента матрицы феромонов на этом ребре не изменяется;

b) при подсчете количества феромонов на каждом ребре можно использовать или алгоритм «без испарения» (р = 0) или алгоритм с учетом испарения на каждом ребре ;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

c) если муравей прошел путь от ¿-того входного узла к 7'-тому скрытому узлу и далее ¿-тому выходному узлу, то обновляются только элементы фу и ¥„ матриц Фи ¥ , им присваиваются новые значения ф, и ¥,к* по формулам

фу* = (ф« + РЬегк) *(1 1 = (у¡к + РЬегк)*(1 -р),

тым и выходным слоями, смещений = 1,2,...,т на скрытом слое и смещений а0к,к = 1,2,...,р на выходном слое.

Для этого

- находим сумму элементов матриц Фи ¥ :

Ф0=£ £ ф^ ¥0=£ £

=1 ¡=1

=1 ¡=1

- величины ошибок для корректировки весов между скрытым и выходным слоями вычисляем по формуле:

8ч=(с, -е,)е,(1 -е,)п

¥

Vх 0

1=1,2,...т=1,2.....р, (11)

(9)

(10)

где р - коэффициент испарения феромонов, ре[0;1) . При этом заметим, что учитывается ошибка pherk только соответствующего ¿-того выходного узла. Домножение на (1-р) соответствует испарению феромонов, во-первых, для того чтобы «притупить» информацию о выборе следующего участка пути, а во-вторых, чтобы убрать пути, ведущие к большим ошибкам.

Как указано выше, одно путешествие муравьев последовательно согласно формулам (6)-(10) происходит до тех пор, пока на двух последовательных итерациях пути муравьев не изменяются. Как только это произошло, останавливаем путешествия муравьев. Приоритетные пути движения по нейронной сети агентами выбраны.

При этом они запомнили ребра, по которым ходили. Переходим к обновлению весов сети.

Для ускорения обучения нейронной сети будем использовать гибридный алгоритм: модифицированный выше алгоритм муравьиной колонии и модифицированный алгоритм обратного распространения ошибки «с учителем».

При этом в последнем предлагаем ввести функцию для учета феромонов.

Изначально элементы матриц 1, А и компоненты векторов смещения 10, А0 зададим произвольными вещественными числами из промежутка [-1;1]. Зададим вектор входных сигналов и и вектор «правильных» выходных сигналов (с = сь с2,...,ср).

Прогоняем входной сигнал и по сети согласно формулам (1), (3) и (4) и получаем выходной сигнал е. Считаем значения ошибок егг, согласно (5) для каждого выходного узла сети, 1 = 1,2.....р .

К огд а м у ра вь и выбр а л и п р иор и т е т н ые мар ш-руты по сети, учитывая распределение феромонов муравьями, делаем корректировку весов, ■—¡Д = 1,2,...,n,j = 1,2,...,т между входным и скрытым слоями, и весов ajk,j = 1,2,...,т,к = 1,2,...,р между скры-

где п :[0;1] ^ [1; п0] - функция для учета феромонов такая, что п^С([0,1]), является строго монотонно убывающей, п(1) = 1 и п(0) = п0,П0 > 1.

- величины ошибок для корректировки весов между входным и скрытым слоями вычисляем по формуле:

8й=£ ■ V(1 - v1 )п

ф,.

Чф0 7

,1 = 1,2.....п,, = 1,2,...,т .(12)

В итоге обновление элементов матриц А и 1 векторов смещения, присвоив им соответственно новые значения а1,*,'11*,а01 * и w0i*, предлагаем вычислять по формулам:

а..* = а, + 98йе-Д = 1,2,...,т,1 = 1,2.....р ,

и Ч }

■н* = + 68'.и1,1 = 1,2,...,п,1 = 1,2,...,т , а01* = а01 + 8а01 тах 8-1,1 = 1,2,...,р ,

1=1,2,. 1п

'1* = '01 + 9'01 — £8'1,1 = 1,2,...,т,

п

(13)

(14)

(15)

(16)

1=1

где 8 - заданный коэффициент обучения сети, регулирующий скорость обучения.

В итоге, предложенный модифицированный алгоритм обучения нейронной сети с помощью алгоритма муравья обладает следующими свойствами:

- в отличие от классического алгоритма обратного распространения ошибки, в котором движение по многослойному персептрону не имеет приоритетов, предложен при помощи модифицированного алгоритма муравья выбор приоритетных путей для ускорения обучения нейронной сети;

- при выборе приоритетных путей движения муравьев введены две матрицы учета феромонов Фи ¥, которые позволяют упростить учет распространения феромонов на каждом участке пути движения муравьев;

- если в классическом алгоритме оптимизации по принципу муравьиной колонии учитывается расстояние, пройденное каждым муравьем на каждом участке пути, то в предложенном алгоритме расстояние заменяется величиной ошибки (5) в каждом выходном узле, в который пришел любой муравей;

к=1

- для увеличения скорости сходимости процесса обучения нейронной сети введена функция для учета феромонов п = П(х);

- изменен, по сравнению с классическим алгоритмом муравья, вероятностный учет движения муравья, а именно, в настоящей работе в качестве аргумента

функции для учета феромонов рассматривается — ;

Ф0

- изменены формулы для подсчета ошибок между входным и скрытым слоями и между скрытым и выходным слоями, а именно, используются формулы (11) и (12), в которых существенную роль играет функция для учета феромонов, предложенная в настоящей работе;

- корректировка всех весов сети (13), (14) и всех смещений (15), (16) проводится не только при помощи функции обратной активационной функции

1

^х) = -——, как в классическом алгоритме обратного

распространения ошибки, но и при помощи введенной функции для учета феромонов.

Остановка алгоритма происходит тогда, когда с заданной точностью сеть «правильно» отвечает или на все обучающие примеры, или на указанный пользователем процент таких примеров.

Заключение

Предложен гибридный алгоритм обучения искусственной нейронной сети на основе алгоритма муравьиной колонии и алгоритма обратного распространения ошибки с «учителем».

Алгоритм муравьиной колонии используется для выбора оптимальных путей движения по нейронной сети и оптимального изменения весов сети при помощи феромонов.

Равномерное распределение муравьев по всем узлам входного слоя позволяет избежать проблемы попадания в локальный минимум. Алгоритм обеспе-

чивает посещение муравьями всех узлов на скрытом и выходном слоях сети.

По сравнению с базовым, алгоритм муравьиной колонии изменен. В базовом алгоритме за основу взят учет расстояния между каждой парой соединенных узлов. В предложенном алгоритме используется учет величины ошибки в конце путешествия каждого муравья.

Кроме того, изменение элементов матриц феромонов происходит с учетом величины ошибки на каждом выходном узле вместо учета общей ошибки сети (как в базовом алгоритме).

В модифицированном алгоритме корректировка всех весов сети и всех смещений происходит тогда, когда приоритетные пути движения по сети муравьями выбраны.

При этом веса сети изменяются с учетом значений элементов матрицы феромонов, ошибки на каждом узле выходного слоя и предложенной функции для учета феромонов. Алгоритм позволяет изменять каждый вес сети со своим коэффициентом. Все это в целом позволяет поднять вопрос обучения нейронной сети на качественно новый уровень.

Работа алгоритма проверена на широко известных базах данных [http://archive.ics.uci.edu/ml/]. Эксперименты были проведены на нескольких классах задач. Результаты экспериментов показали, что по сравнению с классическим алгоритмом обратного распространения ошибки предложенный модифицированный алгоритм ускоряет обучение нейронной сети. Детальный анализ тестирования алгоритма для конкретных задач будет предложен в последующем.

Внедрение алгоритма апробировано на Microsoft SQL Server 2005 в службе Analysis Services, что позволит применять предложенный алгоритм для решения других задач классификации. При этом особый интерес представляет апробация алгоритма на реальных прикладных задачах.

В настоящее время проводятся эксперименты на больших нейронных сетях и больших объемах данных.

Литература

1. Саймон Хайкин, Нейронные сети полный курс второе издание - М. Вильямс, 2006, 1104 с.

2. Anil K. Jain, Jianchang Mao, K.M. Mohiuddin Artificial Neural Networks: A Tutorial, Computer, Vol.29, No.3, March/1996, pp. 31-44. Translated from the original English version and reprinted with permission. (IEEE)

3. Галушкин А. И. Синтез многослойных систем распознавания образов. - М.: «Энергия», 1974.

4. Werbos P. J., Beyond regression: New tools for prediction and analysis in the behavioral sciences. Ph.D. thesis, Harvard University, Cambridge, MA, 1974.

5. Rumelhart D.E., Hinton G.E., Williams R.J., Learning Internal Representations by Error Propagation. In: Parallel Distributed Processing, vol. 1, pp. 318 - 362. Cambridge, MA, MIT Press. 1986.

6. Барцев С. И., Охонин В. А. Адаптивные сети обработки информации. Красноярск: Ин-т физики СО АН СССР, 1986. Препринт N 59Б. - 20 с.

7. Neural Network Based on Ant Colony Clustering Algorithm Applied to Predict the Stability of the Roof in Coal Mining, ISDA '06 Proceedings of the Sixth International Conference on Intelligent Systems Design and Applications - Volume 01, 2006.

8. Evolving Neural Networks Using the Hybrid of Ant Colony Optimization and BP Algorithms, Advances in Neural Networks - ISNN 2006, Lecture Notes in Computer Science, 2006, Volume 3971/2006, 714-722, DOI: 10.1007/11759966_105.

9. Study on the Feed forward Neural Network Based on Ant Colony Optimization, Journal of Wuhan University of Technology [Transportation Science & Engineering], 2009-03.

Математика и кибернетика - фундаментальные и прикладные аспекты

Abstract

Back propagation of error algorithm is one of the training methods of artificial neural network. Its creation gave an additional incitement to the development of artificial neural network theory. An increase and appearance of the new tasks had led to the appearance of hybrid algorithms based on classical and stochastic ones. They emphasize the advantages and decrease the drawbacks of each other. The article suggests the hybrid training algorithm of neural network based on the ant colony and back propagation of error algorithms. The ant colony algorithm is used to choose the priority ways of moving along the neural network and to change the network balance with the help of pheromones.

In comparison with the basic algorithm the ant colony one is changed. Instead of distance records between each pair of connected nodes and total network error records, they use the record of error value on the each exit node at the end of each ant travel.

In the modified algorithm, each network weight changes the coefficient with the glance of the value of phero-mone matrix elements, the error on the each node of exit layer and suggested function for pheromone accounting. The algorithm performance was checked on the famous databases [http://archive.ics.uci.edu/ml/]. The results of the experiments show that in comparison with another algorithm the modified one accelerates the training of neural network. The algorithm implementation was approved on the Microsoft SQL Server 2005 in Analysis Services. It will help to apply suggested algorithm to solve another problems of classification

Keywords: neural network, ant colony optimization, back propagation algorithm, hybrid algorithm, neural network training

У статтi розглядаеться питан-ня обробки неттког експертног тформа-ци. Запропоновано графтне представлення отриманих даних. Розглянуто питання про отримання груповог оцтки альтернатив при неузгодженш думц експертiв з використан-ням дискретног функци приналежностi та методiв кластерного аналiзу

Клюновi слова: експертi оцтки, неттка

тформащя, кластерний аналiз

□-□

В статье рассматривается вопрос обработки нечеткой экспертной информации. Предложено графическое представление полученных данных. Рассмотрен вопрос о полунении групповой оценки альтернатив при несогласованных мнениях экспертов с использованием дискретной функции принадлежности и методов кластерного анализа

Клюневые слова: экспертные оценки, нечеткая информация, кластерный анализ

УДК 004.827

ПРИМЕНЕНИЕ МЕТОДОВ КЛАСТЕРНОГО АНАЛИЗА ДЛЯ ОЦЕНКИ НЕЧЕТКОЙ НЕСОГЛАСОВАННОЙ ЭКСПЕРТНОЙ ИНФОРМАЦИИ

Ю.В. Ульяновская

Кандидат технических наук, доцент Кафедра информационных систем и технологий Академия таможенной службы Украины ул. Дзержинского, 2/4, г. Днепропетровск, Украина,

49000

Контактный тел.: 095-833-79-33, 067-975-5115 Е-mail: uyv@rambler.ru

Вступление

Класс задач, решение которых основано на экспертных данных, достаточно велик. К таким задачам относятся задачи планирования, оценки платежеспособности предприятий и физических лиц, оценки рисков, задачи классификации и экспертного оценивания предметов и т.д. При этом экспертная информация

в большинстве случаев носит нечеткий, лингвистический характер. Это обусловлено тем, что человеку более свойственно характеризовать понятия на естественном языке.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В качестве примера можно привести оценку роста человека, для определения которого люди используют нечеткие переменные «высокий», «средний» и др. Таким образом, при экспертном оценивании наиболее

© Ю.В. Ульяновская, 2012

i Надоели баннеры? Вы всегда можете отключить рекламу.