Научная статья на тему 'Метод синтеза нейро-нечетких моделей количественных зависимостей для решения задач диагностики и прогнозирования'

Метод синтеза нейро-нечетких моделей количественных зависимостей для решения задач диагностики и прогнозирования Текст научной статьи по специальности «Математика»

CC BY
343
86
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ДИАГНОСТИКА / НЕЙРО-НЕЧЕТКАЯ СЕТЬ / АППРОКСИМАЦИЯ

Аннотация научной статьи по математике, автор научной работы — Субботин С. А.

С целью автоматизации построения численных моделей количественных зависимостей в работе решена актуальная задача построения нейро-нечетких аппроксиматоров. Предложены метод синтеза и модель нейро-нечеткой сети, позволяющие строить нейро-нечеткие регрессионные модели аппроксимируемой зависимости, обладающие способностями к обобщению и субъективному оцениванию достоверности результата.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Субботин С. А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Метод синтеза нейро-нечетких моделей количественных зависимостей для решения задач диагностики и прогнозирования»

УДК 004.93

Субботин С. А.

Канд. техн. наук, доцент Запорожского национального технического университета

МЕТОД СИНТЕЗА НЕЙРО-НЕЧЕТКИХ МОДЕЛЕЙ КОЛИЧЕСТВЕННЫХ ЗАВИСИМОСТЕЙ ДЛЯ РЕШЕНИЯ ЗАДАЧ ДИАГНОСТИКИ И ПРОГНОЗИРОВАНИЯ

С целью автоматизации построения численных моделей количественных зависимостей в работе решена актуальная задача построения нейро-нечетких аппроксиматоров. Предложены метод синтеза и модель нейро-нечеткой сети, позволяющие строить нейро-нечеткие регрессионные модели аппроксимируемой зависимости, обладающие способностями к обобщению и субъективному оцениванию достоверности результата.

Ключевые слова: диагностика, нейро-нечеткая сеть, аппроксимация.

ВВЕДЕНИЕ

При проектировании, в процессе производства, а также при эксплуатации состояние сложных технических объектов, как правило, описывается достаточно большим числом параметров, измерение части которых может быть довольно дорогостоящим, трудоемким, либо приводящим к разрушению или снижению ресурса объекта диагностики.

Поэтому на практике весьма актуальна задача моделирования зависимостей между параметрами сложных технических объектов, решение которой позволяет исключить необходимость измерения значительной части сложноизмеримых параметров.

1 ПОСТАНОВКА ЗАДАЧИ

Пусть задана обучающая выборка <x, y>, где x = {Xs},y = {y*}, Xs = {xj}, s = 1, 2, ..., S; j = 1, 2, ..., N; xSj - значение j-го признака s-го экземпляра выборки, y* - значение выходного признака, сопоставленное s-му экземпляру обучающей выборки, S - количество экземпляров, N - количество признаков.

Задача моделирования зависимости y(x) может быть представлена как задача отыскания аппроксимирующей функции ys = fix’), такой, что критерий качества модели E будет минимально возможным (в идеале - равным нулю) или приемлемым (меньше некоторой заранее заданной константы е). Чаще всего E определяют как

E = 11 (у - X))2 ^ min.

2 s = 1

© Субботин С. А., 2010

2 АНАЛИЗ ЛИТЕРАТУРЫ

В общем случае задача построения модели зависимости по точечным данным может рассматриваться как задача построения многомерной нелинейной регрессии на всей выборке данных с помощью метода наименьших квадратов [1]. Недостатками данного подхода являются: необходимость предварительного задания (как правило, пользователем) вида аппроксимирующей функции (идентификация структуры) для регрессионной модели; требование статистической репрезентативности выборки - каждая разновидность объектов в выборке должна быть представлена с частотой, пропорциональной частоте ее встречаемости в генеральной совокупности (ввиду ограниченности объема выборки, условий моделирования (например, пассивного эксперимента), а также неопределенности параметров генеральной совокупности это требование не всегда возможно выполнить на практике); зависимость методов градиентного поиска, применяемых для поиска значений параметров регрессионной модели, от выбора начальной точки поиска в пространстве управляемых параметров и неопределенность выбора начальной точки.

Метод группового учета аргументов [2] позволяет решить задачу структурно-параметрической идентификации модели зависимости в условиях обучающей выборки малого объема. Однако, в виду чрезвычайно большого разнообразия критериев, используемых в методе и разновидностей самого метода, на практике его применение требует заметного участия пользователя. Кроме того, для сложных задач метод приводит к построению полиномиальных моделей большой размерности, сложных для анализа и недостаточно удобных для применения в задачах диагностики.

Широкое применение при решении данной задачи на практике получили также методы вычислительного интеллекта: искусственные нейронные [3] и нейро-нечеткие [4-7] сети.

Нейронные сети, хотя, как правило, и позволяют получить приемлемое решение, тем не менее, являются медленно обучающимися, сильно зависят от выбора начальной точки поиска функционала ошибки в процессе весов, а также представляют собой структуры, сложные для последующего анализа.

Нейро-нечеткие сети, в отличие от нейронных сетей, сочетают в себе способности к обучению, а также являются логически прозрачными (интерпрета-бельными), однако они, как правило, не обладают (или заметно слабее обладают) обобщающими свойствами.

Кроме того, известные методы [1-4, 6] не обеспечивают синтезируемым моделям способность самостоятельно оценивать уверенность в принимаемом решении.

Целью данной работы является создание метода синтеза нейро-нечеткой сети, обладающей способностями к обобщению, для построения моделей зависимостей в условиях малых выборок, а также позволяющих оценивать уверенность результатов расчетов.

Разрабатываемый метод должен решать такие задачи, как: формирование разбиения признакового пространства, выделение нечетких термов для признаков, синтез структуры нейро-нечеткой сети (определение числа слоев и нейронов в слоях, задание дискриминантных и активационных функций нейронов, определение топологии связей между нейронами), а также настройка значений весовых коэффициентов нейронов сети.

3 РАЗБИЕНИЕ ПРОСТРАНСТВА

ПРИЗНАКОВ

Для выделения нечетких термов необходимо предварительно разбить пространство признаков на множество прямоугольных областей, проекции которых на координатные оси признаков позволят разбить их на интервалы значений признаков, координаты границ которых можно будет использовать для настройки параметров функций принадлежности к нечетким термам. Для выделения прямоугольных блоков можно использовать метод решеток [6, 7] или метод с выделением интервалов значений признаков с неизменным номером класса [7].

Метод решеток [6] требует задания шага разбиения, а метод [7] требует предварительного выделения классов. Поскольку мы рассматриваем задачу ап-

проксимации количественной зависимости, то классы не заранее заданы. Тем не менее, представляется возможным выделить псевдоклассы. Для этого диапазон значений выходного признака следует разбить на интервалы, например, следующим образом:

У

= і к

1(к-1)

К

У - ШІП {/} ,

, р = 1,2, ...£ ___________ < к

тах {У} - тіп {У} К

р = 1, 2, — 5 р = 1, 2,-5

где У*е {к}, к = 1, 2, ..., К; К - число классов.

Количество псевдоклассов предлагается выбирать, используя формулу

(

К = тіп

( тах {У} - тіп {У}) 101п5, р=1,2,-!1---------р=1,2,-з--------

В результате использования метода [6] или [7] мы получим разбиение пространства признаков на блоки {Бь}, а осей признаков - на интервалы {х,д = <ЬІ Яі д>}, где хІ д - д-й интервал значений і-го признака; Ьі Яі д - соответственно, координаты левой и правой границ д-го интервала значений і-го признака, Ь - номер блока. Обозначим: N - количество интервалов, на которые разбит диапазон значений і-го признака, В - количество прямоугольных блоков, 5Ь - количество экземпляров обучающей выборки, попавших в Ь-й блок.

4 РЕГРЕССИОННЫЕ МОДЕЛИ

Вместо построения одной сложной регрессионной модели на основе всей выборки данных представим результирующую модель как объединение частных регрессионных моделей, построенных для каждого блока в отдельности. Это позволит упростить и ускорить построение результирующей модели, поскольку существенно сократит объем обрабатываемых при построении частных моделей данных, а также сделает возможным выявить локально наиболее важные признаки и выделить локальный характер зависимости, что крайне важно при решении задач диагностики.

Таким образом, для каждого выделенного блока ВЬ необходимо построить частную регрессионную модель У = /ь(х^). При этом после выделения блоков возможны следующие случаи:

- в блок попало два и более экземпляра обучающей выборки;

- в блок попал только один экземпляр из обучающей выборки;

- в блок не попало ни одного экземпляра.

Для каждого блока Вь, в который попали, по крайней мере, два экземпляра обучающей выборки,

определим коэффициенты частных регрессионных моделей. При этом предварительно упорядочим номера блоков так, чтобы вначале были блоки, содержащие два и более экземпляра, а затем блоки, в которые попало меньше экземпляров.

Вначале определим с помощью неитеративного метода наименьших квадратов [1] коэффициенты одномерных линейных регрессий по каждому признаку:

Vxs є Bъ : /ъ, і(xs) = выx + въ

i = 1, 2,..., N,

где /Ь, , - линейная регрессионная модель по /-му признаку для экземпляров Ь-го блока, вы, вЬ0 - коэффициенты уравнения регрессии.

После чего оценим ошибку этих моделей для экземпляров, попавших в данный блок:

1.

Xi (yS -/ъ, і(x")) Ixs є Bъ k

Выберем модель с наименьшей ошибкой: р = arg шт {Еы, ,}.

р = 1, 2, ... N

Если ошибка лучшей одномерной линейной регрессионной модели является приемлемой, т. е.

Eьp <

єSЬ

^Ь, р < —, то примем ее в качестве результирующей

о

модели для данного блока: /Ь( х*) = / , (х*); в противном случае - построим многомерную линейную регрессионную модель /ыь [1] для всего набора признаков для экземпляров, попавших в Ь-й блок:

N

Ух* е Вь : /ьь(х*) X РьЛ + выо,

, = 1

и оценим ошибку этой модели для экземпляров, попавших в данный блок:

EЪL = 1X i Су" -^l(x ))2

x є Bь

Если ошибка многомерной линейной регрессион-

“ “С1 < е:ь

ной модели является приемлемой, т. е. ЕЬЬ < — , то

:

примем ее в качестве результирующей модели для данного блока: /Ь( х*) = /ЬЬ( х*); в противном случае -построим многомерную нелинейную регрессионную модель [1] для всего набора признаков для экземпляров, попавших в Ь-й блок:

Vx є BЪ : ^Nlkx ) = ФЪI X вЪiXi + в

где Фы - некоторая нелинейная базисная элементарная функция (например, логистическая сигмоидная),

коэффициенты которой вы определим с помощью нелинейного метода наименьших квадратов, и оценим ошибку этой модели для экземпляров, попавших в данный блок:

1

-^ЪЖ = 2 X i Су -/Ъ^(x ))

xs є Bь

Если ошибка многомерной линейной регрессион-

й й гг < е:ы

ной модели является приемлемой, т. е. ЕЬШ < -—, то

:

примем ее в качестве результирующей модели для данного блока: /Ь(х*) = /Ьж(х*); в противном случае в качестве результирующей модели примем ту частную регрессионную модель, которая обеспечивает минимум ошибки.

Для каждого блока Вь, в который не попал ни один экземпляр из обучающей выборки, будем определять значение выходного параметра на основе частных регрессионных моделей, построенных для тех блоков, в которые попали экземпляры. При этом возникает необходимость определить принцип комбинирования частных моделей. Это можно сделать одним из двух способов.

Первый способ заключается в том, чтобы на основе определенного критерия выявить из имеющихся наиболее подходящую частную модель и использовать ее для блока, в который не попали экземпляры.

Предлагается использовать следующие критерии (обозначим: Р - число блоков, в которые попало два и более экземпляров, р - номер блока, причем учитываются только блоки, содержащие два и более экземпляров):

- критерий минимума расстояния:

/ъ 00 = /

arg min {/(ъ, p)}

p = 1, 2, -P

(xs),

где

1N

Л (Ы р) = 4 X {(Я/, д - Ь д - Я,,, + Ц,) \ х,, ч е Вы, х,_, е Вр};

, = 1

- критерий минимума ошибки:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ях ) = /arg ш1п {Ер}(х ) ;

р =1, 2, ...Р р

- критерий максимума объема обучающего множества:

/ъ(* ) = /arg min {Sp}(*) = / Г і l(x );

p = 1, 2, — P p arg min i ---- \

p =1, 2,— p{SpJ

- критерий минимума числа используемых переменных:

/ъ (xs) = /

arg min i N/ p =1, 2, —p{ Jp

(x"),

s =1

s=1

s=1

где N/ - число переменных, используемых в регрессионной модели блока, коэффициенты при которых не равны нулю;

- критерий минимума сложности вычислений функции:

/ы(х) = ^ т1п {,р}(х*);

р = 1, 2, ...Р р

где I - сложность вычисления функции /р для одного экземпляра, выраженная в некоторых единицах (время или количество элементарных операций сложения).

На основе данных первичных критериев отбора моделей можно сформировать более сложные интегральные критерии:

- комбинированный критерий минимума расстояния - максимума объема обучающего множества:

/ь (х") = /

тіп

р =1, 2, — Р

С (Ь,р)

(х");

- комбинированный критерий минимума расстояния и ошибки - максимума объема обучающего множества:

/ь(х") = /

тіп р =1, 2,...Р

ЕрС (ь, р)

(х");

- комбинированный критерий минимума расстояния, ошибки и числа используемых переменных -максимума объема обучающего множества:

/ь(х ) = /

Л/е/( ь, р)

(х");

тіп і -р = 1, 2,...РІ

- комбинированный критерий минимума расстояния, ошибки, числа используемых переменных и сложности - максимума объема обучающего множества:

/ь(х ) = /

\ мгЕр<рС1(ь, р)

(х").

тіп і

р =1, 2, — РІ

Второй способ заключается в том, чтобы определять функцию для блока, в который не попали экземпляры, на основе всех построенных частных моделей. Для этого предлагается использовать модификацию нерекуррентного метода потенциальных функций [8, 9].

По аналогии с методом [8, 9] определим функцию для блока, в который не попали экземпляры, как:

/ь (х") =

X /р( х) ер = 1

Р

X е

р=1

с (ь,р)

Поскольку здесь знаменатель является константным, его для удобства реализации в нейробазисе целесообразно внести внутрь суммы числителя. Также заметим, что в числителе потенциал, наводимый остальными блоками на данный блок, является константным для каждого из блоков в том смысле, что меняется только /р. Для упрощения реализации в нейробазисе выделим динамическую часть (зависящую от распознаваемого экземпляра) и статическую часть (независящую от распознаваемого экземпляра), которую заменим константой юЬ,р. С учетом данных замечаний запишем правило для определения /Ь:

/ь(х") = X ®ь,р/р(х ), Юь,р

р = 1

-/(ь, р)

е ^2(ь, 9)

р=1

где Юь,р - константный потенциал, наводимый р-м блоком на ь-й.

По аналогии с первым способом, рассмотренным выше, переопределим константные потенциалы для того, чтобы учесть различные критерии выбора моделей:

- критерий максимума объема обучающего множества:

-С2 (ь, р)

5ре-

р Р 2

Ео аг(С(ь, д)

д = 1

где 5р - количество экземпляров обучающей выборки, попавших в область р-го блока пространства признаков, по которым построена модель /р.

- комбинированный критерий минимума ошибки -максимума объема обучающего множества:

Юь, р =

5ре

-ЕрС (ь,р)

Р „ -Е/2(ь, д)'

5„е

Х~ ч

д = 1

- комбинированный критерий минимума расстояния, ошибки, числа используемых переменных и сложности - максимума объема обучающего множества:

Юь, р =

5ре

-ЕрС (ь,р)

Р -Е„Л2(Ь, д)

ч, X Ч/е

д = 1 •' ч

Другие критерии при необходимости можно определить подобным образом.

Для блоков, в которые попал всего один экземпляр, задать правило определения частной регрессионной модели можно одним из трех способов.

Первый способ заключается в том, чтобы рассматривать все значения внутри блока как константные, равные выходу единственного экземпляра (синглтон): /ы(х*) = |/|х* е Вы, х* е Вы|.

Второй способ заключается в том, чтобы формировать функцию аналогично блокам, в которые не попал ни один экземпляр.

Третий способ - комбинированный:

/ъ (xs) =

yh, xh є Bъ, xs є Bъ, e d(x,x) > 0, 5;

f(x) = X ®ъ,p/p(x ), x є Bъ

Ъ p = 1

л h s

x є Bb, e-d(x,x)< 0, 5.

Для тех блоков, в которые попало более двух экземпляров, но требуемой точности не удалось достичь, можно выполнить дополнительное разбиение на подблоки, удалив разбиваемый блок и добавив новые. После чего для каждого нового блока следует построить отдельную частную модель аналогичным образом.

5 НЕЙРО-НЕЧЕТКАЯ СЕТЬ

На основе сформированного разбиения и построенных частных моделей представляется возможным синтезировать нейро-нечеткую сеть, схема которой изображена на рис. 1. Сеть состоит из четырех слоев

и является сетью прямого распространения сигнала (связи между нейронами внутри каждого слоя, обратные связи, а также связи нейрона с самим собой отсутствуют).

Внешний входной сигнал поступает на входы нейронов первого скрытого слоя сети.

Определим общее число термов всех признаков

N

для сформированного разбиения как г = П ^. Тогда

, = 1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

первые г нейронов первого слоя представляют собой функциональные элементы, определяющие принадлежность распознаваемого экземпляра к нечетким термам интервалов значений признаков (на рис. 1 обозначены треугольниками, обращенными прямым углом влево), что предлагается реализовать на основе трапециеобразной функции принадлежности:

0, x" < LtJ - Si;

xS ~У^, Lt,j - St < xS < Lt,j;

Vij (x") =

1, L,j < x,- < Ri,j;

R - xs

-^—і, Rt,j < xS < Rt,j + S,

0, х* > Я,, j + 5,,

где 5, - некоторая небольшая неотрицательная константа (в простейшем случае, 5, = 0).

Рис. 1. Схема нейро-нечеткой сети

Остальные P нейронов первого слоя (обозначены окружностями, заключенными в штрихпунктирный блок) реализуют частные регрессионные модели для соответствующих блоков разбиения пространства признаков, в которые попали экземпляры обучающей выборки.

Второй слой сети содержит две группы нейронов: одна группа нейронов (обозначены на рис. прямоугольниками) определяет принадлежность распознаваемого экземпляра к блокам разбиения пространства признаков; другая группа нейронов (обозначена окружностями) комбинирует регрессионные модели для оценивания выходного значения для тех блоков пространства признаков, куда не попали экземпляры обучающей выборки.

Предпоследний (третий) слой сети содержит нейроны, выполняющие селекцию частной модели для каждого из блоков разбиения пространства признаков.

Выходной (четвертый) слой сети содержит два нейрона: первый (показан треугольником, обращенным прямым углом вправо) осуществляет дефаззи-фикацию и выдает на выходе четкое значение выходного признака, рассчитанное сетью; второй нейрон (показан окружностью) выдает Ry - субъективную оценку уверенности сети в принимаемом решении.

Первые z нейронов первого слоя будут реализовывать расчет принадлежности распознаваемого экземпляра к нечетким термам признаков.

При использовании первого способа определения функций для блоков дискриминантные функции нейронов сети будут определяться по формулам:

(1, I), ( 1, i) ( 1, Os N (1, i) (1, i) , (1, i)

ф (w , X ) = у wj xj + w 0 ,

j = 1

i = z +1, z + 2, ..., z + P;

(2, i), (2, i) (2, i)s , (2, i) (2, i)s

ф) (w) , xj ) = max( w) ,xj ),

i = 1, 2, ..., B; j = 1, 2, ..., z;

(2, i), (2, i) (2, i)s (2, i) (2, i) . (2, i)

ф (w , x ) = Xw) xj + W0 ,

j =1

i = B + 1, B + 2, ..., 2B -P;

(З, І), (З, i) (З, 'K TT' (З, i) (З, i)

ф (w , x ) = П wj xj ,

j = і

i = 1, 2, ..., B; j = 1, 2;

(4, 1)/ (4, 1) (4, 1K -B (4, 1) (4, 1) . (4, 1)

ф (W , x ) = XW) xj + Wj ,

j = 1

ф*4’ 2)( wf’2xj4’2)) = min (wj 42) ,xj4,2)), j = 1, 2, ..., B,

функции активации нейронов будут задаваться формулами

у(1, '’(а) = Ф,(а), , = 1, 2, ..., Р (для линейных моделей примем: Ф,(а) = а);

2,,5(ф(2.,)) = т1п {ф^<2-,)}, , = 1, 2, ..., В;

j =1, 2,

у(2, °(а) = а, i = B +1, B + 2,., 2B - P; у(3, ,)(а) = а, i = 1, 2, ..., B;

(4, 1)/ ч (4,2Ь (4, 2К г (3, ib

у (а) = а; у (ф ) = max {ф) },

j = 1, 2_B

а весовые коэффициенты сети будут задаваться по формуле

0, п = 1, ' = z +1, z + 2, —, z + P, j = 0;

P^, п = 1, Ъ = (i - z), i = z + 1,

z + 2, —, z + P, j = 1, 2,—, N; Ю(' - B), j, П = 2, i = B +1, B + 2, —,

2B -P, j = 1, 2, —,P;

0, п = 2, i = B +1, B + 2, —, 2B -P, j = 0; 0, п = 2, x™,g є B, ' = 1, 2, ..B, j = z(x™,g),

m = 1, 2, —, N, g = 1, 2, —, Nm,

15 П = 25 xm, g ^ Bt5 ' = 1 7 2,^ — 7 B5 j = z (xm, g) 5

m = 1, 2, —, N, g = 1, 2, —, Nm;

1, п = З, i = 1, 2, —,B, j = 1, 2;

0, п = 4, i = 1, j = 0;

1, п = 4, i = 1, j = 1, 2, —,B;

1, п = 4, i = 2, j = 1, 2, —,B,

,,(п, І)

где - весовой коэффициент у-го входа ,-го нейрона слоя сети, Г(хт, я) = g + X Nt.

При использовании второго" Ьпособа определения функций для блоков параметры нейронов сети будут определяться так же, как и в предыдущем случае, кроме весов части нейронов второго слоя, для которых константы юЬ, р будут приниматься равными единице для тех р, которые удовлетворяют выбранному критерию, и равными нулю - для остальных р.

ЗАКЛЮЧЕНИЕ

С целью автоматизации построения численных моделей количественных зависимостей в работе решена актуальная задача построения нейро-нечетких аппроксиматоров.

Научная новизна работы заключается в том, что:

- получил дальнейшее развитие нерекуррентный метод потенциальных функций, который модифицирован путем введения комбинации критериев минимума расстояния, ошибки, числа используемых переменных и сложности вычислений функции - макси-

W

мума объема обучающего множества частной регрессионной модели, что позволило реализовать обобщение частных моделей для оценивания выходного признака в непокрытых обучающей выборкой областях признакового пространства;

- впервые предложены метод синтеза и модель нейро-нечеткой сети, позволяющие строить нейро-нечеткие регрессионные модели аппроксимируемой зависимости, обладающие способностями к обобщению и субъективному оцениванию достоверности результата.

Дальнейшие исследования могут быть сосредоточены на исследовании влияния критериев объединения регрессионных моделей, разработке методов дообучения синтезированных нейро-нечетких моделей на основе метода обратного распространения ошибки, эволюционных и мультиагентных методов.

Работа выполнена в рамках госбюджетной темы кафедры программных средств Запорожского национального технического университета «Информационные технологии автоматизации распознавания образов и принятия решений для диагностики в условиях неопределенности на основе гибридных нечеткологических, нейросетевых и мультиагентных методов вычислительного интеллекта» (номер государственной регистрации 0109U007673).

ПЕРЕЧЕНЬ ССЫЛОК

1. Айвазян С. А. Прикладная статистика: Основы моделирования и первичная обработка данных : справочное издание / С. А. Айвазян, И. С. Енюков, Л. Д. Мешал-кин. - М. : Финансы и статистика, 1983. - 471 с.

2. ИвахненкоА. Г Индуктивный метод самоорганизации моделей сложных систем / А. Г Ивахненко. - Киев : Наукова думка, 1981. - 296 с.

3. Хайкин С. Нейронные сети. Полный курс / С. Хайкин. -М. : Вильямс, 2006. - 1104 с.

4. Леоненков А. В. Нечеткое моделирование в среде MATLAB и fuzzy TECH / А. В. Леоненков. - СПб. : БХВ-Петербург, 2003. - 736 с.

5. Субботін С. О. Подання й обробка знань у системах штучного інтелекту та підтримки прийняття рішень: Навчальний посібник / С. О. Субботін. - Запоріжжя : ЗНТУ, 2008. - З41 с.

6. Борисов В. В. Нечеткие модели и сети / В. В. Борисов, В. В. Круглов, А. С. Федулов. - М. : Горячая линия-Телеком, 2007. - 284 с.

7. Субботін С. О. Неітеративні, еволюційні та мульти-агентні методи синтезу нечіткологічних і нейромереж-них моделей: Монографія / С. О. Субботін, А. О. Олійник, О. О. Олійник; під заг. ред. С. О. Субботіна. - Запоріжжя : ЗНТУ, 2009. - З75 с.

8. Айзерман М. А. Метод потенциальных функций в теории обучения машин / М. А. Айзерман, Э. М. Бравер-ман, Л. И. Розоноэр. - М. : Наука, 1970. - ЗВ4 с.

9. Фор А. Восприятие и распознавание образов / А. Фор; Пер. с фр. А. В. Серединского; под ред. Г. П. Катыса. -М. : Машиностроение, 1989. - 272 с.

Надійшла 18.08.2009

С. О. Субботін

МЕТОД СИНТЕЗУ НЕЙРО-НЕЧІТКИХ МОДЕЛЕЙ КІЛЬКІСНИХ ЗАЛЕЖНОСТЕЙ ДЛЯ ВИРІШЕННЯ ЗАВДАНЬ ДІАГНОСТИКИ ТА ПРОГНОЗУВАННЯ

З метою автоматизації побудови чисельних моделей кількісних залежностей у роботі вирішено актуальне завдання побудови нейро-нечітких апроксиматорів. Запропоновано метод синтезу і модель нейро-нечіткої мережі, що дозволяють будувати нейро-нечіткі регресійні моделі ап-роксимованої залежності та мають здатності до узагальнення і суб’єктивного оцінювання вірогідності результату.

Ключові слова: діагностика, нейро-нечітка мережа, апроксимація.

S. A. Subbotin

METHOD OF NEURO-FUZZY MODEL SYNTHESIS OF QUANTATIVE DEPENDENCES FOR DIAGNOSTICS AND PREDICTION PROBLEMS SOLVING

The problem of neuro-fuzzy approximator constructing has been solved with the aim to automate the construction of numerical models of quantitative relationships. The neuro-fuzzy network model and method of synthesis are proposed. It allows to build a neuro-fuzzy regression model of approximated dependence with the ability of generalization and subjective evaluation of the result certainty.

Key words: diagnosics, neuro-fuzzy network, approximation.

i Надоели баннеры? Вы всегда можете отключить рекламу.