Научная статья на тему 'Гибридная нейронечеткая модель интеллектуального анализа данных для формирования баз знаний мягких экспертных диагностических систем'

Гибридная нейронечеткая модель интеллектуального анализа данных для формирования баз знаний мягких экспертных диагностических систем Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
360
163
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЧЕТКАЯ НЕЙРОННАЯ СЕТЬ / БАЗА ЗНАНИЙ / МОДЕЛЬ ПРЕДСТАВЛЕНИЯ ЗНАНИЙ / ЭКСПЕРТНАЯ СИСТЕМА / ЗАДАЧА ДИАГНОСТИКИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Катасёв А. С., Ахатова Ч. Ф.

В работе проводится анализ использования экспертных систем для решения задач диагностики во многих предметных областях человеческой деятельности. Обосновывается необходимость применения автоматизированного подхода к формированию базы знаний экспертной системы на основе нечеткой нейронной сети. Для повышения эффективности ее обучения актуализируется необходимость разработки специального гибридного алгоритма, основанного на алгоритме обратного распространения ошибки и генетическом алгоритме. Приводится описание разработанного алгоритма. Экспериментально показывается, что его применение позволяет повысить скорость и точность настройки параметров функций принадлежности антецедентов нечетких правил, получаемых в результате обучения нечеткой нейронной сети. На примере задачи медицинской диагностики показывается эффективность описанного в работе подхода к формированию баз знаний экспертных систем.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Гибридная нейронечеткая модель интеллектуального анализа данных для формирования баз знаний мягких экспертных диагностических систем»

электронное научно-техническое издание

НАУКА и ОБРАЗОВАНИЕ

Эл № ФС 77 - 48211. Государственная регистрация №0421200025. 188К 1994-0408

Гибридная нейронечеткая модель интеллектуального анализа данных для формирования баз знаний мягких экспертных диагностических систем

Инженерное образование # 12, декабрь 2012

ООІ: 10.7463/1212.0490457

авторы: Катасёв А. С., Ахатова Ч. Ф.

УДК 681.3

Россия, Казанский национальный исследовательский технический университет им. А.Н. Туполева

акЬа1оуа_с Ьи 1рап@ таі 1. ги ка1_726@таі 1. ги

Введение

В последние десятилетия среди практических задач во многих предметных областях человеческой деятельности большое внимание стали уделять решению задач диагностики. Примерами подобных задач являются обнаружение неисправностей оборудования в технических системах, заболеваний живых организмов и всевозможных природных аномалий и т.д.

Для решения диагностических задач широкое применение получили экспертные системы, успешность применения которых основана на принципе воспроизведения знаний опытных специалистов - экспертов. Однако внесение знаний от экспертов в базу знаний представляет собой сложный процесс, тем самым, делая актуальным необходимость использования методов автоматического формирования баз знаний экспертных диагностических систем.

Некоторые исследователи, занимающиеся вопросами разработки экспертных систем, для формирования их баз знаний предлагают использовать нечеткие нейронные сети (ННС) [3, 4, 6]. Однако при их использовании возникает вопрос выбора алгоритма обучения.

В практике разработки интеллектуальных систем имеется тенденция использования гибридных моделей для решения различных практических задач. Так, применительно к обучению нечетких нейронных сетей некоторые авторы, наряду с традиционными методами оптимизации, используют генетический алгоритм [1, 2, 8]. Экспериментальные исследования, проведенные авторами, показывают, что использование данного подхода позволяет добиться лучших результатов по повышению скорости и точности решаемых задач.

Таким образом, применительно к проблеме формирования баз знаний экспертных диагностических систем актуальной задачей является разработка эффективного алгоритма обучения нечёткой нейронной сети на основе интеллектуальных методов и эффективных эвристических алгоритмов.

1 Постановка задачи исследования

Как известно, нечеткие нейронные сети представляют собой гибридные модели, сочетающие в себе достоинства нейронных сетей (возможность адаптивного самообучения) и нечетких систем (хорошая интерпретируемость получаемого с их помощью результата). При этом нечеткая нейронная сеть в результате обучения формирует систему правил, составляющих базу знаний экспертной системы.

Среди множества моделей представления знаний в настоящее время большое распространение получили правила продукций из -за их гибкости и простоты описания закономерностей предметной области. Однако большинство задач в различных областях человеческой деятельности приходится решать в условиях нечеткости, неполноты и недостоверности исходных данных. В рамках использования обычных продукционных правил решение многих задач становится затруднительным. Для их решения необходимо применять нечеткие продукции и системы нечеткого логического вывода.

Таким образом, задача настоящего исследования сводится к выбору гибкой нечетко-продукционной модели представления знаний и разработке нечеткой нейронной сети, позволяющей в результате обучения формировать базу знаний экспертной диагностической системы правилами, представленными в форме нечетких продукций.

2 Нечетко-продукционная модель представления знаний

В [5] на примере задачи планирования геолого-технических мероприятий на нефтяных месторождениях показано, что зависимость между значениями входных параметров (условиями) и назначаемым результатом может быть эффективно описана экспертом в виде следующей нечетко-продукционной модели представления знаний:

Р{ А* п-‘

«ЕСЛИ 1 есть 1 ( 1 )И

Р/ А і лмі

* есть * ( ■*■■ ) И

... И

11 есть Л ( Л)

Еї Сі7 "'

ТО Возможно применение технологии » [

где

={р/}

р; п- = К/}

множество входных параметров правила,

А] ={А/}

множество нечетких ограничений на

СГ;

параметры х , - * - _ веса нечетких ограничений, определяющие их важность, е [0, 1] - степень

достоверности сформированного правила - степень уверенности эксперта в его универсальности, ^ - технология,

рекомендуемая к применению.

При этом существует алгоритм нечеткого логического вывода на правилах данной модели [5], на основе которого разработана нейронечеткая модель формирования баз знаний экспертных диагностических систем [6].

3 Нейронечеткая модель формирования баз знаний экспертных диагностических систем

Разработанная модель в виде ННС реализует алгоритм нечеткого логического вывода на нечетко-продукционной модели представления знаний [5], что определяет число слоев сети и их функциональность. Количество нейронов в слоях ННС зависит от числа входных, выходных параметров, а также числа градаций входных нейронов.

В качестве примера рассмотрим нечеткую нейронную сеть, имеющую один выход и два входа с тремя нечеткими градациями (см. рис. 1).

Рис. 1. Пример структуры нечеткой нейронной сети

Выход И-нейронов определяет оценку срабатывания соответствующего правила ^ . Третий слой сети состоит из девяти Сотр-

В нулевом слое ННС содержится два Р-нейрона, выполняющих функцию распределения входных сигналов по нейронам первого слоя. В первом слое сети содержится 2*3=6 А-нейронов, которые моделируют нечеткие условия вида «Р есть * ». Выход А-нейронов равен значениям функций принадлежности * (степень срабатывания условий) при соответствующих значениях входных нейронов.

2 В Ал Рл Г.

Второй слой содержит 3 =9 И-нейронов, задающих нечеткие продукции в виде «ЕСЛИ 1 есть 1 И А есть х ТО ».

нейронов, на выходе которых рассчитываются комплексные оценки срабатывания правил, равные произведению значений соответствующих оценок доверия к принятому решению ^ на оценки £- . Веса связи Сотр-нейронов с выходом ННС

СЕ

определяют степени достоверности сформированных правил . Произведения выходов Сотр-нейронов на их веса образуют

общий коэффициент достоверности решений. В четвертом слое содержится Т-нейрон, на выходе которого вычисляются взвешенные нормированные оценки достоверности принимаемого решения.

Для получения системы правил, формирующих базу знаний экспертной диагностической системы, необходимо произвести обучение

я

нечеткой нейронной сети, которое заключается в настройке значений соответствующих параметров ее функций принадлежности

4 Гибридный алгоритм обучения нечеткой нейронной сети

Для обучения ННС разработан гибридный алгоритм, сочетающий в себе достоинства генетических алгоритмов с принципами градиентного метода обучения. Рассмотрим этапы работы гибридного алгоритма обучения ННС.

1. Задаются начальное значение адаптивного шага обучения а (0 < а< 1), желаемая ошибка выхода нейронной сети , а также минимальный порог изменения ошибки при обучении

2. На вход сети подаются \-е образы из обучающей выборки, для каждого из которых:

• производится фаза прямого распространения сигнала по нейронной сети, определяется взвешенная активность выходного нейрона

(значение выхода ^ );

4 =^(д».-г)2

• вычисляется среднеквадратичная ошибка выхода нейронной сети для /-го входного образа ^ , где

А\С =у^-£т

^ ^ ^ * - я(лгп ттт/>тття а птттиЯ^я ктлупття ■ *

абсолютная ошибка выхода; 1 - требуемое значение выхода;

Е1 х?

7 - -

■* последоват

ОАМТ (ОвпвИ сА^отикт^тМ.1тт1гв{ЗТ-еггог):

для минимизации ошибки ^ последовательно настраиваются выходы Со/и/?-нейронов на основе генетического алгоритма

, (*+1)

Хи» = -Ъ—

• вычисляются требуемые значения выходов ^-нейронов ’*■ , где ? - момент времени;

К У

• рассчитываются среднеквадратичные ошибки выходов ^-нейронов , где

= 8‘ - (4 (51 )мм

'г ,£ -£ - абсолютная ошибка выхода, £ - требуемое значение выхода;

■ для минимизации ошибки * последовательно модифицируются параметры функций принадлежности соответствующих А-нейронов на основе генетического алгоритма САМИ (GefteticAlgorithmforMiftimizedИ-еттот).

3. Вычисляется среднее значение ошибки выхода для всех входных образов:

Е’т =~ТЕт

п~?

4. Рассчитывается изменение ошибки выхода:

=Е^ (*-!)-£? (О

Де¥ ДЕ„,„

5. Если 0< £ < , то процесс обучения заканчивается.

6. Если

, то происходит переход к шагу 7 алгоритма, иначе процесс обучения нечеткой нейронной сети заканчивается.

АЕ?

7. Проверяется условие не возрастания ошибки выхода нейронной сети: если £ <0, то уменьшается адаптивный шаг обучения и

происходит переход ко 2-му шагу алгоритма.

На рисунке 2 представлена блок-схема данного алгоритма.

Рис. 2. Блок-схема алгоритма обучения нечеткой нейронной сети Данный алгоритм функционирует до тех пор, пока средняя ошибка выхода нейронной сети не станет меньше заданной (

„ 6 , - Д£*.

) либо изменение ошибки выхода * не будет превышать минимально допустимый уровень *■■*'*■ .

В рамках соответствующих генетических алгоритмов происходит настройка выходов Сотр-нейронов, а также искомых значений параметров соответствующих функций принадлежности 4-нейронов. Рассмотрим этапы работы данных алгоритмов.

5 Этапы работы генетических алгоритмов

Общим в работе каждого из алгоритмов является то, что они соответствуют принципам работы классического генетического алгоритма [7]. Таким образом, для практического применения алгоритмов необходимо задать способ кодирования и декодирования параметров задачи, определить правило создания начальной популяции хромосом, ввести оценку приспособленности хромосом в популяции, разработать правила селекции хромосом, применения генетических операторов скрещивания и мутации, а также формирования новой популяции.

Кодирование и декодирование параметров задачи

Рассмотрим способ кодирования параметров задачи для генетического алгоритма САМИ. Как было сказано выше, его работа заключается в настройке соответствующих параметров функций принадлежности ННС, которые задаются некоторой

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ик

параметризованной функцией формы (треугольной, трапецеидальной, гауссовой и др.) с вектором параметров . Так, доя

Uk - (Ы1к - U2к -11 It) .... U\k .................. 112к

У ^ т.

треугольной функции принадлежности ^ , где - левое основание, ^ - центр (мода), _ -

правое основание.

и-л. и& . , г/ .,.

Настройка параметров функций принадлежности осуществляется в окрестности А=[ ], ширина которой

определяется индивидуально для каждого параметра и может составлять до 30 % ширины ее основания.

Ы.:.

Разобьем данную окрестность на 2П интервалов, где п - целое число, например, 10. Тогда параметр сможет принимать одно из 210

%

значений, которые будут кодироваться хромосомой { } дойной 10 бит. При этом хромосома, состоящая из нулей, будет

Г,1!- ЛГ*Г ГТ-1 /—

соответствовать значению параметра — , а состоящая из единиц - значению . 1аким образом, мощность хромосомного

набора доя каждого параметра функции принадлежности равна числу 2П.

Х1

Во время работы алгоритма САМТ происходит настройка выходов Сотр-нейронов , область значений которых постоянна и равна [0, 1]. Способ разбиения данного отрезка и кодирование значений выходов Со/яр-нейронов аналогичны алгоритму САМИ. При этом

мощность хромосомного набора для каждого параметра ^ также равна числу 2".

Во время обучения нечеткой нейронной сети возникает необходимость перехода от хромосомного набора к десятичным значениям параметров. Для этого необходимо выполнить процедуру декодирования, являющуюся инверсной по отношению к операции кодирования хромосом.

Создание начальной популяции хромосом

Функционирование генетических алгоритмов начинается с создания начальных популяций хромосом для всех параметров ННС, участвующих в обучении. При задании значения числа п мощность хромосомного набора для любого параметра постоянна и равна 2П, где п - длина хромосомы. Объем начальной популяции хромосом N рекомендуется выбирать на порядок меньше числа 2". Однако при

малых значениях п (п<10) данный объем должен быть сравним с числом .Так, например, при п=10 доя создания начальной популяции случайным образом выбираются N=100 хромосом chi (i=1..N) из общего хромосомного набора мощностью 1024.

Следует отметить, что значения n<10 выбирать не рекомендуется. Это приводит к малой вариабельности параметров, что в дальнейшем может негативно отразиться на результатах обучения нечеткой нейронной сети.

Оценка приспособленности хромосом в популяции

Когда соответствующие параметры ННС закодированы и сформированы начальные популяции хромосом, необходимо оценить приспособленность каждой хромосомы chi в популяции.

В генетическом алгоритме GAMT в роли функции приспособленности выступает среднеквадратичная ошибка выхода нейронной сети

4 Е1

. Соответственно, в алгоритме САМИ функцией приспособленности является ошибка выхода Л-нейрона

Для оценки приспособленности хромосом chi производится расчет значений соответствующих функций приспособленности, на вход которых подаются декодированные значения хромосом. При этом каждой хромосоме chi из общего хромосомного набора ставится в соответствие величина ее приспособленности E(chi).

Селекция хромосом

Селекция хромосом заключается в выборе по рассчитанным значениям функции приспособленности тех хромосом, которые будут участвовать в создании особей следующего поколения. Такой выбор производится согласно принципу естественного отбора, по которому наибольшие шансы на участие в создании потомков имеют хромосомы с наименьшими значениями функции приспособленности (исходя из требования минимизации среднеквадратичной ошибки).

Оператор селекции реализуется на основе метода рулетки [9]. Для каждой хромосомы текущей популяции формируется сектор на колесе рулетки, площадь которого пропорциональна значению инверсной вероятности селекции данной хромосомы /?;=

Рис. 3. Колесо рулетки для селекции хромосом

Розыгрыш с помощью колеса рулетки сводится к случайному выбору числа из интервала [0, N1, указывающего на сектор колеса, которому соответствует конкретная хромосома. Таким способом из текущей популяции выбираются два кандидата -родителя, к которым в дальнейшем применяются генетические операторы для порождения потомков.

Применение генетических операторов

Основными операторами описываемых генетических алгоритмов являются операторы скрещивания и мутации, которые применяются к хромосомному набору соответствующих параметров нечеткой нейронной сети. Рассмотрим пример работы оператора скрещивания (см. табл. 1).

Табл. 1. Пример работы оператора скрещивания

Позиции генов Хромосомы 1 і і+1 П

X аі а; аі+1 ап

У Рі ві ві+і вп

1

Ъ а1 а; ві+1 вп

0 Рі в; аі+1 ап

Здесь X и Y - исходные решения (родители), Z, Q - новые решения.

Как видно из таблицы, в исходных хромосомах случайным образом выбирается точка скрещивания (в данном случае в ьй позиции хромосом), после чего происходит обмен противоположными частями родителей. Так происходит рождение новых потомков. Отметим, что процесс скрещивания носит случайный характер и производится с вероятностью рсе[0.5, 1].

Оператор мутации, применяемый к потомкам после скрещивания, также производится случайно с вероятностью рмЕ[0, 0.05]. Сам процесс мутации заключается в инверсии одного из битов строки дочерних хромосом, выбираемого по равномерному закону.

Таким образом, в результате выполнения генетических операторов исходная популяция хромосом за счет порожденных новых потомков увеличилась на 2 члена. Однако размер следующего поколения хромосом должен оставаться постоянным. Рассмотрим, каким образом решается задача сокращения размерности хромосомного набора на этапе формирования новой популяции.

Формирование новой популяции

Для сокращения размера популяции до исходного числа особей применяется оператор редукции. Для этого оценивается приспособленность каждой хромосомы, после чего из популяции исключаются две хромосомы с максимальным значением целевой функции.

Таким образом, с каждым циклом работы генетических алгоритмов в популяциях остаются только наиболее приспособленные хромосомы, уменьшающие значение среднеквадратичной ошибки выхода нейронной сети. Это значит, что после останова работы алгоритмов получим обученную нечеткую нейронную сеть с функциями принадлежности и правилами, позволяющими с заданной точностью аппроксимировать данные из обучающей выборки.

6 Апробация нейронечеткой системы и анализ эффективности алгоритмов обучения нечеткой нейронной сети

На базе описанной модели формирования баз знаний экспертных диагностических систем реализована нейронечеткая система. В качестве примера ее практического использования рассмотрим процесс анализа медицинских данных. Пусть необходимо выявить зависимость между временными параметрами пациента и риском возникновения у него заболевания.

В качестве входов нейронной сети примем параметры «возраст пациента», «стаж заболевания» и «стаж физических нагрузок», а в качестве выхода - «протрузия межпозвонкового диска». В результате обучения нечеткой нейронной сети получим правила следующего вида:

ЕСЛИ «Возраст пациента»=«средний» (^=0,47) И «Стаж заболевания»=«большой» (^=0,59) И «Стаж физических нагрузок»=«большой» (^=0,61)

ТО «Возможно наличие протрузии диска» (СР=0,63).

Особенности формирования базы знаний с использованием нечеткой нейронной сети изучались при разработке экспертной системы диагностики клинических проявлений остеохондроза поясничного отдела позвоночника [9].

Для получения системы правил и их параметров измерено более 500000 значений признаков течения поясничного остеохондроза по 822 признакам. В результате применения нейронечеткой системы на более чем 100 обучающих выборках получено более 500 правил, значимость которых подтверждена экспертами - специалистами-вертеброневрологами.

Результаты проведенного исследования подтвердили возможность и эффективность применения нейронечеткой системы для диагностического процесса в вертеброневрологии.

Для анализа эффективности алгоритмов обучения ННС было произведено сравнение результатов применения гибридного алгоритма обучения ННС с результатами, полученными в предыдущих исследованиях на базе алгоритма обратного распространения ошибки [6] и генетического алгоритма [7]. Был проведен ряд численно-параметрических исследований сравнения эффективности работы алгоритмов по критериям «скорость обучения» и «точность аппроксимации» на множестве обучающих выборок (см. табл. 2).

Табл. 2. Результаты сравнения эффективности алгоритмов

Значение Оцениваемые параметры

Наименование Значение Ошибка Время Число

алгоритма параметра выхода выхода обучения эпох

Обратного лучшее 0,7 0,05 00:01:48 96247

распространения среднее 0,63 0,07 00:02:11 114247

ошибки худшее 0,3 0,25 00:10:27 547195

Генетический алгоритм лучшее 0,62 0,07 00:00:58 517

среднее 0,57 0,09 00:01:25 736

худшее 0,43 0,16 00:02:46 1461

Гибридный алгоритм лучшее 0,83 0,01 00:00:16 93

среднее 0,75 0,03 00:00:42 248

худшее 0,59 0,08 00:01:07 371

Как видно из таблицы, результаты работы гибридного алгоритма обучения нечёткой нейронной сети по всем критериям лучше соответствующих результатов работы других алгоритмов. В некоторых случаях эффективность гибридного алгоритма была сравнима с эффективностью простого генетического алгоритма. При этом эффективность алгоритма обратного распространения ошибки оказалось самой низкой.

Заключение

Практическое значение нейронечеткой модели заключается в возможности эффективного формирования баз знаний экспертных диагностических систем. Обученная нейронная сеть является адаптивной системой нечеткого логического вывода. Она может использоваться как инструмент эксперта в составе мягкой экспертной диагностической системы и позволяет заменить (или дополнить) эвристический процесс построения базы знаний на процесс автоматизированного ее формирования, извлекая продукционные закономерности из статистических выборок данных.

Таким образом, предложенная в работе нейронечеткая система с гибридным алгоритмом обучения вносит определенный вклад в развитие технологий интеллектуального анализа данных и формирования баз знаний экспертных диагностических систем.

Список литературы

1. Arotaritei D. Genetic Algorithm for Fuzzy Neural Networks using Locally Crossover // International Journal of Computers Communications & Control. 2011. Vol. 6, no. 1. P. 8-20.

2. Banakar Ahmad, Mohammad Fazle Azeem. Wavelet Neuro-Fuzzy Model With Hybrid Learning Algorithm Of Gradient Descent And Genetic Algorithm // International Journal of Wavelets Multiresolution And Information Processing. 2011. Vol. 9, no. 2. P. 333-359. DOI:10.1142/S021969131100402X

3. Klawonn F., Nauck D., Kruse R. Generation Rules from Data by Fuzzy and Neuro-Fuzzy Methods // Proc. of the Third German GI-Workshop “Fuzzy-Neuro-Systeme’95”, Darmstadt, Germany, 15-17 November, 1995.

4. Глова В.И., Аникин И.В., Катасёв А.С., Подольская М.А. Формирование базы знаний медицинской диагностической экспертной системы на основе нечеткой нейронной сети // Исследования по информатике. Вып. 12. Казань: Отечество, 2007. С. 31-46.

5. Глова В.И., Аникин И.В., Шагиахметов М.Р. Методы многокритериального принятия решений в условиях неопределённости в задачах нефтедобычи. Казань: Казан. гос. техн. ун-т, 2004. 31 с. (Препринт / КГТУ; № 04П2).

6. Катасёв А.С. Нейронечеткая модель и программный комплекс формирования баз знаний экспертных систем : автореф. дисс. ... канд. техн. наук. Казань, 2006. 20 с.

7. Катасёв А.С. Ахатова Ч.Ф. Нейронечеткая модель формирования баз знаний экспертных систем с генетическим алгоритмом обучения // Проблемы управления и моделирования в сложных системах: труды XII Межд. конференции. Самара: Самарский научный центр РАН, 2010. С. 615-621.

8. Лавыгина А.В., Ходашинский И.А. Гибридный алгоритм настройки параметров нечетких моделей // Двенадцатая национальная конференция по искусственному интеллекту с международным участием КИИ-2010 (Россия, Тверь, 20-24 сентября 2010 г.) : труды. Т.

4. М.: Физматлит, 2010. С. 112-115.

9. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы : пер. с польск. И.Д. Рудинского. М.: Г орячая линия - Телеком, 2006. 452 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.