Научная статья на тему 'Нечёткий вывод знаний в экспертных системах, реализованных в нейросетевом базисе'

Нечёткий вывод знаний в экспертных системах, реализованных в нейросетевом базисе Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
124
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ / НЕЧЁТКИЙ ВЫВОД ЗНАНИЙ / ARTIFICIAL NEURAL NETWORKS / FUZZY LOGIC KNOWLEDGE

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Фатхи Дмитрий Владимирович, Фатхи Дмитрий Дмитриевич

В статье исследована возможность обучения классических искусственных нейронных сетей решению задачи нечёткого дедуктивного вывода знаний.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Фатхи Дмитрий Владимирович, Фатхи Дмитрий Дмитриевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

KNOWLEDGE FUZZY LOGIC IN EXPERT SYSTEMS, IMPLEMENTED IN THE NEURAL NETWORKS BASIS

The paper investigates the possibility of learning the classical artificial neural networks to solve the problem of fuzzy deductive knowledge.

Текст научной работы на тему «Нечёткий вывод знаний в экспертных системах, реализованных в нейросетевом базисе»

УДК 004.032.26

НЕЧЕТКИМ ВЫВОД ЗНАНИИ В ЭКСПЕРТНЫХ СИСТЕМАХ, РЕАЛИЗОВАННЫХ В НЕЙРОСЕТЕВОМ БАЗИСЕ

© Фатхи Дмитрий Владимирович

кандидат технических наук, доцент, начальник кафедры тактико-специальной подготовки, ФГКОУ ВПО «Ростовский юридический институт МВД России».

И D.V.Fatkhi@gmail.com

© Фатхи Дмитрий Дмитриевич

студент, Московский государственный технический университет им. Н. Э. Баумана.

И Fatkhi@gmail.com

В статье исследована возможность обучения классических искусственных нейронных сетей решению задачи нечёткого дедуктивного вывода знаний.

Ключевые слова: искусственные нейронные сети, нечёткий вывод знаний.

И

' нтеллектуализация систем информа-. ционной безопасности (СИБ) развивается в направлении внедрения технологий искусственных нейронных сетей (ИНС) и экспертных систем (ЭС) для решения задачи мониторинга, связанной с непрерывной интерпретацией размытых (нечётких) симптомов объектов защиты в реальном масштабе времени.

Классические ИНС в СИБ используются в качестве средств сбора информации о состоянии объектов защиты. Последние, обладая способностью реализовать функции обучения, тем не менее, не дают объяснений обрабатываемым знаниям. Нечёткие ЭС, используемые для вывода новых знаний, не обладают способностью обучаться, но позволяют объяснить, как осуществлён тот или иной вывод. Появилась тенденция комплексирования указанных технологий в единую нейроэкспертную систему (НЭС) поддержки принятия решения в СИБ.

Для повышения оперативности принятия решения в СИБ рациональна аппаратная реализация нейроэкспертных систем. Данный подход применим к ИНС, аппаратная реализация основной компоненты вывода нечётких знаний ЭС требует ещё своего решения. Ныне

лишь ведутся исследования в области нечётких ЭС в нейросетевом базисе [1].

В существующих разработках нечётких нейронных сетей вводится нечёткость в различные компоненты сетей на основе теории нечётких множеств и логики, например, «размыванием» входных данных и получением на выходах информации в терминах нечётких множеств; наделением нейронов нечёткостью входов, выходов и весов нейронов; изменением характеристик нейронов, обеспечивающих выполнение нечётких теоретико-множественных операций, вместо строгих операций умножения, суммирования и др. Всё это, при воплощении их в ЭС, с одной стороны, усложняет методы вывода знаний в ЭС, а с другой - нарушает известные алгоритмы обучения нейронных сетей и требует радикальной переработки методов обучения.

Для исключения указанных осложнений предлагается использовать классические ИНС для реализации нечёткого вывода знаний в ЭС, что позволит аппаратно реализовать нейро-экспертные системы в едином классическом нейросетевом базисе.

В работе исследована возможность обучения классических ИНС решению задачи нечёт-

Научно-практический журнал. ISSN 1995-5731

кого дедуктивного вывода знаний. Последний осуществляется по правилу [2]:

Г ^ О

Г О'

(1)

Множества F, О, F' и G' не обязательно совпадают. Если они близки друг другу, то их можно более или менее сопоставить и получить вывод в сфере их совпадения.

Теоретически процесс нечёткого вывода состоит в следующем [3]. Сначала определяется нечёткое отношение из правила F^О. При этом построение нечёткого отношения и соответствующей проблемной области (полного множества и) в другую область (полное множество V) осуществляется по формуле R = FxG :

I т

Я = (и; V, )/(щ; ), (2)

г=1 1=1

где и ={и1, и2, ..., и1}; V = { ь1, У2,..., ьш }.

Вывод О определяется из свёртки тах-тт нечёткого множества F' и отношения R:

О' = Г' • Я = £ V (рр' (и) Л ик (и, )) / ^

и1 еи

где F, F' с и; ОД' с V.

В рассматриваемых ниже примерах и и V взяты из области натуральных чисел от 1 до 20.

и = V = {1, 2, ... , 20}.

Архитектура ИНС для выполнения нечёткого вывода знаний может иметь следующий вид (рис. 1).

Входной слои

р

Быхоры

— Скрытый -----

спои 6'

Рис. 1. Архитектура ИНС

Искусственная нейронная сеть - обычный персептрон, состоит из входного слоя, скрытого слоя и выходов.

Входной слой содержит три группы входов: вектора F, О и F'. Выходы ИНС представлены вектором Д'. Вектора составлены из функций принадлежности, так называемых, лингвистических переменных, используемых в нечётком выводе ЭС. Лингвистические переменные представляют собой способ описания объектов, свойства которых рассматриваются с качественных позиций. Они ставят в соответствие качественным характеристикам некоторую количественную интерпретацию с заданной долей уверенности.

Для проведения исследований разработана программа - эмулятор ИНС с соответствующим интерфейсом, позволяющим визуализировать вектора функций принадлежности лингвистических переменных, используемых в процессе вывода нечётких знаний.

В основе ИНС, осуществляющей нечёткий вывод знаний, лежит обучение. Оно осуществляется, чтобы для некоторого предварительно рассчитанного множества векторов, поданных на входы ИНС, создавать желаемый вектор на выходе. Обучение проводится путём последовательного предъявления входных векторов с одновременной подстройкой весов внутреннего слоя ИНС в соответствие с принятым алгоритмом. В процессе обучения коэффициенты связей нейронов ИНС постепенно становятся такими, что каждый входной вектор вырабатывает требуемый выходной вектор.

Рассмотрим расчёт обучающих векторов на конкретном примере.

Пусть вектора F, О и F' представлены в таблицах, соответственно 1, 2 и 3.

Матрица отношения R, вычисленная по формуле (2), представлена в табл. 4.

Далее вычисляется свёртка тах-тт вектора F'и отношения R по формуле (3). При этом первый элемент вектора F' сравнивается с каждым элементом первой строки матрицы R. Путём выбора минимального из них формируется первая строка промежуточной матрицы R'. Аналогично каждый элемент вектора F' сопоставляется с элементами соответствующей строки матрицы R. В итоге, формируется вся промежуточная матрица R' (табл. 5).

На завершающем шаге вычислений формируется искомый вектор О . Он получается путём выбора из каждого столбца матрицы R' максимального элемента (табл. 6).

Копия экранной формы разработанной программы-эмулятора ИНС с представленными графически векторами, рассчитанными для обучения ИНС, показана на рис. 2.

Вектор F (табл. 1) состоит из 20-ти чисел функции принадлежности от 0 до 1, представлен левым верхним графиком в окне программы. Вектору О соответствует правый верхний график,

Информационная безопасность регионов. 2013. № 1(12)

Таблица 1

Вектор F

F 0,1 0,2 0,3 0,3 0,4 0,4 0,5 0,5 0,6 0,6 0,7 0,7 0,7 0,8 0,8 0,8 0,9 0,9 0,9 1

Вектор G Таблица 2

G 1 0,9 0,9 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

Вектор F' Таблица 3

F' 1 0,9 0,8 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

Таблица 4

Отношение R

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,2 0,2 0,2

0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,3

0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,3

0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,6 0,6 0,6 0,6 0,6 0,6 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,6 0,6 0,6 0,6 0,6 0,6 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,7 0,7 0,7 0,7 0,7 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,7 0,7 0,7 0,7 0,7 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,7 0,7 0,7 0,7 0,7 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,8 0,8 0,8 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,8 0,8 0,8 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,8 0,8 0,8 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,9 0,9 0,9 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,9 0,9 0,9 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,9 0,9 0,9 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

1 0,9 0,9 0,8 0,8 0,7 0,6 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

Таблица 5

Сформированная промежуточная матрица R'

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,2 0,2 0,2

0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,3

0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,3

0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,3 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,3

0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,2 0,2 0,2

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

Таблица 6

Вектор G'

G' 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,4 0,2 0,2 0,1 0,1 0,1 0,2 0,2 0,2 0,3 0,3 0,4

Научно-практический журнал. ISSN 1995-5731

вектору ¥'— левый нижний график, вектору G' - правый нижний график.

практически полное, что свидетельствует о высокой степени обученности ИНС.

Рис. 2. Графики векторов, рассчитанные для обучения

По рассмотренному принципу проведены расчёты и других примеров, каждый из которых предъявляется для обучения ИНС. В результате, нейросеть обучается с заданным количеством эпох обучения, равном в рассматриваемом случае 1000. Данное количество вполне достаточное, так как с дальнейшим увеличением эпох погрешность требуемого выходного вектора уменьшается незначительно. Ввиду того, что дискретность графиков функций принадлежности небольшая, погрешность нечёткого вывода нейронной сети в результате обучения за 1000 эпох является вполне достаточной.

Представим один из примеров полученной экспериментально величины погрешности (рис. 3). Ошибка составляет 0,00314715523125734.

При данной величине ошибки для проверки того, насколько точно будет осуществляться нечёткий вывод, были повторно поданы исходные вектора. Результат представлен на рис. 4 правым нижним графиком, который незначительно отличается от предъявленного для обучения (правый нижний график на рис. 3).

Сходство двух правых нижних графиков окон интерфейса программы-эмулятора ИНС

Библиографический

1. Персональный сайт Жукова Л. А. [Электронный ресурс] - URL: http://zhukov.fsay.net/book/ artides/neu2002/kamaev1.php (дата обращения: 29.09.2012).

2. Фатхи Д. В. Логические производные И/ИЛИ-деревьев вывода знаний в экспертных системах обеспечения информационной безопасности [Текст] / Д. В. Фатхи, О. С. Дружбин // Информационная безопасность регионов : научно-практический журнал. - 2009. - № 1(4). - ISSN 1995-5731.

3. Змитрович А. И. Интеллектуальные информационные системы [Текст]. - Мн. : НТООО «ТетраСистемс», 1997. - 368 с. - ISBN 985-6317-26-6.

I Яр.» I

Рис. 3. Экспериментальные результаты обучения

.1Г.». .1 >—» 1» 0*44

Рис. 4. Результаты проверки точности нечёткого вывода

Таким образом, показана возможность осуществления нечёткого вывода знаний классическими ИНС. Для этого ИНС обучают на предварительно подготовленных примерах нечёткого вывода, которые рассчитываются с использованием математического аппарата нечёткого вывода. ИНС, наделённые способностью нечёткого вывода знаний, могут использоваться для аппаратных реализаций ЭС и применяться в нейроэкспертных СИБ.

Материалы поступили в редацию 01.10.2012 г. список (References)

1. Personal'nyj sajt Zhukova L. A. URL: http:// zhuk0v.fsay.net/b00k/articles/neu2002/kamaev1. php (data obrashhenija: 29.09.2012).

2. Fathi D. V., Druzhbin O. S. Logicheskie proiz-vodnye I/ILI-derev'ev vyvoda znanij v jekspertnyh sistemah obespechenija informacionnoj bezopasnosti. Informacionnaja bezopasnost' regionov : nauchno-prakticheskij zhurnal. 2009. № 1(4). ISSN 1995-5731.

3. Zmitrovich A. I. Intellektual'nye informacionnye sistemy. Minsk. NTOOO «TetraSistems», 1997. 368 s. ISBN 985-6317-26-6.

Информационная безопасность регионов. 2013. № 1(12)

i Надоели баннеры? Вы всегда можете отключить рекламу.