Вестник КРАУНЦ. Физ.-мат. науки. 2016. № 4-1(16). C. 93-100. ISSN 2079-6641
DOI: 10.18454/2079-6641-2016-16-4-1-93-100
УДК 519.7
ПРИМЕНЕНИЕ ПЕРЕМЕННОЗНАЧНЫХ ЛОГИЧЕСКИХ ФУНКЦИЙ И НЕЙРОННЫХ СЕТЕЙ В СИСТЕМАХ ПРИНЯТИЯ РЕШЕНИЙ *
Д. П. Димитриченко
Институт прикладной математики и автоматизации, 36000, г. Нальчик, ул. Шорта-нова, 89а
E-mail: [email protected]
В настоящей работе предложен метод представления переменнозначной логической функции в виде логической нейронной сети, позволяющей не только сохранить всю совокупность причинно-следственных связей, выявленных при помощи исходных продукционных правил в рамках заданной предметной области, но и перенести полученный результат на случай нечеткой логики. При этом логические операции реализуются при помощи особых логических нейроэлементов: конъюнкторов и дизъюнкторов.
Ключевые слова:предикат, значность предиката, переменнозначная логическая функция, логическая нейронная сеть, нечеткая логическая переменная
(с) Димитриченко Д. П., 2016
MSC 68T27
THE PROCEDURE DIRECTED SEARCH FOR SPECIFIC OPERATIONS ON
ALGORITHMS
D. P. Dimitrichenko
Institute of Applied Mathematics and Automation, 360000, KBR, Nalchik, st. Shortanova 89a, Russia
E-mail: [email protected]
In this paper we propose a method for representing various-valued logic function in a logical neural network. This logical neural network will keep the totality of cause-and-effect relationships identified using various-valued logic functions with-in a given specified area. Thus, it becomes possible to transfer a logical algorithm to detect hidden patterns in a given specified area, in case when the values of logical variables are not well-defined and are values obscured between zero and one. These logic operations are implemented by special logic neural cells: conjunctors and disjunctors.
Key words: predicate, the predicate atomicity, various-valued logical function logical neural network, fuzzy logic variable.
© Dimitrichenko D. P., 2016
*Работа выполнена при поддержке гранта РФФИ №15-01-03381-а
Введение
Актуальность решения задачи интеллектуализации информационных и управляющих систем вытекает из современной тенденции увеличения количества и качества разнообразных потоков данных, а также при решении различных задач диагностики и распознавания образов [1].
При формировании эффективной системы интеллектуального описания объектов следует избегать двух крайностей: избыточности и недостаточности набора признаков. В первом случае важные результаты окажутся скрытыми в массе второстепенных или малозначительных признаков. Во втором - критерий для однозначного распознавания конкретных объектов останется не выявленным. Предложенный в [5] логический алгоритм построения переменнозначных функций, устраняющий избыточность в описании данных и выделяющий наиболее важные причинно-следственные связи в описании объектов, позволяет решить эту задачу.
Эффективным методом моделирования свойств объектов в слабо формализуемых областях знаний является метод описания объектов при помощи переменнозначных логических предикатов [1]. Это связано с тем, что различные параметры, участвующие в описании объектов адекватно описываются различными шкалами величин. Для кодирования факта наличия или отсутствия у рассматриваемого объекта некоторого свойства достаточно использовать двухзначную логическую переменную типа «Да, Нет». Это может быть, например, наличие (или отсутствие) у пациента определенного симптома [1].
Для описания свойства «цвет» некоторого объекта, характеризующегося совокупностью значений «красный, зеленый, синий» потребуется трехзначный предикат. При этом не утверждается, что «красный» самый лучший цвет, а «синий» или «зеленый» самые худшие. При такой интерпретации логическую функцию можно считать автоматом, который позволяет найти наиболее подходящие (близкие к запрошенной совокупности состояний) объекты [5].
Для построения обучающей выборки (ОВ) мы располагаем множеством из т анализируемых объектов, каждый из которых характеризуется набором из не более чем п существенных (актуальных) для целей анализа признаков.
Общая постановка задачи
Приведем общую постановку задачи [5]. Пусть W = .., wm} - заданное множество объектов, образующих ОВ. Описание объекта, принадлежащих ОВ Ш, представляет собой п-компонентный вектор, где п - число признаков, используемых для характеристики анализируемого объекта, причем )-я координата этого вектора равна значению )-го признака, _/' = 1,...,п. Число таких векторов равно т по числу анализируемых объектов, входящих в ОВ. В описании объекта допустимо отсутствие информации о значении того или иного признака.
Соответствие множества объектов и характеризующих их признаков представима таблицей.
Таблица
Кодирование свойств объектов
Х1 X2 xn W
X1 (wi) X2 (Wi) Xn (Wi) w1
xi (W2) X2 (W2) Xn (W2) W2
X1 (Wm) X2(Wm) xn(wm) Wm
X] = {х^), Х2(Wj),...,\niWj)}
- вектор качественных признаков, каждый элемент которого фиксированный признак характеризуемого объекта.
т
V = и wj
- множество характеризуемых объектов. Каждый соответствующий признак Х](^г-), в общем случае кодируется предикатом значности к], т.е. (переменнозначным предикатом), ] = 1,..., п.
f (х) = лт=1(лП=1Хг-К-) ^ ^) = Л^Ц^Х^ V^)
X] = ), Х2(Ж]),...,Хп(Ж])}
-вектор качественных признаков, каждый элемент которого фиксированный признак характеризуемого объекта.
т
V = и ж/
7=1
- множество характеризуемых объектов.
Каждый соответствующий признак Х](жг-) кодируется переменнозначным предикатом значности к], ] = 1,...,п.
т п т п —---
f (х) = Л (.Л х,-^-) ^ Ж]) = Л (.V х^-) V Ж]) ]=1 г=1 ]=1 г=1
Указанный вид функции следует из известного логического тождества: а ^ Ь = а V Ь, где а конъюнкция характеристик (признаков), определяющих объект, а, Ь — предикат, равный единице, когда Ж] становится равным соответствующему определяемому объекту. Такие предикаты будем называть объектными предикатами, а дизъюнкты, содержащие такие предикаты - продукционными дизъюнктами.
Основой для построения переменнозначной логической функции является совокупность продукционных правил следующего вида:
' Конъюнкция признаков 1 ^ Объект 1 Конъюнкция признаков 2 ^ Объект 2
к Конъюнкция признаков т ^ Объект т
Совокупность из т продукционных правил при помощи т — 1 операции конъюнкции связывается в одно высказывание, порождающее переменнозначную логическую функцию. Последовательное раскрытие т скобок с учетом предложенной в [5] операции обобщенного отрицания приводит к построению переменнозначной логической функции ^(X, W), где X - п-компонентный вектор логических переменных, кодирующий всю совокупность признаков объектов: X = (х1,х2,...,хп), а W = w1,...,-множество характеризуемых объектов мощности т.
В результате этого преобразования функция ^(X, W), принимает вид дизъюнкции подклассов объектов, каждый из которых представляет собой конъюнкцию признаков и объектов по которым эти подклассы формируются.
При нахождении значения логической функции ^(X, W) от заданного набора характеристик X* результирующую дизъюнкцию образуют те подклассы объектов из множества W, значения переменных при которых совпадают со значениями переменных в векторе запроса X*. При этом, чем большему числу переменных из запроса X* соответствует объект принадлежащий W, тем большее число подклассов с его участием будет присутствовать в окончательном ответе W*. Поэтому для выявления наилучшего объекта, наиболее полно удовлетворяющего запросу X*, достаточно применить процедуру частотного анализа к получившейся совокупности подклассов W *.
Логические нейронные сети
В работе [3] был предложен схемотехнический подход для построения логической нейронной сети. С этой целью устанавливаются причинно-следственные связи между поступающими на входной слой нейронной сети совокупностями входных сигналов и принимаемыми решениями. В этом случае интеллектуальная система принятия решений представляется в виде следующей совокупности импликативных высказываний:
'Совокупность сигналов 1 ^ Решение 1 Совокупность сигналов 2 ^ Решение 2
^ Совокупность сигналов т ^ Решение т
Заметим, что в общем случае одно и тоже решение может следовать из различных совокупностей входных сигналов.
При этом предполагается, что вычисления в каждом из т импликативных высказываний производятся параллельно в соответствии с особенностями функционирования нейронной сети. В качестве выходного результата формируется множество четко (или нечетко) взвешенных решений. При построении логической нейронной сети, соответствующей приведенной выше системе продукционных правил, Каждая совокупность входных сигналов рассматривается, как конъюнкция соответствующих логических переменных. Для построения логической нейронной сети вводятся два типа нейронов: конъюнкторы и дизъюнкторы. Веса входных сигналов этих нейронов выбираются таким образом, чтобы при четких значениях входных сигналов эти нейроны вырабатывали бы выходные сигналы, соответствующие значениям логических операций конъюнкции и дизъюнкции соответственно.
Построение переменнозначной нейронной сети
Мы видим, что одна и та же система продукционных правил (импликативных высказываний) является основой как для построения переменнозначных логических функций, так и для создания логических нейронных сетей, обученных для работы с соответствующей базой знаний. Опираясь на метод биективного доказательства можно сформулировать следующее утверждение:
Утверждение. Всякая переменнозначная логическая функция ^(X, W) представи-ма в виде логической нейронной сети, совокупность логических связей в которой взаимно однозначно определяется структурой продукционных дизъюнктов. Таким образом, переменнозначная логическая функция ^(х,W) представима виде трехслойной нейронной сети для которой:
1. В качестве входного слоя выступают предикаты х- значности , каждый - = 1,..., п;
2. В качестве выходного слоя, производящего окончательные вычисления, выступает множество объектов или выходных сигналов W = ^1,...,
3. В качестве промежуточного, скрытого слоя, производящего вычисления выступают продукционные дизъюнкты, в которых операции конъюнкции и дизъюнкции заменены нейронами конъюнкторами и дизъюнкторами;
4. Свободным знаниям переменнозначной логической функции соответствуют такие наборы входных сигналов логической нейронной сети, которым не сопоставлены ни какие выходные сигналы;
5. Продукционным дизъюнктам логической функции взаимно однозначно соответствуют нейроны, подающие выходной сигнал на те объекты, которые входят в эти дизъюнкты.
В случае четких значений переменных всякий конъюнктор, соответствующий продукционному дизъюнкту переменнозначной логической функции ^(X, W), передает сигнал единичного веса на каждый из входящих в этот дизъюнкт (подкласс) объектов.
Если на вход построенной таким образом нейронной сети подать значения логических переменных в соответствии с некоторым запросом X*, то на выходе будет получена совокупность объектов, удовлетворяющих этому запросу, веса которых в точности совпадают с результатом работы процедуры частотного анализа, применяемой для нахождения объектов, наиболее полно отвечающих запросу X*, при вычислении переменнозначной логической функции ^(X, W) : W* = ^(X*, W) [4].
Случай нечеткой логики
Для адаптации переменнозначной логической нейронной сети для случая нечеткой логики примем во внимание следующее рассуждение: чем более широкий класс объектов будет найден (получен на выходе нейронной сети), тем более неопределенным будет являться такой ответ. И, наоборот, чем более узким является найденный класс объектов в соответствии с запрашиваемыми характеристиками, тем более такой ответ является четким и ясным. В предельном случае, когда не найдется ни одного объекта, отвечающего хотя бы одному из признаков запроса X*, то при вычислении переменнозначной логической функции от вектора характеристик X* W* = ^(X*,W) в качестве результата будет получен единственный продукцион-
ный дизъюнкт, т.е. объектный дизъюнкт, равный конъюнкции всех, содержащихся в базе знаний объектов. Очевидно, что такой ответ легко интерпретировать следующим образом: «подходящим является любой из m содержащихся в текущей базе знаний объектов». Это самый неопределенный ответ из всех возможных, поэтому положим вес связи, ведущей каждому объекту, содержащемуся в объектном дизъюнкте, равным 1/т, где т- общее число объектов, содержащихся в базе знаний (БЗ). Учтем, что мощность любого из классов объектов, содержащихся в продукционных дизъюнктах строго меньше m. Рассуждая аналогично, положим вес связи, ведущей к объекту в каждом из выявленных подклассов равным 1/г, где г - число объектов этого подкласса (продукционного дизъюнкта). В процессе работы построенной таким образом логической нейронной сети все нечеткие веса полученных при формировании окончательного ответа подклассов объектов будут просуммированы. На фоне нечеткого множества всех объектов будет выделятся самый широкий из найденных подклассов, внутри которого наибольшим весом будут обладать объекты из более узкого подкласса и т.д. до получения максимально определенного ответа, соответствующего запросу х*, который будет обладать наибольшим весом в результирующем нечетком множестве.
Учет коэффициентов важности свойств объектов
Построение логической нейронной сети легко распространить на случай, когда свойства объектов, кодируемые значениями переменозначных предикатов, имеют различную степень важности для цели распознавания. В задачах диагностики не все принимаемые во внимание свойства могут оказаться одинаково важными. Например, В процессе решения инженерной задачи при выборе базового эскиза машины или устройства фактор безопасности (или отказоустойчивости) могут оказаться важнее фактора себестоимости производства.
В таких случаях, обычно, вводится дополнительный вектор относительной важности Ь свойств объектов длины п, элементы которого I] заключены между 0 и 1. При этом ЕЬ] = 1,] = 1,...,п. Для учета различной степени важности логических переменных Х] достаточно входы построенной логической нейронной сети в нулевом (сенсорном) слое взвесить соответствующими коэффициентами важности I], ] = 1,..., п.
Случай нечеткозначных предикатов
Если рассматривать совокупность значений переменнозначных предикатов, как входную информацию для системы принятия решений, то необходимо учитывать нечеткость или зашумленность входных данных. Например критерий цвета может восприниматься нечетко: «красный» =0.3; «оранжевый» =0.4; «желтый» =0.3.
Заметим, что в общем случае значения степени нечеткости не обязательно должны быть сумме равными единицы [3].
В этом случае ни каких дополнительных изменений в предложенную структуру логической нейронной сети вносить не требуется.
Достаточно произвести вычисления для всех дизъюнкторов и конъюнкторов, соответствующих операциям переменнозначной логической функции F(X, W).
Окончательное суммирование выявленных таким образом нечетких подклассов в рамках результирующего итогового множества будет прямым обобщением процедуры частотного анализа, перенесенной на случай нечетких значений логических переменных X = (xi,...,xn).
Заключение
Мы видим, что построение и применение переменнозначных логических нейронных сетей позволяет не только сохранить свойства переменнозначных логических функций, но и расширить область их применения [б].
Построенная нейронная сеть сохраняет всю систему начальных продукционных правил и подклассов объектов, получаемых в результате удаления избыточной информации из начальной системы правил путем применения логических операций и построения логической базы знаний.
С другой стороны, логические нейронные сети, построенные на основе перемен-нозначных предикатов, позволяют перенести этот результат на случай, когда свойства объектов, кодируемые при помощи переменнозначных предикатов, имеют различную степень важности для целей распознавания или диагностики.
Дополнительную гибкость интеллектуальной системе распознавания или принятия решений придает возможность использования нечеткой логики зашумленных или нечетких исходных данных.
Список литературы/References
[1] Лютикова Л. А., Тимофеев А. В., Сгурев В. В., Йоцов В. И, "Развитие и применение многозначных логик и сетевых потоков в интеллектуальных системах", Труды СПИИРАН, 2 (200б), 114-126, [Lyutikova L.A., Timofeev A.V., Sgurev V.V., Yotsov V.I Razvitie i primenenie mnogoznachnykh logik i setevykh potokov v intellektual'nykh sistemakh. Trndy SPIIRAN. 200б. no 2. 114-126 (in Russian)].
[2] Лютикова Л.А., Моделирование и минимизация баз знаний в терминах многозначной логики предикатов, Препринт-Нальчик, НИИ ПМА КБНЦ РАН, 2006, ЗЗ с., [Lyutikova L. A. Modelirovanie i minimizatsiya baz znaniy v teminakh mnogoznachnoy logiki predikatov. NII PMA KBNTs RAN. Preprint-Nalchik. 2006. ЗЗ (in Russian)].
[3] Барский А. Б., Логические нейронные сети, ИНТУИТ, БИНОМ, 2007, Зб2 с., [Ba^kiy A.B. Logicheskie neyronnye seti. BINOM. INTUIT. 2007. Зб2 (in Russian)].
[4] Димитриченко Д.П., "Многокритериальный поиск топологических структур для оптимального построения локальных вычислительных сетей", Доклады Адыгской (Черкесской) международной академии наук, 14:2 (2012), 68-7З, [Dimitrichenko D. P. Mnogokriterial'nyy poisk topologicheskikh strnkt^ dlya optimal'nogo postroeniya lokal'nykh vychislitel'nykh setey. Doklady Adygskoy (Che^esskoy) mezhdunarodnoy akademii nauk. 2012. vol. 14. no 2. 68-7З (in Russian)].
[б] Димитриченко Д.П., "Построение логической нейронной сети на основе перемен-нозначных предикатов", Материалы Международной научной конференции «Актуальные проблемы прикладной математики и информатики» и XIV Школы молодых ученых «Нелокальные краевые задачи и современные проблемы анализа и информатики», 2016, 101-104, [Dimitrichenko D. P. Postroenie logicheskoy neyronnoy seti na osnove peremennoznachnykh predikatov. Materialy Mezhdunarodnoy nauchnoy konferentsii «Aktual'nye problemy prikladnoy matematiki i infomatiki» i XIV Shkoly molodykh uchenykh «Nelokal'nye kraevye zadachi i sovremennye problemy analiza i infomatiki». 2016. 101-104 (in Russian)].
Список литературы (ГОСТ)
[1] Лютикова Л. А., Тимофеев А. В., Сгурев В. В., Йоцов В. И Развитие и применение многозначных логик и сетевых потоков в интеллектуальных системах // Труды СПИИРАН. 2005. №2. С. 114-126
[2] Лютикова Л. А. Моделирование и минимизация баз знаний в терминах многозначной логики предикатов. Препринт-Нальчик: НИИ ПМА КБНЦ РАН, 2006. 33 с.
[3] Барский А. Б. Логические нейронные сети. ИНТУИТ. БИНОМ, 2007. 352 с.
[4] Димитриченко Д. П., Многокритериальный поиск топологических структур для оптимального построения локальных вычислительных сетей // Доклады Адыгской (Черкесской) международной академии наук. 2012. Т. 14. №2. С. 68-73
[5] Димитриченко Д. П. Построение логической нейронной сети на основе переменнознач-ных предикатов // Материалы Международной научной конференции «Актуальные проблемы прикладной математики и информатики» и XIV Школы молодых ученых «Нелокальные краевые задачи и современные проблемы анализа и информатики». 2016. C. 101-104
Для цитирования: Димитриченко Д. П. Применение переменнозначных логических функций и нейронных сетей в системах принятия решений // Вестник КРАУНЦ. Физ.-мат. науки. 2016. № 4-1(16). C. 93-100. DOI: 10.18454/2079-6641-2016-16-4-1-93-100
For citation: Dimitrichenko D. P. The procedure directed search for specific operations on algorithms, Vestnik KRAUNC. Fiz.-mat. nauki. 2016, 16: 4-1, 93-100. DOI: 10.18454/20796641-2016-16-4-1-93-100
Поступила в редакцию / Original article submitted: 14.11.2016