Научная статья на тему 'ОПТИМИЗАЦИЯ СТРУКТУРЫ ПЕРЕМЕННОЗНАЧНЫХ ЛОГИЧЕСКИХ ФУНКЦИЙ ПРИ ДОБАВЛЕНИИ НОВЫХ ПРОДУКЦИОННЫХ ПРАВИЛ'

ОПТИМИЗАЦИЯ СТРУКТУРЫ ПЕРЕМЕННОЗНАЧНЫХ ЛОГИЧЕСКИХ ФУНКЦИЙ ПРИ ДОБАВЛЕНИИ НОВЫХ ПРОДУКЦИОННЫХ ПРАВИЛ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
26
4
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЛОГИЧЕСКИЕ ОПЕРАЦИИ / ПЕРЕМЕННОЗНАЧНЫЙ ПРЕДИКАТ / ПЕРЕМЕННОЗНАЧНАЯ ЛОГИЧЕСКАЯ ФУНКЦИЯ / ОБУЧАЮЩАЯ ВЫБОРКА / ПРОДУКЦИОННОЕ ПРАВИЛО / ЛОГИЧЕСКИЙ КЛАССИФИКАТОР / ЛОГИЧЕСКАЯ НЕЙРОННАЯ СЕТЬ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Димитриченко Д.П.

В настоящей работе предложено теоретическое обоснование и практическая реализация в виде алгоритма модификации переменнозначных логических функций при добавлении новых продукционных правил в уже сформированный (в рамках исходной предметной области) логический классификатор. Предложенный алгоритм основан на применении метода конструктивного преобразования переменнозначных логических классификаторов, построенных на основе системы продукционных правил, закодированных при помощи переменнозначных предикатов. Исследованы свойства изменения структур продукционных дизъюнктов и дизъюнктов свободных знаний в процессе добавления новых продукционных правил. Выявлены условия при которых эти дизъюнкты гарантировано обращаются в логический ноль, или остаются в неизменном виде. Учет в предлагаемом алгоритме этих условий позволяет снизить количество выполняемых логических операций и обеспечить снижение вычислительных затрат для выполнения требуемых преобразований.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

OPTIMIZATION OF THE STRUCTURE OF VARIABLE-VALUED LOGICAL FUNCTIONS WHEN ADDING NEW PRODUCTION RULES

This paper proposes a theoretical justification and practical implementation in the form of an algorithm for modifying variable-valued unions of functions when adding new production rules to an already formed (within the original subject area) union classifier. The proposed algorithm is based on the application of the method of constructive transformation of variable-valued relationships of classifiers built on the basis of a system of production rules encoded using variable-valued predicates. The properties of changing the structure of production clauses and knowledge development clauses in the process of adding new production rules are studied. Conditions are found under which these clauses are guaranteed to vanish in the connection, or are in a constant form. Taking into account the conditions in the proposed algorithm makes it possible to reduce the number of necessary operations and reduce the computational costs for the required transformations

Текст научной работы на тему «ОПТИМИЗАЦИЯ СТРУКТУРЫ ПЕРЕМЕННОЗНАЧНЫХ ЛОГИЧЕСКИХ ФУНКЦИЙ ПРИ ДОБАВЛЕНИИ НОВЫХ ПРОДУКЦИОННЫХ ПРАВИЛ»

Вестник КРАУНЦ. Физ.-мат. науки. 2022. Т. 39. №2. C. 119-135. ISSN 2079-6641

ИНФОРМАЦИОННЫЕ И ВЫЧИСЛИТЕЛЬНЫЕ ТЕХНОЛОГИИ

УДК 519.7

Научная статья

Оптимизация структуры переменнозначных логических функций при добавлении новых продукционных правил

Институт прикладной математики и автоматизации КБНЦ РАН 360000, КБР, г. Нальчик, ул. Шоратнова 89 А E-mail: dimdp@rambler.ru

В настоящей работе предложено теоретическое обоснование и практическая реализация в виде алгоритма модификации переменнозначных логических функций при добавлении новых продукционных правил в уже сформированный (в рамках исходной предметной области) логический классификатор. Предложенный алгоритм основан на применении метода конструктивного преобразования переменнозначных логических классификаторов, построенных на основе системы продукционных правил, закодированных при помощи переменнозначных предикатов. Исследованы свойства изменения структур продукционных дизъюнктов и дизъюнктов свободных знаний в процессе добавления новых продукционных правил. Выявлены условия при которых эти дизъюнкты гарантировано обращаются в логический ноль, или остаются в неизменном виде. Учет в предлагаемом алгоритме этих условий позволяет снизить количество выполняемых логических операций и обеспечить снижение вычислительных затрат для выполнения требуемых преобразований.

Ключевые слова: логические операции, переменнозначный предикат, переменнозначная логическая функция, обучающая выборка, продукционное правило, логический классификатор, логическая нейронная сеть.

Для цитирования. Димитриченко Д. П. Оптимизация структуры переменнозначных логических функций при добавлении новых продукционных правил // Вестник КРАУНЦ. Физ.-мат. науки. 2022. Т. 39. № 2. C. 119-135. d DOI: 10.26117/2079-6641-2022-392-119-135

Контент публикуется на условиях лицензии Creative Commons Attribution 4.0 International (https://creativecommons.org/licenses/by/4.0/deed.ru)

© Димитриченко Д. П. , 2022

Финансирование. Работа выполнена без финансовой поддержки

Д. П. Димитриченко

d DOI: 10.26117/2079-6641-2022-39-2-119-135

Поступила в редакцию: 04.07.2022

В окончательном варианте: 20.08.2022

Введение

Современный уровень развития теории и практики применения нейронных сетей позволяет утверждать, что нейронные сети в силу способности к аппроксимации неизвестной целевой функции, о которой имеется частичное представление (в силу наличия соответствующей обучающей выборки), позволяют зафиксировать неявно распределенную закономерность в исходных данных [1]. Это относится в первую очередь к задачам распознавания образов или диагностируемых состояний сложных объектов. Проблема, однако, состоит в том, что по состоянию (совокупности значений) весов обученной нейронной сети отслеженную закономерность в данных выделить (актуализировать) в формальном, понятным лицу принимающему решение виде практически невозможно [1]. Одним из способов преодоления этой проблемы при конструктивном обучении нейронных сетей является введение мультииндексных весов [2]. Альтернативным направлением является применение логических алгоритмов [3], или их встраивание в процедуры машинного обучения [4]. Дальнейшим развитием этих усилий является появление нечетких и гибридных нейронных сетей и нейронных сетей с элементами логики [5]-[7], успешное применение которых [8], [9] в некоторых случаях приводит к проблемам интерпретации результата [10].

Расширением возможности распознавания образов и диагностики является подход, основанный на построении логических и нечеткологических классификаторов, которые позволяют не только распознать объект, но и указать его класс (множество близких, похожих на него объектов) [11], [12], что повышает качество получаемого решения. Требование получения логически понятного решения приводит к необходимости записи обучающей выборки в виде логических (продукционных) правил, полученных, например, при помощи мнения экспертов в соответствующей предметной области. Если анализируемые объекты характеризуются совокупностями разнородных параметров, то уместно кодировать такие значение (в рамках единого формального подхода) при помощи переменнозначных предикатов. В этом случае обучающая выборка представляет собой систему продукционных правил, на основе которой и требуется получить логически обоснованное, пригодное для дальнейшего анализа эффективное решение. С поставленной задачей хорошо справляются переменнозначные логические функции [13]. Эти функции позволяют не только получать логически обоснованные решения в рамках исходной обучающей выборки, но и минимизировать структуру исходной обучающей выборки с выделением аксиом и построением всех возможных классов объектов. Последнее качество позволяет рассматривать переменнозначные логические функции, как универсальные логические классификаторы [14]. Универсальные логические классификаторы были успешно применены для задачи выбора оптимальных алгоритмов на множестве заданных алгоритмов [15]. Информативность вывода (получаемого результата) логических классификаторов позволяет говорить о перспективности построения на их основе логических нейронных сетей, как комбинированного метода интеллектуальной обработки данных [16], [17]. Логическая нейронная сеть -это, в первую очередь, логическая формула, состоящая из логических констант и

высказываний (входных переменных), и включает в себя логические операции, реализованные при помощи специальных нейронов: конъюнкторов и дизъюнкторов [18], [19].

При формировании логической нейронной сети, такие нейроны размещаются в узлах обработки входных данных при помощи логических операций, поэтому конъ-юнкторы и дизъюнкторы функционируют в соответствии с алгоритмами действия этих логических операций. Веса конъюнктора с n входами заранее устанавливаются равными 1/n, чтобы сформировать на выходе единичный сигнал только тогда, когда все n входов имеют единичное значение. Веса дизъюнктора, напротив, устанавливаются в значения, близкие (или равные) единице, чтобы на выходе такого нейрона был сформирован четкий единичный сигнал, когда хотя бы один из входов содержит логическую единицу.

Специального нейрона для организации операции отрицания не требуется, так как В процессе преобразования импликативной формы сначала в конъюнктивную нормальную, а затем, в дизъюнктивную нормальную форму, сначала выполняется операция отрицания, предложенная в [20] для k-значной логики. Результатом выполнения отрицания k-значного предиката является дизъюнкция всех возможных его состояний (фаз [20]) кроме отрицаемого состояния предиката: «Существующим может быть любое состояние предиката, кроме отрицаемого значения». Таким образом результирующая дизъюнктивная форма переменнозначной функции, и как следствие, построенной на ее основе логической нейронной сети в своей окончательной структуре содержит результат выполнения операции отрицания без привлечения нейрона специализированного типа.

Аналогично проводится преобразование и для операции обобщенного отрицания [13], адаптированного для переменнозначных предикатов. Если вопрос о построении логической нейронной сети по структуре логического классификатора решается положительным образом [21], то вопрос о снижении вычислительных затрат на операцию дообучения логического классификатора остается пока еще нерешенным. А этот вопрос, в свою очередь, сводится к задаче минимизации структуры переменнозначной логической функции при добавлении новых продукционных правил в уже сформированную структуру этой функции.

Общая постановка задачи

Будем предполагать общий случай: пусть имеется множество из m объектов, каждый из которых однозначным образом определяется совокупностью из n свойств. Каждое свойство в рамках заданной предметной области закодировано предикатом некоторой индивидуальной значности, образуя пространство перемен-нозначных предикатов.

Применение переменнозначных предикатов позволяет совокупность разнородных параметров объектов исходной предметной области закодировать в рамках единого логического подхода. Заданное множество объектов образует обучающую выборку W. Описание всех m объектов удобно представить в виде таблицы, со-

стоящей из m строк по числу объектов. Строки состоят из n+1 столбцов, где n-число признаков объектов, и еще один столбец, содержащий идентификатор (имя) определяемого этой строкой признаков объект. При этом, j-ый столбец равен значению j-го признака, j = 1,... ,n. Таким образом, соответствие множества объектов и характеризующих их признаков представима в виде следующей таблицы:

Таблица 1

Структура обучающей выборки [The structure of the training set]

W

Xi (w1),X2(w1),... Xn(wi) W1

Xi (W2),X2(W2),... Xn(w2) W2

Xi (wn),X2(wn),... ,Xn(wn) Wn

Как отмечалось выше, использование переменнозначных предикатов позволяет применить единый формальный подход к описанию объектов, обладающих совокупностью разнородных параметров. Например, при помощи двузначного предиката можно кодировать факт отсутствия («0»), или наличия («1») у определяемого объекта некоторого заданного свойства. А трехзначный предикат, заданный на множестве значений: «0», «1», «2» будет достаточным для кодирования информации, поступающей от датчика, например, температуры, или уровня рабочей интенсивности сигнала: «Низкий», «Средний», «Высокий».

Приведенную в таблице информацию о каждом из т объектов удобно представить в логической форме в виде продукционного правила при помощи операции импликации, у которого из конъюнкции свойств следует сам определяемый объект.

Связывание всех т продукционных правил при помощи операции конъюнкции позволяет выполнить окончательный переход от обучающей выборки как таковой к сложному логическому высказыванию однозначным образом.

Сделанный переход к логической форме позволяет, не только получать логически достоверный результат, но и проследить его вывод. (процесс получения).

Обучающая выборка в логической форме, как система продукционных правил, имеет следующий вид:

(Конъюнкция_признаков_1 —> Объект_1), (Конъюнкция_признаков_2 —> Объект_2),

(Конъюнкция_признаков_т —> Объект_ш).

Как отмечалось выше Совокупность из т продукционных правил при помощи т — 1 операции конъюнкции записывается в конъюнктивной нормальной форме, образуя одно сложное логическое высказывание.

Последовательное раскрытие т скобок приводит к построению переменнознач-ной логической функции ?(Х,Ш), записанной в дизъюнктивной нормальной форме. Каждый член полученной дизъюнкции является либо логически возможным

подклассом, либо элементом свободных знаний, либо объектным дизъюнктом, содержащим все объекты обучающей выборки. Аргумент X - это n-компонентный вектор логических переменных (переменнозначных предикатов), кодирующий всю совокупность признаков объектов в пределах значностей введенных предикатов: X = Х1 ,Х2,. .. ,xn.

W = w,..., wm - множество объектов, мощности m, образующее совокупность объектов обучающей выборки.

В процессе выполнения логических вычислений происходит минимизация структуры исходной совокупности логически кодируемых знаний, выделение аксиом, получение всех возможных, логически непротиворечивых подклассов исходных объектов. Последнее свойство является основой для построения логического классификатора в рамках исходных знаний заданной предметной области.

Важно отметить следующее:

1. Присутствие в результирующей структуре функции каждого класса объектов логически обосновано и выводимо из совокупности исходных продукционных правил;

2. В силу применения операции обобщенного отрицания в окончательной структуре функции присутствуют все возможные подклассы, логически выводимые из исходной обучающей выборки;

3. Присутствуют только уникальные подклассы, т.е. все логически избыточные подклассы отсутствуют в окончательной структуре полученной функции, так как они удаляются еще в процессе ее формирования в соответствии с законом поглощения.

Таким образом переменнозначная логическая функция по своей структуре (совокупности выявленных классов в рамках заданной предметной области) является универсальным логическим классификатором, который упорядочивает объекты в соответствии с принципом построения всех возможных, логически непротиворечивых, полных классов.

Отсюда логично вытекает, что нахождение значения переменнозначной логической функции - это не только получение логически обоснованного ответа на вопрос о том, «Какой это объект?», но и указание совокупности близких классов, отвечающих на вопрос: «На что похож найденный объект?» и »Какова степень этой похожести?».

В этой связи естественным методом нахождения окончательного ответа является проведение процедуры частотного анализа, которая опирается на тот факт, что в окончательном ответе преобладающее число получат те классы, которые содержат искомый объект совпадающий по максимально возможной совокупности входных переменных. Процедура частотного анализа нахождения класса с максимальной частотой присутствия в результирующей совокупности классов гарантирует нахождение либо точного эталона, либо совокупности объектов, расположенных на одинаковом расстоянии от эталона по степени похожести на него, реализуя

функцию ассоциативного поиска объектов на множестве всех возможных, но не избыточных подклассов.

Оценка верхней границы операций

Важнейшим свойством систем интеллектуальной обработки данных является способность таких систем адаптироваться к новым, ранее не предусмотренным обучающей выборкой правилам. Этому свойству в полной мере отвечают пере-меннозначные логические классификаторы, логической формой которых являются переменнозначные логические функции. Поскольку переменнозначная логическая функция содержит всю совокупность продукционных правил в оптимальной форме, являясь при этом логическим высказыванием, то для добавления новых правил, достаточно их записать в импликативной форме и при помощи операции конъюнкции домножить на ранее полученную переменнозначную функцию. Это эквивалентно тому, что переменнозначная логическая функция первоначально была получена из обучающей выборки, содержащей новые (добавляемые) продукционные правила. Это существенное преимущество логических методов обработки информации. Однако, легкость добавления новых продукционных правил связана с выполнением значительного количества операций и логических преобразований. В этой связи возникают задачи:

1. Оценки выполнения логических операций при добавлении новых продукционных правил;

2. Поиск метода минимизации логических операций с целью снижения вычислительных затрат по корректному преобразованию переменнозначных логических функций без потери полноты ранее усвоенных правил продукции при добавлении новых.

Пусть задана переменнозначная логическая функция F(X,W), построенная по ранее сформированной обучающей выборке, состоящей из m продукционных правил. Пусть полученная функция F(X,W) в общем виде состоит из lm_-| дизъюнктов всех типов: свободных знаний, продукционных подклассов и объектного дизъюнкта. Необходимо добавить новое правило вида: х —> w, ранее не содержавшееся в исходной обучающей выборке.

Проведем расчет верхней границы оценки выполняемых логических операций с учетом свойства обобщенного отрицания [13] при добавлении одного продукционного правила:

F(X, W )(х —> w) = F(X, W )(х V w) = F(X, W )(Xi V х2 V... VVXn V w).

Отсюда видно, что число требуемых умножений не превзойдет величины lm_i * r, где r = j=i (kj _ 1 ) + 1 = Y.j=i (kj) _ n + 1 : сумма значностей всех n предикатов. В полученном множестве всевозможных дизъюнктов содержатся дизъюнкты трех типов: новообразованные, оставшиеся без изменений и обратившиеся в логический ноль.

Для реализации закона поглощения необходимо провести попарное сравнение полученных дизъюнктов, при котором часть дизъюнктов будет сокращена.

Поскольку верхняя граница оценки числа таких действий не превосходит квадратичной зависимости, то в итоге можем записать, что верхняя оценка действий, необходимых на т-ом шаге добавлении нового правила Тт не превзойдет величины Тт: Тт = 0((1т—1Г)2).

Заметим, что данная величина - это верхняя граница от новых полученных дизъюнктов при попарном перемножении дизъюнктов исходной переменнозначной функции и всех значений переменных, определяющих новое добавляемое правило. Однако, в итоговом результате логического умножения (операции конъюнкции) для переменнозначных предикатов часть из них станет равной логическому нулю, поскольку умножение переменной самой на себя в различных (не совпадающих) состояниях (фазах) обнуляет результат этого произведения. Заметим, что при добавлении нескольких продукционных правил величина г приобретает степенную зависимость.

Таким образом, необходимо найти критерий выделения двух типов дизъюнктов:

1. Дизъюнкты, которые при добавлении нового правила обязательно обратятся в логический ноль;

2. Дизъюнкты, которые при добавлении нового правила останутся без изменений;

3. Оставшиеся дизъюнкты, для которых требуется применить алгоритм добавления нового правила с учетом закона поглощения.

Отсюда видно, что алгоритм модификации переменнозначной логической функции ?(Х,Ш) при добавлении новых продукционных правил, должен содержать в своей структуре формализацию выше приведенных пунктов, чтобы обеспечить максимально возможное снижение вычислительной сложности по отношению к операции прямого попарного перемножения и прямого попарного сравнения полученных дизъюнктов при последующем сравнении для реализации закона поглощения и оптимизации структуры результирующей переменнозначной логической функции, содержащей в своей структуре новые (ранее неизвестные) продукционные правила.

Исследование свойств переменнозначных функций

Определение. Совокупности значений переменнозначных предикатов, связанные операцией конъюнкции и входящие в структуру продукционных дизъюнктов будем называть связанными знаниями. Напомним, что:

1. Каждый объект характеризуется набором из п различных свойств, закодированных значениями переменнозначных предикатов;

2. Новые (добавляемые) объекты вместе с характеризующими их свойствами для простоты изложения сразу будут представлены не в импликативной, а в

дизъюнктивной форме уже после применения к ним операции обобщенного отрицания.

Таким образом, при добавлении в функцию F(X,W) этого продукционного правила все содержащиеся в этой функции дизъюнкты последовательно умножаются либо на свободные знания, т.е. переменнозначные предикаты данного правила, либо на добавляемый объект.

Технически результат такого перемножения можно представить в виде матрицы, состоящей из lm_-| столбцов и r строк, на пересечении которых расположены все результаты таких попарных перемножений.

Будем называть связанными знаниями, в противоположность свободным знаниям, переменнозначные предикаты, связанные операцией конъюнкции, в определенных состояниях (фазах), которые входят в состав выявленных продукционных подклассов. докажем следующие свойства:

Свойство 1. При умножении функции F(X,W) на любой из переменнозначных предикатов, принадлежащих множеству связанных знаний результат его умножения без изменений перейдет в итоговую функцию.

Такие подклассы,оставшиеся без изменений будем называть инвариантными.

Доказательство. Действительно. Так как предикат x в некотором своем состоянии (в рамках его значности) принадлежит ко множеству связанных знаний, то существует хотя бы один выявленный подкласс wx с его присутствием. Тогда можем записать:

x Л x Л vx = x Л vx.

Остается лишь заметить, что эти рассуждения верны для любого конечного количества подклассов и предикатов связанных знаний. □

Следствие 1. Продукционный инвариантный подкласс будет единственным в своем столбце в матрице попарных произведений после действия закона поглощения.

При умножении исходного подкласса на предикат x в других состояниях (фазах) по свойству операции конъюнкции результатом будет логический ноль. Умножение этого подкласса на другие предикаты будет либо приводить к логическому нулю по свойству 1, либо образовывать избыточные подклассы, удаляемые по закону поглощения.

Y Л X Л vx V x Л vx = x Л vx

- выполняется для любого другого предиката не равного x.

Заметим, что для подкласса из n предикатов в столбце матрицы останутся n копий исходного подкласса (по одной для каждой из переменных связанных знаний), что не противоречит свойству 1.

Свойство 2. При умножении функции F(X,W) на любой из переменнозначных предикатов, принадлежащих множеству связанных знаний результат его умножения на объектный дизъюнкт будет сокращен по закону поглощения.

Доказательство. Действительно, объектный дизъюнкт O содержит конъюнкцию всех ранее добавленных объектов множества W. Поскольку предикат x при-

надлежит к связанным знаниям, то существует хотя бы один объект "х, обладающий свойством х, и среди аксиоматических дизъюнктов содержится дизъюнкт вида хЛ"х. Тогда можем записать:

хЛ (хЛ"х V О) = хЛ"х Vх Л О = хЛ "х.

Свойство 2 доказано. □

Таким образом, умножение переменнозначной логической функции ?(Х,Ш) на один из предикатов в результате оставляет без изменений все дизъюнкты, в которые он входит с учетом его состояния (фазы).

Для случая одной переменной этот факт можно проиллюстрировать на конкретном примере. Пусть множество объектов Ш определено в рамках одного предиката х значности кх = 5, такого что х = хо,х1,... ,х4.

Пусть при этом определена следующая простейшая система объектов:

хо —> ""0,

х1 —} "1, х2 —> "2.

Функция ?х,Ш) будет иметь следующий вид: ?(Х,Ш) = (х0 —> "0) Л (х1 —> "1) Л (х2 —^ "2). Воспользуемся указанной выше формулой преобразования импликации в дизъюнкцию с учетом операции обобщенного отрицания, применяемой к пере-меннозначным предикатам [13].

?(Х,Ш) = (х0 —> ™0) Л (х^ Л (х2 —> "2) = (х0 V "0) Л (х1 V Л (х2 V "2) =

= (х1 V х2 V х3 V х4 V "0) Л (х0 V х2 V х3 V х4 V "2) Л (х0 V х1 V х3 V х4 V "3) =

= х0 Л "0 V х1 Л "1 V х2 Л "2 V х3 V х4 V "0 Л "1 Л "2.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

При раскрытии скобок мы воспользовались тем правилом, что конъюнкция переменной х в неравных (несовпадающих) состояниях (фазах) равна логическому нулю. Пусть данную логическую функцию необходимо пополнить новым продукционным правилом вида хз —> "3. Как уже отмечалось выше, эта операция выполняется путем логического умножения текущей функции ?(Х,Ш) на новое продукционное правило х3 —^ ""3. В результате получим:

?(Х,Ш) Л (х3 —>™3) = (Х0 Л "0 V х1 Л "V х2 Л "2 V х3 V х4 V "0 Л "Л "2) Л (х3 V "3) =

= (х0 Л "0 V х1 Л "1 V х2 Л "2 V х3 V х4 V "0 Л "1 Л "2) Л (х0 V х1 V х2 V х4 V "3).

Не трудно заметить, что умножение первого выражения (функции ?(Х,Ш)) на переменную х0 приведет к тому, что аксиома х0 Л "0 останется без изменений, а остальные аксиомы будут обращены в ноль, так как результат перемножения предиката х на сам себя при попарно различных фазах равен нулю. А дизъюнкт

хо Л "0 Л "1 Л"2 будет сокращен по закону поглощения исходной (первоначальной), оставшейся без изменений аксиомой хо Л "о-

Аналогичным образом эти рассуждения верны и для предиката х в состояниях Х1 и Х2-

С учетом оставшихся без изменений первоначальных аксиом и свободных переменных, которые заключают в себе логическую совокупность свободных знаний, все итоговые слагаемые, полученные при умножении функции ?(Х,Ш) на объектный предикат "з будут также сокращены по закону поглощения. В результате чего получим:

(х0 Л "0 V Х1 Л V Х2 Л "2 V х3 V х4 V "0 Л "1 Л "2) Л (х0 V Х1 V Х2 V х4 V "3) =

= Х0 Л "0 V х0 Л "0 Л "1 Л "2 V Х1 Л "1 V Х1 Л "0 Л "1 Л "2 V Х2 Л "2 V Х2 Л "0 Л "|Л

Л"2 V х4 V х4 Л "0 Л "1Л "2 V х0 Л "0 Л "3 V Х1Л "1Л "3 V Х2 Л "2 Л "3 V х3 Л "3 V х4Л

Л"3 V "0 Л "1Л "2 Л "3 = х0 Л "0 V Х1Л "1V Х2 Л "2 V х3 Л "3 V х4 V "0 Л "1Л "2 Л "3.

Таким образом функция ?(Х,Ш), включившая новое продукционное правило, примет следующий вид:

?(Х,Ш) = х0 Л "0 V Х1 Л "1 V Х2 Л "2 V х3 Л "3 V х4 V "0 Л "1 Л "2 Л "3.

Мы видим, что изменились только два элемента: член, содержащий переменную Х3, по которой и характеризовался добавляемый объект "3 и объектный дизъюнкт, зафиксировав новое множество объектов Ш. Теперь рассмотрим случай, когда объекты из множества Ш характеризуются двумя предикатами: х и у. В общем случае каждый из них обладает значностью кх и ку, принимая максимальное значение тх = кх — 1 и ту = ку — 1, соответственно. Пусть первоначально обучающая выборка Ш состоит из двух объектов Ш = со следующими свойствами:

Таблица 2

Простейшая система знаний [The simplest knowledge system]

Х0 У0 wo

XI yi wi

Функция ?(Х,Ш) представима в виде следующей конъюнкции продукционных правил:

ПХ,Ш) = (х0 Л у0->"0) Л (х1 Л у1 ->"1).

Приведя импликацию к дизъюнктивной форме и раскрыв скобки аналогично тому, как это сделано выше, получим:

?(Х,Ш) = х0 Л "0 V х1 Л V у0 Л "0 V у1 Л V х0 Л у1 V х1 Л у0 V х2 V...

••• V хтх V У2 V ... V Уту V "0 Л "1.

Сгруппируем все содержащиеся в полученной функции дизъюнкты в кх + ку группы по следующему принципу - в первую группу дх0 объединим дизъюнкты, содержащие переменную х0:

6x0 = х0 Л — V х0 Л , бх1 = х1 Л—1 V х1 Л у0,

бхтх — хтх>

= У0 Л—0 V У0 Л х1, = У1 Л—1 V У1 Л х0,

^уту = уту.

Учтем, что, как было показано выше, объектный дизъюнкт, умноженный на любую из переменных, входящих в совокупность связанных знаний, обязательно будет сокращен по закону поглощения в соответствии с доказанными свойствами, поэтому его достаточно один раз умножить на предикат добавляемого объекта и этот результат включить в результирующий вид функции ?(Х,Ш).

Умножение группы дизъюнктов дх0 на х0 сохранит всю эту группу дизъюнктов в полном составе, а следовательно, последующие умножения членов этой группы на любые другие переменные приведет лишь к их поглощению первоначальными дизъюнктами группы, т.е. Сх0Лх0 = Сх0. Здесь мы воспользовались результатами доказанных выше свойств.

Откуда следует равенство: Сх0 Л (х0 V а) = Сх0 V Сх0 Л а = Сх0, где а - другой предикат не равный х0. Аналогичным образом подобные равенства доказываются и для всех остальных групп дизъюнктов. Рассуждая аналогично полученный результат без труда можно распространить на случай числа п актуальных свойств анализируемых объектов.

Построение оптимального алгоритма

Доказанные выше свойства позволяют выявить те дизъюнкты, структура которых точно не изменяется при добавлении нового продукционного правила, что позволит избежать заведомо лишних действий при логическом перемножении исходной переменнозначной логической функции на это новое правило. Это качество преобразования логических выражений положено в основу построения предлагаемого алгоритма.

Пусть задана переменнозначная логическая функция ?(Х,Ш), зависящая от п предикатов Х = х1,...,хп, каждая из которых определяется значностью к1, 1 = 1,..., п и содержащая т объектов из множества Ш. Требуется выполнить добавление нового продукционного правила вида Х* —> за минимальное число действий. Опираясь на доказанные свойства, алгоритм модификации переменознач-ной логической функции ?(Х,Ш) при добавлении нового продукционного правила имеет следующий вид:

1. Преобразовать добавляемое продукционное правило Х* —> из импликатив-ной формы в дизъюнктивную форму представления Х* V "*;

2. Из совокупности дизъюнктов функции ?(Х,Ш) выделить все инвариантные дизъюнкты, т.е. такие, в структуру которых входят предикаты Х* нового (добавляемого) продукционного правила;

3. Выбранные дизъюнкты, как инвариантные, поместить в итоговый результат;

4. Оставшиеся дизъюнкты функции ?(Х,Ш) попарно перемножить с переменными дизъюнктивной формы нового продукционного правила;

5. Провести сокращения по закону поглощения;

6. Полученные на предыдущем шаге дизъюнкты поместить в итоговый результат;

7. Построение переменнозначной логической функции Р (Х,Ш*), включающей описания объекта считать завершенным.

Заключение

Логические классификаторы являются мощным средством для решения задачи диагностики и распознавания образов. Преимуществом их применения является не только получение логически достоверного, легко интерпретируемого результата, но и возможность указания близких логически обоснованных альтернатив (свойство ассоциативности). Задача повышения эффективности логических классификаторов приводит к необходимости построения процедур (алгоритмов) добавления новых продукционных правил с минимально возможными вычислительными затратами, эквивалентом которых является количество выполнения логических операций. Выявленные свойства позволяют построить такой алгоритм.

Заметим, что если переменнозначные предикаты, определяющие множество свойств объектов ранжировать, например, перенумеровав в произвольной, но неизменной в процессе дальнейшего применения) форме), а значения самих предикатов уже являются упорядоченными (от нулевого значения к большему, соответствующему значности), то процедура разбиения всей совокупности, как продукционных дизъюнктов, так и дизъюнктов свободных знаний можно свести к однопроходному алгоритму обработки значений монотонно возрастающей последовательности ключей в словаре [22] по всей совокупности всех дизъюнктов исходной переменнознач-ной функции. Аналогичное замечание можно сделать и для нового добавляемого правила, записанного в дизъюнктивной форме. Эти замечания позволяют говорить о хорошей переносимости предложенного алгоритма в область компьютерной реализации. При этом достаточно, чтобы используемый язык программирования имел возможность использования динамических массивов, так как количество исходных (или (результирующих) дизъюнктов, хотя и может быть оценено по верхней границе, но не может быть найдено аналитическими методами.

Конкурирующие интересы. Конфликтов интересов в отношении авторства и публикации нет.

Авторский вклад и ответственность. Автор участвовал в написании статьи и полностью несет ответственность за предоставление окончательной версии статьи в печать.

Список литературы

1. Хайкин С. Нейронные сети: полный курс. М.: Издательский дом Вильямс, 2008.1103 с.

2. Шибзухов З. М. Конструктивные методы обучения нейронных сетей. М.: Наука, 2006.159 с.

3. Riazanov V. V., Sen'ko O.V., Zhuravlev Y. I. Mathematical methods for pattern recognition: logic, optimization, algebraic approaches, Proceedings. Fourteenth International Conference on Pattern Recognition, 1998. vol.1, pp. 831-834, DOI: 10.1109/ICPR.1998.711278.

4. Uddin M. F., Rizvi S., Razaque A. Proposing Logical Table Constructs for Enhanced Machine Learning Process, in IEEE Access, 2018. vol.6, pp. 47751-47769, DOI: 10.1109/ACCESS.2018.2866046.

5. Sathe J.B., Mali M.P. A hybrid Sentiment Classification method using Neural Network and Fuzzy Logic, 2017 11th International Conference on Intelligent Systems and Control (ISCO), 2017, pp. 93-96, DOI: 10.1109/ISC0.2017.7855960.

6. Kamada S., Ichimura T. An Object Detection by using Adaptive Structural Learning of Deep Belief Network, 2019 International Joint Conference on Neural Networks (IJCNN), 2019, pp. 1-8, DOI: 10.1109/IJCNN.2019.8852145.

7. Gao X., Yang T., Peng J. Logic-Enhanced Adaptive Network-Based Fuzzy Classifier for Fall Recognition in Rehabilitation, in IEEE Access, 2020. vol.8, pp. 57105-57113, DOI: 10.1109/AC-CESS.2020.2982049.

8. Cpalka K. A New Method for Design and Reduction of Neuro-Fuzzy Classification Systems, in IEEE Transactions on Neural Networks, 2009. vol. 20, no. 4, pp. 701-714, DOI: 10.1109/TNN.2009.2012425.

9. Eiamkanitchat N., Theera-Umpon N., Auephanwiriyakul S. A novel neuro-fuzzy method for linguistic feature selection and rule-based classification, 2010 The 2nd International Conference on Computer and Automation Engineering (ICCAE), 2010, С. 247-252, DOI: 10.1109/ICCAE.2010.5451487.

10. Efanov D., Osadchy G., Zueva M. Specifics of Error Detection with Modular Sum Codes in Concurrent Error-Detection Circuits Based on Boolean Complement Method, 2021 IEEE East-West Design and Test Symposium (EWDTS), 2021, pp. 1--11, DOI: 10.1109/EWDTS52692.2021.9581036.

11. Gebreyohannes S., Edmonson W., Esterline A., Homaifar A., Kibret N. Fuzzy classification context for the responsive and formal design process, 2017 Annual IEEE International Systems Conference (SysCon), 2017, pp. 1-8, DOI: 10.1109/SYSCON.2017.7934797.

12. Jean-Marc B., Lafitte O. Combining weak classifiers: a logical analysis, 2021 23rd International Symposium on Symbolic and Numeric Algorithms for Scientific Computing (SYNASC), 2021, pp. 178-181, DOI: 10.1109/SYNASC54541.2021.00038.

13. Лютикова Л. А. Моделирование и минимизация баз знаний в терминах многозначной логики предикатов. Нальчик: Препринт, 2006. 33 с.

14. Lyutikova L. A. Using multivalued logic for qualitative data analysis, Journal of Physics: Conference Series, 2021. Т. 2131, №3, С. 032046.

15. Лютикова Л. А., Шматова Е. В. Логический анализ корректирующих операций для построения качественного алгоритма распознавания, Программные продукты и системы, 2016. Т. 113, № 1, С. 108-112.

16. Димитриченко Д. П. Использование нейронных сетей для повышения эффективности переменнозначных логических функций, Вестник ИрГТУ, 2015. Т. 105, №10, С. 12-16.

17. Димитриченко Д. П. Применение переменнозначных логических функций и нейронных сетей в системах принятия решений, Вестник КРАУНЦ. Физ.-мат. науки, 2016. Т. 16, №4-1, С. 93100.

18. Барский А. Б. Нейронные сети: распознавание, управление, принятие решений. М.: Финансы и статистика, 2004.176 с.

19. Барский А. Б. Логические нейронные сети: Интернет-Университет Информационных Технологий, 2007. 352 с.

20. Горбатов В. А. Фундаментальные основы дискретной математики. Информационная математика. М.: Наука, 2000.541 с.

21. Dimitrichenko D.P. A Method for Diagnosing a Robotic Complex Using Logical Neural Networks Apparatus,2021 International Russian Automation Conference (RusAutoCon), pp. 907-911 DOI: 10.1109/RusAutoCon52004.2021.9537419.

22. Ахо Альфред В., Хопкрофт Джон Э., Ульман Джеффри Д. Структуры данных и алгоритмы. М.: Вильямс, 2000.400 с.

Димитриченко Дмитрий ПетровичА - кандидат технических наук, научный сотрудник отдела Нейроинформатики и машинного обучения, Институт прикладной математики и автоматизации, Кабардино-Балкарская Республика, г. Нальчик, Россия, © СЖСГО 0000-0003-2399-3538.

Vestnik KRAUNC. Fiz.-Mat. Nauki. 2022. vol. 39. no. 2. pp. 119-135. ISSN 2079-6641

INFORMATION AND COMPUTATION TECHNOLOGIES

MSC 68T27 Research Article

Optimization of the structure of variable-valued logical functions when adding new production rules

D. P. Dimitrichenko

Institute of Applied Mathematics and Automation KBSC RAS, 360000, Nalchik, Shortanova st., 89a, Russia E-mail: dimdp@rambler.ru

This paper proposes a theoretical justification and practical implementation in the form of an algorithm for modifying variable-valued unions of functions when adding new production rules to an already formed (within the original subject area) union classifier. The proposed algorithm is based on the application of the method of constructive transformation of variable-valued relationships of classifiers built on the basis of a system of production rules encoded using variable-valued predicates. The properties of changing the structure of production clauses and knowledge development clauses in the process of adding new production rules are studied. Conditions are found under which these clauses are guaranteed to vanish in the connection, or are in a constant form. Taking into account the conditions in the proposed algorithm makes it possible to reduce the number of necessary operations and reduce the computational costs for the required transformations.

Key words: combination of operations, variable-valued predicate, variable-valued logical function, training sample, production rule, mixed classifier, logical neural network.

d DOI: 10.26117/2079-6641-2022-39-2-119-135

Original article submitted: 04.07.2022 Revision submitted: 20.08.2022

For citation. Dimitrichenko D. P. Optimization of the structure of variable-valued logical functions when adding new production rules. Vestnik KRAUNC. Fiz.-mat. nauki. 2022, 39: 2,119-135. d DOI: 10.26117/2079-6641-2022-39-2-119-135

Competing interests. The authors declare that there are no conflicts of interest regarding authorship and publication.

Contribution and Responsibility. All authors contributed to this article. Authors are solely responsible for providing the final version of the article in print. The final version of the manuscript was approved by all authors.

The content is published under the terms of the Creative Commons Attribution 4.0 International License (https://creativecommons.org/licenses/by/4.0/deed.ru)

© Dimitrichenko D.P., 2022

Funding. The work was done without financial support

ISSN 2079-6641

^HMHTpHneHKO n.

References

[1] Haykin S. S. Nejronnye seti: polnyj kurs, 2-e izdanie [Neural networks: a complete course, 2nd edition]. Moscow, Williams Publishing House, 2008, pp. 1103 (In Russian)

[2] Shibzukhov Z.M. Konstruktivnye metody obuchenija nejronnyh setej [Constructive methods for training neural networks]. Moscow, Nauka, 2006, p. 159 (In Russian)

[3] Riazanov V.V., Sen'ko O.V., Zhuravlev Y.I. Mathematical methods for pattern recognition: logic, optimization, algebraic approaches, Proceedings. Fourteenth International Conference on Pattern Recognition, 1998, vol. 6, pp. 831-834, DOI: 10.1109/ICPR.1998.711278.

[4] Uddin M.F., Rizvi S., Razaque A., Proposing Logical Table Constructs for Enhanced Machine Learning Process, in IEEE Access, vol. 6, 2018, pp. 47751-47769 DOI: 10.1109/ACCESS.2018.2866046.

[5] Sathe J. B., Mali M. P. A hybrid Sentiment Classification method using Neural Network and Fuzzy Logic, 2017 11th International Conference on Intelligent Systems and Control (ISCO), 2017, pp. 93-96, DOI: 10.1109/ISC0.2017.7855960

[6] Kamada S., Ichimura T. An Object Detection by using Adaptive Structural Learning of Deep Belief Network, 2019 International Joint Conference on Neural Networks (IJCNN), 2019, pp. 1-8, DOI: 10.1109/IJCNN.2019.8852145

[7] Gao X., Yang T., Peng J. Logic-Enhanced Adaptive Network-Based Fuzzy Classifier for Fall Recognition in Rehabilitation, in IEEE Access, 2020, vol. 8, pp. 57105-57113, DOI: 10.1109/ACCESS.2020.2982049.

[8] Cpalka K. A New Method for Design and Reduction of Neuro-Fuzzy Classification Systems, in IEEE Transactions on Neural Networks, 2009, vol. 20, no 4, pp. 701-714, DOI: 10.1109/TNN.2009.2012425.

[9] Eiamkanitchat N., Theera-Umpon N., Auephanwiriyakul S. A novel neuro-fuzzy method for linguistic feature selection and rule-based classification, 2010 The 2nd International Conference on Computer and Automation Engineering (ICCAE), 2010, pp. 247-252, DOI: 10.1109/ICCAE.2010.5451487.

[10] Efanov D., Osadchy G., Zueva M. Specifics of Error Detection with Modular Sum Codes in Concurrent Error-Detection Circuits Based on Boolean Complement Method, 2021 IEEE East-West Design and Test Symposium (EWDTS), 2021, pp. 1--11, DOI: 10.1109/EWDTS52692.2021.9581036.

[11] Gebreyohannes S., Edmonson W., Esterline A., Homaifar A., Kibret N. Fuzzy classification context for the responsive and formal design process, 2017 Annual IEEE International Systems Conference (SysCon), 2017, pp. 1-8, DOI: 10.1109/SYSCON.2017.7934797.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

[12] Jean-Marc B., Lafitte O. Combining weak classifiers: a logical analysis, 2021 23rd International Symposium on Symbolic and Numeric Algorithms for Scientific Computing (SYNASC), 2021, pp. 178-181, DOI: 10.1109/SYNASC54541.2021.00038.

[13] Lyutikova L. A. Modelirovanie i minimizacija baz znanij v terminah mnogoznachnoj logiki predikatov [Modeling and minimization of knowledge bases in terms of multivalued logic of predicates]. Nalchik. Preprint, 2006, p. 33 (In Russian)

[14] Lyutikova L. A. Using multivalued logic for qualitative data analysis, Journal of Physics: Conference Series, 2021, vol. 2131, no 3, p. 032046.

[15] Lyutikova L.A., Shmatova E.V. Logicheskij analiz korrektirujushhih operacij dlja postroenija kachestvennogo algoritma raspoznavanija [Logical analysis of corrective operations to build a high-quality recognition algorithm], Software products and systems. 2016, no. 1 (113). pp. 108-112. (In Russian)

[16] Dimitrichenko D.P. Ispol'zovanie nejronnyh setej dlja povyshenija jeffektivnosti peremennoznachnyh logicheskih funkcij [Using neural networks to improve the efficiency of variable-valued logic functions], Bulletin of ISTU. no. 10 (105), 2015, pp. 12-16. (In Russian)

[17] Dimitrichenko D. P. Primenenie peremennoznachnyh logicheskih funkcij i nejronnyh setej v sistemah prinjatija reshenij [Application of variable-valued logical functions and neural networks in decision-making systems], Bulletin of KRAUNC. Phys.-Math. Sci. 2016, no. 4-1(16). pp.93-100. (In Russian)

[18] Barsky A.B. Nejronnye seti: raspoznavanie, upravlenie, prinjatie reshenij [Neural networks: recognition, control, decision making]. Moscow, Finance and statistics, 2004, p. 176 (In Russian)

[19] Barsky A.B. Logicheskie nejronnye seti [Logical neural networks]. Internet University of Information Technologies, 2007, p. 352 (In Russian)

[20] Gorbatov V. A. Fundamental'nye osnovy diskretnoj matematiki [Fundamental bases discrete mathematics. Information mathematics]. Internet University of Information Technologies, 2007, p. 352 (In Russian)

[21] Dimitrichenko D. P. A Method for Diagnosing a Robotic Complex Using Logical Neural Networks Apparatus, 2021 International Russian Automation Conference (RusAutoCon), 2021, pp. 907-911 DOI: 10.1109/RusAutoCon52004.2021.9537419.

[22] Aho Al'fred V., Hopkroft Dzhon Je., Ul'man Dzheffri D. Struktury dannyh i algoritmy [Data Structures and Algorithms]. Moscow, Vil'jams, 2000, p. 400 (In Russian)

Dimitrichenko Dmitry Petrovich A - Ph.D. (Tech.), Researcher, Department of Neural Networks and Machine Learning, Institute of Applied Mathematics and Automation, Kabardino-Balkarian Republic, Nalchik, Russia, ORCID 0000-0003-2399-3538.

i Надоели баннеры? Вы всегда можете отключить рекламу.