Научная статья на тему 'Аргументация с применением степеней обоснования в интеллектуальных системах'

Аргументация с применением степеней обоснования в интеллектуальных системах Текст научной статьи по специальности «Математика»

CC BY
399
65
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПЕРЕСМАТРИВАЕМЫЕ РАССУЖДЕНИЯ / АРГУМЕНТАЦИЯ / НАТУРАЛЬНАЯ ДЕДУКЦИЯ / НЕМОНОТОННЫЙ ВЫВОД / СТЕПЕНИ ОБОСНОВАНИЯ / DEFEASIBLE REASONING / ARGUMENTATION / NATURAL DEDUCTION / NON-MONOTONIC REASONING / DEGREES OF JUSTIFICATION

Аннотация научной статьи по математике, автор научной работы — Моросин Олег Леонидович

Приводится краткий обзор подходов к формализации аргументации и рассматриваются возможности использования степеней обоснования в пересматриваемых рассуждениях. Степени обоснования позволяют эффективнее моделировать различные задачи аргументации, и позволяют не только отвечать на вопросы о правдоподобности того или иного утверждения, но и давать ей числовую оценку. В качестве формальной системы аргументации используется теория пересматриваемых рассуждений. В отличии от классической логики, пересматриваемые рассуждения позволяют делать выводы на противоречивых и неполных наборах утверждений. Все выводы не считаются достоверными и могут быть пересмотрены на более поздних этапах рассуждений при поступлении новых знаний (или даже при новых выводах из существующих знаний). В заключении статьи приводится пример решения задачи, не разрешимой с точки зрения классической логики.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARGUMENTATION WITH DEGREES OF JUSTIFICATION IN INTELLIGENT SYSTEMS

This paper provides a brief overview of approaches to the formalization of argumentation systems. Opportunities of application of justification degrees are also observed. Justification degrees allow us to solve various argumentation problems that need numerical estimation of an answer. In contrast to classical logic, defeasible reasoning allows us to draw conclusions on the contradictory and incomplete sets of propositions. All conclusions are not considered as reliable and may be revised at a later stage of reasoning when new knowledge (or even new conclusions from existing knowledge) appears. In addition, it is given an example of a task, which is not solvable in classical logics terms.

Текст научной работы на тему «Аргументация с применением степеней обоснования в интеллектуальных системах»

12. Kureychik V.V., Rodzin SI., Rodzina L.S. Mobilnoe obuchenie: kontekstnaya adaptatsiya i stsenamyy podkhod [Mobile learning: context and adaptation of the scenario approach], Otkrytoe obrazovanie [Open Education], 2013, No. 4, pp. 75-82.

13. Dobrosotskaya I.V., Krakht L.N. Sistema podderzhki prinyatiya resheniya pri formirovanii individualnoy traektorii obucheniya [The system of support of making decisions in forming individual learning path] Vestnik Voronezhskogo gosudarstvennogo tekhnicheskogo universiteta [Vestnik of Voronezh State Technical University], 2009, Vol. 5, No. 9, pp. 197-200.

14. Kureychik V.M., Pisarenko V.I. Sinergeticheskiy podkhod v pedagogicheskom proektirovanii obrazovatelnoy sredy vuza [Synergetic approach in pedagogical designing the educational environment of the University], Otkrihtoe obrazovanie [Open Education], 2014, No. 3, pp. 55-62.

15. Markov V.V. Metodika izvlecheniya i otsenki znaniy na osnove nechetkoy modeli eksperta [The method of extraction and assessment of knowledge on the basis of fuzzy logic expert], Izvestiya YuFU. Tekhnicheskie nauki [Izvestiya SFedU. Engineering Sciences], 2011. No. 7 (120), pp. 137-141.

Статью рекомендовал к опубликованию д.т.н., профессор М.М. Ошхунов.

Кравченко Юрий Алексеевич - Южный федеральный университет; e-mail: krav-jura@yandex.ru; 347928, г. Таганрог, пер. Некрасовский, 44; тел.: 88634371651; кафедра систем автоматизированного проектирования; доцент.

Kravchenko Yury Alekseevich - Southern Federal University; e-mail: krav-jura@yandex.ru; 44, Nekrasovskiy lane, Taganrog, 347928, Russia; phone: +78634371651; the department of computer aided design; associate professor.

УДК 004.832.3

О.Л. Моросин

АРГУМЕНТАЦИЯ С ПРИМЕНЕНИЕМ СТЕПЕНЕЙ ОБОСНОВАНИЯ В ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМАХ*

Приводится краткий обзор подходов к формализации аргументации и рассматриваются возможности использования степеней обоснования в пересматриваемых рассуждениях. Степени обоснования позволяют эффективнее моделировать различные задачи аргументации, и позволяют не только отвечать на вопросы о правдоподобности того или иного утверждения, но и давать ей числовую оценку. В качестве формальной системы аргументации используется теория пересматриваемых рассуждений. В отличии от классической логики, пересматриваемые рассуждения позволяют делать выводы на противоречивых и неполных наборах утверждений. Все выводы не считаются достоверными и могут быть пересмотрены на более поздних этапах рассуждений при поступлении новых знаний (или даже при новых выводах из существующих знаний). В заключении статьи приводится пример решения задачи, не разрешимой с точки зрения классической логики.

Пересматриваемые рассуждения; аргументация; натуральная дедукция; немонотонный вывод; степени обоснования.

O.L. Morosin

ARGUMENTATION WITH DEGREES OF JUSTIFICATION IN INTELLIGENT

SYSTEMS

This paper provides a brief overview of approaches to the formalization of argumentation systems. Opportunities of application of justification degrees are also observed. Justification degrees allow us to solve various argumentation problems that need numerical estimation of an answer. In contrast to classical logic, defeasible reasoning allows us to draw conclusions on the

* Работа выполнена при финансовой поддержке РФФИ грант №11-07-00038а. 142

contradictory and incomplete sets of propositions. All conclusions are not considered as reliable and may be revised at a later stage of reasoning when new knowledge (or even new conclusions from existing knowledge) appears. In addition, it is given an example of a task, which is not solvable in classical logics terms.

Defeasible reasoning; argumentation; natural deduction; non-monotonic reasoning; degrees of justification.

Введение. Очень часто база знаний, используемая в системах поддержки принятия решений содержит противоречивую информацию. Классические методы логического вывода не применимы для таких баз знаний. Одним из способов обнаружения и разрешения внутренних противоречий является применение аргументации. Под аргументацией обычно понимают процесс построения предположений, относительно некоторой анализируемой проблемы. Как правило этот процесс включает в себя обнаружение конфликтов и поиск путей их решения. В отличии от классической логики, аргументация предполагает, что могут быть доводы как "за", так и "против" некого предположения. Введение степеней обоснования позволяет оперировать не только терминами "за" и "против", но и давать числовую оценку аргументам и контраргументам. Для подтверждения некоторого предположения, необходимо доказать, что существует больше доводов "за" и степень их обоснования выше, чем у доводов "против". Для целостности описания разрабатываемой модели, в разделе 1 будут коротко приведены основные определения и идеи, используемые в реализуемой системе аргументации, а обзор теоретических основ применения степеней обоснования будет приведен в разделе 2.

1.Теоретические основы аргументации. Необходимость теории аргументации возникает из-за неполноты и недостоверности данных и знаний. Обычно, говоря об аргументации, выделяют три типа информации [1].

1) Объективная информация - информация, полученная из надежных источников, или которая может быть напрямую измерена или подтверждена. Например, утверждение "В центральной части России весной продолжительность светового дня увеличивается" является объективной информацией, подтверждаемое наукой и нашими наблюдениями. Такая информация, как правило, используется как неоспоримые аргументы.

2) Субъективная информация - информация полученная из менее надежных источников. Это могут быть некоторые предположения, суждения. Часто формулируются с помощью фраз "как правило", "обычно", "скорее всего". Такая информация и служит "источником" противоречий и конфликтов.

3) Гипотетическая информация. Она необходима для построения гипотез. Очень часто она является ложной информацией, и, более того, даже может быть заранее неверной. Однако построенные аргументы для ее опровержения могут быть полезны для других рассуждений. Например, маловероятно, что уровень мирового океана поднимется на метр в течении следующих 10 лет. Однако такое предположение может быть полезным при планировании застройки прибрежных территорий, с учетом возможности их затопления. Часто при недостатке информации строятся те или иные гипотезы, и производится попытка доказать или опровергнуть их.

Все приведенные типы информации, могут быть использованы для аргументации. Объективная информация служит фактами и исходными посылками, субъективная информация является источником пересматриваемых выводов, а гипотетическая информация - помогает строить предположения.

Существуют несколько формализаций теории аргументации. Например, системы абстрактной аргументации, предложенные Дангом (Dung P.M.) [2], аргументационная система Лина и Шоэма (Lin F., Shoham Y.) [3], система Вресвийка (G.A.W. Vreswijk) [4], система аргументации Поллока (John L. Pollock) [5] и нектоторые другие.

Все эти подходы можно условно разделить на три типа [1].

1. Абстрактные системы, предложенные Дангом и позднее развиваемые Праккеном и Сартором. В этих системах аргументы представляются как элементы множества, в котором задано бинарное отношение "атака". В этих системах авторы полностью абстрагируются от внутренней структуры аргументов и природы множества аргументов. В таких системах отсутствует механизм получения новых аргументов, и задача сводится к поиску неконфликтующих аргументов на заданном множестве аргументов.

2. Согласованные системы(coherence systems). В таких системах основной стратегией обработки противоречий в базе знаний является выделение согласованных подмножеств из всего объема информации, имеющейся в базе знаний. Обычно такие системы базируются на классической логике, хотя возможны применения и модальных, временных или дескриптивных логик.

3. Системы пересматриваемых рассуждений. В таких системах обычно происходит введение пересматриваемого следствия в качестве элемента языка. То есть, кроме импликации в обычном смысле вводится ее пересматриваемый аналог. Аргументы в таких системах представляются как последовательность рассуждений, ведущих к заключению, каждый шаг которых может подвергнуться поражению.

В данной работе будет подробно рассмотрена системы аргументации, основанная на пересматриваемых рассуждениях, предложенных Джоном Поллоком [5].

1.1. Пересматриваемые рассуждения. Прежде чем переходить к изложению основного материала, дадим необходимые определения и введем обозначения.

Определение 1. Аргумент - пара, состоящая из множества посылок и заключения [1]. Записывать такие пары будем в следующем виде p/X, где p заключение, а X множество посылок.

Например, аргумент (p — q)/{~A,B} означает, что из посылок ~A, B следует p — q. На всех иллюстрациях будем обозначать аргументы овалами. Для аргументов с пустым множеством посылок (такие аргументы называют фактами), будем писать только заключение. Например, фактом является утверждение, что Земля вращается вокруг Солнца.

Определение 2. Интерес - аргумент, который мы хотим обосновать в ходе монотонного и/или пересматриваемого вывода. На графе вывода будем обозначать интересы прямоугольниками.

Определение 3. Граф вывода - граф, показывающий взаимосвязи между аргументами и интересами. Он отображает, из каких аргументов порождается новый аргумент. Аналогично в нем показывается, из каких интересов получаются новые интересы. А также граф вывода отображает конфликты между аргументами при пересматриваемых рассуждениях.

Определение 4. Дедуктивное следствие - простые, дедуктивные правила вывода, означающие, что если истинно P, то истинно и Q. Такие правила не являются пересматриваемыми. Записывать такие правила будем так: P^Q. На графе вывода будем отображать их обыкновенными стрелками (см. аргументы P и Q на рис. 1).

Определение 5. Пересматриваемое следствие. Это пересматриваемые правила вывода, которые могут быть получены, например, в результате индукции или абдукции. В данной работе нас не интересует конкретный механизм получения таких выводов, поэтому такие правила подаются декларативным образом на вход программы. Аргументы, полученные в результате таких выводов, будем называть пересматриваемыми. Записывать такие правила будем так: M\^N На графе вывода такие связи будем отображать пунктирными стрелками, а пересматриваемые аргументы - двойным овалом (см. аргументы M и N на рис. 1).

Понятие конфликта - основа системы аргументации. Будем рассматривать два типа конфликтов - опровержение и подрыв [6].

Определение 6. Опровержение (rebutting) - ситуация, когда некоторые аргументы опровергают заключения других аргументов. Иными словами аргумент А 1 = р1/Х1 опровергает аргумент А 2 = р2 /Х2, когда заключение р1 опровергает заключение р 2. Опровержение является симметричной формой атаки.

Определение 7. Подрыв (undercutting)- несимметричная форма атаки, когда один аргумент отрицает связь между посылками и заключением другого аргумента.

Определение 8. Подрывающие доводы. Это аргументы, поражающие связь между двумя другими аргументами, соединенными пересматриваемым следствием. Например, имеется аргумент E, подрывающий пересматриваемую связь С \ ^D между аргументами C и D. Такие правила подрыва будем записывать в виде Е^ ( С @ D) . На графе вывода подрывающие аргументы и пораженные ими аргументы будем соединять жирной пунктирной стрелкой. Пораженные аргументы будем помечать темно-серым цветом (см. аргумент D и на рис. 1).

Рис. 1. Граф вывода

На каждом шаге работы системы определение статусов каждого аргумента (поражается он или нет) играет ключевую роль. Введем необходимые для определения статусов поражения определения.

Аргумент называется начальным, если множество его предков пусто, то есть он задан изначально.

Базисом узла будем называть множество узлов, участвовавших в выводе этого узла.

Введём функцию, определяющую статус аргументов [5].

Функция с назначает временный статус аргументам, дающая значения «пораженный» или «непораженный» подмножеству узлов графа вывода таким образом, что:

♦ с назначает статус «непораженный» всем начальным узлам.

♦ с назначает статус «непораженный» узлу п тогда и только тогда, когда с присваивает статус «непораженный» всем узлам из базиса узла п и с присваивает статус «пораженный» всем узлам, поражающим узел п.

♦ с назначает статус «пораженный» узлу п тогда и только тогда, когда либо некоторым узлам из базиса п присвоен статус «пораженный», либо некоторым поражающим узел п узлам присвоен статус «непораженный».

♦ с назначает окончательный статус аргумента п, если с назначает временный статус и с не участвует в назначении статусов другим аргументам, связанным с п.

Узел является непораженным, если все с назначают ему статус «непораженный», иначе он пораженный.

Заключение обосновано в данный момент рассуждений тогда и только тогда, когда его поддерживают непораженные аргументы. Однако дальнейшие рассуждения могут выявить еще какие-либо значимые аргументы, которые меняют статус заключения на необоснованное или наоборот. При наличие ряда посылок и масси-

ва выводов и правил вывода можно сказать, что высказывание подтверждено тогда и только тогда, когда граф вывода, построенный на множестве всех возможных аргументов, содержит непораженный узел, соответствующий заключению. Подтвержденные высказывания являются «окончательно обоснованными» заключениями, которые система и стремится определить.

1.2. Система монотонного вывода. Без аппарата монотонного вывода, класс задач, решаемых системой, очень сильно сужается. Система монотонного вывода позволяет нам делать новые логические выводы из уже имеющихся выводов. Система аргументации определяет статусы сделанных выводов, то есть подтверждает сделанные выводы, или напротив опровергает их. Данные системы работают над одним общим объектом - графом вывода, который отображает взаимосвязь полученных выводов и интересов, а также отображает их статусы.

Монотонный вывод реализован на основе теории натуральной дедукции, предложенной и описанной Джоном Поллоком [7]. Она основывается на двух положениях:

♦ вычисления производятся в двух направлениях: прямом и обратном;

♦ система оперирует аргументами и интересами.

Изначально очередь вывода состоит из посылок и интересов-выражений, которые мы хотим вывести.

Далее происходит двунаправленный поиск. В одном направлении происходит порождение новых аргументов на основе уже имеющихся. Такой поиск будем называть прямым. В другом направлении из множества интересов порождаются новые интересы. Такой поиск будем называть обратным.

Правила прямого вывода будем записывать в следующем виде

{к - ■ ■ ■-/«} => {д !-■ ■ -,д к) ,

где /, i=1,...n - формулы посылки, содержащие схематические переменные, д¿, i=1,...k - заключения.

Под схематическими переменными будем понимать любую правильно построенную формулу.

Аналогично правила обратного вывода записываются в виде { д 1, ■.,,дк} <=

{/1...../п) , .

Однако обратные правила могут иметь дополнительные посылки. Объясним это на следующем примере. Правило ц <= (р —ц) порождает дополнительную посылку p. Это означает, что если имеется интерес (р — ц ) /X, то строится новый аргумент p/{p} и новый интерес ц/X и {р }. Если в дальнейшем получается заключение q/Y , где У £ X и {р } система сделает вывод (р — ц)/X.

При рассуждениях в обратном направлении создаются новые интересы. При этом образуются связи между интересами, т.е. устанавливаются связи типа "предок -наследник". Для подтверждения интереса необходимо подтверждение всех интересов, которые он порождает. Некоторое заключение подтверждает интерес, если:

1) имеется аргумент, заключение которого унифицируемо с интересом;

2) множество посылок аргумента является подмножеством множества посылок интереса (с учетом применения к ним унификатора).

Например, если задан интерес p&q, то в процессе вывода он породит два новых интереса - интерес p и интерес q. Для подтверждения исходного интереса p&q необходимо подтверждение всех порожденных им интересов.

В реализуемой системе используется набор правил прямого и обратного вывода, приведенный в табл. 1. Этот набор правил был предложен Поллоком [8].

Таблица 1

Правила прямого и обратного вывода

1) Упрощение (р & ч) ^ {р, ч} 1) Упрощение {р, ч} ^ (р & ч)

2)Устранение эквивалентности (р = ч) ^ (р ^ ч), (ч ^ р) 2)Устранение эквивалентности {(р^ ч),(ч ^ р)}^(р = ч)

3) Устранение двойного отрицания — р ^^ р 3) Устранение двойного отрицания р <=— р

4) Модус Поненс {р,(р —> ч)} => ч 4) Преобразование импликации ч ^ (р ^ ч) ,с дополнительной посылкой p.

5)Модус Толленс {~ч,(р ^ ч)} ^ —р 5) Преобразование дизъюнкции (—р ^ ч) ^ (р V 4)

6) Преобразование дизъюнкции (р ^ ч) ^ (—р ^ Ч) 6) Де Морган (—р V —ч) ^~(р & ч)

7) Де Морган ~(р & ч) ^ (—р ^ — ч) 7) Отрицание дизъюнкции {—р , —ч} ^~(р V ч)

8) Отрицание дизъюнкции ~(р ^ ч) ^ (—р & —ч) 8) Отрицание импликации {р , —ч} ^~ (р ^ ч)

9) Отрицание импликации ~(р ^ ч) ^ (р & —ч)

В левой колонке приводятся правила прямого вывода, в левой - обратного. Во всех правилах p и q - схематические переменные.

Для того, чтобы не появлялось двойных отрицаний "внутри" аргументов, вводится операция —1. В приведенных правилах, если схематическая переменная не начинается с отрицания, то — p означает ~p, где ~p - это отрицание в обычном смысле.

В противном случае, если схематическая переменная начинается с отрицания, то есть p = ~q, то — p означает q.

Отсутствие поддержки возможности обработки логики предикатов первого порядка (ЛППП) значительно сужала возможности системы пересматриваемых рассуждений. Наибольшее количество изменений потребовалось внести в подсистему монотонного логического вывода.

Для работы с ЛППП дополнительно вводятся следующие правила прямого вывода [8]:

1) отрицание квантора существования ~ (З.)р ^ (V.*) ~ р;

2) отрицание квантора общности ~ (V.)р ^ (З.) ~ р ;

3) преобразование квантора общности (Ух)р = бЬ(р,х/х1 ) , где sb(p,x/x1) -результат замены в формуле p переменной х на свободную переменную х1 с уникальным именем;

4) преобразование квантора существования (прямая сколемизация) (3 х) р = б Ь (р ,х,/ а(у1,..,,уп)) , где б Ь (р , х, / а(з^ ,. . .,уп)) - результат замены x на сколемов-скую функцию, где у1у у2,...,у„ - свободные переменные в p, полученные по правилу 3. Для п=0 сколемовская функция просто является константой.

Таким образом, при прямом выводе, сколемизация проводиться аналогично тому, как это происходит при резолюции.

Однако для правил обратного вывода все несколько сложнее.

Идея заключается в том, чтобы интересы подтверждались путем их унификации с аргументами. Если в интересах обрабатывать кванторы таким же образом, как при прямом выводе, то будут получаться абсолютно неверные рассуждения.

Проиллюстрируем это на простом примере. Предположим, что имеется посылка F(a), интересы УхГ(х) и (Зх)Е(х). Если в интересе УхГ(х) убрать квантор общности и заменить x на свободную переменную x1 получим интерес F(x1). Этот интерес унифицируется с аргументом F(a) и получается, что интерес ^хЕ(х) выводим из посылки F(a), что является в корне неверным выводом. Аналогично, если к интересу (Зх)Е(х), применить сколемизацию, получим интерес F(sc_x), где $с_х- 0-арная сколемовская функция, т.е. конста. Интерес F(sc_x) не унифицируем с F(a), а это означает, что интерес (Зх)Е(х) не подтверждается аргументом F(a), что также в корне неверно.

Поэтому при обратном выводе необходимо использовать обратную сколе-мизацию(гвуег8в skolemization - ЯБК) [8], суть которой заключается в обратной трактовке кванторов общности и существования. Это означает применение операции отрицания к сколемовской форме для отрицания формулы интереса. Предположим, имеется интерес Б = ((А1 х1) СА2 х2), ... , хп))(Р(х1,... ,хп)), где ... п - кванторы общности или существования, тогда обратная сколемизация(КЖ) для этого интереса будет иметь следующий вид:

= ~БК{~(((А1 х1) ("12 х2), ...,("1п хп)) Р(х1,..,хп))}, где БК(р) - прямая сколе-

мизация выражения p. Например, обратная сколемизациядля интереса (Зх) (V у) F(x,y) будет следующей: RSK((Зх) (Vу) F(x,y)) = ~БК(~ (Зх) (Vу) F(x,y)) =

(Ух) (Зу) ~F(x,y))=~(~F(x1,sc_y(x1))=F(x1,sc_y(x1)). Итак, для интересов мы меняем значения кванторов общности и существования на обратные.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Введем для этого следующие правила обратного вывода:

5) преобразование квантора существования 5 Ь (р,х,/х1)<=(3 х)р, где sb(p,x/x. 1) - результат замены в формуле p переменной x на свободную переменную x1 с уникальным именем;

6) преобразование квантора общности 5 Ь (р ,х,/ а (у ^ ■ . ,,уп) ) <= (V х) р , где 5 Ь (р , х,/ а (у1, ■.., уп)) - результат замены в р переменной x на сколемовскую функцию а (у1, ■ ■ ■,уп) , где у],у2, ...,у„ - свободные переменные в р, полученные по правилу 5.

2. Степени обоснования в пересматриваемых рассуждениях. Прежде чем переходить к способам и алгоритмам вычисления степеней обоснования, рассмотрим как они могут задаваться и откуда получены. В данной статье для задания степеней обоснования используется числовая шкала [0, 1], где 0 соответствует пораженному аргументу, 1 наиболее обоснованному аргументу. Степени обоснования могут быть двух типов:

1) степени обоснования исходных аргументов;

2) степени обоснования пересматриваемых правил.

Первый тип степеней обоснования присваивается каждому исходному аргументу, и представляет собой некою оценку достоверности источника, из которого получен данный аргумент. Например, по телевизору сказали, что вероятность осадков 70 %. Соответственно мы можем построить аргумент А1:Завтра(дождь) со степенью обоснования 0.7. Степени обоснования будем записывать функцией ^в(Л). То есть для приведенного примера Зш(Завтра(дождь))=0.7. Конкретные механизмы получения степеней обоснования зависят прежде всего от предметной области. Например, это могут быть статистические данные (в 90 % этот источник дает верные данные) или экспертные оценки (вероятность роста акций 60 %).

Второй тип степеней обоснования связан с пересматриваемыми правилами. Как уже говорилось выше, часто пересматриваемые правила появляются в результате формализации знаний эксперта вида "Если A, то чаще всего B". Такие правила так же могут нести в себе некоторую числовую оценку.

Например, применение анальгина в 85 % приводит к снижению температуры тела пациента (формально Я1: (V х) прием(анальгин,х)\=> пониже-ниетемпературы(х)).

Одновременное использование обоих типов степеней обоснования является довольно сложной задачей и требует дополнительных исследований. Ограничимся рассмотрением степеней обоснования первого типа - для изначально заданных аргументов.

Итак, нам необходимо задать функцию Jus(A) для вычисления любого из аргументов в графе вывода. Будем считать, что для изначальных аргументов эта величина является определенной. На значение этой функции будут оказывать влияние два фактора - дерево вывода аргумента (т.е. степень обоснования аргументов, которые использовались в выводе данного аргумента) и конфликты с другими аргументами. Для удобства рассмотрим эти два фактора раздельно: Jusanc(A) - унаследованная степень обоснования и Juscon(A) - на сколько конфликт подрывает обоснование аргумента.

Jusanc(A)=min({Jus(A1), Jus(A2)... Jus(An)}), (1)

где А1, А2 ... Ап - аргументы, участвовавшие в выводе аргумента А.

Формулу (1) называют принципом слабейшей связи [9]. Надо отметить, что это не единственных подход к вычислению степени обоснования, в ряде работ применяется байесовский подход (см. например [10]).

Отметим, что из формулы (1) следует, что, если производить вычисление степеней обоснования рекурсивно, начиная от исходно заданных аргументов, то можно искать минимум, не из всех аргументов в базисе, а только на предыдущем шаге. Таким образом, если у аргумента один предок, то его унаследованная степень обоснования будет равна степени обоснования его предка.

Если при вычислении Jusanc ищутся наиболее слабые аргументы, то при определении того, насколько конфликт уменьшает обоснования, используется наиболее сильные аргументы. Пусть Асопа - множество аргументов, вступающих в конфликт с А, тогда

/М5соп(Л) =

ГМахСУмв^СЛсоп/гД/ив^СЛсоп/^),... ,/и«апс(/1соп/7п)}),\Асоп^\ > 0

1 0 , в п р о т и в н о м случ а е ( )

В формуле (2) используется Jusanc, для того чтобы верно обрабатывать случаи, когда между аргументами есть конфликт типа опровержение.

Итак, окончательно:

1ил(А) = - ¡и5ст(А),}и8апс(А) > ¡изс<т(А)

( ) 1 0 , в п р от и в н о м сл уч ае ( )

В заключение, приведем пример решения задачи, содержащей конфликты.

Пример работы системы аргументации

Имеется следующий набор утверждений:

1. Если в стране недавно прошли выборы, то политическая ситуация нестабильна.

2. Если политическая ситуация нестабильна, то возможен переворот.

3. При перевороте кредитные риски максимальны.

4. Если страна экспортирует нефть, то у нее крепкая валюта.

5. В странах с крепкой валютой кредитные риски минимальны.

6. Если в результате выборов большинство голосов набрала правящая партия, то с вероятностью 75 % политическая ситуация в стране стабильная.

7. В России недавно прошли выборы.

8. Правящая партия набрала 63 % голосов.

9. Россия экспортирует нефть.

Запишем условия задачи формально на языке логики предикатов первого порядка.

R1)(Vx) Выборы(х, недавно)\=>(Политическая_ситуация(х, не стабильна))

В2)(Ух)Политтеская_ситуация(х,не_стабтьна) \ =>(Переворот(х, возможен))

R3)(Vx) Переворот(х, возможен)\=>(Кредитные_риски(х))

R4)(V x) Экспортирует_нефть(х)\=>(Крепкая_валюта(х))

R5) (Vx) Крепкая_валюта(х)\=>(~Кредитные_риски(х))

А1) Выборы(Россия,недавно) , justifiacation: 1

А2) Большинство(Россия, правящая партия), justifiacation: 0.63

А3) Экспортирует_нефть(Россия), justifiacation: 1

A4) (V x) (Выборы(х, недавно)&Большинство(х, правящая_партия) — ~Политическая_ситуация(х, не_стабильна)), justifiacation: 0.75 Рассмотрим решение данной задачи поэтапно.

1) Из аргумента А1: Выборы(Россия, недавно) и правил вывода R1, R2, R3 получаются пересматриваемые аргументы А6,А7 и А8. На данном этапе у всех у них сохраняется степень обоснования аргумента А1. Jus(A6)= Jus(A7)= Jus(A8)= Jus(A1)=1.

2) Из аргумента A3: Экспортирует_нефть(Россия) и правил вывода R4 и R5 получается пересматриваемый аргумент A10: ~Кредитные_риски(Россия)(то есть кредитных рисков нет). Jus(A 10)=1.

3) Аргументы А8 и А10 вступают в конфликт типа опровержение. Jus(A8)= Jusanc(A8)-Jusanc(A10)=0. Аналогично Jus(A10)=0.

4) Из интереса In5 применяя правила обратного вывода, получаем интерес In12: ~ Кредитные_риски(_x0). Этот интерес унифицируем с аргументом A10: ~Кредитные_риски(Россия). Поэтому создается копия интереса In13: ~Кредитные_риски(Россия). Из аргумента A4 получается аргумент A11. Из аргумента А11 получается аргумент А14. Jus(A14)=Jus(A11)=Jus(A4)=0.75.

5) Аргумент A15 получается с помощью применения Modus Ponens к аргументам А1 и А14. Jus(A15)=min(Jus(A14),Jus(A(1))=0.75.

6) Аргумент A16 получается с помощью применения Modus Ponens к аргументам А2 и А15. Jus(A16)=min(Jus(A15),Jus(A(2))=0.63.

7) Аргумент A16 вступает в конфликт с аргументом A6. Jus(A6)= Jusanc(A6)-jcon(A6)=1-0.63=0.37.

8) Аргумент А7 так же получает Jus(A7)=0.37. Jusanc(A8)=Jus(A7)=0.37

9) Теперь у конфликтующих аргументов A8 и A10 становятся разные степени обоснования. По формуле (3) Jus(A8)=0; Jus(A10)= Jusanc(A10)-Jusanc(A8)=0.63.

Наконец, аргумент A10: ~Кредитные_риски(Россия) остается непораженным со степенью уверенности 0.63 и конфликт разрешается - кредитные риски в России минимальны.

Рис. 2. Пример работы системы аргументации

Заключение. Конфликты в базах знаний являются серьезной проблемой при построении любых интеллектуальных систем. Поиск, анализ и, возможно, разрешение этих конфликтов - важная и интересная задача. В данной статье был рассмотрен один из подходов к данной проблеме - использование аргументации, а именно теории пересматриваемых рассуждений. Были рассмотрены теоретические основы пересматриваемых рассуждений и дан обзор системы, основанной на них. Кроме того, применение механизма степеней обоснования позволило решить важную задачу - давать не только качественные оценки ("поражен" или "не поражен"), но и количественные. Разработанная программная система справилась со многими задачами, не решаемыми с точки зрения классической логики. Она была протестирована и отлажена на многих тестовых задачах из книги Врейсвика "Interpolation of Benchmark Problems in Defeasible Reasoning" [11].

БИБЛИОГРАФИЧЕСКИМ СПИСОК

1. Philippe Besnard and Anthony Hunter. Elements of argumentation. - Cambridge: MIT press, 2008. - 298 p.

2. Bondarenko A., Dung P.M., Kowalski R.A., Toni F. An abstract argumentation-theoretic framework for defeasible reasoning // Ibid. - 1997. - Vol. 93(1-2). - P. 63-101.

3. Lin F., Shoham Y. Argument systems. A uniform basis for nonmonotonic reasoning // Proc. Of the First Int. Conf. on Principles of Knoledge Representation and Reasoning. San Mateo, CA: Morgan Kaufmann Publishers Inc. - 1989. - P. 245-355.

4. Vreeswijk G.A.W. Abstract argumentation systems // Artificial Intelligence. - 1997. - Vol. 90.

- P. 225-279.

5. John L. Pollock. How to Reason Defeasibly //Artificial Intelligence. - 1992. - № 57. - P. 1-42.

6. Вагин В.Н., Головина Е.Ю., Загорянская А.А., Фомина М.В. Достоверный и правдоподобный вывод в интеллектуальных системах / Под ред. В.Н. Вагина, Д.А. Поспелова.

- 2-е издание дополненное и исправленное. - М.: Физматлит, 2008. - 712 с.

7. John L. Pollock. Defeasible Reasoning. Reasoning: Studies of Human Inference and its Foundations, ed. Jonathan Adler and Lance Rips, Cambridge University Press, 2006. - P. 31.

8. John L. Pollock. Natural Deduction. Technical Report, Department of Philosophy, University of Arizona, Tucson, 1996. - 35 p.

9. John L. Pollock. Defeasible reasoning with variable degrees of justification // Artificial Intelligence. - 2001. - Vol. 133. - P. 233-282.

10. Haenni R., Kohlas J., Lehmann N. Probabilistic Argumentation Systems, Handbook of Defeasible Reasoning and Uncertainty Management Systems, Dordrecht: Vol. 5: Algorithms for Uncertainty and Defeasible Reasoning, Kluwer. - 1999. - P. 221-287.

11. Gerard A.W. Vreeswijk. Interpolation of Benchmark Problems in Defeasible Reasoning // WOCFAI. - 1995. - P. 453-468.

REFERENCES

1. Philippe Besnard and Anthony Hunter. Elements of argumentation. Cambridge: MIT press, 2008, 298 p.

2. Bondarenko A., Dung P.M., Kowalski R.A., Toni F. An abstract argumentation-theoretic framework for defeasible reasoning, Ibid, 1997, Vol. 93(1-2), pp. 63-101.

3. Lin F., Shoham Y. Argument systems. A uniform basis for nonmonotonic reasoning, Proc. Of the First Int. Conf. on Principles of Knoledge Representation and Reasoning. San Mateo, CA: Morgan Kaufmann Publishers Inc, 1989, pp. 245-355.

4. Vreeswijk G.A.W. Abstract argumentation systems, Artificial Intelligence, 1997, Vol. 90, pp. 225-279.

5. John L. Pollock. How to Reason Defeasibly, Artificial Intelligence, 1992, No. 57, pp. 1-42.

6. Vagin V.N., Golovina E.Yu., Zagoryanskaya A.A., Fomina M.V. Dostovernyy i pravdopo-dobnyy vyvod v intellektualnykh sistemakh [Reliable and plausible conclusion in intelligent systems]. 2-e izdanie dopolnennoe i ispravlennoe. Moscow: Fizmatlit, 2008, 712 p.

7. John L. Pollock. Defeasible Reasoning. Reasoning: Studies of Human Inference and its Foundations, ed. Jonathan Adler and Lance Rips, Cambridge University Press, 2006, pp. 31.

8. John L. Pollock. Natural Deduction. Technical Report, Department of Philosophy, University of Arizona, Tucson, 1996, 35 p.

9. John L. Pollock. Defeasible reasoning with variable degrees of justification, Artificial Intelligence, 2001, Vol. 133, pp. 233-282.

10. Haenni R., Kohlas J., Lehmann N. Probabilistic Argumentation Systems, Handbook of Defeasible Reasoning and Uncertainty Management Systems, Dordrecht: Vol. 5: Algorithms for Uncertainty and Defeasible Reasoning, Kluwer. 1999, pp. 221-287.

11. Gerard A.W. Vreeswijk. Interpolation of Benchmark Problems in Defeasible Reasoning, Wocfai, 1995, pp. 453-468.

Статью рекомендовал к опубликованию д.т.н., профессор В.М. Курейчик.

Моросин Олег Леонидович - ФБГОУ ВПО «НИУ МЭИ»; e-mail: omorsik@gmail.com; 111250,

Москва, ул. Красноказарменная, 14; тел.: +79261158823; кафедра ПМ; аспират; м.н.с.

Morosin Oleg Leonidovich - FBGOU VPO "NIU MPEI"; e-mail: omorsik@gmail.com; 14,

Krasnokazarmennaya street, Moscow, 111250, Russia; phone: +79261158823; postgraduate student.

УДК 621.3.06

В.А. Литвиненко, С.А. Ховансков, Д.Ю. Максюта АДАПТИВНЫЙ АЛГОРИТМ ПОСТРОЕНИЯ ДЕРЕВА ШТЕЙНЕРА*

Предлагается адаптивный алгоритм построения дерева Штейнера на основе построения кратчайшего связывающего дерева Прима и его ортогонализации с использованием решетки Ханана. Для выбора ортогональной реализации ребер дерева Прима используется генетический алгоритм. В разработанном адаптивном алгоритме построения дерева Штейнера используется параметрическая адаптация, которая заключается в выборе значения параметра

*

Работа выполнена при частичной поддержке РФФИ (проект № 14-01-00665). 152

i Надоели баннеры? Вы всегда можете отключить рекламу.