Научная статья на тему 'Об одной модели корректировки имеющихся знаний на основе принимаемых решений'

Об одной модели корректировки имеющихся знаний на основе принимаемых решений Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
73
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Об одной модели корректировки имеющихся знаний на основе принимаемых решений»

ОБ ОДНОЙ МОДЕЛИ КОРРЕКТИРОВКИ ИМЕЮЩИХСЯ ЗНАНИЙ НА ОСНОВЕ ПРИНИМАЕМЫХ РЕШЕНИЙ

Д.В. Сикулер, к.т.н. (Санкт-Петербургский государственный университет водных коммуникаций)

Данная статья посвящена актуальнейшей проблеме, возникающей при изучении и моделировании интеллектуальной деятельности, - проблеме учета принимаемых решений и корректировки на их основе имеющихся знаний с целью повышения эффективности работы интеллектуальной системы. Частично решить указанную проблему в контексте одной из ключевых задач искусственного интеллекта позволит задача распознавания.

Рассмотрим задачу распознавания группы объектов, то есть случай, когда множество распознаваемых объектов U состоит более чем из одного элемента: U={u1>^,uqu}> qu>1. Пусть эта задача решается с помощью некоторого метода распознавания M. Тогда можно предложить следующую процедуру модификации решающего правила. После распознавания каждого объекта ut, i=1,qu-1, будем добавлять его, при условии что объект классифицирован с некоторой заданной степенью уверенности в правильности полученного результата, к обучающей выборке T и выполнять заново процедуру обучения, если таковая предусматривается алгоритмом метода. Таким образом, каждый распознанный объект, так или иначе, может изменять решающее правило. Формально это означает, что вместо одного решающего правила am(s) теперь будет использоваться последовательность решающих функций a(t^)(s ), a'^is ),a(mu>(s ) , где

ат'(я ), 1 = 1>9и - решающая функция, используемая для распознавания ¿-го объекта группы и полученная на обучающей выборке Т1>=Ти{и1,..., и}, ]<1-1), Т(1=Т, ик, к=- уже распознанные объекты, степень доверия к полученному результату для которых не меньше заданного порога. Эти правила неравноценны с точки зрения качества (точности) обучающих выборок, на основании которых они получены. Данное обстоятельство связано с тем, что объект может быть распознан неправильно, то есть может быть приписан к классу, к которому в действительности не относится. Наличие такого объекта в обучающей выборке, в свою очередь, может привести к новым ошибкам классификации. Поэтому точность каждого последующего решающего правила потенциально будет уменьшаться. Для того чтобы избежать ухудшения распознающей способности решающих функций, необходимо при построении решающего правила учитывать качество имеющейся на данный момент в распоряжении обучающей выборки. Для этого введем коэффициент доверия 8 объекту

обучающей выборки, который для распознанного объекта будет характеризовать степень доверия к полученному результату. Значения коэффициента доверия на обучающей и распознаваемой выборках определим следующим образом: ЫеТ 8)=1, \fueU 8(и)<1.

Обозначим через 8т минимально допустимую величину коэффициента доверия, то есть порог, на основании которого распознаваемые объекты добавляются в обучающую выборку. Тогда процесс дополнения обучающей выборки представим следующим образом:

т<)=&) , «р*8-*, г=¿¿и,

\Т('-1), 8(щ)<8т Т'> = {г1, г2,

Далее введем в рассмотрение вектор доверия йй(г)=й(Т(1>)=($Ь),...,$(„)), ^еТп<(ц(+-1),

I=1ди, отражающий качество всей доступной на данный момент обучающей выборки. Будем учитывать значение вектора доверия при построении решающей функции, то есть будем искать ее в

следующей форме: a<mn>(s)=а<т)^, й(')), г=1,ди. Тогда можно предположить, что при соответствующем выборе выражения для вычисления коэффициентов доверия, величины 8т, а также зависимости между решающей функцией и вектором доверия в ряде случаев будет наблюдаться улучшение качества распознавания, то есть уменьшение числа ошибок классификации по сравнению с немодифицированным методом распознавания. Эта гипотеза была проверена на моделях тестовых задач распознавания для ряда методов. Эксперименты показали, что в большинстве случаев метод, наделенный процедурой последовательной модификации решающего правила, дает результаты распознавания не хуже, чем соответствующий метод без процедуры модификации, а в некоторых случаях классифицирует неизвестные объекты даже лучше. Отметим, что потенциально процедура последовательной модификации решающего правила может быть использована для любого метода распознавания, в том числе и для коллективного, но с практической точки зрения ее имеет смысл применять лишь для тех методов, у которых процесс обучения не является слишком ресурсоемким по времени, объемам вычислений или другим затратам. К таким, в частности, могут быть отнесены:

• байесовский классификатор для нормального распределения классов;

• метод к ближайших соседей;

• метод эталонов;

• метод вычисления оценок. Рассмотрим, каким образом будут выглядеть

модели решающих правил для перечисленных методов с учетом предложенной процедуры модификации. Предварительно введем необходимые обозначения: C, - множество объектов, относящихся к i-му классу, i=1,qc ; qc - количество классов; s - распознаваемый объект; x(s) - вектор признаков/параметров, характеризующий распознаваемый объект. Функция class, используемая при описании решающих правил, определяется следующим образом:

(к, если 3lc:Vl ф к к

k,l = 1,m, 0, иначе.

Модифицированный байесовский классификатор для нормального распределения классов. Зададим зависимость решающего правила от вектора доверия: введем корректирующий коэффициент в для решающей функции каждого класса, то есть приведем решающую функцию к следующему виду (здесь и далее для простоты записи

am(s)=a'm)(s), T=T(i), i=):

am(s)=class(ai(s)Pi, aqC(s)PqC),

ai(s )=ln[p(Ci)]-0.5ln\Ki\-0.5[(x(s )-mt )K-1{x(s )-m) ], mt = mi(Ti), K = Ki(Ti): T cT, Tt cC,,

Pr

Yi1-S(tk))

-, если ai(s)>0, если ai(s )<0,

1-

W-w*))

где пг = \Т\ г = 1,цс ; т1 - вектор средних

значений; К - ковариационная матрица класса, вычисленные на части обучающей выборки, соответствующей г-му классу.

Коэффициент доверия для распознанного объекта и вычислим на основании решающих функций классов от этого объекта по следующему выражению:

\а/(и)— ак(и)\

8(и )=—--,

\а^и )—ак(и )\+1

а.(и)=тах{а,(и)}, I=1&с,

3 г _

ак(и)=тах{аг(и)}, г=1,дс, г ф].

г

Модифицированный метод к ближайших соседей. Для учета качества обучающей выборки будем вычислять решающую функцию класса а£$) на основе коэффициентов доверия объектов этого класса, то есть приведем решающую функцию к следующей форме:

am (s )=class(a1 (s ),..., aqc (s )),

1 ni _

ai(s)=~;Y5(tj), i=1, qc, kj=1

щ =\Di\, Di c Tk c T: Di c Ci, tj e D„ к =\Tk \,Vte Tk Vze T\Tk^p(s,t )<p(s,T),

где ni - мощность множества Di объектов, относящихся к i-му классу, из множества Tk к ближайших в заданной метрике к распознаваемому объекту s элементов обучающей выборки T; p(s,t) - расстояние между объектами s и t в заданной метрике. В качестве величины коэффициента доверия распознанного объекта u используем значение максимальной из решающих функций классов, то есть 8(и)=max{ai(u)}, i=1,qc. i

Модифицированный метод эталонов. Для

решающего правила метода эталонов ввиду его специфики не требуется вводить зависимость от вектора доверия. Фактически в рассматриваемом случае эта зависимость заключается в функции отбора объектов, формирующих обучающую выборку, поскольку для распознавания используются только те объекты обучающей выборки, коэффициент доверия для которых не меньше заданного порога Smin. Решающая функция имеет ту же форму, что и для немодифицированного метода, а именно:

am(s)=class(a1 (s),..., ajs)), _

ai(s)=maxiau(s),..., a^ (s)), i=1, qc,

ps t ) _ qc

a(s)=1t jeT,tjeCt, j=1,n, % =qt,

rj

ptjfl, TeT,T€C: VteTteC,^p(tj,T)<ptlj,t),

где - характеристическая функция, определяющая степень принадлежности и близости распознаваемого объекта $ к7-му эталону г-го класса; <у - объект обучающей выборки, относящийся к г-му классу и являющийся центром ]-го эталона этого класса; гц - радиус 3-го эталона г-го класса, представляющий собой половину расстояния в заданной метрике до ближайшей точки отличного класса; р($^) - расстояние между объектами $ и < в заданной метрике. В качестве величины коэффициента доверия распознанного объекта и используем значение максимальной из характеристических функций, то есть

8(и )=тах{ тах{ои(и )} },]=1,п,, 1=1,дс.

г } '

Модифицированный метод вычисления оценок. Для учета зависимости решающего правила от вектора доверия будем вычислять функцию близостимежду распознаваемым объектом $ и элементом обучающей выборки < на основе коэффициента доверия для последнего. В этом случае решающая функция примет следующий вид:

n

к=1

1

i=1

n

1

n

am (s )=class(a, (s ),..., a (s )),

at(s)=Xetj(s), i = 1, qc,

j=i

m =\M\, M={Mj}, Mj = (xh,xh }, je{1,..., qx},

r qc

eij(s)=tfj(tiP,s), tpeT, tpeCif ^ = qt, p=1 i=1 jö(t), если VxkeMJ ^\xk(t)-xk(s)<£k> Jj(t>s)=если 3xkeMJ^\xk(t)-xk(s)\>£k,

где eij(s) - оценка распознаваемого объекта s для i-го класса по j-му опорному множеству; Mj - j-е опорное множество, включающее подмножество исходного множества признаков, по которому вычисляется степень похожести распознаваемого объекта и элемента обучающей выборки; Tij -множество объектов обучающей выборки, соответствующих i-му классу, к которым оказался близок по j-му опорному множеству распознаваемый объект; fj(t,s) - функция близости между объ-

ектами t и вычисляемая по 7-му опорному множеству; Ек - порог близости для признака хк. Коэффициент доверия для распознанного объекта и вычислим на основании решающих функций классов от этого объекта по следующей формуле:

\аЛи)-ак(и)\

8(и )=—--,

\а^и )-ак(и )\+1

а7(и)=шах(а.(и)}, I=1,дс>

7 / _

ак(и)=шах{аг(и)}, г=1,дс> гф].

г

Таким образом, рассмотренная модель может быть использована для адаптации и повышения эффективности применения существующих методов распознавания, предоставляя один из возможных путей расширения базы имеющихся знаний интеллектуальной системы. Особенностью модели является то, что она может использоваться с различными методами без существенного изменения алгоритмов, лежащих в их основе.

m

МУЛЬТИАГЕНТНАЯ СИСТЕМА ИНТЕГРАЦИИ РАСПРЕДЕЛЕННЫХ ИНФОРМАЦИОННЫХ РЕСУРСОВ ИННОВАЦИЙ

(Работа выполнена в рамках программы «Поддержка научных школ» № НШ-8249.2006.9 и поддержана

грантом РФФИ, проект № 05-07-90050))

А.В. Маслобоев, М.Г. Шишаев, к.т.н. (Институт информатики и математического моделирования Кольского РАН, г. Апатиты)

Информационная поддержка инноваций является актуальной задачей. Принимая во внимание большое количество вовлеченных в инновационные процессы участников и их территориальную распределенность, особенно важным представляется такой аспект информационной поддержки, как автоматизированный поиск потенциальных бизнес-партнеров для реализации инновационных проектов.

В настоящее время создано множество информационных ресурсов поддержки инноваций. При этом большинство из них реализовано в виде специализированных веб-ресурсов, чаще всего -информационных порталов, в общем случае не связанных между собой. Для повышения эффективности информационной поддержки инноваций представляется актуальным решение задачи гибкого и прозрачного для конечного пользователя совместного использования информации об инновационных предложениях, хранящейся на разрозненных порталах информационной поддержки инноваций.

В данной работе представлена мультиагентная система информационной поддержки инновационной деятельности, обеспечивающая совместное использование информационных баз инновационных порталов в процессе автоматизированного формирования потенциально эффективных биз-

нес-структур, направленных на реализацию инновационных проектов.

Общая архитектура системы приведена на рисунке.

Логика работы системы и ее функциональная структура описаны с помощью концептуальной модели (КМ) агентно-ориентированной виртуальной бизнес-среды (ВБС), представляющей собой формализованное описание объектов системы, их связей и атрибутов в виде теоретико-множественных отношений.

Формализация представления КМ обеспечивает возможность формирования в терминах КМ вычислительных моделей критериев оценки потенциальных инновационных структур, формулировки оптимизационных задач выбора эффективных вариантов реализации инновационных проектов, унифицированного описания алгоритмов функционирования агентов.

КМ ВБС включает в себя следующие множества элементов: объекты (субъекты инновационной деятельности) - агенты субъектов - А; бизнес-процессы - Р; ресурсы инноваций - К; бизнес-идеи (инновационные предложения) - В1; бизнес-планы (инвестиционные предложения) - ВРЬ; бизнес- (инновационные) структуры - ВБ (множества взаимосвязанных объектов, задействованных в реализации конкретного бизнес-плана). Инно-

i Надоели баннеры? Вы всегда можете отключить рекламу.