Научная статья на тему 'Метод комитетов в задачах распознавания образов в условиях неопределенности априорной информации'

Метод комитетов в задачах распознавания образов в условиях неопределенности априорной информации Текст научной статьи по специальности «Математика»

CC BY
849
78
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Б. М. Кувшинов, О. В. Ширяев

Предложен подход к решению задачи автоматической классификации многопараметрических объектов методами распознавания образов, учитывающий неполноту знаний экспертов на этапе построения системы распознавания. Он позволяет совместить использование экспертных суждений и возможности математических методов анализа данных в рамках единого процесса обучения системы распознавания. В основу системы классификации положены комитетные решающие правила, для которых предложен эффективный алгоритм обучения, учитывающий неточность априорной информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Б. М. Кувшинов, О. В. Ширяев

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Метод комитетов в задачах распознавания образов в условиях неопределенности априорной информации»

МЕТОД КОМИТЕТОВ В ЗАДАЧАХ РАСПОЗНАВАНИЯ ОБРАЗОВ В УСЛОВИЯХ НЕОПРЕДЕЛЕННОСТИ АПРИОРНОЙ ИНФОРМАЦИИ

БЖ Кувшинов, О.В. Ширяев

Предложен подход к решению задачи автоматической классификации многопараметрических объектов методами распознавания образов, учитывающий неполноту знаний экспертов на этапе построения системы распознавания. Он позволяет совместить использование экспертных суждений и возможности математических методов анализа данных в рамках единого процесса обучения системы распознавания. В основу системы классификации положены комитетные решающие правила, для которых предложен эффективный алгоритм обучения, учитывающий неточность априорной информации.

Введение

Системы автоматической классификации, основанные на математических методах распознавания образов, получили широкое применение в самых разнообразных прикладных областях в качестве систем поддержки принятия решений [8, 9, 20]. Задачу выбора стратегии управления тем или иным объектом можно рассматривать как вопрос определения класса, к которому принадлежит данный объект. Априорной информацией для системы автоматической классификации являются результаты некоторых инструментальных измерений, проводимых над объектами исследования, а также суждения экспертов относительно классов некоторых из обследованных объектов. Такая конкретизация задачи управления позволяет применять для ее решения аппарат теории распознавания образов [5, 14, 17].

В традиционной постановке задачи распознавания четко разграничиваются случаи обучения и самообучения (дискриминантный и кластерный анализ соответственно) [2, 5, 17]. В первом случае имеется некоторый набор объектов (обучающая выборка), заданных значениями своих измеряемых характеристик. Для каждого объекта априорно, на основании суждений экспертов, задан его класс. Необходимо, опираясь на эти данные, построить решающее правило, т.е. правило отнесения произвольного объекта с известными значениями измеряемых параметров к тому или иному классу. Задача кластерного анализа отличается тем, что для объектов обучающей выборки значения их принадлежности к классам заранее не известны. При этом используется гипотеза о компактности, т.е. предположение о том, что объекты одного и того же класса имеют близкие, в некотором смысле, характеристики, а объекты разных классов существенно различаются с точки зрения значений своих параметров.

Большой интерес представляет разработка методов, позволяющих решать задачи классификации при недостатке информации об объектах исследования [3, 13, 23]. Во многих случаях эксперты не обладают достаточным количеством информации для принятия гарантированно безошибочных решений. Задачи такого рода постоянно возникают при внедрении систем распознавания в те прикладные области, в которых продолжают вестись научные исследования и окончательные представления об исследуемых объектах еще не сформировались. При этом сведения, получаемые от специалистов, уже нельзя рассматривать как некоторое абсолютное знание. Эта информация может содержать ошибки, быть неточной или неполной.

Достаточно распространенной является ситуация, когда эксперты в состоянии априорно задать классификацию для объектов обучающей выборки, однако допускают возможность наличия в ней большого количества ошибок. Решающее правило, построенное по данным такой выборки, будет обеспечивать весьма низкое качество классификации (т.к. ошибочные сведения, полученные от экспертов, будут использоваться в качестве материала для обучения). Таким образом, применение методов дискриминантного анализа оказывается неэффективным. С другой стороны, отказ от использования имеющихся неточных экспертных суждений, т.е. применение методов кластерного анализа, существенно снижает возможности системы классификации по анализу данных, т.к. происходит потеря существенной части априорной информации.

В подобных случаях разработчиками систем распознавания, как правило, делаются некоторые предположения относительно статистических законов распределения значений параметров, характеризующих состояние объектов [3, 6, 7]. При этом исходная обучающая выборка подвергается фильтрации: объекты, априорные сведения о классах которых не укладываются в сделанные вероятностные допущения, исключаются из рассмотрения, после чего используются методы дис-криминантного анализа. Однако существует довольно широкий класс практических задач, в которых никаких предположений о статистических характеристиках распределения значений параметров объектов сделать невозможно. Это обуславливает необходимость разработки соответствующих непараметрических методов [4, 13].

1. Постановка задачи

Проблема недостатка и неточности исходных данных может быть решена за счет интеграции идей обучения и самообучения, используемых в системах распознавания образов. Если считать, что значения параметров объектов определяют точки в многомерном пространстве измеряемых характеристик объектов, то решающая функция задает некоторую поверхность в этом пространстве - границу между классами. Задача обучения - обобщить локальные свойства отдельных объектов обучающей выборки на целые классы, к которым они принадлежат. С геометрической точки зрения эта задача, в случае дискриминантного анализа, состоит в следующем: расположить решающую функцию в пространстве параметров объектов так, чтобы она:

а) была как можно ближе к истинной границе между классами;

б) правильно классифицировала все объекты обучающей выборки.

В рассматриваемом случае задачу обучения необходимо поставить следующим образом: имеется обучающая выборка, для объектов которой известны значения принадлежности к классам. В то же время некоторые из этих значений могут быть ошибочными. Необходимо построить решающее правило, которое:

а) было бы как можно ближе к истинной границе между классами;

б) классифицировало объекты обучающей выборки в соответствии с априорной классификацией в тех случаях, когда это не противоречит гипотезе о компактном расположении классов в пространстве характеристик объектов.

На рис. 1 показан случай решения задачи классификации для объектов с двумя измеряемыми характеристиками (х\ и х2). Закрашенные и незакрашенные точки соответствуют объектам двух классов (согласно априорной классификации). Решающее правило представляет собой некоторую кривую на плоскости параметров объектов. Апостериорные значения принадлежности объектов к классам определяются тем, с какой стороны от разделяющей кривой находится соответствующая объекту точка. Рис. 1а соответствует решению «чистой» задачи обучения - все объекты обучающей выборки классифицированы согласно априорным значениям их классов. Разделяющая функция на рис. 16 классифицирует один из объектов не так, как это было указано экспертом. В то же время ее положение гораздо ближе к действительной границе между классами. То есть способность системы классификации к обобщению информации во втором случае выше.

После того, как построено решающее правило, для всех объектов обучающей выборки можно вновь определить их классы. При этом априорная и апостериорная классификации будут частично различаться. Как показывает опыт, эти значения могут нести дополнительную информацию для специалиста из прикладной области исследований. Результаты автоматической классификации не могут быть абсолютно надежными, поэтому эксперт может соглашаться или не соглашаться с отдельными коррективами в классификации, сделанными системой распознавания. Таким образом, можно организовать итерационный процесс взаимодействия между экспертом и системой распознавания. В ходе этого процесса они обмениваются информацией, выраженной в форме классификаций объектов обучающей выборки. При этом решающее правило постепенно приближается к истинной границе между классами, и качество работы системы распознавания возрастает.

Следует отметить, что поставленная задача не сводится к вопросу подавления помех в обучающей выборке. Начальное количество правильно классифицированных объектов может быть очень мало и вообще не обеспечивать обучения системы классификации. Задача математических методов - обеспечить извлечение максимально возможного количества информации из предоставленных данных. Таким образом, задачи обучения и самообучения сводятся в единую задачу извлечения информации из обучающей выборки.

а) б)

Рис. 1. Решающее правило при неточной априорной классификации

2. Выбор решающих правил

Для решения поставленной задачи необходимые средства предоставляет использование ко-митетных решающих правил (комитетов) [I, 14, 15, 18, 19, 21, 22]. Наибольшее распространение на сегодняшний день получили комитеты большинства на базе кусочно-линейных решающих правил [14, 15, 18, 19].

Определение [14]. Комитетом большинства системы линейных неравенств

<с\х' >< О, / = , (2.1)

где сеЗ?" называется такое множество {с],...,с£/}, с'еЖ", что каждому нера-

венству системы удовлетворяет более половины элементов этого множества (членов комитета).

Комитеты такого вида обладают некоторыми свойствами, обуславливающими их эффективность при решении задач с рассмотренными выше особенностями:

- комитеты могут задавать сколь угодно сложную границу между классами;

- комитеты позволяют выбрать определенный класс функций (например, линейных) и на его основе наращивать сложность решающего правила до такой степени, чтобы она была адекватна сложности решаемой задачи;

- для элементов кусочно-линейного комитета — гиперплоскостей — существуют эвристические процедуры оптимизационного поиска, временная сложность которых линейно зависит от размерности задачи.

Дадим геометрическую интерпретацию комитета в задаче классификации. Будем считать, что система (2.1) содержит (п+ 1) неизвестных. Разложим каждый член комитета на составляющие

с' = &9Ь') = (4,...,а1„9Ь')еЯп+\ / = и выберем коэффициенты неравенств специального вида:

X1 = (х',-1), V*' е А, -

У = 1 ,

х1 =(-хМ), Ух1 е В,

где А~{х }, В-{хм }, А^В~{х\ /-1,ш}, АслВ~& - обучающая выборка, состоящая из объектов двух классов (А и В). Вектора а представляют собой нормальные вектора г иперплоскостей и вместе с числами Ъ' задают с| гиперплоскостей в пространстве параметров объектов. Вектора х' определяют соответствующие объектам точки в том же пространстве. Разделяющий комитет {с\...,с'}} обладает тем свойством, что для УхеАиВ справедливы неравенства

Г/ \ 1 ]>>ёп (п'-Л-Ь* >0 Ухе Л,

1=I

ч

&ёп \а' \xj~b'

./=1

где sign(y) = 1, если^ > 0, sign(}>) = -1, если у < 0.

То есть комитет обладает свойствами решающей функции. Граница между образами, соответствующими классам А и В в пространстве параметров объектов - это поверхность, при переходе через которую значение функции

я

переходит через 0. Эту поверхность формируют пересекающиеся части гиперплоскостей, соответствующих членам комитета. Таким образом, граница между классами задается многогранной (ку-сочно-линейной) поверхностью. На рис. 2а показана геометрическая интерпретация комитета для случая двумерного пространства признаков. Отдельные гиперплоскости, соответствующие членам комитета, представляют собой в этом случае прямые. Штрихи на концах прямых обозначают направление векторов их нормалей, т.е., практически, указывают те полуплоскости (полупространства для многомерного случая), в которых выражения (а'\х^-Ь1 имеют отрицательный знак. Жирной линией показана граница между образами, задаваемая этим комитетом. Представленный набор гиперплоскостей действительно является комитетом, поскольку он удовлетворяет условию (2.2). Геометрически это означает, что точки, соответствующие разным классам находятся по разные стороны от границы между образами, задаваемой комитетом. Далее для иллюстрации свойств разделяющих комитетов в двумерном случае используется та же система обозначений.

Важным частным случаем разделяющего комитета для заданной обучающей выборки является комитет, минимальный по количеству членов. Он не только задает решающую функцию, корректную с точки зрения обучающей выборки, но и обеспечивает максимальное обобщение информации, т.е. собственно обучение системы распознавания. Чем меньше количество членов комитета, тем ближе они должны быть расположены к своим оптимальным положениям, чтобы обеспечить сохранение комитетом свойства (2.2) решающей функции. Важность этой задачи иллюстрирует рис. 2. Выбранные в качестве комитетов совокупности гиперплоскостей в обоих случаях обеспечивают корректное разделение на классы объектов обучающей выборки. В то же время комитет на рис. 26 описывает границу между образами гораздо более точно, чем комитет на рис. 2а.

а) б)

Рис. 2. Способность разных комитетов к обобщению информации

Для решения поставленной задачи извлечения информации из обучающей выборки необходимо модифицировать понятие комитета. Как было указано выше, решающее правило должно классифицировать объекты так же, как в априорной классификации, если это не противоречит положению других объектов обучающей выборки. Решение комитета большинства можно рассматривать как результат голосования отдельных членов комитета (гиперплоскостей) «за» или «против» принадлежности объекта тому или иному классу. То есть, если задан комитет, то для любого объекта может быть определен не только его класс, но и ранг (степень уверенности комитета в принятом решении):

г - <

ч /=1

, если хеА,

(2.3)

если хеВ.

2>№ (а'\х}-Ь'

1=1

Тогда задачу извлечения информации из обучающей выборки можно рассматривать как задачу построения комитета, обеспечивающего максимизацию некоторой функции от рангов объектов. В качестве такой функции можно выбрать, например, суммарный ранг всех объектов обучающей выборки. Необходимость предлагаемой модификации обусловлена двумя причинами:

1) реально существующие задачи распознавания и классификации, в силу указанных выше особенностей, как правило, не позволяют четко разграничить случаи обучения и самообучения системы распознавания;

2) для комитетных решающих правил стандартного вида, несмотря на их высокую эффективность в задачах большой размерности, пока не найдено эффективных алгоритмов обучения, сочетающих достоинства малой вычислительной сложности и высокой степени обобщения информации (т.е. приближения к минимальному комитету).

3. Алгоритм построения комитета

Для построения комитета, обладающего указанными свойствами, необходимо организовать итерационный процесс. На каждом шаге этого процесса положение гиперплоскостей, составляющих комитет, должно изменяться так, чтобы обеспечить возрастание, или хотя бы неубывание, значения целевой функции

т

где г1 - ранг /-го объекта обучающей выборки, вычисленный по формуле (2.3), т ~ размер обучающей выборки.

Пусть на некотором шаге получен комитет {с1,...,с9}, с б91Л+1, / = Вычислим ранги всех точек обучающей выборки по формуле (2.3). Для какой-нибудь из я гиперплоскостей, составляющих комитет, найдем объект х" еАи В, правильно классифицированный ею (с точки зрения априорной классификации), и объект х" £ А и В, классифицированный данной гиперплоскостью неправильно. При этом необходимо, чтобы выполнялось условие:

(3.1)

Стоит подчеркнуть, что речь идет о правильности классификации объектов именно отдельной гиперплоскостью, а не комитетом в целом. Пусть /с {1, ..., т) - множество номеров объектов обучающей выборки, правильно классифицированных данной гиперплоскостью. Согласно введенным обозначениям уе/, Попытаемся изменить положение гиперплоскости так,

чтобы обеспечить ^е/, а требование уе1 снимем. Если это удалось, то новое множество номеров правильно классифицированных объектов будет иметь вид /'э{н'}и/\{у} или

Г з {и1} и I, в зависимости от того, удалось ли сохранить принадлежность объекта ху к числу правильно классифицированных. При этом новые значения рангов объектов:

г!=г„ ¡е1\{у}, г/>г,, /е{1, т}\[1и{у»}] ,

т.е. новое значение суммарного ранга всех точек по крайней мере не меньше его старого значения. Если же при изменении положения гиперплоскости удастся сохранить правильную классификацию ею объекта хУ или добавить к числу правильно классифицированных какие-либо из объектов х\ /£/и{м>}, то значение целевой функции увеличивается. На рис. 3 показан пример изменения положения комитета в результате рассмотренной процедуры. Числа около точек показывают ранги соответствующих объектов обучающей выборки до и после перемещения гиперплоскости.

Х2 Хо

Рис. 3. Перемещение гиперплоскости-члена комитета

Таким образом, задавшись некоторым начальным положением комитета, можно организовать итерационный процесс коррекции положения гиперплоскостей, ведущий к увеличению значения целевой функции. Рассмотрим функцию следующего вида:

*=Е

/=1

\2

£

где = 1, если у -я гиперплоскость правильно классифицирует I -й объект и = 0 - в противном случае. Согласно выражениям (3.2), с учетом требования (3.1), значение функции Я строго возрастает на каждом шаге итерационного процесса. Поскольку существует точная верхняя граница значения этой функции:

/=1

Л2

ч 1

у

е{0, 1} => Л < тд2,

процесс завершится за конечное число шагов.

Если пересчитывать ранги объектов после перемещения каждой гиперплоскости, то изменение положения комитета будет в значительной степени зависеть от порядка выбора гиперплоскостей, подлежащих перемещению. Поэтому целесообразно на каждой итерации перемещать все плоскости, а уже потом рассчитывать новые значения рангов объектов. Исходя из вышесказанного, алгоритм построения комитета, извлекающего максимум информации из обучающей выборки, должен выглядеть следующим образом.

1. Задать начальное положение комитета случайным образом.

2. Рассчитать ранги всех объектов обучающей выборки по формуле (2.3).

3. Выбрать для обработки очередную гиперплоскость.

4. Попытаться найти еще не рассмотренную пару правильно и неправильно классифицированных ею объектов, удовлетворяющих условию (3.1).

5. Если объекты с требуемыми свойствами не найдены, то перейти к шагу 7, иначе попытаться изменить положение гиперплоскости в соответствии с вышеописанными правилами.

6. Если положение гиперплоскости удалось изменить, то перейти к шагу 7, иначе перейти к шагу 4.

7. Если все гиперплоскости уже рассмотрены, то перейти к шагу 8, иначе перейти к шагу 3.

8. Если хотя бы одна из гиперплоскостей изменила свое положение, то перейти к шагу 2, иначе искомый комитет найден.

В приведенном алгоритме имеется две операции, вычислительная сложность которых определяет аналогичный показатель для всего алгоритма. Это поиск объектов и х™ - кандидатов на изменение рангов, и проверка возможности перемещения гиперплоскости, такого, что будут выполняться условия (3.2).

Для поиска пар объектов и х" необходимо организовать перебор всех возможных сочетаний О7,™), уе/, и>е{1, удовлетворяющих условию (3.1). С целью сокращения перебора объекты правильно и неправильно классифицированные данной гиперплоскостью необходимо представить в виде двух упорядоченных списков: первые - в порядке возрастания рангов, вторые - в порядке убывания. Сначала из первого списка выбирается объект-кандидат на исключение из множества I. Затем из второго списка последовательно выбираются объекты, номер которых мог бы быть присоединен к множеству /. При этом просмотр второго списка выполняется лишь до тех пор, пока выполнено условие (3.1).

После того, как были выбраны объекты / и необходимо найти такое положение гиперплоскости, которое обеспечит выполнение условий (3.2), либо определить, что у этой задачи решения нет. Это означает, что необходимо проверить линейную разделимость множеств:

точки зрения линейная разделимость множеств означает, что существует гиперплоскость с/ такая, что точки, соответствующие объектам из разных множеств, находятся по разные стороны от нее. Переобозначим

Каждый вектор с1', ] - \.\AvjВ \ будем рассматривать как нормальный вектор некоторой гиперплоскости в пространстве размерности (п + 1), проходящей через начало координат. Тогда решением системы неравенств (3.4) является такая точка (с{, которая лежит с нужной

стороны от всех гиперплоскостей (т.е. задается (п + 1)-мерным радиус-вектором, составляющим острый угол с нормальным вектором с!1, ] = В\ каждой гиперплоскости). Таким образом, каждому объекту исходного п-мерного пространства соответствует одна из гиперплоскостей, образующих в совокупности (п + 1)-мерный конус, а искомая разделяющая гиперплоскость с1 -любая точка внутри этого конуса.

А = {х} :х; е Л, у е{и>}и/\{у}} и

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В = {х':х' еВ, у е{ц;}и/\{у}}. То есть нужно решить систему линейных неравенств:

<ЙР;с' ><0, / = 1,| АиВ

(3.4)

Для поиска решения воспользуемся модификацией известного метода линейной коррекции [16]. Выберем некоторую исходную точку с7 (0) с Яи+1, и будем перемещаться по пространству посредством итерационного процесса:

2 _т.

+ = ' = 0, 1, ...,7\ (3.5)

<7«=1

т

где Я- коэффициент ускорения движения; о- й1\й1 > - нормирующий коэффициент, обес-

печивающий масштабирование итерационного шага; /¿^с1^)'^1 > - расстояние от текущей

точки пространства до г'-й гиперплоскости; Г - максимально допустимое количество итераций, по достижении которого задача считается неразрешимой.

Фактически, формула (3.5) описывает частный случай метода градиентного спуска, где целевая функция - это сумма расстояний от точки пространства до всех гиперплоскостей:

т

Р - . В то же время, в задаче проверки линейной разделимости решение трактуется как раз-

i=i

деляющая гиперплоскость. Отсюда следует, что вектора х}, j = 1,1 Au5l задают большое число избыточных ограничений, т.е. таких, которые не уменьшают объем n-мерной области, в пределах которой может находиться разделяющая гиперплоскость. Соответственно, вектора

d3, j = 1,1 А и ВI задают большое число гиперплоскостей в (n +1) -мерном пространстве, которые не уменьшают объем конуса решений системы (3.4). Поэтому применение выражения (3.5) может не дать решения - в случае, если центр (ось) масс совокупности гиперплоскостей d3: х с Rn+l: min F , лежит вне конуса.

\х\-const

Во избежание рассмотренного эффекта модифицируем целевую функцию следующим образом:

т

F = £[sign •(/,)/,],

1=1

где sign Чу) = i ' ^ ' - пороговая функция. Тогда соотношение (3.5) принимает вид: [0, у <0.

Я т г п c4f + l) = c'(f)--У Sign СOft dl , i = 0, 1.....Г.

To есть при вычислении направления перемещения на очередном итерационном шаге будут учитываться только те ограничения, которые еще не выполнились. Использование переменного параметра Я позволяет снизить количество итераций. Будем модифицировать его по следующему правилу:

- если при совершении очередного итерационного шага не начало выполняться ни одно ранее не выполнявшееся ограничение и не перестало выполняться ни одно ранее выполнявшееся ограничение, то = 2Яг;

- в противном случае Яш - ~ЯГ.

Такой выбор изменения скорости перемещения, с одной стороны, предотвращает «зависание» алгоритма в области, достаточно удаленной от решения, а, с другой стороны, подавляет колебания процесса вокруг решения в случае, когда размер последнего шага оказался шире сечения

конуса в направлении с3 (/) — с3 (t — 1).

Рассмотренный алгоритм проверки линейной разделимости является эвристическим и, в принципе, не гарантирует нахождения решения системы (3.3). В то же время практическое его применение полностью оправдано в силу двух причин.

1. Временная сложность этого алгоритма линейно зависит от размерности задачи, т.е. он пригоден для использования в реальных задачах распознавания большой размерности.

2. Итерационный процесс поиска решения начинается от некоторого начального приближения. В качестве такого приближения можно выбрать текущее положение гиперплоскости. При очередном перемещении гиперплоскости в число правильно классифицированных ею входит достаточно небольшое количество новых объектов (в предельном случае только один объект -х"). Поэтому большинство ограничений, налагаемых системой (3.3), выполняется уже для начального приближения. То есть обнаружение решения, если оно есть, следует ожидать уже после небольшого количества итераций. Таким образом, максимальное количество итераций алгоритма линейной коррекции можно ограничить очень небольшим числом. Если решение после их выполнения не найдено, то можно прекратить поиск.

Для завершения описания алгоритма поиска решающего правила необходимо сделать еще одно замечание. Комитетный характер решающего правила приводит к тому, что в ходе работы алгоритма его построения некоторые гиперплоскости начинают объединяться. Т.е. в результате итерационного перемещения комитета появляются такие его члены, которые одинаково классифицируют все объекты обучающей выборки. Если множества А и В для гиперплоскостей с\с/, /, /е 1,£/ на некоторой итерации совпали, то, согласно алгоритму, следует ожидать, что и на последующих итерациях эти множества будут изменяться одинаково. Таким образом, дальнейшие расчеты можно проводить только для одной из объединившихся гиперплоскостей, а остальные перемещать так же, как и данную. Кроме того, можно считать, что объединение гиперплоскостей - это результат изменения сложности комитета под действием структуры предоставленных данных. Это означает, что объединившиеся гиперплоскости можно рассматривать как одну, т.е. в ходе итерационного процесса сложность комитета (количество его членов) может уменьшаться.

4. Пример использования алгоритма

Для проверки эффективности работы рассмотренного алгоритма использовались результаты обследования больных гипертрофической кардиомиопатией [10-12]. Ставилась задача оценивания тяжести заболевания. В качестве обучающей выборки рассматривалась группа из 75 больных. Каждый больной описывался вектором числовых и логических параметров, которые являются результатами инструментальных измерений и простых экспертных суждений, не требующих высокой квалификации медицинского персонала. Размерность вектора параметров составила 120. Больные были разделены по степени тяжести заболевания на три группы: легкие, средние и тяжелые. Относительно некоторых больных (30 % от общего числа) экспертами-медиками был достоверно определен класс тяжести. Для остальных больных класс тяжести также задавался априорно, однако эксперты допускали возможность его ошибочного определения.

В результате автоматической классификации система распознавания изменила значения классов тяжести более чем у 40 % больных. В половине из этих случаев эксперты согласились с выводами системы распознавания. После второго обмена классификациями между экспертами и системой распознавания удалось довести степень их согласованности до 95 %. Для проверки обобщающей способности полученных решающих правил в рассмотрение было введено еще 25 больных с известными классами тяжести (тестовая выборка). В 90 % случаев система распознавания правильно определила тяжесть кардиомиопатии. Количество итераций алгоритма построения комитета не превышало 20.

Заключение

1. Предложенная методика построения системы распознавания опирается на два основных положения:

- объединение идей обучения и самообучения и построение единой процедуры автоматической классификации, обеспечивающей извлечение максимума информации из предоставленных данных;

- включение экспертов в состав единой автоматизированной системы принятия решений и использование их способностей в качестве элемента системы классификации.

2. В качестве основного элемента системы классификации использованы комитетные решающие правила, для которых предложен эффективный алгоритм обучения, использующий особенности постановки задачи.

3. Разработанные алгоритмы применены для решения практической задачи оценивания тяжести кардиологических заболеваний. Полученные показатели качества работы системы распо-

знавания: 95 % - для решения единой задачи извлечения информации из обучающей выборки и 90 % - при классификации объектов тестовой выборки, говорят о высокой эффективности применения метода к решению разнообразных прикладных задач.

Работа поддержана грантами РФФИ - УРАЛ № 01-01-96419 и МО № ТОО/13.2/2647.

Литература

1. Алескеров Ф.Т., Дуган Д. Процедуры голосования в пространстве функций выбора: Немонотонный случай // Автоматика и телемеханика. — 1994. - № 6. — С. 115-134.

2. Бархушин А.П. Обучение и самообучение систем распознавания образов // Сб. науч. тр. НИИ информационных технологий. - 1999. - № 7. - С. 14-20.

3. Буркин B.C. Синтез оптимальных алгоритмов портретного распознавания при различном уровне априорной осведомленности // Известия АН. Теория и системы управления. - 1997. - № 6. -С. 152-163.

4. Викентьев A.A., Лбов Г.С. О метризациях булевой алгебры предложений и информативности высказываний экспертов // Доклады РАН. - 1998. - Т. 361, № 2. - С. 174-176.

5. Горелик А.Л., Скрипкин В.А. Методы распознавания. - М.: Высшая школа, 1977. - 222 с.

6. Жук Е.Е. Робастность в кластер-анализе при наличии аномальных наблюдений // Автоматика и телемеханика. - 1998. - № 9. - С. 72-87.

7. Журавлев Ю.И. и др. Параметрические логические модели анализа данных // Математические методы распознавания образов. - М.: ВЦ РАН, 1995. - С. 95-96.

8. Захаров В.Н. Интеллектуальные системы управления: основные понятия и определения // Известия АН. Теория и системы управления. - 1997. - № 3. - С. 138-145.

9. Компьютер и поиск компромисса: Метод достижимых целей / A.B. Лотов, В.А. Бушенков, Т.К. Каменев, О.Л. Черных. - М.: Наука, 1997.-239 с.

10. Кувшинов Б.М., Ширяев О.В., Шапошник И.И. Диагностика заболеваний методами распознавания образов и классификации в n-мерном пространстве // Информационные технологии. -2000.-№6.-С. 43-47.

11. Кувшинов Б.М., Ширяев О.В., Богданов Д.В., Шапошник И.И., Ширяев В.И. Система классификации многопараметрических объектов для задач распознавания образов с неточной априорной информацией // Информационные технологии. - 2001. - № 11. - С. 37-43.

12. Кувшинов Б.М., Ширяев О.В., Богданов Д.В., Шапошник И.И., Ширяев В.И. Использование комитетов в задачах распознавания образов с неточными экспертными оценками // Известия Челябинского научного центра. - 2001. - № 2. - С. 12-17.

13. Лапко A.B., Лапко В.А., Ченцов C.B. Непараметрические модели распознавания образов в условиях малых выборок // Автометрия. - 1999. - № 6. - С. 105-113.

14. Мазуров В.Д. Метод комитетов в задачах оптимизации и классификации. - М.: Наука, 1990.-248 с.

15. Мазуров В.Д,, Хачай М.Ю. Комитетные конструкции // Известия УрГУ. Математика и механика. - 1999. — № 14.-С. 77-108.

16. Нильсон Н. Обучающиеся машины. - М.: Мир, 1968. - 225 с.

17. Ту Дж., Гонсалес Р. Принципы распознавания образов / Пер с англ. - М.: Мир, 1978. -416 с.

18. Хачай М.Ю. О существовании комитета большинства // Дискретная математика. -1997.-Т. 9, №3.-С. 82-95.

19. Khachai M.Yu. Classification of committee solutions of majority // Pattern Recognition and Image Analysis. - 1997. - V. 7, № 2. - P. 222-230.

20. Mazurov Vl.D. Recognition and choice in a multistage procedure of modeling complex systems // Pattern Recognition and Image Analysis. - 1994. - V. 4, № 2. - P. 87-92.

21. Mazurov Vl.D. Generalized existence in nonequilibrium models of choice in modeling complex systems // Pattern Recognition and Image Analysis. - 1995. - V. 5, Ar2 1. - P. 7-12.

22. Sven В., Jacob P. Collective decision making in hierarchies // Math Soc. Sei. - 1998. - V. 35, № 3. - P. 232-244.

23. Zixing C. Typical structures for learning control // J. Cent. S. Univ. Technol. - 1998. - V. 5, № 1. - P. 60-63.

i Надоели баннеры? Вы всегда можете отключить рекламу.