Научная статья на тему 'Методы анализа информативности разнотипных признаков'

Методы анализа информативности разнотипных признаков Текст научной статьи по специальности «Математика»

CC BY
4316
601
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНТЕЛЛЕКТУАЛЬНАЯ СИСТЕМА / ТЕСТОВОЕ РАСПОЗНАВАНИЕ ОБРАЗОВ / ВЕСОВЫЕ КОЭФФИЦИЕНТЫ ПРИЗНАКОВ / ЭНТРОПИЯ / ОЦЕНКИ ПЛОТНОСТИ ПАРЗЕНА РОЗЕНБЛАТТА / INTELLIGENT SYSTEM / TEST PATTERN RECOGNITION / WEIGHT COEFFICIENT OF FEATURE / ENTROPY / ESTIMATED PARZEN-ROSENBLATT PROBABILITY DENSITY FUNCTION / QUALITY OF PATTERN RECOGNITION ALGORITHM

Аннотация научной статьи по математике, автор научной работы — Колесникова Светлана Ивановна

Рассматривается проблема предварительного анализа информативности признаков, используемых в интеллектуальных системах поддержки принятия решений. Анализируются особенности дискретного и 3-х вероятностных подходов к оценке информативности признаков в условиях их возможной взаимозависимости. Получены двусторонние оценки для распределения минимального числа признаков, обеспечивающих гарантированный уровень качества процедуры распознавания.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Methods of analysis of different-type features informativity

The problem of estimation of informativity of different-type features for regularities discovery and decision-making support in the intelligent systems is considered. The characteristics of the three probabilistic and discrete approaches to estimation of different-type features taking into account different kinds of dependence of them are analysed. The two-side estimates for probability of critical number of features for guaranteed level of quality of pattern recognition procedure are obtained.

Текст научной работы на тему «Методы анализа информативности разнотипных признаков»

2009

ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА Управление, вычислительная техника и информатика

№ 1(6)

ОБРАБОТКА ИНФОРМАЦИИ

УДК 519.7:007.52;519.81;007.01.362

С.И. Колесникова

МЕТОДЫ АНАЛИЗА ИНФОРМАТИВНОСТИ РАЗНОТИПНЫХ ПРИЗНАКОВ1

Рассматривается проблема предварительного анализа информативности признаков, используемых в интеллектуальных системах поддержки принятия решений. Анализируются особенности дискретного и 3-х вероятностных подходов к оценке информативности признаков в условиях их возможной взаимозависимости. Получены двусторонние оценки для распределения минимального числа признаков, обеспечивающих гарантированный уровень качества процедуры распознавания.

Ключевые слова: интеллектуальная система, тестовое распознавание образов, весовые коэффициенты признаков, энтропия, оценки плотности Парзена - Розенблатта.

Одним из подходов повышения качества распознавания образов и снижения вычислительных затрат является проведение предварительного анализа обучающей информации [1, 2]. Целью такого анализа является оценка основных информативных характеристик обучающей выборки, в частности оценка информативности признаков, оценка значений признаков, выделение наиболее представительных объектов.

С метрической точки зрения различают следующие типы признаков.

Количественные (числовые) признаки - это признаки, замеренные в определенной шкале и в шкалах интервалов и отношений.

Качественные (ранговые, порядковые, балльные) - используются для выражения терминов и понятий, не имеющих цифровых значений (например, тяжесть состояния) и замеряются в шкале порядка.

Номинальные (например, профессия, группа крови, тип хозяйства, национальность, пол) - это признаки, замеренные в шкале наименований. При анализе таких признаков каждую отметку номинальной шкалы считают отдельным самостоятельным признаком. Он принимает всего два значения (как правило, используют значения 0 и 1), разность которых можно интерпретировать как степень важности несовпадения данного признака при сравнении двух объектов. Такие признаки называют двоичными, бинарными, дихотомическими признаками [4, 5 - 9]. После проведения дихотомизации [5] (преобразования исходных показателей в набор признаков с двумя градациями) номинальные измерения становятся доступны для

1 Работа выполнена при финансовой поддержке РФФИ (проекты № 09-01-99014-р_офи, № 07-0100452).

применения широкого спектра различных методов многомерного количественного анализа с учетом специфики данного вида измерений.

В практических задачах распознавания первоначальные описания объектов содержат все доступные наблюдению (или измерению, вычислению) характеристики или параметры, поэтому в описании объектов участвуют несколько десятков (сотен) величин (например, в задачах медицинской диагностики, геологического, технического и социологического прогнозирования и т.д.). Однако набор большого числа прецедентов часто требует дорогостоящих и трудоемких работ (в некоторых случаях медицинской диагностики, прогнозирования редких металлов вообще невозможен) [1 - 3]. В прикладных работах наиболее распространенный пример объектов нечисловой природы - разнотипные данные. Так, в реляционной базе данных (как разновидности обучающего множества) информация о реальном объекте описывается вектором, часть координат которого - значения количественных признаков, а часть - качественных (номинальных и порядковых).

При принятии решения о выборе класса, которому принадлежит анализируемый объект, возникает проблема его оценки по нескольким признакам и корректного учета этих оценок при их обобщении или совместном рассмотрении на этапе принятия итогового решения [1 - 7]. Эта проблема в свою очередь подразделяется на две подпроблемы: установление вида решающего правила (так называемого «обобщенного признака») и определение весовых коэффициентов - коэффициентов важности «частных» (характеристических) признаков [1-7, 9], отражающих свойства объектов.

В данной работе рассматриваются особенности дискретного подхода к оценке информативности разнотипных признаков и анализируются статистические подходы, предложенные в [12, 16]. Применимость вероятностных и статистических подходов к оцениванию информативности признаков в интеллектуальных системах принятия решений возможна в случае пропусков данных; большой размерности задачи и пр. и никак не связана с тем, в какой шкале измеряются значения оцениваемых признаков.

1. Основные определения и понятия

В общих чертах задача распознавания состоит в следующем [1 - 3, 7, 9].

Исследуется некоторое множество объектов О = (Оь ..., От}. Известно, что О представимо в виде объединения К подмножеств £ь ..., 8К , называемых классами. Наиболее общим определением класса является следующее [7]: класс - это совокупность (семейство) объектов, обладающих общими свойствами. Информация о свойствах объекта может быть получена путем наблюдений, измерений, оценок и т.п. и представлена совокупностью признаков, значения которых выражаются в числовых и/или вербальных шкалах. Входящие в один тот же класс объекты считаются неразличимыми (эквивалентными), а каждый класс объектов характеризуется некоторым качеством, отличающим его от других классов. Вместе все классы должны составлять исходную совокупность объектов.

Наряду с классом используется понятие образа [9]. В матричной модели представления данных и знаний, включающей матрицу описаний (0 объектов в пространстве характеристических признаков и матрицу различений (Я) объектов в пространстве классификационных признаков [9], множество всех неповторяющихся строк матрицы Я сопоставлено множеству выделенных образов. Элементами образа являются объекты, представленные строками матрицы Q, сопоставленными одинаковым строкам матрицы Я.

Если имеется единственный механизм классификации, матрица различений вырождается в столбец, что соответствует традиционному представлению знаний в задачах распознавания образов [1, 9].

Объекты из О описываются некоторой системой признаков &, ..., 2и}. Имеется конечный набор Оь..., От объектов из О, о которых известно, каким классам они принадлежат. Это прецеденты, или обучающие объекты. Пусть их описания имеют вид Ц\ = (Цп, ..., Ц\И ) , Ц2 = (Ч21, •••, Чш ) , •••, Чт = (Чт\, ..., Чти ) , здесь Цц -значение признака 2, для объекта О, . Требуется по предъявленному набору значений признаков (Ъь ..., Ьи), описывающему некоторый объект из О (не входящий в обучающее множество Оь..., От), о котором неизвестно, какому классу он принадлежит, определить этот класс.

2. Постановка задачи

Требования к подготовке данных (в соответствии с целями исследования) для математического анализа, для оценки характера распределения в исследуемой выборке (предварительный анализ данных) диктуют выполнение следующих работ [1 - 7]:

1) проверку однородности выбранных групп наблюдения, в том числе контрольных, что может быть проведено или экспертным путем, или методами многомерной статистики (например, с помощью кластерного анализа);

2) нормализацию переменных, т.е. устранение аномалий показателей в матрице данных (согласование мнений);

3) снижение размерности пространства признаков (формальными методами путем оценки информативности);

4) стандартизованное описание признаков;

5) построение классификационных шкал признаков, т.е. процедуру идентификации и установления физических границ изучаемых параметров и представление информации в квантованной форме (каждому значению признака соответствует определенное кодовое число).

Поставим, во-первых, задачу определения формальных подходов математической обработки и оценки информативности разнотипных признаков (п.п. 1, 3) -наиболее важных из вышеперечисленных как на этапе предварительного (для оценки характера распределения в исследуемой выборке), так и окончательного анализа в соответствии с целями исследования; во-вторых, задачу оценивания вероятностного распределения минимально необходимого числа информативных признаков, обеспечивающих заданный уровень надежности алгоритма (процедуры) распознавания, если известно вероятностное распределение признаков (что естественно для приложений, где накоплены соответствующие статистические данные).

3. Методы оценки информативности разнотипных признаков

Рассматриваются пять подходов к отбору информативных признаков: на основе дискретных методов поиска в обучающей выборке информативной зоны [2, 3]; на основе методов кластеризации [5 - 7, 10]; на основе предположения о нормальности распределений объектов в кластерах [11 - 14]; на основе теоретикоинформационного понятия энтропии [15, 16]; на основе непараметрических оценок плотности [19].

3.1. Нахождение в обучающей выборке информативной зоны

В [2, 3] описывается методика предварительного анализа обучающей информации, основанная на нахождении в обучающем материале информативной зоны (информативными считаются такие подописания (или фрагменты описаний), которые позволяют различать объекты из разных классов или отличать данный объект от всех объектов, не принадлежащих тому же классу, что и рассматриваемый) и типичных для своих классов объектов (наиболее представительных). Информативная зона выделяется на основе оценки типичности значений каждого признака. Предлагается два способа выделения типичных объектов: 1) типичными считаются объекты, описания которых состоят из типичных значений признаков; 2) типичными являются объекты, которые правильно распознаются на скользящем контроле. Так, к нетипичным («шумящим») признакам относятся признаки, принимающие много значений или значения которых редко встречаются во всех классах (про такие признаки нельзя сказать, что они являются значимыми). Каждый объект обучающей выборки, лежащий на границе между классами, также не является «типичным» для своего класса, поскольку его описание похоже на описания объектов из других классов.

Поиск информативных фрагментов основан на использовании аппарата дискретной математики, в частности булевой алгебры, теории дизъюнктивных нормальных форм, теории покрытий булевых и целочисленных матриц. Решению этой задачи посвящены работы [1 - 3, 9]. Так, в алгоритмах вычисления оценок, разработанных Журавлевым Ю.И. и его учениками [1 - 3], находятся оценки ансамблей признаков, которые являются обобщениями коэффициентов информативности, рассмотренных в [2].

Для тестовых алгоритмов распознавания образов в [2] введена мера важности признака (его информационный вес) как отношение числа вхождений признака во все безызбыточные (тупиковые) тесты к числу всех безызбыточных тестов. В работе [9] на основе матричной модели представления данных и знаний получена формула, выражающая числовую оценку различающей способности признака (весовой коэффициент признака).

Перечисленные в [1 - 3, 9] методы оценки информативности признаков показывают хорошие результаты в прикладных задачах. При этом под качеством распознавания понимается качество алгоритма вне обучающей выборки (способность алгоритма к обобщению или экстраполяции), которое оценивается долей (в процентах) правильно распознанных объектов при проведении процедуры скользящего контроля [10].

Отметим, что применение дискретного подхода оказывается во многих случаях сложным в силу чисто вычислительных трудностей переборного характера, возникающих на этапе поиска информативных фрагментов описаний объектов [3]. При числе признаков, равном М, число непустых подмножеств составляет 2м -1 и прямой перебор всех подмножеств оказывается невозможным уже при М порядка 20 даже на самых современных компьютерах. В силу экспоненциального роста числа фрагментов при возрастании размерности описаний, решение проблемы только за счет повышения производительности вычислительной техники нереально, поэтому дискретные методы трудно применимы для предварительного анализа большого объема обучающей информации.

Наиболее полное изложение методов дискретного анализа информации в задачах распознавания можно найти в [1 - 3, 10].

3.2. Отбор информативных признаков на основе методов кластеризации

Кластеризационные методы отбора признаков позволяют разбить выборку признаков на кластеры, состоящие из схожих признаков, и выделить в каждой группе по одному наиболее типичному представителю. Для применения методов кластеризации, рассмотренных, например, в [4 - 6, 10, 11], необходимо ввести метрику на множестве признаков 2. Рассмотрим возможные метрики на признаках.

Пусть 2Ь22 - два произвольных признака из 2. Выборочные векторы значений признаков (для объектов выборки О объема п) обозначим соответственно через 21 = (1(О1),^(О2),...,^(Оп)) и 22 =(22(ОД22(О2),...,22(Оп)). Рассмотрим три варианта определения функции расстояния р(2Ь 22).

1. Метрика на основе коэффициента линейной корреляции г(2Ь 22), применимая для количественных признаков:

р(21, 22)= 1 - |г(21, 22)|, Г (^, 22) = Ё ^ (О, ) • 22' (Ог ),

г =1

где 21’ (О,), 22 (О,) - нормированные и центрированные значения признаков 21, 22. Расстояние р(21, 22) = 0 тогда и только тогда, когда признаки связаны линейной зависимостью.

2. Метрика Кендалла - Кемени, применимая для порядковых признаков. Она определяется как доля пар объектов О, О] с различными порядковыми отношениями между значениями признаков 21 и 22:

Р^ 22) = Ё Ё И§П(21 (Ог ) - 21 (О] )) - (Ог ) - 22 (О] )) .

2 • Сп г=1 ]=г

Это расстояние равно нулю тогда и только тогда, когда признаки связаны монотонной зависимостью, то есть существует монотонная функция /, такая, что

21(О] ) = / (22(О] )) ) = 1 . . . , п).

3. Метрика Хэмминга, применимая для номинальных признаков с одинаковыми множествами допустимых значений = Б , которая обращается в нуль тогда и только тогда, когда векторы 21 и 22 совпадают:

Р(21, 22 ) = Ё [21 (Ог ) * 22 (Ог )] .

г =1

Для номинальных признаков с различными множествами значений ищется соответствие с: Б ^ Б22, при котором расстояние Хэмминга минимально (без ограничения общности предполагается, что | > |Б22 |):

Если необходимо найти метрику между разнотипными признаками, измеренными в разных шкалах, то они сначала приводятся к одной общей шкале [6 - 8, 11].

Отметим следующие особенности применения методов кластеризации.

Во-первых, если в исходном множестве признаков будут присутствовать неинформативные признаки, то могут появиться кластеры, целиком состоящие из неинформативных признаков.

Во-вторых, вышеупомянутые метрики используют информацию о попарном сходстве между признаками, но не решают проблему мультиколлинеарности признаков (набор попарно некоррелированных признаков может оказаться линейно зависимым).

В-третьих, классификация по принципу минимального расстояния пригодна, если кластеры, соответствующие разным классам, разнесены достаточно далеко друг от друга [7], т.е. значения признаков, описывающих объекты из разных образов, достаточно далеки друг от друга.

3.3. Статистический кластер-алгоритм

Алгоритм построения кластеров в предположении о нормальности распределений объектов в кластерах (что является естественным во многих практических приложениях) использует кластер-критерий, предложенный в [12], и свойство оценок Мешалкина Л. Д. [13] оценивать параметры распределения кластера, наибольшего по количеству точек. Отметим, что условия критерия К. Пирсона [14] проверки гипотезы о совпадении центров двух многомерных нормальных совокупностей с известными ковариациями, различающихся сдвигом, являются непригодными для кластер-анализа в силу жесткости используемых предположений.

Идея построения кластер-алгоритма, разбивающего выборку признаков на кластеры, состоящие из схожих признаков, заключается в следующем.

Кластер-критерием на уровне значимости а проверяется гипотеза о принадлежности выборки одному нормальному распределению. Если гипотеза принимается, то выборка с вероятностью 1 - а содержит один кластер. Если гипотеза отвергается, то самый большой кластер вырезается эллипсоидом на уровне значимости а и к оставшимся точкам применяется описанная процедура в цикле. Процедура выделения кластеров заканчивается, когда все точки распределены по кластерам либо их количество невелико (а-остатки от проверки гипотез).

В отличие от большинства алгоритмов кластерного анализа данный статистический кластер-алгоритм не требует предварительного указания числа K классов, на которое надо поделить совокупность точек наблюдения, и решает задачи со сложными наложениями и пересечениями нескольких классов (случай, когда признаки могут принимать одинаковые значения для объектов из разных образов).

3.4. Методы оценки информативности признаков на основе энтропии

В терминах теории информации мерой трудности распознавания служит энтропия H распределений плотности вероятности образов [6, 15, 16].

1. Метод на основе формализма мультимножеств и теоретико-информационном понятии энтропии. Основанный на формализме мультимножеств [17] метод определения весовых коэффициентов признаков при принятии решения в интеллектуальных тестовых распознающих системах с матричным представлением данных и знаний [9] учитывает вклад признаков в распознающую способность теста с учетом их взаимозависимости и базируется на представлении совокупности всех различимых пар объектов из разных образов для каждого признака 2г, I = 1, M , в виде мультимножества [18].

Поставим данному признаку 2г в соответствие совокупность различимых г-м признаком пар объектов из разных образов и будем говорить, что признак 2г по-

рождает мультимножество {кР (и) • и | и е и, кР (и) е 2+ }. Таким образом, представленные признаки [17] являются множествами с повторяющимися элементами и е и (мультимножествами), при этом мощность мультимножества определяется как общее число его элементов, где множество и - домен или универсальное множество [17], откуда «черпают» свои возможные значения мультимножества, порожденные соответствующими признаками. Заметим, что элементы домена и являются обозначениями пар объектов из разных образов, поэтому элементы (/-/') и (/-/) (пары номеров объектов) считаются эквивалентными (г'^т, г',]е{1, ..., К}).

Обозначим через Р(у/г) вероятность «проявления» у-го элемента домена для г-го образа, тогда вероятность у-го элемента домена для всех К образов равна

К

Ру = ^Р(у/г). С учетом условия нормировки доля г-го образа в этой сумме

г=1

гг = Р(у / г)/ Р(у) и энтропия у-го элемента домена выражается следующим значе-

К

нием: Ну = -^ Г • ^2 Гг .

г =1

Из свойства аддитивности энтропии следует, что общая неопределенность при

распознавании образов по признаку 2, имеет вид Н2 = -^ Ну • Ру. Количество

у=1

информации, получаемой в результате измерения признака 2г , равно Н0 - Н21 , Н0 - исходная неопределенность относительно образов Н0 = К.

При качественном анализе эмпирических данных роль вероятностей Р(у / г) (вероятность «проявления» у-го элемента домена для г-го образа) играют их выборочные оценки (частости, доли).

В реальных таблицах данных зависимость между признаками наблюдается очень часто. А если признаки зависимы, то при выборе наиболее информативной подсистемы признаков оценками их индивидуальной информативности руководствоваться нецелесообразно.

2. Анализ взаимосвязи признаков на основе энтропии. Трактовка статистической связи между переменными 2г и 2т сводится к оценке количества информации 1(2, 2т) = Н(2т) - Н(2,- / 2г), которое уменьшает неопределенность того, какое значение примет 2т, если известно значение 2г. В качестве оценки меры сопряженности примем долю сопряженного разнообразия величины 2т, включенной в систему (2г, 2,), по сравнению с разнообразием (энтропией) 2, рассматриваемой отдельно: 1(2, 2,)/Н(2,), где в явной форме величина 1(2, 2,) определяется по формуле

I (2,, )= -£ £ р х, у„ >1се2 = -£ р( х,, у„) кхъ 22-,

,=1 к=1 Р( х,) ,=1 к=1 Р( х,) • Р( Ук)

где I - число градаций признаков.

Отметим, что в силу симметричности выражения 1(2, 2,) относительно 2/, 2, значения количества информации, заключенного в признаке 2г о признаке 2, и заключенного в признаке 2, о признаке 2, равны [14], т.е. среднее количество информации есть мера соответствия двух признаков, характеристика их связи, а не характеристика одного из признаков.

Взаимная информация 1(2, 2,) обращается в нуль тогда и только тогда, когда признаки 2{ и 2, статистически независимы. Максимальное значение взаимной информации, равное Н(2г) или Н(2,), соответствует функциональной зависимости (полной связи) признаков 2г и 2,, когда каждому значению признака 2г соответствует единственное значение признака 2,. Заметим, что использование коэффициента 1(2, 2,)/Н(2,) для разделения признаков на «зависимые» и «определяющие», вообще говоря, не имеет достаточного обоснования.

Отметим, что построение теоретико-информационной меры связи может осуществляться не только на основе энтропии. Важным примером такой меры служит коэффициент Валлиса, реализующий принцип «пропорциональной предик-ции», согласно которому мерой связи должно служить относительное уменьшение вероятности ошибки предсказания признака 2, при знании признака 2г в сравнении с вероятностью ошибки прогноза 2, без знания 2. Интерпретация коэффициента Валлиса весьма проста: если, например, его значение равно 0,5, то знание

2г уменьшает число ошибок прогноза значения 2, вдвое. Однако в выборочных исследованиях предпочтительнее пользоваться не коэффициентом Валлиса, а информационными мерами связи, значимость которых может быть установлена, например, в соответствии с критерием Пирсона [14].

3.5. Оценка информативности разнотипных признаков на основе непараметрических оценок плотности

Методы оценивания плотности вероятности в пространствах общего вида предложены и первоначально изучены в [19]. В частности, в задачах классификации объектов нечисловой природы предлагается использовать непараметрические ядерные оценки плотности типа Парзена - Розенблатта (этот вид оценок и его название введены в [19] по имени американских ученых Парзена и Розенблатта, ранее использовавших подобные статистики в случае X = Я1, р (хг, х) = |х, - х|):

нивается плотность; р(хг, х) - расстояние между элементом выборки хг и точкой х, в которой оценивается плотность; последовательность показателей размытости {кп } такова, что при п — да кп — 0 и пкп — да; уп (кп, х) - нормирующий мно-

X

В [19] показано, что оценка плотности типа Парзена - Розенблатта /п (х) является состоятельной (/п (х) — / (х) по вероятности при п — да) и оценена сред-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Поскольку пространство разнотипных признаков - это декартово произведение непрерывных и дискретных пространств, то для случая фиксированного числа градаций качественных признаков непараметрическую оценку плотности можно свести к произведению частоты попадания в точку в пространстве качественных признаков на классическую оценку Парзена - Розенблатта [19] в пространстве количественных признаков. Расстояние р( х, у) можно рассматривать как сумму

где К: Я+ —— Я1 - ядерная функция; {х1, х2,..., хп} е X - выборка, по которой оце-

житель, обеспечивающий выполнение условия

неквадратическая скорость сходимости ядерных оценок ап = Е (/п (х) — / (х))2.

евклидова расстояния р1 между количественными факторами, расстояния р2 между номинальными признаками (р2 (х, у) = 0, если х Ф у, и р2 (х, у) = 1, если х = у), и расстояния р3 между порядковыми переменными (если х и у - номера градаций, то р3 (х,у) = |х - у|).

Рассмотрим подход к оценке качества алгоритма распознавания образов как функции «качества» обучающей выборки (объема и содержания выборки в виде «объект-признак»). Основу данного подхода к оценке качества процедуры распознавания составляет заданная информация о частотах встречаемости признаков (оценках вероятностей проявления признака) для каждого из классов (образов). Получим двусторонние оценки для вероятности минимального числа признаков, обеспечивающих гарантированный уровень качества процедуры распознавания, при этом будем использовать вероятностную модель пересечения случайным процессом определенного уровня.

Пусть ^ = |г- (т) - случайная величина (с.в.), означающая число корректно

распознанных объектов на обучающей выборке признаком 2г, г' = 1, п (п - число признаков, т - число объектов).

познанных объектов по п первым признакам, ранжированным каким-либо образом, например, по убыванию весовых коэффициентов признаков, вычисленных по обучающей выборке (например, по формулам, предложенным в [20]), и является числовой интерпретацией меры надежности распознавания, или качества работы алгоритма распознавания [10, 11].

Введем с.в. (момент остановки случайного процесса Фп [21, 22]):

где д0 - заданный уровень надежности (качества) процедуры (алгоритма) распознавания.

Поставим задачу оценить вероятностное распределение Яп = Р(т > п) величины т, или минимально необходимого числа информативных признаков, обеспечивающего заданный уровень надежности распознавания, если известно вероятностное распределение признаков.

Знание распределения величины т, являющейся пороговым значением качества алгоритма распознавания, позволит: а) оценить требуемое количество признаков (п) для достижения заданного уровня качества распознавания; б) оптимизировать процедуру распознавания по параметрам п, т, а также их весовым коэффициентам. Так, в приложениях (геологических, медицинских и пр.) актуально решение вопроса о соотношении длины выборки данных (т) (например, дорогостоящее бурение дополнительной скважины) и числа характеристических признаков (п) (введение менее дорогостоящего дополнительного анализа для уже имеющихся данных).

4. Двусторонние оценки для вероятности минимального числа признаков, обеспечивающих гарантированный уровень качества процедуры распознавания

представляет собой долю корректно рас-

т = шДп > 1: Фп > %},

Обозначим

П (к) = Р(^г = к) = X П Р],г П (1 - Рй )

111

(11-- 1к№к ,=1 ге{1,...,т}\Jk

V = Е^1 = Xк • П(кX ст2 = = X (к - у1 )2 • П(к)

к=1 к=0

и сформулируем результат проведенного исследования.

Теорема. Пусть признак 21, 1 = 1,п, распознает объект 0}- = {а/, ..., а]п},

1 = 1, т, с вероятностью р]1 и справедливо условие

к | д0т V1 |< есст2Х-', ес = 1пс • с-1 /2, 1 = 1,п,

где к - некоторая положительная величина, 0<к<1. Тогда имеют место оценки для надежности распознавания Яп = Р(т > п) (вероятности обеспечения заданного качества распознавания):

Кп < С1еХР | —с2 (%т)-

X

.1=1

2

2 -1/2 ст ,с

+ Со

а2 + (д0т) 2 сХст

1=1

- С5 X

где и = (д0т - уг-) / стг- , величины с, 1 = 1,5, не зависят от п и являются известными функциями от величин (а, р, д, с):

с1 = (5/2а)1/2р, с2 =п2(1 - 3а1/2)с~1/2 /(8 р), с3 = (д - 1)с2,

с4 =п2р(1 + 15а3/4)/8, с5 = с2 д +1,

д -1

а< 1/16, 1/р +1/д = 1, р > 1, с > 1.

Заключение

Выбор полезной информации (отбор признаков) является важной операцией, поскольку для решения любой классификационной задачи целесообразно отобрать признаки, несущие не «шум» и не иррелевантную (не относящуюся к цели исследования), а полезную для данной задачи информацию. Для трех статистических подходов оценки информативности признаков, рассмотренных в статье, произведен сравнительный анализ (по числу ошибок классификации) на данных известного репозитория [24], подтвердивший экспериментально целесообразность использования в решающих правилах не все исходные признаки, а наиболее информативные

Если имеется несколько различных методов обучения (соответственно несколько алгоритмов), то в задаче выбора модели (в отсутствии других априорных предпочтений) можно выбирать ту модель, которая обладает лучшей обобщающей способностью [10] (лучшей результативностью на независимой выборке). Дело в том, что по мере увеличения числа используемых признаков (сложности

модели) средняя ошибка на обучающей выборке, как правило, монотонно убывает. При этом средняя ошибка на независимых контрольных данных сначала уменьшается, затем проходит через точку минимума и далее только возрастает. Это явление называют переобучением [10, 11, 23]. Однако получение теоретических оценок вероятности переобучения (отклонение частот ошибок алгоритма на контрольной и обучающей выборке) пока остаётся открытой проблемой [23].

За оценку информативности признака в распознавании образов принято считать отношение качества распознавания контрольной выборки в полном пространстве признаков к качеству распознавания, проводимого без учета оцениваемого признака [1 - 3, 10, 11] (метод скользящего контроля). Если известен вид функции распределения, информативность признаков может оцениваться через средние квадратичные отклонения [5].

Выбор метода исследования на реальных базах данных и знаний целесообразно осуществлять пропорционально эффективности соответствующего метода на контрольной выборке.

ЛИТЕРАТУРА

1. Журавлев Ю.И., Гуревич И.Б. Распознавание образов и анализ изображений // Искусственный интеллект: В 3 кн. Кн 2. Модели и методы: Справочник / Под ред. Д.А. Поспелова. М.: Радио и связь, 1990. С. 149-190.

2. Дмитриев А.И., Журавлев Ю.И., Кренделев Ф.П. О математических принципах классификации предметов или явлений // Дискретный анализ. Новосибирск: ИМ СО АН СССР, 1966. Вып. 7. С. 1 - 17.

3. Дюкова Е.В., Песков Н.В. Построение распознающих процедур на базе элементарных классификаторов. URL: www.ccas.ru/frc/papers/djukova05construction.pdf.

4. АйзерманМ.А., Алескеров Ф.Т. Выбор вариантов: основы теории. М.: Наука, 1990. 136 с.

5. МиркинБ.Г. Анализ качественных признаков и структур. М.: Статистика, 1980. 317 с.

6. Загоруйко Н.Г. Прикладные методы анализа данных и знаний. Новосибирск: Изд-во Ин-та математики, 1999. 270 с.

7. Ту Дж., Гонсалес Р. Принципы распознавания образов. М.: Мир, 1978. 415 с.

8. Лбов Г.С. Методы обработки разнотипных экспериментальных данных. Новосибирск: Наука, 1981.

9. Yankovskaya A.E. Test pattern recognition with the use of genetic algorithms // Pattern Recognition and Image Analysis. 1999. V. 9. No. 1. P. 121 - 123.

10. Воронцов К.В. Обзор современных исследований по проблеме качества обучения алгоритмов // Таврический вестник информатики и математики. 2004. № 1. С. 5 - 24. URL: http://www.ccas.ru/frc/papers/voron 04twim.pdf.

11. Воронцов К.В. Лекции по методам оценивания и выбора моделей. 2007. URL: www.ccas. ru/voron/download/Modeling.pdf.

12. Шурыгин А.М. Статистический кластер-алгоритм // Математические методы распознавания образов: Сб. докл. 13-й Всерос. конф. Ленинградская обл., г. Зеленогорск, 30 сентября - 6 октября 2007 г. М.: МАКС Пресс, 2007. С. 241 - 242.

13. Meshalkin L.D. Some mathematical methods for the study of noncommunicable diseases // Proc. 6-th Intern. Meeting of Uses of Epidemiol. in Planning Health Services. Yugoslavia, Primosten, 1971. V. 1. P. 250 - 256.

14. Pearson K. On the criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can reasonably be supposed to have arisen from random sampling // Phil. Mag. 1900. V. 50. P. 157 - 175.

15. Перегудов Ф.И., Тарасенко Ф.П. Введение в системный анализ. М.: Высшая школа, 2001. 396 с.

16. Колесникова С.И., Янковская А.Е. Статистический подход к оцениванию зависимых признаков в интеллектуальных системах // Математические методы распознавания об-

разов: Сб. докл. 13-й Всерос. конф. Ленинградская обл., г. Зеленогорск, 30 сентября -6 октября 2007 г. М.: МАКС Пресс, 2007. С. 143 - 146.

17. Петровский А.Б. Упорядочивание и классификация объектов с противоречивыми признаками // Новости искусственного интеллекта. 2003. № 4. С. 34 - 43.

18. Янковская А.Е., Колесникова С.И. О применении мультимножеств к задаче вычисления весовых коэффициентов признаков в интеллектуальных распознающих системах // Искусственный интеллект. Украина, Донецк: «Наука i освгга», 2004. № 2. С. 216 - 220.

19. Орлов А.И. Анализ нечисловой информации в социологических исследованиях. М.: Наука, 1985. С. 58 - 92.

20. Колесникова С.И., Янковская А.Е. Оценка значимости признаков для тестов в интеллектуальных системах // Изв. РАН. Теория и системы управления. 2008. № 6. С. 135 - 148.

21. Новиков А.А. О времени выхода сумм ограниченных случайных величин из криволинейной полосы // Теория вероятностей и ее применения. 1981. Т. 26. № 2. С. 287 - 301.

22. ШиряевА.Н. Вероятность. М.: Наука, 1980. 575 с.

23. Vorontsov K. V. Combinatorial probability and the tightness of generalization bounds // Pattern Recognition and Image Analysis. 2008. V. 18. No. 2. P. 243 - 259.

24. Merz C.J., Murphy P.M. UCI Repository of machine learning datasets // Information and Computer Science University of California, Irvine, CA, 1998. URL: http://www.ics.uci. edu/~mlearn/databases.

Статья представлена кафедрой программирования факультета прикладной математики и кибернетики Томского государственного университета. Поступила в редакцию 9 октября 2008 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.