Научная статья на тему 'Минимизация эмпирического риска при построении монотонных композиций классификаторов'

Минимизация эмпирического риска при построении монотонных композиций классификаторов Текст научной статьи по специальности «Математика»

CC BY
140
17
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Гуз И. С.

В работе описывается метод обучения монотонного классификатора, минимизирующий эмпирический риск. На основе этого метода синтезируется монотонная композиция, построенная над результатом работы нескольких независимо обученных алгоритмов. Проводится исследование качества классификации монотонной композиции на реальных задачах в зависимости от числа и типа алгоритмов, входящих в ее состав.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Гуз И. С.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Минимизация эмпирического риска при построении монотонных композиций классификаторов»

УДК 519.7:004.852

И.С. Гуз

Московский физико-технический институт (государственный университет)

Минимизация эмпирического риска при построении монотонных композиций

классификаторов

В работе описывается метод обучения монотонного классификатора, минимизирующий эмпирический риск. На основе этого метода синтезируется монотонная композиция, построенная над результатом работы нескольких независимо обученных алгоритмов. Проводится исследование качества классификации монотонной композиции на реальных задачах в зависимости от числа и типа алгоритмов, входящих в ее состав.

Ключевые слова: монотонный классификатор, монотонная корректирующая операция, качество классификации алгоритмических композиций.

При решении прикладных задач классификации очень часто возникает ситуация, когда ни один из существующих алгоритмов в отдельности не решает задачу с достаточным качеством. В таких случаях пытаются учесть сильные стороны каждого отдельного алгоритма за счет построения из них некоторой композиции.

В работе рассматривается проблема повышения качества классификации при помощи построения алгоритмических композиций для задач, описываемых некоторой выборкой объектов, где каждый объект принадлежит одному из двух непересекающихся классов, -1 и +1. Предполагается, что существует набор базовых алгоритмов, независимо обученных на заданной выборке. Причем каждый базовый алгоритм определяет для каждого объекта не только его класс, но и оценку принадлежности классу +1. Этим свойством обладают многие известные алгоритмы классификации, например, байесовские классификаторы, нейронные сети, логистическая регрессия, дерево решений CART и другие. В байесовских классификаторах оценка принадлежности интерпретируется как апостериорная вероятность того, что объект принадлежит классу +1. Однако в данной работе никаких предположений о вероятностной природе данных не делается, и оценки принадлежности интерпретируются в более широком смысле. Чем больше оценка, тем с большей уверенностью можно утверждать, что объект принадлежит классу +1.

В качестве алгоритмической композиции в работе рассматривается монотонная корректирующая операция [16], которая является монотонной функцией в пространстве оценок принадлежности. Использование монотонной функции оправдано тем, что если для одного объекта оценки принадлежности не меньше, чем для другого, то и оценка принадлежности первого объекта, рассчитанная с помощью композиции, должна быть не меньше, чем для второго. Монотонные корректирующие операции образуют более широкое семейство по сравнению с выпуклыми (линейными с неотрицательными коэффициентами), используемыми в методах голосования, в частности, в бу-стинге [19]. Это позволяет точнее настраиваться на данные и использовать существенно меньшее число базовых алгоритмов, но, как было показано в [1], повышает риск переобучения.

Известно несколько методов построения монотонной функции, точно или приближённо проходящей через заданные точки. Изотонная регрессия [2] позволяет рассчитать значение монотонной функции на каждом объекте таким образом, чтобы сумма квадратов разности значения класса и значения восстанавливаемой функции по всем объектам была минимальна. Этот метод предполагает непрерывность монотонной функции, и после его применения необходимо выбрать порог отсечения, при котором относить объекты к каждому из классов. Другой метод, описанный в [3], использует жадный алгоритм удаления объектов, нарушающих монотонность. Все эти методы являются эвристическими и не гарантируют минимум эмпирического риска, то есть числа ошибок классификации на обучающих данных.

Целью данной работы является конструктивное доказательство существования метода обучения монотонной корректирующей операции, минимизирующего эмпирический риск, а также исследование её обобщающей способности при решении прикладных задач.

I. Постановка задачи классификации на два класса

Пусть задано конечное множество X = {ж1, ж1, ..., жь}, состоящее из Ь объектов, в котором каждый объект х% описывается вектором из п вещественных признаков {ж1, ж2, ..., ж”} € И”. Этим объектам соответствует множество классов У = {уо, у1, ..., уь_1}, в котором значения классов Уг € { — 1, + 1}. Если для двух объектов жг и ж* выполняется условие V к = 1, ..., п : жк > жк, то будем считать, что жг > ж*. Если же 3 к, £ : жк > ж^, ж* < ж*, то будем считать, что объекты жг и Жj несравнимы и будем обозначать жг||ж*. Назовем множество X генеральной выборкой, и будем считать, что среди объектов нет двух одинаковых.

Пусть также задано множество А, элементы которого называются алгоритмами, где каждый алгоритм а € А : Ип ^ {-1, + 1}. Существует бинарная функция I : А х X ^ {0,1}, называемая индикатором ошибки. Если I(а,ж) = 1, то алгоритм а € А допускает ошибку на объекте ж. Вектором ошибок алгоритма а € А будем называть Ь-мерный бинарный вектор {I(а^)}^. В качестве множества алгоритмов А рассмотрим семейство монотонных алгоритмов классификации, то есть а € А ^ (V ж1, ж2 € Ип : ж1 ^ ж2 ^ а(ж1) ^ а(ж2)).

Методом обучения называется отображение ^ : X ^ А, которое ставит в соответствие генеральной выборке X некоторый алгоритм а € А. Цель работы состоит в построении метода обучения ^, минимизирующего эмпирический риск, то есть в выборе такого монотонного алгоритма, для которого количество ошибок классификации на генеральной выборке минимально:

ь

^^) = ащшт(\^ I (а,жг)).

а€Л —/

г=0

II. Минимизирующий эмпирический риск монотонный классификатор

Будем считать, что все монотонные алгоритмы из множества А различимы на генеральной выборке X, то есть их векторы ошибок на выборке X попарно различны. В этом случае любой монотонный алгоритм а € А полностью определяется двумя непересекающимися множествами:

П+ = {ж € X : а(ж) = +1};

0_ = {ж € X : а(ж) = -1}.

Эти множества должны обладать свойством, необходимым и достаточным для монотонности алгоритма а:

V ж1 € П_, V ж2 € П+ : ж2 > ж1 V ж2||ж1 (1)

Тогда задача метода обучения ^, минимизирующего эмпирический риск, состоит в построении таких множеств и П+, обладающих описанным выше свойством, для которых число ошибок монотонного классификатора минимально, то есть:

^ [Уг = +1] + ^ [У* = -1] ^ тт. (2)

ЖгбП— Xj ЕП +

Назовем пару индексов (г,^) дефектной, если выполняется одно из условий жг > ж*, уг < у* или

жг < ж*, уг > у*.

Теорема 1. Сложность обучения монотонного алгоритма а, минимизирующего эмпирический риск, равна 0(т\/^), где т — число дефектных пар, образованных объектами генеральной выборки X, а (I — число объектов генеральной выборки, образующих дефект.

о На основе генеральной выборки X, а также информации о классах У построим двудольный граф. Вершинами этого графа будут являться индексы объектов генеральной выборки, причем одна часть графа и_ состоит из таких индексов _?’, для которых у* = -1, а другая часть

состоит из таких индексов г, для которых уг = +1. Ребро между вершинами с индексами (г,^)

будет существовать только в том случае, если (£,_/) — дефектная пара. Поскольку дефектной может быть только пара, у объектов которой значения классов различны, то граф действительно получается двудольным (рис. 1).

11 Ь _М________________________________и_____________________________________кг__ /г.# и у,-= +1

У/ Ь л )1-2 ш }г У г -}

Рис. 1. Двудольный граф, отображающий все дефектные пары в генеральной выборке. Вершина графа — индекс объекта генеральной выборки, ребро графа — дефектная пара

Для построения множеств 0_ и 0+ для каждого объекта хг € X введем булеву переменную иг, определяющую, будет ли на этом объекте ошибка:

иг = 1 ^ (г € и+ Л г € 0_) V (г € и_ Л г € 0+);

щ = 0 ^ (г € и+ Л г € 0+) V (г € и_ Л г € 0_).

Тогда условие (2) запишется в виде

ь

иг ^ ш1п . (3)

г=1

Заметим, что если две вершины г € Ц+, j € и_ соединены ребром, то есть образуют дефектную

пару, то это означает, что хг < х^-. Если же они не соединены ребром, то это означает, что либо

хг > xj•, либо хг||х^.

Поэтому если вершина г € и+ является изолированной, то иг = 0 и г € 0+. Аналогично если вершина j € и_ является изолированной, то Uj = 0 и j € 0_. После удаления изолированных вершин двудольный граф становится связным.

Чтобы было выполнено ограничение (1), необходимо, чтобы для каждой дефектной пары хотя бы на одном индексе допускалась ошибка. В терминах графа это требование означает, что необходимо выбрать вершины графа таким образом, чтобы каждое ребро было инцидентно хотя бы одной выбранной вершине. Условие (3) означает, что число таких вершин должно быть минимально. Таким образом, исходная задача по построению множеств 0_ и 0+ эквивалента задаче о минимальном вершинном покрытии в связном двудольном графе, образованном дефектными парами индексов генеральной выборки.

По теореме Кёнига [4] для связного двудольного графа задача о максимальном паросочетании сводится к задаче о минимальном вершинном покрытии. При этом сложность построения максимального паросочетания для двудольного графа в соответствии с алгоритмом Хопкрофта-Карпа [5] равна 0(т\/й). Здесь т — число ребер графа, то есть число дефектных пар, а д — число вершин графа, то есть число объектов, образующих дефект.

Воспользуемся методом построения монотонного алгоритма а, описанным в [15, 16], на основе множеств 0_ и 0+:

а(г) = sign(р(г,0+) - р(г,0_)).

Здесь множества 0^ и 0+ определены следующим образом:

0+ = {хг € 0+ : V Xj € 0+/xгXj > хг V Xj ||хг} — верхнее граничное множество;

0_ = {хг € 0_ : V Xj € 0_/xгXj < хг V Xj||хг} — нижнее граничное множество.

Расстояния р от точки г до этих множеств равны

р(г,0+) = шт (шах([х1 - г1]+,[х2 - г2]+, ..., [хп - гп]+)); р(0_,г) = шт (шах([г1 - х|]+,[г2 - х2]+, ..., [гп - хп]+)),

где операция [х]+ обозначает х, если х ^ 0 и 0, если х < 0.

В [3] доказано, что построенный таким образом алгоритм а, действительно будет монотонным.

Для пояснения метода обучения монотонного алгоритма, минимизирующего эмпирический риск, рассмотрим его работу на примере модельной задачи классификации (рис. 2 и рис. 3).

Отметим, что доказанный в теореме 1 метод построения монотонного алгоритма может быть также использован для улучшения оценки полного скользящего контроля для монотонных классификаторов, доказанной в [6], позволяя точно рассчитывать степень немонотонности конкретной выборки.

Рассмотрим теперь результаты применения монотонной корректирующей операции, минимизирующей эмпирический риск, при решении прикладных задач классификации.

Рис. 2. На графике слева изображена двумерная генеральная выборка. Справа на объектах, образующих дефект, построен двудольный граф, и для него найдено максимальное паросочетание (выделено толстыми линиями)

Рис. 3. На графике слева на основе максимального паросочетания построено минимальное вершинное покрытие (вершины выделены серым), определяющее состав множеств и П+. Справа на

основе этих множеств построен монотонный алгоритм а. Ломаная, разделяющая области значений — 1 и +1 этого алгоритма, выделена пунктиром

III. Эксперименты и результаты

Численные эксперименты проводились на четырех бинарных задачах классификации из репозитория UCI, различающихся как по числу объектов, так и по трудности их решения: Ionosphere, 351 объект; Spambase, 4601 объект; Musk (Version 2), 6598 объектов; Adult, 48842 объекта.

В качестве базовых алгоритмов классификации, определяющих для каждого объекта не только его класс, но и вероятность отнесения к этому классу, использовались следующие классические алгоритмы: решающие деревья С50 [7], CART [8], QUEST [9], CHAID [10]; нейронная сеть на основе многослойного персептрона [11]; к ближайших соседей [12], логистическая регрессия [13] и SVM с автоматическим выбором функции ядра [14].

В качестве композиции использовалась рассматриваемая в данной работе монотонная функция (Monot), которая сравнивалась с двумя другими классическими композициями. В качестве первой использовался алгоритм голосования вероятностями за каждый из классов (Voting), который относит объект к тому классу, за который сумма вероятностей базовых алгоритмов больше. В качестве второй использовался алгоритм, который относит объект к тому классу, вероятность отнесения к которому максимальна среди всех базовых алгоритмов (max).

Каждая из четырёх рассматриваемых задач случайным образом разбивалась на 2 выборки — обучающую, содержащую 70% объектов, и контрольную, содержащую 30% объектов. Каждый базовый алгоритм независимо от других обучался на обучающей выборке и затем применялся ко всем объектам обеих выборок для расчета вероятностей отнесения к обоим классам. Поверх этих оценок для обучающей выборки строилась монотонная функция, описанным в теореме 1 способом, которая затем также применялась для классификации всех объектов обоих выборок. Для двух других композиций не требуется обучение, поэтому они были сразу применены ко всем объектам, после обучения и применения базовых алгоритмов.

На рис. 4 приведены частоты ошибок рассматриваемых базовых алгоритмов и композиций, усредненные по 100 различным разбиениям, на обучающую и контрольную выборки (crossvalidation) для каждой из 4-х задач.

lonos phere Musk Spam base Adult

Обучение Контроль Обучение Контроль Обучение Контроль Обучение Контроль

Базовые Алгоритмы С50 0,019 0,104 0,015 0,038 0,042 0,080 0,123 0,135

CART 0,100 0,125 0,080 0,085 0,103 0,113 0,161 0,161

QUEST 0,108 0,134 0,098 0,101 0,153 0,158 0,189 0,188

CHAID 0,046 0,133 0,084 0,091 0,110 0,123 0,170 0,172

Logistic 0,376 0,440 0,037 0,050 0,072 0,077 0,149 0,150

NeuralNet 0,051 0,122 0,155 0,156 0,126 0,129 0,206 0,205

KNN 0,099 0,155 0,023 0,051 0,063 0,109 0,127 0,178

SVM 0,024 0,066 0,002 0,009 0,076 0,079 0,135 0,152

Композиции Max 0,376 0,440 0,006 0,017 0,063 0,074 0,128 0,138

Voting 0,022 0,079 0,030 0,039 0,056 0,067 0,139 0,148

Monot 0,002 0,099 0,000 0,014 0,022 0,064 0,099 0,143

Рис. 4. Средняя частота ошибок на обучающей и контрольной выборках для рассматриваемых задач, базовых алгоритмов и композиций. Жирным шрифтом выделен минимум значений в каждом столбце

Контроль Обучение

—Monot —Max Voting --a--Monot —Max -x--Voting

Число алгоритмов в композиции

щ °'06 s

3 Ог05

Spambase

»- *

T "•••. * = • — -

,--X

\ * -

Число алгоритмов в композиции

3 0,08 -

Ionosphere 0,16 Adult

> ■ * 0,14 vo ) ■ -■'ч\ -S — і р'

— ..t — 1 1 у'" „ I 0,13 -о го і ■' ' -Х"“ \ X ♦ ♦ У—-- >-■ ♦

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

tj го З- ОДІ * * А

"* . « . s « * * -• A * * * A A A

' -А

12345673 2 3 4 5 6 7 8

Число алгоритмов в композиции

Число алгоритмов в композиции

Рис. 5. Средняя частота ошибок на обучающей и контрольной выборке для рассматриваемых композиций в зависимости от числа наиболее качественных алгоритмов, входящих в их состав

Из рис. 4 видно, что для большинства задач качество классификации контрольной выборки некоторыми базовыми алгоритмами лучше, чем рассматриваемыми композициями, построенными над ними. Это связано с тем, что одни базовые алгоритмы существенно лучше решают конкретную задачу классификации, чем другие. Поэтому при построении композиций включение одних базовых алгоритмов добавляет новую информацию, помогающую повысить качество классификации всей композиции, тогда как включение других базовых алгоритмов лишь добавляет шум и снижает это качество.

Для устранения этого эффекта упорядочим все базовые алгоритмы по убыванию качества решения каждой задачи, то есть по возрастанию средней частоты ошибок на контрольной выборке. Будем последовательно включать базовые алгоритмы в соответствии с этим порядком в композиции и измерять их среднее качество на двух выборках, повторяя описанный выше эксперимент (рис. 5).

Анализ рис. 5 позволяет сделать вывод о сильной склонности монотонной композиции к переобучению, так как средняя частота ошибок на обучающей выборке для всех четырех задач достаточно быстро падает при добавлении каждого следующего алгоритма в отличие от средней частоты ошибок на контрольной выборке.

Также из рис. 5 видно, что для задач Musk и Ionosphere использовать рассматриваемые композиции не имеет смысла, поскольку добавление второго и всех последующих алгоритмов лишь ухудшает качество классификации. Действительно, для этих двух задач качество базового алгоритма SVM на контрольной выборке существенно превосходит качество всех остальных базовых алгоритмов на контрольной выборке (рис. 4). Поэтому остальные алгоритмы лишь добавляют шум, что приводит к ухудшению качества классификации. Этот эффект наиболее ярко выражен в задаче Ionosphere при добавлении восьмого базового алгоритма (логистическая регрессия) в монотонную композицию. Индивидуальное качество логистической регрессии на контрольной выборке в разы хуже, чем у остальных базовых алгоритмов, и ее добавление приводит к существенному падению качества всей композиции.

Для задачи Adult в случае построения монотонной композиции осмысленно использовать два базовых алгоритма (SVM и C50), хотя построенная композиция не дает существенного улучшения качества классификации по сравнению с одним базовым алгоритмом C50.

Для задачи Spambase в отличие от всех остальных использование всех восьми базовых алгоритмов приводит к наилучшему качеству классификации контрольной выборки монотонной композицией, причем это качество является наилучшим среди всех рассматриваемых алгоритмов (рис. 4).

Таким образом, построение монотонной композиции, используя независимо обученные базовые алгоритмы, может приводить к улучшению качества классификации как по сравнению с каждым из базовых алгоритмов, так и по сравнению с двумя другими рассматриваемыми в работе композициями. При этом если для некоторой задачи один базовый алгоритм решает задачу существенно лучше всех остальных, то построение монотонной композиции смысла не имеет, так как добавление остальных алгоритмов в композицию лишь вносит шум и приводит к переобучению.

Открытым остается вопрос о том, какими свойствами должен обладать очередной базовый алгоритм, чтобы при его добавлении в монотонную композицию повысить качество классификации контрольных данных.

Литература

1. Гуз И.С. Нелинейные монотонные композиции классификаторов // ММРО-13. — 2007. — С. 111-114.

2. Barlow R.E., Bartholomew D.J., Bremner J.M., Brunk H.D. Statistical inference under order restrictions; the theory and application of isotonic regression. New York: Wiley, 1972

3. Воронцов К.В. Локальные базисы в алгебраическом подходе к проблеме распознавания: диссертация на соискание ученой степени к.ф.-м.н., М.: ВЦ РАН — 1999.

4. Hopcroft J.E., Karp R.M. An n 5/2 algorithm for maximum matchings in bipartite graphs, SIAM Journal on Computing 2 (4): 225-231

5. nig D. Grafok es matrixok. Matematikai es Fizikai Lapok 38: 116-119.

6. Воронцов К.В. Комбинаторный подход к оценке качества обучаемых алгоритмов // Математические вопросы кибернетики. — 2004. — № 13. — С. 5-36.

7. Quinlan R. 2011, http://rulequest.com/see5-win.html

8. Breiman L., Friedman J.H., Olshen R.A., Stone C.J. Classification and regression trees. Monterey, CA: Wadsworth & Brooks / Cole Advanced Books & Software. 1984

9. Loh W.-Y., Shih Y.-S. Split selection methods for classification trees, Statistica Sinica. — 1997. — V. 7. — P. 815-840.

10. Kass G.V. An Exploratory Technique for Investigating Large Quantities of Categorical Data. Applied Statistics. — V. 29, N 2. — 1980. — P. 119-127.

11. Fine T.L. Feedforward Neural Network Methodology, 3rd ed. — New York: Springer-Verlag. — 1999.

12. Cover T.M., Hart P.E. Nearest neighbor pattern classification. IEEE Transactions on Information Theory 13 (1): 21-27.

13. Agresti A. Building and applying logistic regression models. An Introduction to Categorical Data Analysis. Hoboken, New Jersey: Wiley. P. 138.

14. Cortes C., Vapnik V. Support-Vector Networks, Machine Learning, 20, 1995.

15. Воронцов К.В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания // ЖВМ и МФ. — 2000. — Т. 40, № 1. — С. 166-176.

16. Рудаков К.В., Воронцов К.В. О методах оптимизации и монотонной коррекции в алгебраическом подходе к проблеме распознавания. Доклады РАН. — 1999. — Т. 367, № 3. — С. 314-317.

17. Воронцов К.В. Комбинаторные обоснования обучаемых алгоритмов // ЖВМ и МФ. — 2004. — Т. 44, № 11. — С. 2099-2112.

18. Журавлёв Ю.И. Об алгебраическом подходе к решению задач распознавания или классификации // Проблемы кибернетики. — 1978. — Т. 33. — С. 5-68.

19. Freund Y., Schapire R.E. A decision-theoretic generalization of on-line learning and an application to boosting. European Conference on Computational Learning Theory. — 1995. — P. 23-37.

Поступила в редакцию 19.06.2011.

i Надоели баннеры? Вы всегда можете отключить рекламу.