Научная статья на тему 'Особенности построения мультиклассификаторов на основе методов интеграции решений'

Особенности построения мультиклассификаторов на основе методов интеграции решений Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
104
17
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АЛГОРИТМ МУЛЬТИКЛАССИФИКАЦИИ / БУСТИНГ / НЕЧЕТКИЙ ИНТЕГРАЛ / АЛГОРИТМ FUZZYBOOST

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Самородов Андрей Владимирович

Предложена группировка методов и алгоритмов интеграции информации, рассмотрены методы и алгоритмы интеграции информации на уровне решений. Представлен новый алгоритм мультиклассификации FuzzyBoost, реализующий метод нечеткого усиления. Алгоритм FuzzyBoost обеспечивает построение квазилинейной композиции и основан на алгоритме AdaBoost, дополненном вычислением нечеткого интеграла вместо собственного линейного агрегационного правила AdaBoost на каждой итерации бустинга. Экспериментальные результаты показали, что в случае сложной разделяющей классы поверхности алгоритм FuzzyBoost имеет лучшую обобщающую способность, чем алгоритм AdaBoost.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Самородов Андрей Владимирович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Особенности построения мультиклассификаторов на основе методов интеграции решений»

УДК 004.93

А.В . Самородов

ОСОБЕННОСТИ ПОСТРОЕНИЯ МУЛЬТИКЛАССИФИКАТОРОВ НА ОСНОВЕ МЕТОДОВ ИНТЕГРАЦИИ РЕШЕНИЙ

Предложена группировка методов и алгоритмов интеграции информации, рассмотрены методы и алгоритмы интеграции информации на уровне решений. Представлен новый алгоритм мультиклассифика-ции FuzzyBoost, реализующий метод нечеткого усиления. Алгоритм FuzzyBoost обеспечивает построение квазилинейной композиции и основан на алгоритме AdaBoost, дополненном вычислением нечеткого интеграла вместо собственного линейного агрегационного правила AdaBoost на каждой итерации бустинга. Экспериментальные результаты показали, что в случае сложной разделяющей классы поверхности алгоритм FuzzyBoost имеет лучшую обобщающую способность, чем алгоритм AdaBoost.

Е-mail: avsbmstu@yandex.ru

Ключевые слова: алгоритм мультиклассификации, бустинг, нечеткий интеграл, алгоритм FuzzyBoost.

Введение. В области распознавания образов классической задачей является создание и совершенствование отдельных методов и алгоритмов классификации. Начиная с пионерских работ Л. А. Расстри-гина, Р.Х. Эренштейна и Ю.Л. Барабаша [1, 2] и преимущественно в последние 10 лет, особое внимание в области распознавания образов стало уделяться не отбору признаков и построению одного лучшего решающего правила, а поиску наилучшего набора базовых классификаторов и метода объединения их откликов [3, 4].

В современной научно-технической литературе широко представлены различные методы объединения как откликов некоторого набора классификаторов, так и информации о распознаваемом объекте. В работах используются разные основания для группировки таких методов и алгоритмов: по методам аппроксимации условных и априорных вероятностных распределений и видам дискриминантных функций [4]; по уровню интеграции информации [5]; по свойствам функций доверия [6]; по зависимости от контекстной информации [7]; по модели неопределенности [8]; по виду объединяемых откликов базовых классификаторов [9]; по свойствам применяемых для интеграции информации математических правил [10, 11] и др. В настоящее время общепринятой таксономии методов интеграции информации не существует, что сдерживает экспериментальное и теоретическое развитие этих методов.

Группировка методов интеграции информации. Для обеспечения возможности сравнительной оценки характеристик разных методов целесообразно группировать методы интеграции информации на основе интерпретации объединяемых величин. В зависимости от того, рассматриваются ли объединяемые величины как интерпретируемые в соответствии с той или иной моделью неопределенности, как скалярные величины с одинаковым «физическим» смыслом (значения которых сопоставимы) или как набор величин, не интерпретируемых явным образом, а рассматриваемых в качестве некоторого абстрактного вектора признаков, выделяются явные, скалярные и неявные методы интеграции. Реализация данных методов определяется уровнем, на котором выполняется интеграция информации. В зависимости от природы объединяемых величин выделяют уровни признаков, степеней схожести и решений (таблица).

Таблица

Примеры основных групп методов и алгоритмов интеграции информации

Уровень интеграции Методы интеграции

Явные Скалярные Неявные

Признаки Классификаторы Байеса, Неймана -Пирсона и др.; решающие деревья Метод эталонов Метод опорных векторов, нейронные сети и пр.

Степени схожести Классификатор Байеса; метод потенциальных функций Алгоритмы вычисления оценок; метод к-ближайших соседей; алгебраические операции

Решения Классификатор Бай-еса; методы теории Демпстера - Шефе-ра; методы теории нечетких множеств Комитеты; взвешенное среднее, упорядоченное взвешенное среднее; треугольные нормы и конормы; методы бэггинга и бустинга; нечеткое интегрирование Алгоритмы, использующие профили и шаблоны решений

В качестве моделей неопределенности выделяют вероятностные модели, описанные в байесовской теории, а также в теории свидетельств Демпстера - Шефера. Если в неопределенности доминирует нечеткость, то используют модели, формируемые в рамках теории нечетких множеств и нечеткой логики. К явным методам также отно-

сятся логические решающие правила, основанные на детерминированных моделях.

Скалярные методы основаны на гипотезе о сопоставимости абсолютных значений объединяемых величин и часто представляют собой приближение явных методов, а также их частные случаи при наложении ограничений на вид вероятностных распределений, зависимость объединяемых данных и др.

Неявные методы основаны на подходе к объединяемым величинам как к вектору признаков некоторого пространства и на формальном построении классификатора в этом пространстве признаков.

С помощью методов интеграции информации уровня признаков строятся классификаторы в пространстве, получаемом при объединении разнородных признаков, являющихся, например, результатами применения разных операторов к одним и тем же данным или различных методов сбора данных о распознаваемом объекте.

В методах интеграции информации уровня степеней схожести используются не сами признаки, а значения степеней схожести классифицируемого объекта с объектами обучающей выборки. При этом класс в обучающей выборке может задаваться одним или несколькими объектами-эталонами. Алгоритмы, относящиеся к данному уровню, называют метрическими.

Методы интеграции информации уровня решений представляют собой объединение откликов базовых классификаторов в виде наименований классов и (или) степеней уверенности в них. Соответствующие методы называют методами мультиклассификации. В качестве базовых классификаторов могут применяться любые алгоритмы классификации. Разработка и исследование методов и алгоритмов мультиклассификации относятся к ключевым проблемам современной теории распознавания образов [12].

Явные методы и алгоритмы мультиклассификации. В зависимости от модели неопределенности явные методы мультикласси-фикации подразделяют на вероятностные методы (байесовские методы и методы теории Демпстера - Шефера) и нечеткие методы (методы теории нечетких множеств и нечеткой логики).

Откликом базовых классификаторов в байесовских методах могут быть номера классов и (или) их апостериорные вероятности. В методах теории Демпстера - Шефера откликом базового классификатора является так называемое свидетельство в пользу некоторого решения (класса) или группы решений (классов) и степень доверия к этому свидетельству. В методах теории нечетких множеств откликами базовых классификаторов являются степени принадлежности распознаваемого объекта к рассматриваемым классам.

Статистически оптимальное правило объединения решений базовых классификаторов по критерию минимизации среднего риска

дается байесовской теорией статистического вывода. В случае матрицы потерь простейшего вида оптимальным правилом классификации является классификация по максимуму апостериорной вероятности. Обычным, хотя, как правило, ложным допущением при использовании байесовских методов мультиклассификации, является независимость откликов базовых классификаторов. Это приводит к использованию наивного байесовского классификатора, основанного на перемножении апостериорных вероятностей - откликов базовых классификаторов. На практике более распространенным вследствие устойчивости к погрешностям оценки вероятностей правилом является суммирование апостериорных вероятностей. Это правило статистически оптимально в случае, когда суммируемые апостериорные вероятности не сильно отличаются от априорных вероятностей классов [13]. Если откликами базовых классификаторов являются номера классов, то апостериорные вероятности классов, ассоциированные с тем или иным откликом базового классификатора, рассчитываются по обучающей выборке [4].

Теория Демпстера - Шефера построена на аксиоматическом введении функций доверия, использовании массовых функций в качестве мер доверия к свидетельствам и ортогональных сумм для комбинирования свидетельств. В ряде работ отмечено, что, несмотря на первоначальное признание теории Демпстера - Шефера в качестве обобщения классической теории вероятностей, она является лишь частным случаем последней [14]. На практике к существенным ограничениям применения теории Демпстера - Шефера приводит необходимость нормализации рассчитываемых степеней доверия, что при наличии конфликтующих свидетельств часто дает некорректные результаты.

В методах теории нечетких множеств неопределенность интерпретируется как нечеткость. Методы нечеткой логики основаны на обобщенном правиле выбора (modus ponens), математически описываемом с помощью треугольных норм, которые обобщают оценку пересечения нечетких множеств, и дуальных к ним треугольных ко-норм, обобщающих оценку объединения нечетких множеств. Различный математический вид треугольных норм и конорм определяет различные логики в рамках теории нечетких множеств [15].

Один из важнейших инструментов нечеткой логики - нечеткое интегрирование. Вычисление нечетких интегралов для интеграции откликов базовых классификаторов подразумевает использование дополнительной информации, представленной в виде нечетких мер, характеризующих степень доверия или «компетенцию» различных комбинаций базовых классификаторов. Несмотря на то, что нечеткое интегрирование изначально развивалось как один из методов инте-

грации степеней принадлежности, на практике оно стало мощным инструментом для объединения любой сопоставимой информации в целях построения мультиклассификаторов, уравнений регрессии и пр. [16]. Поэтому нечеткое интегрирование целесообразно отнести к группе скалярных методов мультиклассификации.

Скалярные методы и алгоритмы мультиклассификации. К таким методам и алгоритмам относятся различные правила интеграции откликов базовых классификаторов (комитет старшинства, комитет большинства (простое голосование), взвешенное голосование - для откликов в виде номеров классов, среднее, взвешенное среднее, упорядоченное взвешенное среднее, различные правила «суммирования» теории нечетких множеств и т. п. - для откликов в виде степеней поддержки каждого из классов) [4, 11].

Наиболее распространенным скалярным алгоритмом мультиклассификации является алгоритм AdaBoost, который кроме формирования линейной алгоритмической композиции обеспечивает построение или отбор из числа существующих базовых классификаторов, называемых в методе бустинга слабыми классификаторами. Метод бустинга может рассматриваться как метод аппроксимации аддитивной логистической модели, использующий в качестве критерия максимум функции правдоподобия Бернулли [17]. Для двухклассовой задачи аддитивная логистическая модель имеет вид

, P (У = И*) F t ) V f t ) m

logPt—(Г)=5ЛД4 (1)

где fm (x) = amhm (x) - отклик m-го слабого классификатора с весовым коэффициентом am; hm (x) е {—1; 1} - слабый классификатор; am - весовой коэффициент, характеризующий важность слабого классификатора в итоговой линейной композиции с учетом его отклика; M -число слабых классификаторов.

Модель (1) является линейной и представляет собой взвешенное голосование откликов слабых классификаторов. Различные версии алгоритма AdaBoost могут рассматриваться как процедуры последовательного построения модели (1). Основное отличие версий друг от друга заключается в вычислении весовых коэффициентов. В алгоритме Real AdaBoost отклик слабого классификатора fm находится как половина логарифма отношения взвешенных апостериорных вероятностей двух классов; в алгоритме Gentle AdaBoost - как разность взвешенных апостериорных вероятностей; в алгоритме Modest AdaBoost - с использованием значений апостериорных вероятностей

классов на обратном распределении весов примеров [18]. Более подробно алгоритмы АёаВооБ1 описаны в работе [17].

Еще одним методом построения алгоритмических композиций, используемым в случае действительнозначных откликов базовых классификаторов, является метод нечеткого интегрирования. При нечетком интегрировании базовые классификаторы ранжируются для каждого из классов по степени уверенности в поддержке этого класса. Затем определяются весовые коэффициенты, зависящие от ранга базового классификатора в этом упорядоченном множестве и от предварительно заданных нечетких мер для соответствующих комбинаций базовых классификаторов.

Композиция базовых классификаторов, основанная на нечетком интеграле Шоке, имеет вид [19]

м

?М(х ) = Е Са(т )/а(т)(х ^ (2)

т=1

где а - индекс перестановки откликов такой, что /а() (х) <... < /а(м) (х); са(т) - весовой коэффициент алгоритмической композиции,

Са(т )=м( Аа(т))-м{Аа(т+1)] , М - нечеткая мера; Аа(т ) =

= {а(т),а(т + 1), а(м)} , Аа{м+1)=0 .

Выражение (2) представляет собой. квазилинейную алгоритмическую композицию.

Одна из наиболее серьезных проблем использования нечеткого интеграла в качестве решающего правила - оценка нечетких мер

м(Аа(т)). Аналогично методам линейной регрессии такие меры могут быть найдены с использованием стандартной процедуры минимизации квадратичной формы с линейными ограничениями. Однако при больших значениях м задача становится плохо обусловленной, поэтому были предложены субоптимальные и эвристические подходы, например, основанные на концепции к-аддитивных нечетких мер [20-22]. Наиболее полное описание типов нечетких интегралов и областей их применения приведено в работе [16].

Неявные методы и алгоритмы мультиклассификации. В этих методах и алгоритмах отклики базовых классификаторов рассматриваются в качестве некоторых векторов признаков и строится новый алгоритм классификации в пространстве откликов базовых классификаторов. Все отклики базовых классификаторов для некоторого классифицируемого объекта представляют собой профиль решений. Далее решается задача классификации профиля решений с использованием

так называемых шаблонов решений - средних профилей решений для объектов обучающей выборки, относящихся к одному классу. Итоговая степень поддержки каждого из классов рассчитывается с помощью евклидова расстояния, различных мер схожести и индексов вхождения нечетких множеств, правил Демпстера - Шефера [4, 10].

Алгоритм нечеткого усиления. Одними из лучших алгоритмов мультиклассификации, демонстрирующих высокие вероятностные характеристики, являются алгоритмы АёаВооБ! и нечеткого интегрирования [4, 10, 16, 17]. С учетом взаимодополяющих характеристик алгоритмов АёаВооБ! и нечеткого интегрирования в литературе были предложены подходы к их совместному использованию. Было показано, что с помощью нечеткого интеграла можно объединять слабые классификаторы, отобранные алгоритмом АёаВооБ1, с результатом, как минимум, не хуже, а зачастую лучше, чем результат, обеспечиваемый собственным правилом агрегации алгоритма АёаВооБ! [10]. Применение метода бустинга для обучения нечетких классификаторов рассмотрено в работе [23]. В некоторых работах последовательная процедура бустинга была применена для отбора приближенных дескриптивных нечетких правил [24].

В данной статье развит новый подход к объединению алгоритмов АёаВооБ! и нечеткого интегрирования, в котором нечеткий интеграл встроен в алгоритм АёаВооБ! и используется для классификации на каждой итерации бустинга вместо собственного линейного агрегаци-онного правила алгоритма АёаВооБ! [25]. Общий вид двухклассового алгоритма Би22уВоо81 приведен ниже.

По обучающей выборке из N примеров (х{,у ), г = 1, ...,N, содержащих векторы признаков хг и метки классов уг е {—1; +1} :

1. Инициировать веса wi = 1/N, г = 1, ...,N .

2. Цикл по т = 1, ...,М .

2.1. Построить или выбрать существующий слабый классификатор Нт (х) =

= {^т)(х), ...,Ь^т)(х), ...,к\т)(х)} с I целевыми значениями Ъ^)(х)е{—1; +1}

с использованием весов м/г примеров обучающей выборки и с учетом степеней уверенности для каждого у-го целевого значения для каждого г-го примера ^ ^ )е[0, 1].

2.2. Вычислить отклики для каждого целевого значения слабого классифика-

А у)+ А у )—

тора в поддержку каждого из классов /т , /т .

2.3. Вычислить исходные данные для последующего расчета нечетких мер М + и м — в соответствии с их типом и свойством аддитивности.

2.4. Для примеров обучающей выборки вычислить степень поддержки т-м слабым классификатором каждого из классов с учетом степеней уверенности для

каждого целевого значения m-го слабого классификатора

m (x)=tPm) (xf)+, fm (x)=tp{m) (xf)-. j=i j=i

2.5. Для примеров обучающей выборки вычислить суммарную степень поддержки текущим набором слабых классификаторов каждого из классов с использованием нечеткого интеграла F^* (x), F^- (x) .

2.6. Для примеров обучающей выборки вычислить итоговый отклик текущего набора слабых классификаторов F^"( x) = F^" + ( x) - F^- ( x) .

2.7. Обновить веса примеров обучающей выборки wi = exp (-yimF^+' (xt)). 3. Построить итоговый мультиклассификатор sign (FM^ (x)) .

Степени уверенности р^)(хг-) для каждогоу-го целевого значения

слабого классификатора зависят от конкретного значения вектора признаков хI классифицируемого объекта. Для порогового слабого классификатора, имеющего два целевых значения и построенного

для к-го численного признака х(к), степень уверенности соответствует вероятности принадлежности измеренного значения признака рассматриваемого объекта области значений соответствующего целевого значения слабого классификатора

(x )=P

xt*)< x(*)

'thr

•it 2)

(x, ) = P

xt*) > xt*)'" i ^ thr

= 1 — P«

(x, )

где xh) m - пороговое значение k-го признака, определенное для

m-го порогового слабого классификатора в ходе его построения.

Степени уверенности с учетом предположения о гауссовости распределения погрешностей измерения признаков находятся с использованием стандартного нормального распределения.

В отличие от существующих алгоритмов бустинга, в алгоритме FuzzyBoost отклики для каждого целевого значения слабого классификатора рассчитываются отдельно для каждого из классов и с

учетом степеней уверенности p£j)(xi). Аналогично алгоритмам

AdaBoost в алгоритме FuzzyBoost выделены модификации Gentle и Real. Например, в алгоритме Gentle FuzzyBoost отклики j-го целевого значения слабого классификатора определяются как взвешенные апостериорные вероятности классов. Для двухклассового алгоритма

fm )+ = Z (у = l|x ) = ^-;

I ж)w

i=1

f( )-= Z (у = -1| X ) = 1- f()+.

Тип и свойства аддитивности нечетких мер определяют вид исходных данных, применяемых для их расчета и вычисляемых в ходе обучения алгоритма. Ранее в алгоритме FuzzyBoost были использованы супераддитивные ^-меры [25]. Однако с увеличением числа слабых классификаторов в алгоритмической композиции расчет ^-мер становится проблематичным. Согласно работам, посвященным нечеткой классификации [22, 26], наибольшей обобщающей способностью на практике обладают двухаддитивные нечеткие меры, которые позволяют учитывать взаимосвязи слабых классификаторов попарно. Для определения двухаддитивных нечетких мер необходимо по обучающей выборке оценить нечеткие плотности и индексы взаимодействия слабых классификаторов. В результате исследований в качестве нечетких плотностей были предложены константы, а в качестве индексов взаимодействия - величины, пропорциональные коэффициентам корреляции степеней поддержки слабыми классификаторами каждого класса с учетом требований к нормировке [22].

0,45

§ 0,4

о

К

3

О 035

л

н

CJ

О

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

£ 0,3

Он

PQ 0,25

°?20 50 100 150 200 250 300 Номер итерации

Рисунок. Примеры результатов применения алгоритмов Real (1), Gentle (2) и Modest (5) AdaBoost (реализация взята из GML AdaBoost Matlab Toolbox), а также Gentle FuzzyBoost (4) к смоделированной двухклассовой задаче в пространстве признаков с нелинейной разделяющей поверхностью (размер обучающей выборки 5 000, тестовой выборки 10 000)

Исследования качества предложенного алгоритма FuzzyBoost проводились на моделях в виде двух групп данных с аддитивной и с нелинейной разделяющими поверхностями между объектами двух классов в 10-мерном пространстве признаков. Указанные модели были разработаны и применены для исследования классических алгоритмов AdaBoost [17]. Полученные результаты свидетельствуют, что в случае данных с аддитивной разделяющей поверхностью алгоритм FuzzyBoost функционирует не хуже алгоритмов AdaBoost. Для данных с нелинейной разделяющей поверхностью рассмотренный алгоритм FuzzyBoost с двухаддитивными нечеткими мерами в отличие от алгоритмов AdaBoost обеспечивает существенное уменьшение вероятности ошибки (рисунок). В качестве слабых классификаторов использованы пороговые классификаторы.

Выводы. В данной статье предложена группировка существующих методов и алгоритмов интеграции информации и рассмотрены методы и алгоритмы мультиклассификации. Представлен новый алгоритм мультиклассификации FuzzyBoost, являющийся комбинацией алгоритма AdaBoost и нечеткого интегрирования. Результаты экспериментальных исследований показали, что предложенный алгоритм имеет лучшую обобщающую способность, чем алгоритм AdaBoost в случаях классов со сложными разделяющими поверхностями. Это связано, в первую очередь, с учетом зависимостей между слабыми классификаторами на каждой итерации бустинга и с построением не линейной, как в алгоритме AdaBoost, а квазилинейной композиции слабых классификаторов.

СПИСОК ЛИТЕРАТУРЫ

1. Расстригин Л. А., Эренштейн Р. Х. Метод коллективного распознавания. М.: Энергоиздат, 1981. 80 с.

2. Барабаш Ю. Л. Коллективные статистические решения при распознавании. М.: Радио и связь, 1983. 224 с.

3. Ho T. K. Multiple Classifier Combination: Lessons and the Next Steps // In Hybrid Methods in Pattern Recognition. World Scientific Publishing. 2002. P. 171-198.

4. Kuncheva L. I. Combining Pattern Classifiers: Methods and Algorithms. John Wiley & Sons, Inc., 2004. 350 p.

5. Ross A. A., Nandakumar K., Jain A. K. Handbook of Multibiometrics. Springer: Science+BusinessMedia, 2006. 198 p.

6. Horvitz E., Heckerman D., Langlotz C. P. A Framework for Comparing Formalisms for Plausible Reasoning // In Proc. National Conf. on Artificial Intelligence. Philadelphia, 1986. P. 210-214.

7. B l o c h I. Information Combination Operators for Data Comparative Review with Classification // IEEE Transactions on Systems, Man and Cybernetics. Part A: Systems and Humans. 1996. Vol. 26. No. 1. P. 52-67.

8. Bonissone P. P. Soft Computing: the Convergence of Emerging Reasoning Technologies // Soft Computing. 1997. No. 1. P. 6-18.

9. Ruta D., Gabrys B. An Overview of Classifier Fusion Methods // Computing and Information Systems. 2000. No. 7. P. 1-10.

10. Kuncheva L. I. "Fuzzy" versus "nonfuzzy" in Combining Classifiers Designed by Boosting // IEEE Transactions on Fuzzy Systems. 2003. Vol. 11. No. 6. P. 729-741.

11. Beliakov G. How to Build Aggregation Operators from Data //International Journal of Intelligent Systems. 2003. Vol. 18. P. 903-923.

12. Ghosh J. Multiclassifier Systems: Back to the Future // LNCS 2364. 2002. P. 1-15.

13. Kittler J., Hatef M., Duin R.P., Matas J.G. On Combining Classifiers // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1998. Vol. 20. No. 3. P. 226-239.

14. Джарратано Д., Райли Г. Экспертные системы: принципы разработки и программирование. М.: ООО «И. Д. Вильямс», 2007. 1152 с.

15. Яхъяева Г. Э. Нечеткие множества и нейронные сети. М.: Интернет-Университет Информационных Технологий; БИНОМ. Лаборатория знаний, 2008. 316 с.

16. Grabisch M., Labreuche Ch. A Decade of Application of the Choquet and Sugeno Integrals in Multi-criteria Decision Aid // A Quarterly Journal of Operations Research. 2008. Vol. 6. P. 1-44.

17. Friedman J., Hastie T., Tibshirani R. Additive Logistic Regression: a Statistical View of Boosting // The Annals of Statistics. 2000. Vol. 38. No. 2. P. 337-374.

18. Vezhnevets A., Vezhnevets V. "Modest AdaBoost" - Teaching Ada-Boost to Generalize Better // Proc. Graphicon 2005. Novosibirsk, 2005.

19. G r a b i s c h M. Modelling Data by the Choquet Integral //Information Fusion in Data Mining. Physica Heidelberg. 2003. P. 135-148.

20. G rab i c h M. K-order Additive Discrete Fuzzy Measures and their Representation // Fuzzy Sets & Systems. 1997. Vol. 92. No. 2. P. 167-189.

21. Combarro E. F., Miranda P. On the Structure of the k-additive Fuzzy Measures // Fuzzy Sets and Systems. 2010. Vol. 161. Issue 17. P. 2314-2327.

22. M i k e n i n a L., Z i m m e r m a n n H.-J. Improved Feature Selection and Classification by the 2-additive Fuzzy Measure // Fuzzy Sets and Systems. 1999. Vol. 107. P. 197-218.

23. J unco L., Sanchez L. Using the Adaboost Algorithm to Induce Fuzzy Rules in Classification Problems //Proc. ESTYLF, Sevilla. 2000. P. 297-301.

24. Del Jesus M. J., Hoffmann F., Navascues J. L., Sanchez L. Induction of Fuzzy Rule Based Classifiers with Evolutionary Boosting Algorithms // IEEE Transactions on Fuzzy Sets and Systems. 2004. Vol. 12. No. 3. P. 296-308.

25. Samorodov A. V. Application of a Fuzzy Integral for Weak Classifiers Boosting // Pattern Recognition and Image Analysis. 2011. Vol. 21. No. 2. P. 206-210.

26. Grabish M., Labreuche C. The Choquet Integral for 2-additive Bi-capacities // Proc. of 3d Int. Conf. of the European Soc. for Fuzzy Logic and Technology (EUSFLAT 2003). 2003. P. 300-303.

Статья поступила в редакцию 14.05.2012

i Надоели баннеры? Вы всегда можете отключить рекламу.