Научная статья на тему 'ПРИМЕНЕНИЕ ГЕНЕТИЧЕСКОГО АЛГОРИТМА ДЛЯ ФОРМИРОВАНИЯ НЕЧЕТКОГО КЛАССИФИКАТОРА МЕТОДОМ ИШИБУЧИ'

ПРИМЕНЕНИЕ ГЕНЕТИЧЕСКОГО АЛГОРИТМА ДЛЯ ФОРМИРОВАНИЯ НЕЧЕТКОГО КЛАССИФИКАТОРА МЕТОДОМ ИШИБУЧИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
23
4
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
машинное обучение / эволюционные алгоритмы / классификация / нечеткая логика / machine learning / evolutionary algorithms / classification / fuzzy logic

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Д С. Русин, Е А. Сопов

Описывается формирование базы правил для нечеткого классификатора, а также оптимизация набора правил путем уменьшения количества правил, для более простого понимания решения задач классификации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

APPLICATION OF A GENETIC ALGORITHM FOR FORMATION OF A FUZZY CLASSIFIER BY THE ISHIBUCHI METHOD

The formation of a rule base for a fuzzy classifier is described, as well as optimization of a set of rules by reducing the number of rules, for a simpler understanding of solving classification problems.

Текст научной работы на тему «ПРИМЕНЕНИЕ ГЕНЕТИЧЕСКОГО АЛГОРИТМА ДЛЯ ФОРМИРОВАНИЯ НЕЧЕТКОГО КЛАССИФИКАТОРА МЕТОДОМ ИШИБУЧИ»

УДК 004.89

ПРИМЕНЕНИЕ ГЕНЕТИЧЕСКОГО АЛГОРИТМА ДЛЯ ФОРМИРОВАНИЯ

НЕЧЕТКОГО КЛАССИФИКАТОРА МЕТОДОМ ИШИБУЧИ

*

Д.С. Русин Научный руководитель - Е. А. Сопов

Сибирский федеральный университет Российская Федерация, 660041, г. Красноярск, просп. Свободный, 79

* rusin199812@mail.ru

Описывается формирование базы правил для нечеткого классификатора, а также оптимизация набора правил путем уменьшения количества правил, для более простого понимания решения задач классификации.

Ключевые слова: машинное обучение, эволюционные алгоритмы, классификация, нечеткая логика.

APPLICATION OF A GENETIC ALGORITHM FOR FORMATION OF A FUZZY

CLASSIFIER BY THE ISHIBUCHI METHOD

*

D.S. Rusin Scientific supervisor - E.A. Sopov

Siberian Federal University 79, Svobodny Av., Krasnoyarsk, 660041, Russian Federation

* rusin199812@mail.ru

The formation of a rule base for a fuzzy classifier is described, as well as optimization of a set of rules by reducing the number of rules, for a simpler understanding of solving classification problems.

Keywords: machine learning, evolutionary algorithms, classification, fuzzy logic.

Введение. В настоящее время одной из самых встречающихся задач анализа данных является задача классификации, суть которой заключается в построении алгоритма, позволяющего определить принадлежность объекта из некоторого множества к одному из заранее известных классов. Задача классификации является достаточно распространенной и может подниматься в различных сферах жизни человека: медицине, экономике, ракетно-космической технике, геологии. Однако, несмотря на стремительное развитие данного направления, многие из методов анализа данных, применяемых при решении задачи классификации, работают по принципу «черного ящика». Одним из способов, позволяющих устранить данный недостаток и сформировать модель «белого ящика», является применение системы нечёткой логики [1].

Формирование нечеткого классификатора можно рассматривать как задачу оптимизации -необходимо выбрать наилучшую базу нечетких правил из множества существующих. Практика показывает: для решения задачи оптимизации целесообразно использование эволюционных алгоритмов [2].

В работе рассматривается задача автоматизированного формирования базы нечетких правил с применением генетического алгоритма для решения задач классификации на примере классической задачи классификации «ирисы Фишера» [3].

Секция «Математические методы моделирования, управления и анализа данных»

Для формирования начальной базы правил был использован метод Х. Ишибучи [4]. Основной целью является определение класса под каждое правило и вычисление уровня значимости. Для определения класса под каждое правило использовалась формула:

Pciass h

■iXe Class h

К*)

nClass h

где Ь-1..Ь - номер классаД - правило, Ь - количество классов, X - элемент обучающей выборки, пС1азз количество элементов класса И в обучающей выборке. Уровень значимости определяется по следующей формуле:

CF =

Pci ass С (Ю

Lh=l,h*C Pciass h (Я)

L-l

Lh=lPciass h (Ю

где Рсш55с(Ю - максимальное значение рСШзз^(Д).

Из-за того, что, в задачи у нас есть только 4 входных параметра и 1 выходной. Мы можем сформировать базу правил, включающую в себя все возможные варианты событий. После этого применяем метод Ишибучи с использованием тренировочной выборки для определения класса для каждого правила. В случае если к правилу нельзя определить ни один класс, тогда это правило отбрасывается. Далее сформированный набор правил необходимо проверить на основе подготовленного тестового набора. Для решения данной задачи количество термов для каждого входного параметра было равно 3, максимальные и минимальные значения были настроены индивидуально под каждый параметр.

В задаче «Ирисы Фишера» содержится 150 экземпляров по 50 экземпляров на каждый класс. Выборка делится на обучающую и тестовую в соотношении 70 на 30 %. Основные параметры настройки генетического алгоритма (ГА) представлены в табл. 1

Параметры ГА

Таблица 1

Параметр Значение

Коэффициент мутации 0.2

Размер популяции 50

Кол-во итераций 350

Основная задача применения ГА заключается в нахождении набора, включающего в себя меньшее количество правил чем изначальный набор, но имеющего приблизительно одинаковую точность. В популяции в качестве особи выступает набор нулей и единиц который сообщает о необходимости включения правила из изначального набора в набор для конкретной особи. Данный алгоритм позволит максимально просто имплементировать различные задачи классификации. В качестве метрики оценки качества использовалась метрика: F - score [5].

Результаты выполнения методов Ишибучи и ГА представлены в табл.2

Таблица 2

Результаты решения задачи

Метод Значение F- score Количество правил

Ишибучи ~0.85 7

Ишибучи +ГА ~0.83 3

Набор правил сформированный методом Ишибучи и ГА представлен в табл. 3

Набор правил

Таблица 3

Номер Sepal Sepal Petal Petal Class Использовать для

length width length width точности 0.83

1 Большое Малое Среднее Малое Versicolor -

2 Большое Малое Большое Малое Versicolor +

3 Большое Среднее Малое Малое Setosa +

4 Большое Среднее Среднее Малое Versicolor -

5 Большое Среднее Большое Малое Versicolor -

6 Большое Среднее Большое Большое Virginica +

7 Большое Большое Малое Малое Setosa -

Не слишком высокая точность обуславливается использованием 3 термов и шаблонным расположением данных термов, но даже при таких значениях точность классификации 3 классов получилась выше 80%. Один из классов был предсказан без ошибок как на простом методе Ишибучи, так и с дополнением ГА. Можно увидеть, что с использованием ГА точность незначительно уменьшилась, но при этом существенно уменьшилось количество необходимых правил для предсказания к какому классу относится ирис.

В дополнении к этому мы можем спокойно интерпретировать используемые правила, для более конкретного понимания задачи.

Данная работа показывает, что с применением методов нечеткой логики в совокупности с эволюционными алгоритмами можно получить набор правил, практически не уменьшающий первоначальную точность, а также иметь в наличии набор правил, позволяющий получить более лучшую точность, но для которого необходимо больше требований. Очень большим фактором для увеличения качества модели является настройка количества термов, их корректное расположение, понимание того, что есть «много» или «мало» для входных параметров. Все эти вещи позволят значительно повысить качество нечеткого классификатора. Также в данной работе была использована модель имеющая малое количество входных переменных, что существенно облегчает формирование базы правил охватывающей все варианты. В дальнейших работах планируется использовать методы глобальной оптимизации для формирования начального набора правил, а также поиска мультимодального набора для более детального интерпретирования задач классификации.

Библиографические ссылки

1. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы // М.: Горячая линия - Телеком 2006. С. 45-50.

2. Емельянов, В.В. Теория и практика эволюционного моделирования: монография / В.В. Емельянов, В.В. Курейчик, В. М. Курейчик. - Москва: Физматлит, 2003. - 431 с.

3. Набор данных «Ирисы Фишера» [Электронный ресурс]: Роналд Фишер, - URL: https://archive.ics.uci.edu/ml/datasets/ Iris (дата обращения: 08.4.2021).

4. Nakashima Т., Ishibuchi H.,Bargiela A. A Study on Weighting Training Patterns for Fuzzy Rule-Based Classification Systems // Modeling Decisions for Artificial Intelligence, 2004. C. 60-69

5. Scikit-learn. F-score [Электронный ресурс] - URL: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.f1_score.html (дата обращения 08.4.2021)

© Русин Д.С., 2021

i Надоели баннеры? Вы всегда можете отключить рекламу.