Научная статья на тему 'Алгоритмы структурной идентификации компактных и точных нечетких систем'

Алгоритмы структурной идентификации компактных и точных нечетких систем Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
76
17
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЧЕТКИЕ СИСТЕМЫ ТИПА ТАКАГИ-СУГЕНО / СТРУКТУРНАЯ ИДЕНТИФИКАЦИЯ / ДИСКРЕТНЫЙ АЛГОРИТМ "МИННЫЙ ВЗРЫВ" / КУСОЧНО-ЛИНЕЙНАЯ ИНИЦИАЛИЗАЦИЯ / АЛГОРИТМ ДИНАМИЧЕСКОГО РАЗБИЕНИЯ ВХОДНОГО ПРОСТРАНСТВА / НЕЧЕТКИЙ КЛАССИФИКАТОР

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Ходашинский Илья Александрович, Горбунов Иван Викторович, Сарин Константин Сергеевич, Субханкулова София Радиковна

Представлен алгоритм выбора признаков на основе метода «минный взрыв». Описаны два алгоритма генерации структуры нечетких аппроксиматоров: алгоритм динамического разбиения входного пространства и алгоритм кусочно-линейной инициализации. Рассмотрен алгоритм генерации структуры нечеткого классификатора на основе экстремальных значений таблицы наблюдений. Результаты работы алгоритмов проверены на реальных данных из репозитория KEEL.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Ходашинский Илья Александрович, Горбунов Иван Викторович, Сарин Константин Сергеевич, Субханкулова София Радиковна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Алгоритмы структурной идентификации компактных и точных нечетких систем»

Ходашинский И.А., Горбунов И.В., Сарин К.С., Субханкулова С.Р. УДК 004.8

АЛГОРИТМЫ СТРУКТУРНОЙ ИДЕНТИФИКАЦИИ КОМПАКТНЫХ И ТОЧНЫХ НЕЧЕТКИХ СИСТЕМ Ходашинский Илья Александрович

Д.т.н., профессор, ТУСУР, e-mail: hodashn@rambler.ru Горбунов Иван Викторович К.т.н., м.н.с., ТУСУР, e-mail: giv@keva.tusur.ru Сарин Константин Сергеевич

Ассистент, ТУСУР, e-mail: sks@security.tomsk.ru Субханкулова София Радиковна

Студентка, ТУСУР, e-mail: sophi1059@gmail.com Томский государственный университет систем управления и радиоэлектроники (ТУСУР), 634050 г. Томск, пр. Ленина 40

Аннотация. Представлен алгоритм выбора признаков на основе метода «минный взрыв». Описаны два алгоритма генерации структуры нечетких аппроксиматоров: алгоритм динамического разбиения входного пространства и алгоритм кусочно-линейной инициализации. Рассмотрен алгоритм генерации структуры нечеткого классификатора на основе экстремальных значений таблицы наблюдений. Результаты работы алгоритмов проверены на реальных данных из репозитория KEEL.

Ключевые слова: нечеткие системы типа Такаги-Сугено, структурная идентификация, дискретный алгоритм «минный взрыв», кусочно-линейная инициализация, алгоритм динамического разбиения входного пространства, нечеткий классификатор

Введение. Идентификация системы является важнейшим этапом в процессе нечеткого моделирования. В настоящей работе идентификация рассматривается как этап построения модели, связанный с установлением закономерностей между входными и выходными переменными объекта исследования. Идентификация нечетких систем проводится в два этапа, которые называют структурной и параметрической идентификацией. На этапе структурной идентификации осуществляется определение входных переменных и структурных характеристик нечеткой системы, таких, как число нечетких правил и количество нечетких термов, на которое необходимо разбить входное пространство. На этапе параметрической идентификации в сформированной структуре подбираются параметры системы таким образом, чтобы результаты ее работы был как можно ближе к результатам экспериментальных данных.

Целью статьи является описание алгоритмов выбора информативных признаков (входных переменных) и алгоритмов структурной идентификации компактных и точных нечетких классификаторов и аппроксиматоров.

1. Постановка задачи. Нечеткий аппроксиматор типа Такаги-Сугено задается правилами вида:

ЕСЛИ x1=A1i AND x2=A2i AND ... AND xn=Ani ТО y = d0i + d1i x1+ ... + dni xn, где n - размерность входного пространства; Aj¡ - лингвистический терм, которым оценивается входная переменная x-; выход y задается линейной функцией от входных переменных.

Выход нечеткого аппроксиматора определяет следующее отображение:

R

Z Мац Ú ) • MA2i (х2 ) • • ■•■ • M An, <Х ) • К +dllxl+... + dmxn )

f (x; e, d) = -^-,

ZHau ( xi) -Hah ( x2) • ••• -Наш ( xn )

i=1

где x - входной вектор, R - число правил; n - количество входных переменных; рAji -функция принадлежности j-ой входной переменной; в - вектор параметров функций принадлежности нечеткого аппроксиматора; D - вектор параметров линейных функций консеквентов правил нечеткого аппроксиматора.

Критерий качества аппроксимации на таблице наблюдений T={(xp; yp), p = 1 ,..., m} может быть выражен среднеквадратической функцией ошибки:

m

î ( J, - f (x, ; e, d))2

mse (e, D)=

т

Нечеткий классификатор задается правилами следующего вида:

Я]1 : ЕСЛИ x1=Aji1 И X2=Aji2 И хз=А^з И ... И х^А^ ТО 0^8=9, где х - вектор признаков классифицируемого объекта; Cj - идентификатор 7-того класса, 7е [1, сГ], Ajik - нечеткий терм, характеризующий £-ый признак в ji-т ом правиле Яр (i е[1, |^/|], уе [1, с1]), Ц - множество правил, относящих наблюдение к классу с идентификатором с.

В процессе нечеткой классификации объект относится к каждому классу с определенной степенью принадлежности, вычисленной следующим образом:

ßj (x) = ТП Ajk (Xk), j = lA-, cl•

Rji k=\

Выходом классификатора является метка класса, определяемая следующим образом:

class = cj*, j* = arg max ßj .

1<j<cl

Нечеткий классификатор может быть представлен функцией c = f(x, 0), где 0 - вектор, описывающий базу правил.

На множестве обучающих данных (таблице наблюдений) {(xp; cp), p = 1 ,..., z} определим единичную функцию

fü, если c„ = f (c„, 0) delta (p, 0) = f p J p , p = 1,2,..., z,

[1, иначе

тогда численный критерий ошибки классификации выражается следующим образом:

z

У delta (p, 0)

e (e) =

p=\

z

Целью построения нечётких систем является поиск таких параметров этих систем, которые сводят к минимуму ошибку E(0).

2. Выбор признаков. Дискретный алгоритм «Минный взрыв». Алгоритм основан на идее поиска самой взрывоопасной мины, при активации которой всё поле очистилось бы от мин [9]. В данном случае мина будет представлять собой вектор, размерность которого равна числу входных переменных. Значение координаты вектора равно 0, если признак не используется при классификации, иначе - 1.

На начальном этапе определяются параметры алгоритма: X0 - начальная точка взрыва (вектор признаков классифицируемого объекта), число осколков Ns, которые разлетаются после взрыва мины и число итераций maxiter. Каждая из координат начального вектора равна 1 (считается, что все признаки информативные). Далее вычисляется угол разброса ф, расстояния полёта осколков r, координаты взорвавшихся мин и координаты новых осколков. Затем определяется, является ли признак информативным. Среди полученных векторов определяется лучшее временное решение с наименьшим значением ошибки классификации. Далее процесс повторяется итерационно, пока количество итераций не достигнет заданного значения.

Псевдокод алгоритма приведен ниже.

Вход: X0, Ns, maxiter. Выход: значения: Xbest. X[0]:= (хь X2, ..., x„); iter:=0; цикл пока (iter < maxiter)

r[0] := rand(max, min); <p:= 360/Ns; цикл по i от 1 до Ns

r[z] := r[i — \]randn;

Xe W := rD']cos(^);

X[/]:= 1/(1 + e-(—Xe [/]));

цикл по j от 1 до n

если (rand(0,1) < x[i]) то

x[i]:= 1;

иначе

x[i]:= 0;

конец цикла конец цикла если (E (X[i])<E(Xbest)) то

Xbest := X[i]; iter := iter + 1; конец цикла

вывод Xbest := Search_best(X[i]).

3. Динамическое разбиение входного пространства (ДРВП). Алгоритм динамического разбиения входного пространства является алгоритмом структурной идентификации и представляет собой модификацию алгоритма, предложенного в [6]. В данной работе указанный алгоритм адаптирован для систем типа Такаги-Сугено. Идея алгоритма заключается в разбиении входного пространства на нечеткие термы.

На этапе инициализации каждое входное пространство разбивается на один или два нечетких терма таким образом, чтобы ошибка аппроксимации MSE полученной нечеткой системы достигла заданного порога 8. Если достичь порога невозможно, то каждое входное пространство разбивается на два терма. Множество функций принадлежности, на которые разбита переменная i (/'=1,..., п), будем обозначать Лг-. Антецеденты находятся как все возможные сочетания функций принадлежности из {Л1 , Л2 , ..., Лп}, обозначим эту процедуру ОйА^есеёеПРагатБ. Консеквенты определяются рекуррентным методом наименьших квадратов [7] над теми данными из Т, которые подвергаются большему влиянию нечеткого правила, обозначим эту процедуру ОеЮопведуепРагатБ.

Далее выполняется итерационный процесс, на каждом шаге которого добавляется новая функция принадлежности в одно из множеств Ль..., Лп и находятся параметры 0 и Б. Процесс продолжается, пока ошибка аппроксимации MSE нечеткой системы больше заданного порога 8.

Переменная \ат^ог51, в которую добавляется новая функция, находится путем выявления региона reg_worst и переменной в этом регионе, которые вносят больший вклад в ошибку MSE. На пространстве var_worst строится новая функция принадлежности с вершиной а, обозначим эту процедуру Сгеа1еМетЬегвЫр. Регион входного пространства ограничивается центрами соседних функций принадлежности. На рисунке 1 представлено входное пространство из двух переменных. Каждая переменная разбита на три нечетких терма, что образует четыре региона Reg1,...,Reg4. Множество данных таблицы наблюдений, попавших в регион /, будем обозначать М'.

Псевдокод алгоритма приведен ниже.

Вход: Т, 8.

Выход: 0, Б.

Инициализация {Л1 , Л2 , ..., Лп}; 0 := Ое1Ап1есеёеп1Рагатв({Л1 , Л2 , ..., Лп});

Б := Ое1Сопведуеп1Рагатв(0,Т);

цикл пока (М5£(0,Б)>8)

У |y—y|

reg_worst := arg max

iE\1,2,...CountRegion]

^ y)^M¡

п

lj

l=4 Ll

У

var worst := arg max

j e{U,...,n

(x y Y-Mre

y — y

l

У

a :=

(x y )^Mre

Mr

y — y

reg _ worst

j

reg _ worst

У

( xy )ëMreg _ worst

y—y

ц := CreateMembership(a, Avar_worst);

Avar worst := Avar worst ^ {ц};

0 :=GetAntecedentParams({4i, A2, ..., An}); D :=GetConseqventParams(0,T); конец цикла вывод 0. D.

X X \

\

( < ь ,

Régi , Regí

l2 b * • Reg2 • • Regj

X

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рис. 1. Построение правил при динамическом разбиении входного пространства

4. Кусочно-линейная инициализация (КЛИ) является алгоритмом структурной идентификации нечетких систем типа Такаги-Сугено. КЛИ относится к алгоритмам кластеризации и отличается от предыдущего тем, что здесь не проводится разбиение входного пространства на нечеткие термы. Вместо этого данные таблицы наблюдений разделяются на группы, называемые кластерами, каждая такая группа будет ассоциироваться с правилом нечеткой системы. Кластеры формируются следующим образом. Задается отклонение е. Находится самая удаленная точка (из входных наблюдаемых данных) от начала координат. Относительно этой точки ведется построение кластера: в группу итерационно добавляются ближайшие к этой точке данные до тех пор, пока среднеквадратичная ошибка между выходными данными, входящими в кластер, и линейной регрессией, найденной с помощью данных в кластере рекуррентным методом наименьших квадратов, меньше е. С помощью полученного кластера строится правило.

В этом алгоритме используются функции принадлежности гауссового типа, которые характеризуются двумя параметрами: ^ - среднее и а - отклонение. Чтобы найти эти

параметры, нужно воспользоваться следующими выражениями:

l

Z x

s=V• аЧтZ(xk-s).

k h l

2 x-i / \2

суммирование здесь ведется по всем данным, входящим в кластер, который представляет правило; l - количество данных в кластере. Консеквент правила соответствует линейной

регрессии, найденной с помощью данных, входящих в кластер, методом наименьших квадратов. Построение кластеров и правил продолжается до тех пор, пока не будут просмотрены все наблюдаемые данные.

Введем следующие обозначения: Err(C) - среднеквадратичная ошибка аппроксимации данных в кластере C гиперплоскостью; FarPoint(T) - самая удаленная точка от начала координат среди множества точек таблицы наблюдений T; FarPoint(P,T) - самая удаленная точка от точки P среди точек таблицы наблюдений Т; RefreshParams(C, 0, D) - добавление параметров антецедентов и консеквентов нечеткого правила, соответствующего кластеру С, к 0 и D.

Псевдокод алгоритма приведен ниже. Вход: T, е. Выход: 0, D. начало цикла (|T|>0) C :={0}; P := FarPoint(T); C := C u {P}; T := T\{P};

начало цикла (Err(C)< е и (|T|>0) p := FarPoint(P,T); C := C u T := T\{p}; конец цикла RefreshParams(C, 0, D); конец цикла вывод 0, D.

5. Алгоритм генерации структур на основе экстремумов таблицы наблюдений

(АГСНК) предназначен для формирования начальной базы правил нечеткого классификатора 0*, содержащей по одному правилу на каждый класс. Правила алгоритмом формируются на основе экстремальных значений таблицы наблюдений {(xp; tp), p = 1 ,..., m} для каждого класса в отдельности [1]. Введем некоторые обозначения: cl - число классов, таблица наблюдений {(xp; tp), p = 1 ,..., m}, 0* - база правил классификатора. Вход: cl.

Выход: База правил классификатора 0*. 0:= 0;

цикл по j от 1 до m: цикл по к от 1 до n:

поиск min classk := min(xpk);

поиск max classk := max(xpk);

создание терма Ajk, накрывающего интервал [minclosj maxclosj]; конец цикла

создание правила Ry на основе термов Ajk (ке [1, m]), относящего наблюдение к классу с идентификатором cj;

0*:= 0 и {ЗД конец цикла вывод 0*.

6. Эксперимент. Эксперимент проводился по схеме кросс-валидации на данных из репозитория KEEL [8]. Описание данных представлено в таблице 1.

Таблица 1. Описание наборов данных

Набор данных Условное обозначение Количество записей Количество признаков Количество классов

iris irs 150 4 З

wine wn 17S 1З З

glass gl 214 9 7

newthyroid nth 215 5 З

Cleveland cld 297 1З 5

monk-2 mnk З0б З 2

bands bnd 4З2 6 2

Wisconsin wsn б99 9 2

pima pm 76S S 2

sonar snr 20S 60 2

vehicle vhl S46 1S 4

coil2000 col 9S22 S5 2

thyroid thr 7200 21 З

twonorm twn 7400 20 2

6.1. Отбор признаков. В ходе эксперимента осуществлялся отбор информативных признаков дискретным алгоритмом «Минного взрыва» (MBAD). Полученные наборы признаков были проранжированы, из них был выбран набор признаков, на котором проводилась дальнейшая оптимизация параметров нечёткого классификатора с помощью непрерывного алгоритма «Минный взрыв» (MBAR) [2].

Для генерации структуры нечёткого классификатора использовался АГСНК, в качестве функций принадлежности использовались гауссоиды.

Для дискретного алгоритма «Минный взрыв» было выбрано количество итераций maxiter = 50 и количество осколков Ns= 15. Для непрерывного алгоритма «Минный взрыв» maxiter = 100 и Ns= 15. В таблице 2 приведены усредненные значения процента правильной классификации на 11 наборах данных, классифицированных нечеткими классификаторами, структура которых сформирована алгоритмами MBAR и MBAR+MBAD, а также результаты работы алгоритмов, представленных в статье [3].

Результаты экспериментов свидетельствуют о том, что уменьшение количества признаков в некоторых случаях ненамного уменьшает процент правильной классификации, а на большинстве наборов данных увеличивает обучающие способности классификатора, делая его абсолютно лучшим (iris) или лучшим относительно классификатора, настроенного только алгоритмом MBAR (wine, newthyroid, Cleveland, bands, vehicle). Положительное влияние оказывает уменьшение признаков и на прогностические способности классификаторов, на наборах данных wine и newthyroid показаны абсолютно лучшие

результаты, относительное улучшение прогностических способностей наблюдается на большинстве наборов данных: iris, glass, Cleveland, sonar, bands, vehicle.

Таблица 2. Эффективность нечетких классификаторов

Алгоритм Наборы данных

irs wn gl nth cld mnk bnd wsn pm snr vhl

Количество правил

3 3 7 3 5 2 2 2 2 2 4

Ant Miner Обуч. 97.3 99.7 81.5 99.2 60.3 97.2 67.6 92.6 71.9 74.7 59.5

Тест 96.0 92.1 53.7 90.8 57.5 97.3 59.2 90.4 66.3 71.3 53.1

CORE Обуч. 95.5 99.1 54.3 92.7 56.3 87.7 66.7 94.7 72.7 53.4 36.5

Тест 92.7 94.9 45.7 90.8 53.6 88.3 64.2 92.4 73.1 53.4 36.4

HIDER Обуч. 97.5 97.2 9G.1 96.0 82.G 97.2 87.1 97.3 77.8 98.3 84.2

Тест 96.7 82.6 64.4 90.3 55.9 97.3 62.2 96.1 73.2 52.9 63.1

SGERD Обуч. 97.3 91.8 53.8 90.2 46.6 80.6 63.8 93.0 73.7 75.7 51.5

Тест 96.7 87.1 48.3 88.4 44.2 80.7 62.7 92.7 73.7 73.5 51.2

TARGET Обуч. 93.5 85.2 45.1 88.1 55.8 98.G 71.1 96.1 73.4 76.9 51.6

Тест 92.9 82.2 44.1 86.8 53.0 96.8 67.3 95.8 73.0 74.6 49.8

MBAR Обуч. 97.8 98.7 70.1 98.7 60.7 92.7 70.1 97.0 79.G 78.5 49.4

Тест 94.4 94.6 62.7 95.8 55.0 92.3 65.3 95.5 74.9 65.6 45.8

MBAr+ MBAd Обуч. 97.9 99.5 69.8 99.0 61.2 92.1 73.2 96.6 78.8 76.9 50.6

Тест 95.3 96.8 63.1 96.7 55.6 91.2 67.0 94.7 74.7 66.2 47.4

Номера усечённых признаков 2 6,8, 9 8,9 4 2,6, 7,9 1,3, 4,6 3,6, 12,13, 14,15 6 4,7 1-16, 18-35, 37-60 6, 16

6.2. Формирование компактной базы правил нечеткого классификатора

выполнено алгоритмом АГСНК. В таблице 3 приведены усредненные значения процента правильной классификации на пяти наборах данных, классифицированных нечеткими классификаторами, структура которых сформирована алгоритмом АГСНК и результаты работы алгоритмов, представленных в статье [4], R означает число правил. Жирным шрифтом выделены лучшие результаты классификации на тестовых выборках каждого набора данных. Курсивом выделены лучшие результаты классификации на обучающих выборках. Процент правильной классификации вычислен как разность 100(1- £(0)). Анализ результатов, представленных в таблице 3, позволяет сделать следующие выводы:

1) предложенный алгоритм АГСНК сопоставим по точности с алгоритмами D-MOFARC и FARC-HD как на обучающих, так и на тестовых данных;

2) алгоритм АГСНК позволяет получить более компактные базы правил нечеткого классификатора;

3) на наборе данных Cleveland в случае применения алгоритмов D-MOFARC, FARC-HD наблюдается переобучение.

Таблица 3. Сопоставление результатов с аналогами

Набор данных Алгоритм

АГСНК D-MOFARC FARC-HD

R Обуч. Тест R Обуч. Тест R Обуч. Тест

col 2 94.0 94.0 89.0 94.0 94.0 2.6 94.0 94.0

cld 5 55.1 54.9 45.6 90.9 52.9 42.1 82.2 58.3

nth 3 96.7 88.2 9.5 99.8 95.5 9.6 99.2 94.4

thr 3 99.6 99.3 5.9 99.3 99.1 4.9 94.3 94.1

twn 2 96.7 96.6 10.2 94.5 93.1 60.4 96.6 95.1

6.3. Формирование компактной базы правил нечеткого аппроксиматора

выполнялось двумя алгоритмами: алгоритмом динамического разбиения входного пространства и алгоритмом кусочно-линейной инициализации. В таблице 4 приведены усредненные значения ошибки аппроксимации на 13 наборах данных, полученные нечеткими аппроксиматорами, сформированными алгоритмами КЛИ и ДРВП, а также результаты работы алгоритмов, представленных в статье [5]. При тестировании оценивались такие параметры как количество нечетких правил - R, среднеквадратичная ошибка на обучающей выборке и среднеквадратичная ошибка на тестовой выборке. Пустые значения в таблице говорят о том, что при работе данного алгоритма происходит переполнение памяти, и нормальное завершение алгоритма невозможно. Лучшие результаты ошибки аппроксимации MSE на тестовой выборке выделены жирным шрифтом.

Результаты тестов показали, что предлагаемые алгоритмами структурной идентификации сопоставимы по точности аппроксимации с аналогами, причем количество полученных нечетких правил оказалось значительно меньше. Так же следует отметить, что алгоритмы отработали на всех тестируемых наборах данных. Полученные нечеткие системы прошли только этап структурной идентификации и не были подвергнуты параметрической.

Заключение. В статье описаны методы и алгоритмы выбора признаков и структурной идентификации, позволяющие строить компактные и точные нечеткие системы. Результаты сопоставления полученных нечетких систем с применением предложенных алгоритмов показывают подобные результаты по точности с аналогами при меньшем количестве правил и с использованием меньшего количества входных признаков. Характеристики описанных алгоритмов указывают на целесообразность их применения для построения систем аппроксимации и классификации данных в задачах, где скорость обработки информации не менее важна, чем точность вывода.

Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта № 16-07-00034а и при финансовой поддержке Министерства образования и науки РФ в рамках базовой части государственного задания ТУСУР на 2016 год (проект № 3657).

\fi

В <u H M 45 100S5 45 r— Г-; U-J « « О v¡ oa p О 0.527 m Cl о ст. СП Г-; Ö 0.004 0.024 m Oí ■ri СП Я m 43 IN ^ СП

i I СТ. п-1 Oí о ст № ^r г-н 45 о Oí o О ТГ ^t; o Oí Ci о о Г"-; О о p о СП O О Oí п—1 Oí сП СП <4 en 43 m in СП

<4 ч—1 <4 СП in (N <4 С5 m 1—1 M 45 4—1 M ÍN ч—1 Oí M IN П-1 1-1

В OJ H « Í4 ,-j 1—j О. 43 (Я № m Г-н ^ СП Г-; n ст p Ç5 M -f in IN IN ч—1 Oí Г-н Ó 43 C5 p СП p О г-н р Г-н ^Г p m 43 ÍN 45 СП

ДРВП i СП О п-1 п-1 ■N 43 if*l № 45 Г— ^ 1—1 г-. 1П Гн Oí O d en СП ÍN in Oí <4 i—1 СТ. рнп о о p d Oí rN O d 45 Oí in Tt en 43 ^r m in СП

in <ч in СП 45 СП IN en iN [-H 45 ч- ч—1

ч i Я В <u H 43 in & »л ri о -t 1—1 M M M en СЭ d Г-н и и Ç5 ст. Oí ^г я-ф cn о d Oí СП o d (Л t *r p 45 Гн во О

rçl W t/j H i гн in р О г-н IN ■NI о a. in Г-н p Ç5 СП p O г--45 d о Г-н о CT, in Г-н Ö in о p с Г-н я о 45 Г-н n ^ 43 Cl m Г-н 45 fi О

У РЧ № Cl 43 СП Oí 43 en 43 45 O ifl 43 45 Oí ^t ^—1 CT in <4 Г-н rN т—1 Oí rN Cl iN en f\ 43 ^r и СП 45

LEL-TSK В <u H M M iN m г-н СП о ■<5 Г-н O p rN Oí 45 Ç5 ст. Oí d IN СП 45 Г-н rN ч IN rN Г--^t; o rn d

i M ■m p Oí IN ст ■ni en а. iN iN C5 rN 45 45 o 43 о 45 о CT, О Г-н о CT CT 45 о CT, m ^ О Г-н 45 ^ O

еч 43 45 Oí m О m en T Oí Г-н m Cl 0Í г- СП iN 45 и я- 45 Г-н cn 45

В <и H 43 т—1 43 CO Г-н CT 4—1 № i—! ^ ih i—1 T-—1 p rN Oí M

TSK-IRJ i 0 О. С5 1-1 -tt IN о г— iN 1—1 СП СП tj; О m -tt rn Ö

1-1 ÍN 43 ■NI <4 сЛ СП IN m m о СП "t m o en

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(Л 1 î/5 i—i № В <U H о in IA IN m Oí ^Г Ol M ■n en en Oí rN Г-н о о Vi -J- « о о pH о О p О & 1—1 p о S CT p 43 CT 45 en T—1 IN in Oí ^

i ч—1 р 1—1 M о IN oí сЛ г--. Ol О m M p О Г"н Oí o en СП Ö о. СП о Ifl ö о p о CT О p О T—1 g t T—1 о Гн in iN Oí Ч; -ч-

РЧ ÍN Ol СП in <4 Г-. m ч—1 Oí rN СП 45 45 îh О СП en

i ■—i 4J I T3 OJ В 1 1 1 1 й 3 и i—i o О. 1

СПИСОК ЛИТЕРАТУРЫ

1. Ходашинский И.А., Горбунов И.В. Построения нечетких классификаторов на основе алгоритма пчелиной колонии // Материалы Всероссийской конференции с международным участием "Знания - Онтологии - Теории" (ЗОНТ-2011). Новосибирск: Институт математики им. С. Л. Соболева, 2011. Т.2. с. 117-125.

2. Ходашинский И.А., Субханкулова С.Р. Идентификация параметров нечётких систем на основе алгоритма «Минный взрыв» // Информатика и системы управления. 2015. №2 (44). С. 89-98.

3. Alcalá-Fdez J., Fernandez A., Luengo J., Derrac J., García S., Sánchez L., Herrera F. KEEL Data-Mining Software Tool: Data Set Repository, Integration of Algorithms and Experimental Analysis Framework // Journal of Multiple-Valued Logic and Soft Computing. 2011. Vol. 17. P. 255-287.

4. Fazzolari M., Alcalá R., Herrera F. A multi-objective evolutionary method for learning granularities based on fuzzy discretization to improve the accuracy-complexity trade-off of fuzzy rule-based classification systems: D-MOFARC algorithm // Applied Soft Computing. 2014. Vol. 24. P. 470481. D01:10.1016/j.asoc.2014.07.019

5. Gacto M.J., Galende M., Alcalá R., Herrera F. METSK-HDe: A multiobjective evolutionary algorithm to learn accurate TSK-fuzzy systems in high-dimensional and large-scale regression problems // Information Sciences. 2014. Vol. 276. P. 63-79. DOI: 10.1016/j.ins.2014.02.047

6. Guillaume S. Designing inference systems from data: an interpretability-oriented review // IEEE Transactions on Fuzzy Systems. 2001. Vol. 9. P. 426-443. DOI: 10.1109/91.928739

7. Kalman R.E. A New Approach to Linear Filtering and Prediction Problems // Journal of Basic Engineering. Series D. 1960. Vol. 82. P. 35-45.

8. KEEL-dataset repository [Интернет-портал]. URL: http://sci2s.ugr.es/keel/datasets.php (дата обращения: 02.12.2015)

9. Sadollah A., Bahreininejad A., Eskandar H., Hamdi M. Mine blast algorithm: A new population based algorithm for solving constrained engineering optimization problems // Applied Soft Computing. 2013. Vol. 13. P. 2592-2612. DOI: 10.1016/j.asoc.2012.11.026

UDK 004.8

STRUCTURAL IDENTIFICATION OF COMPACT AND ACCURATE FUZZY SYSTEMS

Ilya A. Hodashinsky

Dr., Professor, e-mail: hodashn@rambler.ru Ivan V. Gorbunov PhD, e-mail: giv@keva.tusur.ru Konstantin S. Sarin Assistant, e-mail: sks@security.tomsk.ru

Sofiya R. Subkhankulova Student, e-mail: sophi1059@gmail.com Tomsk State University of Control Systems and Radioelectronics, 40 Lenina Prospect, Tomsk, Russia 634050, Russia

Annotation. The algorithm of feature selection was proposed based on mine blast optimization. Two algorithms are described for a structure generation of fuzzy approximators. The first of them is dynamic partitioning of the input space and the second is piecewise linear initialization. An algorithm are described for structure generation of a fuzzy classifier based on the extreme values of observation table. The results of the algorithms benchmarked on real data from the repository KEEL.

Keywords: Takagi-Sugeno fuzzy systems, structural identification, mine blast algorithm, piecewise linear initialization, dynamic partitioning of the input space, fuzzy classifier

References

1. Hodashinsky I.A., Gorbunov I.V. Postroeniya nechetkikh klassifikatorov na osnove algoritma pchelinoy kolonii // Materialy Vserossiyskoy konferentsii s mezhdunarodnym uchastiem "Znaniya - Ontologii - Teorii" (Z0NT-2011). Novosibirsk: Institut matematiki im. S. L. Soboleva, 2011. T.2. S. 117-125. (in Russian).

2. Hodashinsky I.A., Subhankulova S.R. Identifikatsiya parametrov nechyetkikh sistem na osnove algoritma «Minnyy vzryv» // Informatika i sistemy upravleniya. 2015. №2 (44). S. 89-98. (in Russian).

3. Alcalá-Fdez J., Fernandez A., Luengo J., Derrac J., García S., Sánchez L., Herrera F. KEEL Data-Mining Software Tool: Data Set Repository, Integration of Algorithms and Experimental Analysis Framework // Journal of Multiple-Valued Logic and Soft Computing. 2011. Vol. 17. P. 255-287.

4. Fazzolari M., Alcalá R., Herrera F. A multi-objective evolutionary method for learning granularities based on fuzzy discretization to improve the accuracy-complexity trade-off of fuzzy rule-based classification systems: D-MOFARC algorithm // Applied Soft Computing. 2014. Vol. 24. P. 470-481. DOI: 10.1016/j.asoc.2014.07.019

5. Gacto M.J., Galende M., Alcalá R., Herrera F. METSK-HDe: A multiobjective evolutionary algorithm to learn accurate TSK-fuzzy systems in high-dimensional and large-scale regression problems // Information Sciences. 2014. Vol. 276. P. 63-79. DOI: 10.1016/j.ins.2014.02.047

6. Guillaume S. Designing inference systems from data: an interpretability-oriented review // IEEE Transactions on Fuzzy Systems. 2001. Vol. 9. P. 426-443. DOI: 10.1109/91.928739

7. Kalman R.E. A New Approach to Linear Filtering and Prediction Problems // Journal of Basic Engineering. Series D. 1960. Vol. 82. P. 35-45.

8. KEEL-dataset repository. URL: http://sci2s.ugr.es/keel/datasets.php

9. Sadollah A., Bahreininejad A., Eskandar H., Hamdi M. Mine blast algorithm: A new population based algorithm for solving constrained engineering optimization problems // Applied Soft Computing. 2013. Vol. 13. P. 2592-2612. DOI: 10.1016/j.asoc.2012.11.026

i Надоели баннеры? Вы всегда можете отключить рекламу.