Доклады БГУИР
2013 № 6 (76)
УДК 519.711.3
МНОГОМЕРНЫЙ НЕЧЕТКИЙ РАСПОЗНАВАТЕЛЬ НА ОСНОВЕ ЧЕТКОГО
РАСПОЗНАВАТЕЛЯ И ЕГО ОЦЕНКА
О.В. ГЕРМАН, Н.Л. БОБРОВА
Белорусский государственный университет информатики и радиоэлектроники П. Бровки, 6, Минск, 220013, Беларусь
Поступила в редакцию 26 июня 2013
Описан способ усовершенствования модели многомерного нечеткого распознавателя, позволяющий исключить основной недостаток, присущий модели, реализуемой на основе методов типа Мамдани.
Ключевые слова: распознавание, нечеткий распознаватель, классифицирующее дерево.
Введение
В работе [1] рассмотрена реализация многомерного нечеткого распознавателя на основе классифицирующего дерева, имеющего следующие достоинства:
- не используется функция нечеткой меры для оценки близости нечетких объектов;
- модель распознавателя ориентирована на большую размерность входных объектов и не зависит от групповой корреляции параметров;
- не имеет значения закон распределения значений параметров объектов. Недостатком модели [1] является то, что любой объект классифицируется как четкий,
даже если его принадлежность к соответствующему кластеру сомнительна. Иначе говоря, нечеткие объекты становятся четкими, что, очевидно не всегда правомочно. Поэтому модель распознавателя должна быть усовершенствована с ориентацией на выдачу нечетких значений меры принадлежности, когда это необходимо.
Цель статьи - расширить методы [1, 2] и тем самым устранить указанные недостатки.
Модель нечеткого распознавателя
Для того чтобы получить наглядное представление о проблеме, рассмотрим следующую исходную обучающую табл. 1 для построения нечеткого распознавателя.
Таблица 1. Построение нечеткого распознавателя
№ х1 х2 х3 Оценка ц принадлежности к классу
1 0 1 3 1,0
2 0 2 3 0,8
3 3 1 0 0,3
4 3 3 1 0,1
5 4 2 1 0
6 1 1 5 1,0
7 2 2 4 0,6
8 2 2 3 0,3
Примечание. Принадлежность к классу А с оценкой ц равносильна исключению из А с оценкой 1-ц.
В табл. 1 представлены данные по восьми объектам с параметрами Хь х2, хз. Таблица составляется экспертами. Ее обоснование рассматривается ниже.
В случае четкого распознавателя в столбце ц указываются только две оценки: 0 или 1 (1 означает принадлежность классу, 0 - исключение). Если округлить значения ц до ближайшего целого, то соответствующий четкий вариант представлен в табл. 2.
Таблица 2. Принадлежность объекта к классу
№ Х1 Х2 Х3 Оценка ц принадлежности к классу
1 0 1 3 1,0
2 0 2 3 1,0
3 3 1 0 0
4 3 3 1 0
5 4 2 1 0
6 1 1 5 1,0
7 2 2 4 1,0
8 2 2 3 0
В соответствии с методом, описанным в [1], можно построить по табл. 2 классифицирующее дерево, показанное на рис. 1. В нашем случае дерево состоит только из одного узла. В узлах классифицирующего дерева записываются определяемые по алгоритму линейные дискриминантные функции.
Рис. 1. Классифицирующее дерево
Просмотр дерева начинается с корневой вершины. Так, пусть на входе распознавателя имеем объект <3, 2, 5> (х! = 3, х2 = 2, х3 = 5). Вычисляется значение дискриминантной функции Е (3, 2, 5) = 1 > 0, следовательно выполняется переход по левой ветке в класс А на рис. 1. Ответ: объект <3, 2, 5> относится к классу А. Если бы в узле А размещалась другая дискриминантная функция, то необходимо было бы вычислить эту функцию для определения дальнейшего перехода по классифицирующему дереву и т.д.
Для таблицы с нечеткими объектами интерес также представляют переходы типа Мамдани [3]. Отметим их основной недостаток: методы типа Мамдани (например, метод Ларсена, Огепо) используют меру близости между двумя нечеткими векторами (объектами). Вместе с тем неизвестно, как строить эту меру в общем случае. Так, можно спросить, какова мера близости объектов <4, 2, 1> и <3, 2, 5>? При этом нас не интересуют абсолютные значения этой меры, например, в форме расстояния по Евклиду или Махаланобису [4]. Для читателя заметим, что, согласно Мамдани, оценка рдх принадлежности объекта х=<3, 2, 5> к классу А определяется по формуле:
ЕА 'а(х' Х)
Р а, х = -
(1)
где - оценка ц меры принадлежности объекта xj к классу А и а(х, х}.) - мера близости ([0,1]) объектов х и х . и является проблемным местом методов типа Мамдани. Таким образом,
подход [1, 2] на основе классифицирующего дерева выглядит более надежным и может быть использован в некоторых случаях для нечетких таблиц данных.
Описание концепции
Заменив данные табл. 1 результатами, представленными в табл. 2, можно построить четкий распознаватель, аппроксимирующий нечеткий аналог. Качество аппроксимации можно оценить, например, с помощью критерия %2 по формуле
Х2 (Н*^, (2)
Р к Нк
где цк - оценка ц к-го объекта из табл. 1; дк - оценка ц к-го объекта из табл. 2.
Очевидно, цк можно рассматривать как теоретическую частоту, а дк - как эмпирическую частоту встречаемости к-го объекта в классе А; представляет расчетные
значения критерия. Табл. 2 можно считать адекватной в статическом смысле табл. 1, если
— Хтабл («, Пв) , (3)
где а - выбранная вероятность ошибки, например, а = 0,05 и п°в - число степеней свободы (в нашем случае п°в = N—1, где N - число объектов). Если критерий (3) выполняется, то мы можем использовать классифицирующее дерево как описано в [1, 2] (рис. 1). В общем случае критерий (3) может не выполняться. В этом случае авторами предлагается выбрать из исходной табл. 1 нечеткий объект, для которого отклонение — максимально по абсолютному значению. Этот нечеткий объект можно заменить набором четких, как мы объясним здесь на примере объекта 7 (отклонение 10,6— 11=0,4). Введем следующие десять объектов для (вместо) объекта 7, из которых 6 принадлежат классу А, а 4 - нет.
Таблица 3. Принадлежность 7-го объекта классу
№ Х1 Х2 Хз ц
1 2 2 4 1
2 2 2 3,95 0
3 2 1,95 4 1
4 2 2,05 3,95 1
5 1,95 1,95 4 0
6 2,05 1,95 3,95 1
7 2,05 1,95 4,05 1
8 2,08 1,92 4 0
9 2,1 2 4 1
10 2,1 1,9 3,95 0
Значения параметров х1, х2, х3 колеблются случайным образом относительно исходных значений х1 = 2, х2 = 2, х3 = 4. Абсолютная величина отклонения А от исходного значения параметра должна быть малой, хотя ее абсолютное значение выбирается в значительной степени произвольно. Операция замены обеспечивает «выход» на условие (3) рано или поздно, хотя при этом исходная таблица может существенно расшириться. Подготовленную таким образом таблицу назовем нормализованной. Далее строим классифицирующее дерево В* для нормализованной таблицы по методике [1, 2]. Для удобства считаем, что табл. 2 нормализована. Пусть нам
нужно оценить меру принадлежности объекта х = <2, 3, 3,5> к классу А( А). Будем рассматривать оценку ц как четвертый параметр х4. Результирующий столбец «оценка» определяет, к какому классу относится объект. Теперь имеем новую расширенную табл. 4.
Таблица 4. Расширенная таблица принадлежности
Х1 Х2 Х3 ц(Х4> оценка
0 1 3 1,0 1
0 2 3 0,8 1
3 1 0 0,3 0
3 3 1 0,1 0
4 2 1 0 0
1 1 5 1,0 1
2 2 4 0,6 1
2 2 3 0,3 0
Поскольку теперь объекты четырехмерные, то вопрос эквивалентен следующему <Х1=2, х2=3, х3=3,5, х4(ц) =?>. Значение хн можно найти с помощью дерева В* следующим простым способом.
Последовательно подаем в систему объекты
Х0=<х1=2, х2=3, х3=3,5, х4 = 0 > Х\=<х\=2, х2=3, х3=3,5, х4 = а >
Х2=<хх=2, х2=3, х3=3,5, х4=2*а>, (4)
Хн=<х1=2, х2=3, х3=3,5, х4=т*а>
где а - малая величина (погрешность), например, а = 0,05. Фиксируем, в какой момент дерево В* «изменило» результирующий класс, к которому принадлежали предыдущие объекты Х0,Х\,...Х\, а объект Х+1 (и последующие) уже не принадлежат. Например, пусть Х0 е А,Х1 е А,Х2 е А, но Х3 е А (соответственно Х4 , Х5 . . . и т.д. не принадлежат А). Тогда значение параметра х4 объекта Х2 и дает нам результирующее значение для ц в <Х1=2, х2=3, х3=3,5, х4(ц) = ?>. Аналогично, пусть, например, Х0 е АХ\ е А, Х2 е А, а Х3 е А
соответственно Х4, Х5 . . . и т.д. принадлежат А). Тогда значение параметра х4 объекта х2 позволяет найти ц=1 - х4 в <Х1=2, х2=3, х3=3,5, х4(ц) = ?>.
Замечание 1. Если при проведении эксперимента класс всех объектов Х0, Х1, Х2,... хт
один и тот же (А), то мера ц = 1. Если класс А , то ц = 0.
Смысл идеи - перейти к четкому распознавателю, включив ц-оценку меры принадлежности в качестве дополнительного параметра. Используя четкое дерево в серии экспериментов определяем значение ц любого нового объекта.
Замечание 2. Серию экспериментов можно оптимизировать с вычислительной точки зрения, реализовав ее по схеме «деление пополам» или согласно принципу «золотого сечения» (рассмотрение этого вопроса мы опускаем). Результаты наших экспериментов помещены в табл. 5 и 6.
Таблица 5. Результаты экспериментов
№ Х1 Х2 Х3 х4 (ц) Замечания
1 2 3 3,5 0
2 2 3 3,5 0,2
3 2 3 3,5 0,35
4 2 3 3,5 0,36
5 Объект <2, 3, 3,5 > принадлежит А с мерой ц = 0,35 и принадлежит А с мерой 1-ц = 0,35
6 2 3 3,5 1,0
Таблица 6. Оптимизированные результаты экспериментов
№ Х1 Х2 Х3 х4 (ц) Класс Замечания
1 0 2 0 0 А
2 0 2 0 0,4 А
3 0 2 0 0, 5 А
4 0 2 0 0, 6 А
5 0 2 0 0,65 А Объект <0, 2, 0> относится к классу А с оценкой ц = 0,65 и принадлежит А с оценкой 1 - 0,65=0,35
6 0 2 0 0,66 А
Обоснование предложенного метода
Описанный метод реализует общую идею самораспознавания [5]. Разумеется, качество распознавания нужно еще оценить, и этот момент наиболее важен, т. к. экспертные оценки могут быть в той или иной степени нескоординированными. Общую теорию статической обоснованности метода дает условие (3). Алгоритм находит наибольшее значение меры ц, при котором объект «перебрасывается» в противоположный класс. На практике подмечено, что
качество нечеткого распознавателя повышается, если для нечетких объектов указывать значение меры, при которых он попадает как в А, так и в А, например, добавить в табл. 3, наряду со строкой 2 строку 2', которая просто указывает, что при оценке ц < 0,5 тот же объект следует перебросить в противоположный класс:
х1 х2 х3 х4 оценка
2' 0 2 3 0,4 0
Качество распознавателя обеспечивается статической адекватностью модельных кластеров. Критерий (3) гарантирует, что метод, лежащий в основе модели четкого распознавателя, работает корректно. Если объект распознан неверно (с точки зрения эксперта), то следует построить классифицирующее дерево В*. При этом в исходную таблицу добавляется неверно распознанный объект и пересчитывается оценка (3). Если она выполняется, то строим дерево В* прямо по таблице, в противном случае выполняем предварительную нормализацию таблицы.
Заключение
Построенная в рамках данной работы модель распознавателя обладает более широкими возможностями [1] по сравнению с возможносятми распознавателей, реализуемых на основе методов типа Мамдани. Это связано с тем, что в построенной модели распознавателя исключен недостаткок, присущий распознавателям, реализуемым на основе методов типа Мамдани, и заключающийся в том, что любой объект классифицируется как четкий, даже если его принадлежность к соответствующему кластеру сомнительна. При этом нечеткие объекты становятся четкими, что не всегда является корректным. Описан способ усовершенстования модели распознавателя с ориентацией на выдачу нечетких значений меры принадлежности, когда это необходимо.
MULTIDIMENSIONAL FUZZY RECOGNITION BASED ON EXPLICIT AND
EVALUATION RECOGNIZER
O.V. GERMAN, N.L. BOBROVA
Abstract
A resolver model that produces resolver and creates opportunities advantages over methods such Mamdani, which has the disadvantage that any object is classified as a clear, even if it belongs to a corresponding cluster is questionable is described. Improvement of the model recognizer with a focus on the issue of fuzzy measure values accessories when needed, it is shown in this paper is grounded.
Список литературы
1. Самко А.Р., Боброва Н.Л., Герман О.В.Н Докл. БГУИР. 2012. № 2 (64). С. 60-66
2. Ивахненко А.Г., Юрачковский О.П. Моделирование сложных систем по экспериментальным данным. М., 1987.
3. Герман О.В., Дорожкина Н.Н., Самко А.Р. // Труды БГТУ. 2007. Сер. IX, вып. XVI. С. 116-118
4. Герман О.В., Боброва Н.Л., Самко А.Р. // Докл. БГУИР. 2010. № 4 (48). С. 86-93.
5. Ватлин С.И. Анализ обоснованности нечетких классификационных моделей управления в сложных технических системах. Минск, 1993.