Научная статья на тему 'МЕТОД ПОСТРОЕНИЯ СОБСТВЕННЫХ ОБЛАСТЕЙ КЛАССОВ В ВИДЕ ГИПЕРСФЕР В ЗАДАЧАХ ОПТИМИЗАЦИИ РАЗДЕЛЯЮЩИХ ПОВЕРХНОСТЕЙ'

МЕТОД ПОСТРОЕНИЯ СОБСТВЕННЫХ ОБЛАСТЕЙ КЛАССОВ В ВИДЕ ГИПЕРСФЕР В ЗАДАЧАХ ОПТИМИЗАЦИИ РАЗДЕЛЯЮЩИХ ПОВЕРХНОСТЕЙ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
18
7
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
КЛАССИФИКАЦИЯ / ГИПЕРСФЕРЫ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Мелешкин Сергей Николаевич

Для построения классификаторов, при наличии в многомерном признаковом пространстве хорошо выраженной кластерной структуры объектов одного или нескольких классов, предложен метод построения собственных областей классов в виде гиперсфер. Экспериментальная проверка предложенных методов классификации показала, что разработанные методы построения классификаторов, на основе предварительного визуального анализа особенностей структуры данных и построения разделяющих поверхностей в виде гиперсфер, могут быть успешно использованы для решения задач диагностики

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Мелешкин Сергей Николаевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

METHOD OF CONSTRUCTION OWN FIELD CLASS IN THE FORM OF A HYPERSPHERE IN OPTIMIZATION PROBLEMS SEPARATING SURFACE

To construct classifiers, in the presence of a multi-dimensional feature space well defined cluster structure of objects of one or more classes, a method of constructing their own areas of classes in a hypersphere. Experimental verification of the proposed classification methods showed that the method of construction of classifiers, based on a preliminary analysis of the visual features of the data structures and building separating surfaces in the form of a hypersphere, can be successfully used for diagnostics.

Текст научной работы на тему «МЕТОД ПОСТРОЕНИЯ СОБСТВЕННЫХ ОБЛАСТЕЙ КЛАССОВ В ВИДЕ ГИПЕРСФЕР В ЗАДАЧАХ ОПТИМИЗАЦИИ РАЗДЕЛЯЮЩИХ ПОВЕРХНОСТЕЙ»

1

(а -а )2 + (а -а )2 + (а -а )2 xa ya ya za za xa

^+2(^)2(т2 +x2 +x2 ) т xya yza zxa

-1 -Уа У2а 2ха (29)

Вернемся к построению условия усталостной прочности, но на основе зависимости (22)

где

ЯэКв = [2,25 • -1,25 • AKth0,8 /Кй0] • ß«^)

эквч

(34)

Р(°ТЪ) Н1 - 0,608V«K2)

I СТ0Д J. (35)

аакв = /(ст -а )2 + (а -а )2 + (а -а )2 +••• ^ а •\I2\ xa ya ya za' 4 za xa'

а-1 (аш ) = ^ = 0,7а0

0,196яа (а02)

1

R

(-1)

+ (1 -Ц + Ц2)

,(30)

где

R(-1) = [2,25 • -1,25 • AKth0,8 /Kth0] • ß(cm)

ß(um) = - 0,608 а OÖS) J

Преобразуем зависимость (30) к виду

0,196яа(ст02)

Отсюда

' 1 ^

R

+(1 -Ц + Ц2) =Oc = 0,7а0.

(-1) J

аЭКВ = аге

.(31)

(32)

В более общей форме условие усталостной прочности будет

а

экв

К

0,196а (<г0 2)

f 1 ^

и экв

R-1

+ (1 -Ц + Ц2) =Of

,(33)

+ 2( ^)2(т2 + т2_ + т2)

xya yza zxa

;(36)

аЭКв = (а -а )2 + (а -а )2 + (а -а )2 +---->

m -J2\ xm ym' v ym zm' v zm xm'

+ 2( ^(x2 +x2 +T2 ) \ ' xym yzm zxm'

(37)

Предлагаемая методика позволяет составить условия усталостной прочности элементов конструкций, работающих в условиях сложного напряженного состояния на базе сведений о стандартных механических характеристи-

ках материала (

ав ,а0,2^.

Список литературы

1. Матохин Г.В. Оценка ресурса сварных конструкций из феррито-перлитных сталей. Владивосток: ДВГТУ, 2001. 202 с.

2. Матохин Г.В., Горбачев К.П. Инженеру о сопротивлении материалов разрушению. Владивосток: Дальнаука, 2010. 281 с.

0,5

2

т

МЕТОД ПОСТРОЕНИЯ СОБСТВЕННЫХ ОБЛАСТЕЙ КЛАССОВ В ВИДЕ ГИПЕРСФЕР В ЗАДАЧАХ ОПТИМИЗАЦИИ РАЗДЕЛЯЮЩИХ ПОВЕРХНОСТЕЙ

Мелешкин Сергей Николаевич

кандидат техн. наук, доцент, Южный Федеральный Университет, г. Таганрог

METHOD OF CONSTRUCTION OWN FIELD CLASS IN THE FORM OF A HYPERSPHERE IN OPTIMIZATION PROBLEMS SEPARATING SURFACE

Meleshkin Sergey, Candidate of Sciences, assistant professor, Southern Federal University, Taganrog АННОТАЦИЯ

Для построения классификаторов, при наличии в многомерном признаковом пространстве хорошо выраженной кластерной структуры объектов одного или нескольких классов, предложен метод построения собственных областей классов в виде гиперсфер. Экспериментальная проверка предложенных методов классификации показала, что разработанные методы построения классификаторов, на основе предварительного визуального анализа особенностей структуры данных и построения разделяющих поверхностей в виде гиперсфер, могут быть успешно использованы для решения задач диагностики. ABSTRACT

To construct classifiers, in the presence of a multi-dimensional feature space well defined cluster structure of objects of one or more classes, a method of constructing their own areas of classes in a hypersphere. Experimental verification of the proposed classification methods showed that the method of construction of classifiers, based on a preliminary analysis of the visual features of the data structures and building separating surfaces in the form of a hypersphere, can be successfully used for diagnostics.

Ключевые слова: классификация, гиперсферы. Keywords: classification, hypersphere.

В результате анализа реальных сигналов электроэнцефалографии (ЭЭГ) выяснилось, что в отсутствие артефактов и эпилептиформной активности, их распределения хорошо аппроксимируются многомерным нормальным законом и симптоматические различия, устанавливаемые врачом-экспертом, заключаются в различии мо-ментных функций процессов второго и более высоких порядков [10]. Поэтому построение решающих правил базируется на тяготении образов с нормальным распределением к образованию кластеров [1].

В теории распознавания сигналов в отношении процессов, принадлежащих одному классу, высказывается гипотеза компактности [7], т.е. включение всех объектов каждого класса в одно подмножество, состоящее из конечного числа связанных областей. Другими словами, гипотеза компактности предполагает адекватность понятий "сходства" процессов одного класса и их геометрической "близости", проявляющейся в объединении их в одно связанное подмножество в пространстве признаков.

Поскольку распознаваемый класс сигналов является случайным процессом, ^мерный вектор его призна-

СО

ков 7 заключен в некоторой области G, причем эта область может быть бесконечной.

Так для нормального процесса вероятность попадания его значений в любую произвольную область отлична от нуля. Однако практически удается выделить такую ограниченную область признакового пространства, вероятность попадания в которую признаков данного класса весьма высока, в то же время для других ничтожно мала [6]. В этом случае разделяющая поверхность задается выражением:

П(У )=0 (1)

и охватывает замкнутую область фиксированного объема, вероятность попадания в которую признаков данного класса максимальна.

Необходимо найти эту поверхность. При этом, если собственную область G пространства признаков определенного класса (например класса А) задавать исходя из условия максимума вероятности правильной классификации:

P(A ) = Jw(y| A )dX

V

A

= J dy

I = J®

G

J©(y| A )dy -xJ dy

G

(4)

X

w(y| a)=x

y e Г

При этом поверхность (1) будет представлять собой контур равновероятной плотности. Если эта поверхность определена, процедура распознавания сводится к вычис-

ш(У| А)

лению функции плотности вероятности

наблюдаемом значении У и сравнению ее с порогом . Решающее правило в этом случае будет иметь вид:

при

y e A, еслию^А) > X; y £ A,eoraw(y| a) < X;

(6)

Возможность достаточно точно и сравнительно просто восстановить функцию плотности вероятности или выделить контур, на котором она постоянна, в значительной степени определяет практическую возможность решения задачи распознавания. Если контур равновероятной плотности является разделяющей поверхностью, то сформировать его можно используя алгоритмы обучения. В практических задачах удобно формировать разделяющую поверхность как огибающую элементарных фигур -гиперсфер, гиперкубов [2]. Каждая такая поверхность описывается уравнением:

\2 „2

Et?i -m,)2 = R

El y,

(7)

- m. = R.

' (8) Центр фигуры естественно совмещается с математическим ожиданием m распределения вектора призна-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

у

ков ^ . При этом для сферически симметричного распределения уравнение (1) является также контуром равновероятной плотности и достаточно компактно выделяет собственную область каждого класса.

В качестве критерия оптимальности можно использовать функционал, минимизирующий объем собственной области при фиксированной вероятности правильного распознавания PG [8]:

I = Vg + X

J®(y )dy

Л

- Pn

(9)

X.

где х - множитель Лагранжа. Для случая, когда область G замыкается единственной сферой, функционал можно

Г (2) при фиксированном объеме выделенного пространства:

представить в виде: I =

,п2

Г(п/2)- n

Rn + X|

J P(y )dy

- P„

г (3)

тогда максимизируемый функционал I принимает вид [8]:

^ (10)

где Г(п/2) - гамма-функция. Для формирования области G, необходимыми параметрами являются координаты центра сферы г и величина радиуса R.

Таким образом, разделяющая поверхность формируется как огибающая элементарных фигур вида (6) в пространстве эффективных признаков [8]:

где х - множитель Лагранжа. В [8] показано, что искомая граница Г выделенной области G должна удовлетворять условию:

п /

E fr

- m'-

)2 -(R* )2 = о

1=1

(11)

где ; - значение оценки признака (М,2,...,К);

(5)

оценка математического ожидания признака для ^го

класса (j-1, 2,..., М);

R*

оценка радиуса гиперсферы.

<

*

*

т

i

x(t)

о-

\ /

Решающее устройство

!

Классификация

Рисунок 1. Структурная схема непараметрического классификатора Г2

0.65

0.6

0.55

0.5

0.45

0.4

0.35 0.3

с

О IOO с ■Л \ о

о 1 о ( ' <£ ' \ % — -f'A. ,v - о О С о оо ч : > / °

I * 1 1 о \ < о ^ dfi °о<* ■ . а °е у Jr , 1

/ У* , ' / о ' \ к * р СО о ® с Эа. Г=о > vo ро . □ „ Ъ ° \ \ О 1 о t о » * э »

/ / / 1 / 1 )Сх J . . ** * ■ Я \ 1 '"' * . 10 А ----*/ / /

1 \ % ^ Xх X« х*< К X V« ' >: к К , х XX X ■ 1 • ---/ t / / у

ч ч% У

0.2 0.25 0.3 0.35 0.4 0.45 0.5 Г, Рисунок 2. Двумерная интерпретация поверхностей гиперсфер

Для описания собственной области G, необходимыми параметрами являются координаты центра сферы mG и величина радиуса R. Эти величины получают при обучении устройства распознавания. Объем собственной области класса определяется минимальным радиусом Ri min, при этом решающее правило может быть основано на попадании (или не попадании) распознаваемого сигнала внутрь собственной области класса, охваченной радиусом Ri min, и выглядит следующим образом [5]:

Z(t -m*)2-(rV )2 < 0,

1=1

Z(? -m*)2-(R*min)2 > 0, x(t)e<Dj. 1=1 (12) При перекрытии собственных областей классов необходимо сравнить расстояния от центра каждого из перекрывающихся классов и выбрать наименьшее рассто-

яние (критерий минимума расстояния). При обучении ве-

*

личины 1 определяются как среднестатистические зна-

^ *

Г

чения векторов 1 , получаемых при подаче на вход обу-

R*

чающих реализаций. Величины J получаются на этапе

*

обучения после получения значений оценок . В рея* я*

зультате усреднения оценок J (величина J является случайной и распределена нормально), получаем:

N Г К

(L*j)2 = Z Z fr -m-J

N k=1 1=1

(13)

где К - размерность признакового пространства;

^ *

Г

N - количество оценок 1 , полученных при обучении.

Приближенно (с ошибкой а ~ 2'5 %) можно опре-

делить:

R « L* + 2а

L,j

а

где

L,j - ,

(14) L*

среднеквадратическое отклонение оценки Если снижение размерности признакового пространства до р< 3 вызывает недопустимую для качества классификации потерю информативных свойств и требуется работать в гиперпространстве, но из визуального разведочного анализа данных по двумерной диаграмме рассеяния, очевидно, что объекты принадлежат к кластерной модели, то для этого случая, разработан метод собственных областей классов (МСОК), выделяемых разделяющими поверхностями в виде гиперсфер. В качестве обучающих выборок использовались модели процессов, диагностически соответствующих пяти группам пациентов: норма; умеренные нарушения; грубые нарушения; дети; эпилепсия. В качестве экзаменационных выборок использовались некоторые выборки из базы данных ЭЭГ по которым строились модели ЭЭГ не входившие в обучающие [3]. Классовая принадлежность экзаменационных выборок была априорно известна. Для оценки ошибки классификации было произведено обучение рисунок 3, и классификация рисунок 4.

В результате эксперимента была получена следующая матрица перепутывания:

[0,93 0,11 0

Р = 0,13

0,92 0,12 0 0

0 0,12 0,79 0 0

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Оценки вероятностей ошибок по классам:

«эпилепсия» - а = 0,07; «грубые нарушения» - а = 0,08; «умеренные нарушения» - а = 0,21; «норма» - а = 0,00; «дети» - а = 0,00.

Усредненное по классам значение вероятности ошибок метода: А=теап(а)=0,08. Для сравнения методов, средствами МА^АВ [11, 12] было произведено обучение и классификация теми же выборками, но по методу К-бли-жайших соседей [9]. В результате эксперимента была получена следующая матрица перепутывания: Г0,79 0,11 0,09 0 0"

P =

0,12 0,11 0 0

0,81 0,21 0 0

0,12 0,73 0 0

Оценки вероятностей ошибок по классам: «эпилепсия» - а = 0,21; «грубые нарушения» - а = 0,19; «умеренные нарушения» - а = 0,27; «норма» - а = 0,00; «дети» - а = 0,00.

Усредненное по классам значение вероятности ошибок метода: А=теап(а)=0,134.

Таким образом, можно сделать вывод о том, что при классификации процессов с различающимися корреляционными функциями, предлагаемый метод эффективнее классификатора по методу К-ближайших соседей и его использование в медицинских приложениях вполне оправдано.

Перед проведением эксперимента по классификации, размерность признакового пространства была снижена в десять раз без потери информативных качеств, благодаря применению метода главных компонент [4]. В совокупности с применением метода собственных областей классов, это позволило значительно сократить объемы и время вычислений.

Схема алгоритма работы непараметрического классификатора

(Конец) Рисунок 3. Режим обучения

Схема алгоритма работы непараметрического классификатора

(Начало)

■ 1 -1

Ввод параметров m*j , R* для j-го класса

Формирование вектора оценок признаков

1 N

NI SgnZk (n)-SgnZk (n -1)

N n=1

Решение

■7т

D:=l(i' -m*)-R*

(Конец) Рисунок 4. Режим классификации

Литература

1. Галустов Г.Г. Автоматизированные системы и аппаратура медицинской диагностики. Таганрог, ТРТУ, 1998 г., 142 с.

2. Загоруйко Н.Г. Методы распознавания и их применение. М.: Советское радио, 1972 г., 208 с.

3. Мелешкин С.Н. Математическое моделирование ЭЭГ-сигнала. // Материалы международной научной конференции «Оптимальные методы решения научных и практических задач», ч. 3.-Таганрог: Изд. «Антон», ТРТУ, 2005.- с. 43- 47.

4. Мелешкин С.Н., Галустов Г.Г. Метод главных компонент в задачах снижения размерности признакового пространства биомедицинских данных с целью их визуализации. // Материалы международной научной конференции «Цифровые методы и технологии», ч. 1.-Таганрог: Изд. «Антон», ТРТУ, 2005.- с. 34-37.

5. Мелешкин С.Н., Галустов Г.Г. Оптимизация разделяющих поверхностей и формирование решающего правила в задачах классификации биомедицинских данных. // Материалы международной

научной конференции «Цифровые методы и технологии», ч. 1.-Таганрог: Изд. «Антон», ТРТУ, 2005.- с. 26-30.

6. Мелешкин С.Н., Галустов Г.Г. Метод формирования областей допустимых вероятностей в задачах классификации биомедицинских данных, визуализо-ванных в двумерном признаковом пространстве. // Материалы международной научной конференции «Цифровые методы и технологии», ч. 1.-Таганрог: Изд. «Антон», ТРТУ, 2005.- с. 30-34.

7. Ту Дж., Гонсалес Р. Принципы распознавания образов. - М.: Мир, 1978. - 416 с.

8. Сенин А.Г. Распознавание случайных сигналов. Новосибирск: Наука,1974, -76 с.

9. Фукунага К. Введение в статистическую теорию распознавания образов. // Пер. с англ. - М.: Наука, 1979. - 367 с.

10. Creutzfeldt O.D., Bodenstein G., Barlow J.S. Computerized EEG pattern classification by adaptive segmentation and prop ability density function classification. Clinical evaluation. - Electroenceph. clin. Neurophysiology, 1985, vol. 60, №5, p. 373-393.

11. http://www.exponenta.ru

12. http://www.matlab.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.