Научная статья на тему 'Критерии сокращения размерности пространства признаков при распознавании объектов по сейсмическим сигналам'

Критерии сокращения размерности пространства признаков при распознавании объектов по сейсмическим сигналам Текст научной статьи по специальности «Математика»

CC BY
272
93
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
критерии / мера однородности и информативности / ядро информативности / The criterions / measure of homogeneous and information / nucleus of information

Аннотация научной статьи по математике, автор научной работы — Акимова Юлия Сергеевна

Рассматриваются критерии, позволяющие выбрать из нескольких групп признаков наиболее информативную, а также критерий формирования ядра информативности для распознавания объектов по сейсмическим сигналам.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Акимова Юлия Сергеевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE CRITERIONS OF DECREASE OF DIMENSIONS OF SPACE OF SIGNES BY RECOGNITION OF OBJECTS ON SEISMIC SIGNALS

The criterions of selection of most information from several group of signes, and also the criterions of forming the nucleus of information.

Текст научной работы на тему «Критерии сокращения размерности пространства признаков при распознавании объектов по сейсмическим сигналам»

УДК 681.327.12.

КРИТЕРИИ СОКРАЩЕНИЯ РАЗМЕРНОСТИ ПРОСТРАНСТВА ПРИЗНАКОВ ПРИ РАСПОЗНАВАНИИ ОБЪЕКТОВ ПО СЕЙСМИЧЕСКИМ СИГНАЛАМ Акимова Юлия Сергеевна Пензенский государственный университет

Рассматриваются критерии, позволяющие выбрать из нескольких групп признаков наиболее информативную, а также критерий формирования ядра информативности для распознавания объектов по сейсмическим сигналам.

Ключевые слова: критерии; мера однородности и информативности; ядро информативности

Одной из проблем при распознавании объектов по сейсмическим сигналам, является выбор признаков. Часто эта задача носит субъективный характер и основывается на опыте и интуиции разработчика. Простой перебор признаков требует больших затрат времени и ресурсов. В то же время, признаки должны быть однородными, информативными, простыми для регистрации и вычисления, по возможности иметь единую размерность. Для придания объективного характера задаче выбора признаков, необходимо выбрать количественную меру их однородности и информативности.

Исходными данными в задаче сокращения размерности пространства признаков являются матрицы данных X= xi, x2, ..., xn, где x = (X1,X2, ..., xp} -

многомерный вектор признаков. Поскольку значения признаков от реализации к реализации изменяются, то матрицу X можно рассматривать как выборку многомерной случайной величины. Каждую строку матрицы X можно интерпретировать в виде точки в p-мерном признаковом пространстве, причем геометрическая близость двух или нескольких точек означает их однородность. Однородную выборку в пространстве признаков можно представить как класс W1 или W2 (рисунок 1). Закон распределения однородной выборки можно принять за нормальный f(x) » ЛЩ X) с некоторым средним р и ковариационной матрицей X.

Чем дальше отстоят друг от друга области W1 и W2 в пространстве признаков, тем более информативными считаются признаки. Выбор мер однородности и информативности зависит от формулировки решаемой задачи.

Возможны две постановки задачи распознавания. Первая состоит в разбиении анализируемой совокупности на небольшое число классов (например, W1 и W2) таким образом, чтобы точки, принадлежащие одному классу, находились на небольших расстояниях друг от друга, значительно меньших, чем точки, принадлежащие разным классам. Фактически - это задача нахождения разделяющей границы между областями различных классов (рисунок 1). Вторая заключается в выявлении областей повышенной плотности наблюдений, соот-

1

ветствующих локальным максимумам функции плотности распределения вероятности f(x).

Оптимальным разбиением будет такое, которое обеспечивает минимум ошибок распознавания. Чтобы их оценить, необходимо построить классификатор: выбрать соответствующую модель, провести обучение, разработать алгоритм принятия решения и решающее правило, определить критерии и пороги принятия решения. При формировании пространства признаков целесообразно использовать те же меры однородности и информативности, что и при построении классификатора.

Понятие однородности классов определяется заданием правила вычисления величины Ру, характеризующей либо расстояния r(xi} xj) между любой парой точек xi и Xj, (i, j = 1,2, ..., N) из исследуемой совокупности, либо степень их близости (сходства) s(xu xj) [1]. Если задана функция r(xu xj), то близкие в смысле этой метрики данные xi и xj считаются однородными, принадлежащими к одному классу. При этом необходимо сопоставление r(xit xj) с некоторым пороговым значением, определяемым в каждом конкретном случае по-своему. От выбора метрики в значительной степени зависит окончательный вариант разбиения исходных данных на классы.

Наиболее часто в задачах распознавания используются следующие меры близости:

- обычное евклидово расстояние

rE (xi, x j )

1

S Цт)

m=1

- xf)2,

(1)

где p - размерность вектора признаков;

- взвешенное евклидово расстояние

гвЕ (xi, x j)

S w (x(m) -

m=1

r (m) Xj

(2)

- меры близости объектов, описываемых набором дихотомических при-

(0) „СО

= , ,(0) + , X1)

V-- и Vn = V-- + v-- где v

ij j ij ij ’ Д ij Mj

(0) L (1

УЇҐ -

знаков, основаны на характеристиках vj

и

число нулевых (единичных) компонент, совпавших в векторах наблюдений объектов xi и xj. Например, в качестве меры близости векторов наблюдений xi и

, л vij й

xj можно использовать величину s(xi, x j) = —, где Vj равно числу совпадений

J p J

(или несовпадений) значений соответствующих признаков в рассматриваемых

i-м и j-м объектах; - расстояние Хемминга

p

rH (xi, x j ) = S

.(m) _ (m)

i Xj

m=1

которое можно интерпретировать как метрическую функцию подобия s(xb xj), которая вычисляется как количество совпавших компонент векторов xi и xj

p

s(xi, x j ) = S ym ,

m=1

2

где yi - i-я компонента нуль единичного вектора, значение которой определяется из условия

У= {Уl, -, Ур }

1, если 0, если

Xi - Xj

Xi - Xj

> d

m ■>

< dm ■

Здесь di - это порог, задаваемый по каждой компоненте вектора х. За порог можно принять среднеквадратическое отклонение или другую характеристику вероятностного распределения признаков.

Недостатком данной метрики является то, что она не дает в явном виде информацию об однородности или информативности признаков.

Естественной мерой отдаленности двух объектов друг от друга является метрика махаланобисового типа

г(xi, х j) = д/(xi - х j)T ЛТS_1A(xi - х j),

где S-1 - обратная от ковариационной матрица исходной совокупности наблюдений X, а A - некоторая симметричная неотрицательно-определенная матрица «весовых» коэффициентов 1 (чаще всего диагональная). Если матрица весовых коэффициентов не учитывается, то расстояние между i-м и j-м объектами по признаку m по метрике махаланобисового типа определяется выражением

г (х х ) = l(x m - х m )T .v-1 . (х m - х m)

гт(^i, ^ j) Д/^ i ^j ) ^i, j \ i ^j ) ,

где Sij - совместная ковариационная матрица объектов c номерами i и j, а

.-1

(3)

S j j - соответствующая ей обратная матрица.

Таким образом, выражение (3) можно использовать как меру информативности признаков в задаче распознавания двух объектов.

В литературе [3] предложено использовать более простую меру информативности признаков

Г ( X1, x 2)

m -m 2 s1 + s 2

(4)

Значение метрики г согласно выражению (4) изменяется в диапазоне от нуля (при m = m2) до бесконечности. С учетом правила «три сигма», наилучший результат можно ожидать, когда |т - m 2 > (3oi + 3s2), а г > 3.

Рассмотрим задачу определения расстояния между двумя объектами W1 и W2 по результатам измерения р-мерных информативных признаков. Для оценки расстояния (3) необходимо сформировать вектор

m=(m1 -m2),(m2 -m2), ••• ,(mp -mp).

и совместную ковариационную матрицу объектов Х1,2 . Выражение

г(W1, W2) = д/m T 'Е-2 •m (5)

является расстоянием Махаланобиса.

Аналогом выражения (5) является квадратичное махаланобисово расстояние г (х, ц) = (х - ц) X (х - ц), где ц - вектор средних значений признаков (центр класса).

3

Существует прямая связь между качеством (однородность и информативность) выбранных признаков и вероятностью ошибки классификации а. Она отражается зависимостью

а = 1 -Ф[(с0 + N ■ r2/2)/лІИ ■ r2 ], (6)

где Ф(2) - табулированный интеграл вероятностей, с0 - порог принятия решения, г2 - квадратичное расстояние Махаланобиса, N - объем выборки исходных данных.

Выражение (6) показывает, что при выбранном пороге с0, например, по критерию максимального правдоподобия, уменьшить ошибку классификации можно двумя путями: увеличением объема выборки N или использованием признаков, дающих наибольшее расстояние между объектами.

Сейсмическая система классификации объектов, работая в реальном времени с бесконечно длинной реализацией сигнала, формирует вектор признаков после завершения текущего временного окна. В этот момент система должна принять решение о том, к какому классу отнести объект. Это свидетельствует о том, что размерность выборки в выражении (6) равна единице (N = 1). Таким образом, при условии оптимального выбора порога принятия решения, для сейсмической системы остается только второй путь уменьшения вероятности правильной классификации - это повышение качества признаков.

Известны методы [3] выбора из всей совокупности признаков таких, которые составляют ядро информативности. При вероятностном подходе данную задачу можно решить следующим образом.

Вначале из всего признакового пространства выбирается признак с максимальным расстоянием между сравниваемыми классами. Рассчитывается порог принятия решения с0 по критерию максимального правдоподобия при N = 1 (выражение (6)) и оценивается величина ошибки классификации a . Если a < а , то процесс формирования ядра заканчивается. В противном случае переходят ко второму шагу. На втором шаге из оставшихся признаков выбирается второй, который совместно с первым дает наибольшее расстояние Махаланобиса. Для этих двух признаков корректируется оптимальный порог с0 и находится новая оценка ошибки классификации a . Если она не удовлетворяет условию a < a, то добавляют еще один признак и процесс повторяется.

Другой вариант сокращения размерности пространства признаков заключается в ранжировании уже сформированной совокупности по степени снижения информативности признаков и нахождении “ядра информативности”. Данная задача решается с использованием статистики [3]

Лх= Z Ni(xi - ^ Е-1(xi - ^ (7)

i=1

где К - количество классов. Для выбора первого наиболее информативного признака в этом методе вычисляется одномерная статистика

4

( N

Л Е -

N

n X *((1) - n х

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

N

X;

i=1

/=1

N ■ N

2

N

N

NX X - (X X/ )•

/=1

/=1

где N1s N2 и N - размер первой, второй и объединенной выборок.

Приведем пример решения задачи сокращения пространства признаков для построения обнаружителя идущего человека на фоне микросейсма в зоне радиусом до 15 м от сейсмического приемника. Признаков пять: число пересечений нулевого, и четырех уровней, производных от нормы сигнала: 0,5 U, U, 1,5U, 2U, где U = ||x|| - норма сигнала. В таблице приведены результаты оценки расстояния по выражениям (4), (5) и (7) - строки 1, 2 и 3 таблицы. В двух последних случаях признаки упорядочены по информативности.

2

Таблица 1 - Оценки расстояния по первой группе признаков

Мет- рика Номер признака / расстояние

1 Номер призн. 1 2 3 4 5

Расстояние 1,237 0,484 1,428 1,646 2,354

2 Упоряд. призн. 5 4 3 1 2

Расстояние 1,79 1,88 1,9 1,9 1,97

3 Упоряд. призн. 5 4 3 1 2

Расстояние 321,6 353,4 361,2 361,6 389,6

Анализ полученных результатов показал, что признак с номером 5 является наиболее информативным, так как все три оценки имеют максимальное значение. По степени уменьшения информативности признаки расположились в порядке: 5, 4, 3, 1, 2, причем результаты расчетов расстояния Махаланобиса и статистики полностью совпадают. Ядро информативности образуют три первые признака, поскольку приращение статистики для каждого из них превышает критическое значение c а,f =3,8 на уровне значимости а = 0,05, при одной степени свободы f = 1).

Задача оценки однородности и информативности имеет важное практическое значение. Во-первых, появляется возможность оценить ожидаемые значения вероятности правильного обнаружения и классификации объектов и оптимальным образом построить классификатор. Во-вторых, сокращение признакового пространства без снижения эффективности системы позволяет уменьшить ее энергопотребление, увеличить скорость обработки информации, обеспечивает своевременное принятие решения об обнаружении и классификации движущихся объектов.

5

Литература

1 Айвазян С.А., Мхитарян В.С. Прикладная статистика и основы эконометрики. - М.: “ЮНИТИ”, 1998. - 1022 с.

2 Дуда Р, Харт П. Распознавание образов и анализ сцен. - М.: Мир, 1976. -512 с.

3 Иванов А.И. Биометрическая идентификация личности по динамике подсознательных движений. - Пенза: Изд-во ПГУ, 2000. - 188 с.

4 Родионов Д.А. Статистические решения в геологии.- М.: Недра, 1981. -232 с.

Рисунок 1 - Геометрическая интерпретация задачи

6

Akimova Y.S.

The criterions of decrease of dimensions of space of signes by recognition

of objects on seismic signals

The criterions of selection of most information from several group of signes, and also the criterions of forming the nucleus of information

The criterions; measure of homogeneous and information; nucleus of information

Сведения об авторах

Акимова Юлия Сергеевна - к.т.н., доцент кафедры «Автономные информационные и управляющие системы» ПГУ. Имеет 39 научных трудов, 4 учебно-методических работ, 2 патента.

7

i Надоели баннеры? Вы всегда можете отключить рекламу.