Научная статья на тему 'Принцип минимального информационного рассогласования при различении случайных сигналов'

Принцип минимального информационного рассогласования при различении случайных сигналов Текст научной статьи по специальности «Физика»

CC BY
60
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РАЗЛИЧЕНИЕ СЛУЧАЙНЫХ СИГНАЛОВ / DISTINGUISHING STOCHASTIC SIGNALS / ВЫБОРКА НАБЛЮДЕНИЙ / THE SAMPLE OBSERVATIONS / СИНТЕЗ АЛГОРИТМА / SYNTHESIS OF THE ALGORITHM / ИНФОРМАЦИОННОЕ РАССОГЛАСОВАНИЕ / ВЕРОЯТНОСТЬ ОШИБОЧНЫХ РЕШЕНИЙ / INFORMATIVE DIVERGENCE / THE POSSIBLE FALSE CHOICE

Аннотация научной статьи по физике, автор научной работы — Акатьев Д.Ю., Савченко В.В.

Ставится и решается задача различения случайных гауссовских сигналов по конечным выборкам наблюдений различных объемов с использованием принципа минимального информационного рассогласования распределений в метрике Кульбака–Лейблера. Дается оценка эффективности синтезированного алгоритма по вероятностям ошибочных решений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The Principle of the Minimum of Informative Divergence by Distinguishing Stochastic Signals

There is a problem how to distinguish stochastic Gaussian signals with help of the sample observations of different volumes using the minimum of the informative divergent distributions in Kullback-Leibler metric. This problem is solved. The effective synthesis of the algorithm is estimated on the base of the possible false choice.

Текст научной работы на тему «Принцип минимального информационного рассогласования при различении случайных сигналов»

Теория сигналов

УДК 621.391:519.72

Д. Ю. Акатьев, В. В. Савченко

Нижегородский государственный лингвистический университет

Принцип минимального информационного рассогласования при различении случайных сигналов

Ставится и решается задача различения случайных гауссовских сигналов по конечным выборкам наблюдений различных объемов с использованием принципа минимального информационного рассогласования распределений в метрике Куль-бака-Лейблера. Дается оценка эффективности синтезированного алгоритма по вероятностям ошибочных решений.

Различение случайных сигналов, выборка наблюдений, синтез алгоритма, информационное рассогласование, вероятность ошибочных решений

Во многих областях прикладных исследований, таких как задачи технической и медицинской диагностики, где вся доступная информация заключена в конечных выборках многомерных наблюдений, возникает необходимость по возможности точно ответить на вопрос: насколько существенно отличаются свойства анализируемых сигналов, характеризующие различные состояния изучаемого объекта. Указанная задача сводится к задаче различения случайных сигналов по выборке X повторных наблюдений. Такая задача рассмотрена в [1] в предположении о гауссовском распределении случайных сигналов и заданном априори наборе исходных матриц автоковариаций. Причем показано, что предположение о гауссовском законе не является чрезмерно жестким ограничением, поскольку оно отталкивается от естественного стремления исследователей ограничиться рассмотрением моментных функций распределений не выше второго порядка, таких как автоковариационная функция и спектральная плотность мощности. В данном случае наиболее важным является ограничение, связанное с точным заданием автоковариационных матриц набора сигналов или состояний объекта. В приведенных далее результатах исследования снимается и это ограничение. В отличие от предыдущей работы [1], обработка велась по конечным выборкам наблюдений в отсутствие априорных данных в отношении автоковариационных матриц. При этом исследование проводилось на основе универсального теоретико-информационного подхода с применением метрики Кульбака-Лейблера [2]. Еще одной особенностью данного исследования явилось предположение о разных объемах выборок наблюдений.

12

© Д. Ю. Акатьев, В. В. Савченко, 2004

т

Постановка задачи. Пусть Хг = (хг 1, хг2, ..., хгщ) ; г = 1, Я - набор многомерных (размера п) повторных (объема Мг) независимых выборок

хг ^ = (хг у (1), хг j (2), ..., хг j (п)из (Я > 2) случайных гауссовских процессов Рг = N (К г) с нулевым средним значением каждый и неизвестными автоковариационными (пхп) -матрицами (АКМ) Кг = Ех (хг jх^ j), где п = 1, 2, ... (Ех - символ математического ожидания; т - символ транспонирования векторов; у - номер цикла наблюдения над г-м случайным процессом). Пусть Х0 - аналогичная по структуре выборка объема М0 из входного (анализируемого) процесса, отражающая текущее состояние объекта с неизвестным распределением Р = {Рг}. Задача различения сигнала Х0 сводится в таком случае к задаче Я-альтернативной проверки статистических гипотез о неизвестном законе его распределения:

Щг : Р = Рг; г = 1, Я. (1)

Рассмотрим эту задачу в наиболее простом виде для случая дихотомии (Я = 2): проверяется сложная гипотеза Щ : Р = Р против сложной альтернативы Щ2 : Р = Р при неизвестных априори АКМ распределений К1 и К 2. Воспользуемся в данном случае асимптотическим минимаксным критерием отношения правдоподобия [3]. При этом решение в пользу гипотезы Щ принимается по выборке из объединенного выборочного пространства X = {Х1, Х2, Х0} из условия

БирБир [Р ( Хо| Щ)]

W (X): X (X) = Kl K2 г -^ > 1

и ' w supsup[р(XolW2)]

KK

Ч K 2

или, что эквивалентно,

suP [ Р (Xo l Wi) р ( Xi)] sup [ р (X2 )]

W1 (X): X(X) = ---—г , чП > 1, (2)

U ' v 7 sup [р (Xol W2) р (X2)] sup [р (Xi)] W

K2 K1 где р (Xo | Wr) - функция правдоподобия сигнала Xo при справедливости гипотезы Wr ;

р(Xr) - функция правдоподобия r-го сигнала (r = 1, 2); символ "sup" обозначает верхнюю границу каждой функции на множестве допустимых АКМ.

Синтез алгоритма. Учитывая независимость наблюдений {xr j} в совокупности,

получим систему равенств [1], [2]:

ln р (Xo | Wr ) = -o.5Mo ln |Кr| + tr (soK-1) + nln (2n)

1 vrr) ~ u-Jlvlo ш|^o*4-r ln р (Xr ) = -o.5Mr Tin |Kr I + tr (SrK-1) + n ln (2n)

(3)

r = 1, 2, (4)

Мк

где 8к = М-1 ^ х^ 4 х£ 4 - оценка максимального правдоподобия для АКМ Кк по вы-

7=1

борке Хк, к = 0, 2;1х (•) - след матрицы; |Кг| - определитель матрицы Кг . С помощью ряда вычислений [4] из выражения (4) будем иметь

Бцр[1пр(Хг )] = -0.5Мг (1п|8Г| + пс); г = 1^2, (5)

K r

где c = ln(2n) +1 = const. Здесь учтено, что верхняя граница в (4) достигается при равенстве АКМ K r = Sr, т. е. строго в соответствии с принципом максимального правдоподобия. Аналогично, для всех других величин из (2) через выражения (3) и (4) запишем:

sup [ln p (X0 I Wr ) p (Xr )] =

= -0.5

(М0 + Мг ) [1п |8 0г | + п 1п ( 2п )] + М 0tr (808-1) + Мг tr ( 8 г 8-1)

= -0.5 (М0 + Мг ) [1п |8 0Г| + пс ]; г = 1; 2, (6)

где 80г = [ М0 ( М0 + Мг)] 80 + [Мг/(М0 + Мг)] 8г - оценка максимального правдоподобия для АКМ Кг , вычисленная по объединенной выборке наблюдений Х0Г = {Х0, Хг} суммарного объема М0 + Мг.

Подставив выражения (5) и (6) в (2) при учете равенства Мг = М = const У г < Я (но М0 ф М), после ряда несложных преобразований получим искомый алгоритм различения двух сигналов:

Щ (X) : Х1 (X) = -0.5 [(М0 + М) 1п | 8011 - (М0 + М) 1п | 802 | -М 1п | 811 +М 1п | 82 |] < 0 (7) или, в эквивалентном виде,

Щ (Х) : М71,01 + М070,01 < М72,02 + М070,02, (8)

где Yк,0r =-0.5

ln|Sk|- ln | Sor I -tr (Sk S-1

+ n

- величина информационного рассогла-

сования (по Кульбаку-Лейблеру [2]) между двумя гипотетическими гауссовскими распределениями с АКМ 8к и 80г, к = 0, 2, г = 1, 2.

Распространив по индукции правило (8) на случай произвольного числа альтернатив Я > 2 в задаче различения сигналов (1), в результате будем иметь

Wv (X): Yr 0r + (M0/M)Yo or = min; r = 1; R . (9)

' r

Решение здесь формируется по принципу минимума суммарного информационного рассогласования (МСИР) между R парами гауссовских распределений с автоковариационными матрицами So и Sr, с одной стороны, и Sor - с другой.

Таким образом, в предлагаемом алгоритме различения случайных сигналов выполняется следующая совокупность операций над результатами проведенных наблюдений:

к r

• вначале на этапе обучения по выборкам Хг ; У г < Я получаем оценки максимального правдоподобия для АКМ соответствующих распределений Рг - базу априорных данных;

• аналогично получаем оценку АКМ 8о по анализируемой выборке Хо;

• как результат обработки данных определяем набор оценок максимального правдоподобия 8ог по объединенным выборкам (Хо, Хг ); Уг = 1, ..., Я;

• рассчитываем величину информационного рассогласования каждого распределения N (8к ); к = о, 2, от распределения N (8ог);

• в завершение по принципу МСИР (9) определяем наиболее правдоподобную гипотезу К ; у< Я.

Анализ эффективности. Анализ эффективности разработанного алгоритма в общем случае наталкивается на значительные трудности вычислительного характера. Поэтому упростим задачу, сведя ее к асимптотическому случаю п ^ да. В предположении о несингулярности всех АКМ в указанных условиях можно записать [4]:

п_11п

= 1п ст2, (1о)

п ^ да

где а^ = а^ (8к) - минимальное собственное число автоковариационной матрицы Б к. Величина а^ определяет среднюю мощность порождающего "белого" гауссовского шума в авто-регрессионой модели наблюдений процесса Хк (^) или дисперсию его некомпенсированного

остатка на выходе оптимального обеляющего фильтра с вектором параметров ак; к = о, Я.

Предпринятый здесь предельный переход прямо связан с рассматриваемой моделью случайного стационарного процесса, определенного на бесконечном временном интервале. При этом, с практической точки зрения, наибольший интерес представляет случай конечного объема наблюдений: М <да. Рассмотрим его при дополнительном условии нор-

мирования процессов Хг (^); г = 1, Я по мощности порождающего их шума аг (8г), когда

различия в спектрально-корреляционных свойствах анализируемых сигналов связывают исключительно с различиями в параметрах их формирующих фильтров [1].

Эффективность синтезированного алгоритма (9) может быть охарактеризована набором условных вероятностей перепутывания каждого у-го сигнала с г-м сигналом:

а у,г = Р [Щ (Х) | Щ ]; V* г; г = 1, Я. На основании (7) и (9) в обозначениях из выражения (1о) получим

ау,г = Р(К (Х) | Щ) = Р{(а^/а^) > 1|Щ}; ^ г; г = . (11)

Следуя схеме вычислений из [4], можно записать:

а0г = а0г80г»0г = а0г {^0 [мо/(м0 + М)] + 8Г [м/(м0 + М)]} а0г = (м0 + м )] а0 г §0г а0г +[м/ (м0 + м )] а0 г 8г а0г =

:(м0 + м )-1 X у=1

м0 + м

• г = 1, Я; к = 0, Я,

'-к,0г (7 )_

где введено обозначение 7-го отсчета отклика Zk 0г (7) = ^ [а0г (I) хк у (I)], настроенного

I=1

по объединенной выборке {Х0, Хг} г-го обеляющего фильтра на сигнал Хк ; к = 0; Я. В результате из выражения (11) будем иметь

(м + м0 ),

а = Р

Х°)г (м + м0 )

0уг > 1

или, в пренебрежении коррелированностью двух х -статистик (Пирсона) в числителе и в

знаменателе с (м+м0 ) степенями свободы каждая, по аналогии с [4] получим

а = Р

ХОу/ХОг ) > 1

у г

= Р\Р,

м+м.

>1

0

0уг )- 1 -фм + м0 (V0уг) =

(12)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где К

м+м,

статистика Фишера с (м+м0,м+м0 ) степенями свободы; Фм + м (') -

ее интегральная функция распределения, рассматриваемая в зависимости от коэффициента различимости двух сигналов в теоретико-информационном смысле:

0уг -■

Е х ^ ( ^ )

Е х а°г ( ^0г )

Гт ( {[ Mо¡ (м0-

Г

({[ м0/(м0 + м )]} К V + |[м/ (м0 + м)]} к г ) 1Г

Гт (|[м^(м0 + м)]} КV + |[м/(м0 + м)]} КV ) 1

■К V + -

Кг) 1Г

ГтК-1Г

где Г - вектор-столбец, содержащий единицу на первой позиции и нули на остальных по-

( 2 2 2 \

сту = аг = Ст0 коэффициент

различимости г-го и г-го сигналов

0уг = ^гт ({[ м0/(м0 + м) ]} К + |[м/ (м0 + м)]} К г )"1Г

равен единице при условии одинаковых АКМ (Ку = Кг), а в остальных случаях принимает меньшие значения. При устремлении объема наблюдений (Ы0 + м) к бесконечности

вероятность ошибочных решений в соответствии с (12) в пределе уменьшается до нуля, что означает оптимальное решение поставленной задачи (1) в асимптотике.

Таким образом, благодаря проведенному исследованию предложен асимптотически оптимальный алгоритм различения сигналов по выборкам на основе принципа минималь-

ного информационного рассогласования в отсутствие априорных сведений о корреляционных свойствах случайных сигналов.

Библиографический список

1. Савченко В. В. Различение случайных сигналов в частотной области // Радиотехника и электроника. 1997. Т. 42, № 4. С. 426-431.

2. Кульбак С. Теория информации и статистика. М.: Наука, 1967. 408 с.

3. Боровков А. А. Математическая статистика. Дополнительные главы. М.: Наука, 1984. 615 с.

4. Савченко В. В. Проверка однородности выборочных данных в задачах спектрального оценивания // Радиотехника и электроника. 1999. Т. 44, № 1. С. 65-69.

D. Y. Akatiev, V. V. Savchenko

The Linguistic University of Nizhny Novgorod

The Principle of the Minimum of Informative Divergence by Distinguishing Stochastic Signals

There is a problem how to distinguish stochastic Gaussian signals with help of the sample observations of different volumes using the minimum of the informative divergent distributions in Kullback-Leibler metric. This problem is solved. The effective synthesis of the algorithm is estimated on the base of the possible false choice.

Distinguishing stochastic signals, the sample observations, synthesis of the algorithm, informative divergence, the possible false choice

Статья поступила в редакцию 29 января 2004 г.

УДК 639.2.081.7:681.883.41

В. С. Давыдов, Т. Т. Нгуен, М. Ю. Хренов

Санкт-Петербургский государственный электротехнический университет

"ЛЭТИ"

Методы повышения дальности распознавания рыбных скоплений на фоне донных отражений

Дан сравнительный анализ применения методов междуцикловой корреляционной обработки сигналов и метода переизлучения отраженных сигналов для распознавания рыбных скоплений на фоне донных отражений. Оба метода позволяют повысить дальность распознавания рыбных скоплений на основе использования различия статистических характеристик принимаемых гидролокационных сигналов от дна и от рыбных скоплений.

Согласованная фильтрация, сложные сигналы, огибающая взаимно-корреляционной функции, распознавание рыбных скоплений, объемная и донная реверберации, классификационные признаки

Известно большое количество отечественных и зарубежных работ, направленных на обнаружение рыб по гидроакустическим сигналам, как шумовым, так и рассеянным рыбными скоплениями [1]. Наибольшее практическое значение имеют работы, связанные с

© В. С. Давыдов, Т. Т. Нгуен, М. Ю. Хренов, 2оо4 17

i Надоели баннеры? Вы всегда можете отключить рекламу.