Научная статья на тему 'Оптимальная нелинейная фильтрация дисперсии некоррелированного гауссовского процесса'

Оптимальная нелинейная фильтрация дисперсии некоррелированного гауссовского процесса Текст научной статьи по специальности «Математика»

CC BY
107
18
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Богданов Александр Леонидович, Терпугов Александр Фёдорович

Находится алгоритм ошимальной нелинейной фильтрации марковского процесса, управляющего дисперсией некоррелированного гауссовского шума. В качестве приближенного решения рассматривается нормальное приближение для апостериорной плотности вероятностей и находятся уравнения для апостериорных среднего и дисперсии управляющего процесса

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Optimal non-linear filtration of the variance of a non-correlated Gaussian process

The algorithm is determined of the optimal non-lineal filtration of a Markovian process controlling the variance of non-correlated Gaussian noise. The normal approximation of the a posteriori probability density is considered as an approximate solution, and the equations for a posteriori mean value and variance of the controlled process are found.

Текст научной работы на тему «Оптимальная нелинейная фильтрация дисперсии некоррелированного гауссовского процесса»

ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА Том №271 июнь 2000

УПРАВЛЕНИЕ И ОБРАБОТКА ИНФОРМАЦИИ В СТОХАСТИЧЕСКИХ СИСТЕМАХ

УДК 519.2

А.Л. Богданов, А. Ф. Терпугов

ОПТИМАЛЬНАЯ НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ДИСПЕРСИИ НЕКОРРЕЛИРОВАННОГО ГАУССОВСКОГО ПРОЦЕССА

Находится алгоритм оптимальной нелинейной фильтрации марковского процесса, управляющего дисперсией некоррелированного гауссовского шума В качестве приближенного решения рассматривается нормальное приближение для апостериорной плотности вероятностей и находятся уравнения для апостериорных среднего и дисперсии управляющего процесса

Постановка задачи

Шумы являются главной проблемой, с которой сталкиваются разработчики систем связи, работающих в КВ и УКВ диапазонах. Эти диапазоны очень загружены, и кроме естественных там действуют и техногенные помехи - станционные, помехи от транспорта, промышленных предприятий и т.д. Помеховая ситуация изменяется во времени, так как одни источники появляются, другие исчезают, третьи меняют свою мощность случайным образом. Знание мощности помехи в данный отрезок времени необходимо для адаптации систем передачи информации к этим помехам -например, путем изменения скорости передачи информации, перехода на другой канал и т.д. Поэтому умение оценивать текущую мощность помехи в канале связи является важным с практической точки зрения.

Рассмотрим ситуацию в дискретном времени. Математическая модель ситуации выглядит следующим образом: через равные промежутки времени производятся измерения значения хп i-\,N шума, действующего в канале связи. Будем предполагать, что величины х,\ 1) являются нормальными случайными величинами с математическим ожиданием М{х,} = 0 и дисперсией D{x,} = а2 + f(y(t)); 2) они независимы при фиксированной реализации y{t). Прокомментируем эти предположения.

Предположение о независимости значений х, при фиксированной реализации процесса y(t) говорит о том, что мы имеем дело с широкополосным шумом. Если бы дисперсия шума D{x,} была константой, т.е. £>{*,} = а2, то такой процесс в радиотехнике носил бы имя белого гауссовского шума. Наличие слагаемого f(y{t)) делает дисперсию этого шума

переменной, да и сам процесс x(t) перестает быть гауссов-ским, если y(t) - случайный процесс.

Что касается вида дисперсии D{xt} = а2 + f(y(t)), то первое слагаемое можно трактовать как дисперсию ошибок измерений процесса x(t) измерительным устройством или

как мощность естественной компоненты шума (космические и атмосферные шумы,...), которая почти не изменяется во времени. Второе слагаемое f(y(t)) - это мощность шумов естественного происхождения. Предполагается, что /(_у(/))

- известная функция, в аргументе которой стоит некоторый процесс y(t), в дальнейшем называемый управляющим процессом. Чтобы применить теорию оптимальной фильтрации, необходимо считать, что y(t) является марковским процес-

сом. Описание этого процесса будет уточнено ниже. Задачей фильтрации является нахождение апостериорного распределения вероятностей для управляющего процесса у( /) по

измерениям шума х,.

Случай диффузионного управляющего процесса

Рассмотрим случай, когда у(1) является диффузионным марковским процессом с коэффициентом сноса а(у,1) и коэффициентом диффузии Ь(у,/). Измерения производятся через интервалы времени Д/. Рведем фбозначения у' = у(!), _ у = у[1 + Д/). #

Пусть р{у\у') - условная гшттость вероятностей значения процесса у(1) в момент времени Г + Д/ при условии, что в момент ( значение процесса было равно у'; р(х\у) - условная плотность вероятностей значений измеряемого процесса при условии, что в этот же момент времени процесс у(г) принял значение, равное у. Через уу(у,0 обозначим апостериорную плотность вероятностей значений процесса в момент времени которая зависит от

измеренных значений процесса *(?), сделанных до момента/, включая и сам этот момент времени. С учетом предположений о процессе х(1) запишем:

РШ = -

1

^2я(о2 + /00)"еХР1 2(а2+/(>)) Рассмотрим двумерный марковский процесс {х(0, >■(')}• Как показано в [1], на интервале между измерениями удовлетворяет уравнению

{ 2(ст2 +/(>))}

(1)

w(y,t + Д t) =

\p(y\y')My\t)dy'

-оо_

[ lp{y\y')M.y',tWdy

(2

Пусть Д у = у - у'. Тогда, как показано в [2]: Р(У I У') = 5(Д ¡ЫУ - А * 05'(А У) + +0,5Ь(у-Ьу>*тАу)]+о(А0, а числитель примет вид:

f piy I у'МУ\tW =4v> 0+A t

ду

+ о(Д г). (3) С учетом (3) знаменатель (2) запишется в виде:

TÎ/WMy'.O*'*-

-J

w(y,t) + At Id2

— {a(y,t)w{y,t)}+ dy

+ — {b(y,t)w{y,t)) 2 dy

проделать все эти вычисления. Поэтому необходимо искать приближенные выражения для и{}>,(), которые можно было бы либо вычислять, либо реализовывать техническими средствами. Это возможно сделать тогда, когда оценки процесса у(/) достаточно точны, т.е. апостериорная дисперсия 0{у(()} мала.

Как приближенное решение задачи фильтрации рассмотрим нормальное приближение дня апостериорной плотности вероятностей и^,/), когда

+ OI

<Дt)\fy.

(4)

1

■ exPi ~

сy-m(t))2

Будем считать, что выполнены естественные требования на апостериорную плотность вероятностей:

0и{у, О

(12)

МУ, О-

TPF

->0 ,

ду

ы-

-+0. (5)

Тогда \ —{а(у,1Жу,1)}с1у = О,

-со V

71т ^=I- ^ 'Жу,<)} :: = о, (6)

.¿Зу су, 1

откуда видно, что знаменатель равен 1. Подставим полученные выражения в (2):

w(y,t + At) = w(y,t)+At

2 ду

у[2пЩ ' [ 2D(t)

и найдем дифференциальные уравнения для апостериорных среднего m(t) и дисперсии D(t). Для этого рассмотрим интервал между измерениями. По определению

+00 +40

m(t)= \yw(y,t)dy, №My,tydy-H?(t),

-со —во

откуда m(t + Д /) = ¡yw(y,t + A t)dy. (13)

-во

Заменим \v(y, t^Al) Ьь!ражеНие^ из (7):

•МО

т(/ + Д/) = \yw(y,t)dy +

- — {a(y,t)\v(y,t)} ду

■At ¡у

1 д2 д - ТТ ')}-— {а(У, (МУ, 0}

2 ду ду

+ о(Д/)-

(7)

+

(14)

Перенося влево, деля на ДI и переходя к

пределу при Д Г -> 0, получим

от ду

2 ду

(8)

т.е. на интервале между измерениями апостериорная плотность п(у,/) удовлетворяет уравнению (8) с начальным и граничными условиями

Му^'^у.^+О), (9)

+о(Д/).

Найдем входящие сюда интегралы. Имеем

<мо

\yw{y,t)dy = m{t), (15)

-«О

J^—ки, О^су. t)}dy=о| :: -

+40 +00

- ¡а(у, t)w(y, t)dy = - ja(y, t)w(y, t)dy. (16)

-00 -со

Для вычисления последнего интеграла разложим a(y(t),t) в ряд Тейлора в окрестности точки m(t) :

a(y,t) = a{rrit),t) + {y-nit))

да(у,0

ду

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ду

(10)

где Тк - предшествующий моменту / момент измерения. В моменты измерений Тк \viyj) пересчиты-вается по формуле Байеса:

р(х\у)Му,Тк-Щ

+ -(y-m(/))2— 2 ду

+ o((y-m(t))2). (17)

у="(')

w(y,T„ + 0) =

\ p{x\y)w(y,Tt-0)dy

(И)

Подставим полученное разложение в интеграл

J

a(m(t),t) + (y-m(t)y

Нормальное приближение

Уравнения (8)~(11) в принципе решают задачу нахождения апостериорной плотности вероятностей w(y,t), так как уравнение (8) можно решить, по крайней мере, численно, так же как и вычислить входящий в (11) интеграл. Однако реально сделать это практически невозможно, так как интервал Дt между моментами измерений обычно настолько мал, что никакая ЭВМ не успеет

д/

1

y-m(l)

= a(m(t),t) + i-D(t):'\ г

2 ду Окончательно получаем ~ 3

w(y,t)dy = д2а(у,1)

(18)

ym(l)

\y-^{a(y,t)My,t)}dy =

2 сту

- 1Î 'M* = 0 " = 0. (20)

-t°y -

Подставим (15), (19) и (20) в (14): m(t + At) = m(t)+

+ А t

2 су

• (21)

Перенося от(/) влево, деля на àt и переходя к пределу при ât->0, получим дифференциальное уравнение для апостериорного среднего m(t) :

ai 2 ду

(22)

Аналогично для дисперсии

+-оо

£>(f + Ai) = ¡y2w(y,t + M)dy-m2(t+M). (23) —в

Заменим >v(>>,f + д 0 выражением из (7):

+оо -ко

цг+д/)= J/hO,î)^+a/ jy

^{йСк'МкО}-

-— {аО'.ОнО'.О}

dy-m2(t+&t) +о(Л/). (24) Вычислим интефалы, входящие в (24):

7/ЧМ)Ф = Д(0 + 'и2('), (25)

—во

-1 ЧУ = y2a{y,t)w(y,t)

'-2 \ya(y,t)w{y,t)dy. (26)

Разложим функцию ряд Тейлора в ок-

рестности точки m(t) :

уа(у, 0 = m(t)a(m(t), t)+(y- m(t)) х

a(y,t) + y

da(y,t)

ду

+ l-(y-m(t))2x >=»(<) 2

¿У2

у=я(/)

Подставим разложение (27) в интеграл (26): 4,0 д

¡у2 tMy,t)\fy = -2[m(t)a(m(t),t) -

ду

2da(y,t) | d2a(y,t)

ду

ду2

У=т (<)

//•^{ьСмМлО}*'«

- 9у

= у21- {¿(у, OwCy. oJ~ - ¿-{¿Cv, t)}dy =

ЗУ I-® -i ду

= -2yb{y,t)w{y,t)

' + 2 fb(y,t)My,tyiy. (29)

Разложим b(y,t)b ряд Тейлора в окрестности точки m{t) :

db(y,t)

b(y,t) = bim(t),t)+(y-m(t))-

ду

y-"(l)

+o«j-m(t))2).Q 0)

2 ду y—n(t)

Подставим разложение (30) в интеграл (29):

1У21ГТ {biy.tMy,t)]dy =

-» ду

= 2 b(m{t),t)+D{t)

d2b(y,t)

(31)

Вычислим m2(t + ât):

m2 (t + A 0 = m2 (/) + Д/[2ю(/)а(тл(/), /) + ÔVjv,/),

+ m(t)D(t)-

dy2

y*»«)

] + o(A/). (32)

Подставим (25), (28), (31) и (32) в (24): D(t + A/) = D(t)+At[b(y, t) +

+2Z>(,>^ Д + o(A0- . (33)

Перенося D(t) влево, деля на Д/и переходя к пределу при Д / 0, получим дифференциальное уравнение для апостериорной дисперсии D(t) :

—Ц«6(т(0,0 + 2/)(0 dt

ду

y=m(t)

(34)

В интервалах между измерениями апостериорные среднее /и(/) и дисперсия £>(/) описьшаются системой двух дифференциальных уравнений первого порядка

dt 2 ду

dt

+о(0'-ш(0)2). (27)

av

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

У=!»Ц)

+

У~п>(1)

(35)

], (28)

Для решения этих уравнений надо знать начальные условия +0) и D(Tk +0), которые устанавливаются сразу после производства измерения. Заметим, что значения т(Тк - 0) и D(Tt - 0) непосредственно перед измерением получаются из решения системы уравнений (35) на'предшествующем интервале времени. Выведем формулы для определения m(Tt +0) и D{Tk +0).По определению

m(Tk+0)= ¡My,Tt+0)dy. (36)

-во

Заменим ее выражением из (11):

-КС

¡yp(x\y)w(y,Tk-0)dy

D(Tt -0)

др(х\у)

ду

у-т(Т„- 0)

2 ду*

m(Tt + 0) = •

jK^I^M^.Ti-O)^

Разложим в ряд Тейлора функции р(х | у) и .У^С* I>0 в окрестности точки т(Г4 -0) :

Р(х I У) = Р(х | «(Г, - 0))+(у - m(7-t - 0)) х

(37) (42) дает возможность вычислить т(Тк +0), которое будет начальным условием для уравнения (22). Найдем теперь связь между /ОД +0) и й(Тк -0). По определению

М*\У)

ду

д2р(х\у)

+1о-т(Г,-0))2х

y=m(Tt-0) 2

D(Tk +0)= ¡у2 w(y,Tk+0)cfy-m2(Тк + 0). (43) Заменим w(y9 Тк + 0) ее выражением из (11):

¿у

¡y2p(x\y)wiy,Tk-0)cfy +о((у-т(Тк-0)П (38) = ^-:--т\Тк +0).(44)

у*т(Тк -0)

ур(хI у) = m(Tk -0)р(хI т(Тк -0))+(у-m(Tt -0))х

р(х\у) + у^Щ До'-^-О^х ду J,.i»A-b> 2

2ф(х|>') + >'а2р(х|я

у«яг(Г0-0)

ду ду2

+о((у-т(Тк -О))2). (39)

Запишем числитель в (37) с учетом (38):

¡УР(х | у)Му,Тк-0)dy = m(Tk -0)р(х | m(Tt -0))н

+ ~D(Tk- 0)|

2др(х\у) t уд2р(х\у)

ду

ду1

y*m(Tt- 0)

, (40)

а с учетом (39) знаменатель в (37) запишется в виде

\р{х\у)Му,тк -Q)dy = p(x\m(Tk -0)-

1 д2р(х\у).

y=m(Tk-D)-

(41)

Подставим выражения (40) и (41) в (37): да(Г4 + 0) = т(Г4 -0) +

D(Tk +0) =-

f/>(* I У)™(У> Тк - Q)dy

-оо

В числителе (44) разложим в ряд Тейлора функцию угр{х\у) в окрестности точки т{Тк -0) :

А(* I У) = т\Тк -0)р(х | mft-0))+Ск-т(Г, -0))х

2ур(х\у) + у2^Щ +

ЧУ J>=»(7i-0) + |О'-/я(7;-0))2х

ЧУ qy J>=B(r»-0)

+ о((у-т(Тк - О))2). (45)

С учетом (45) числитель в (44) будет иметь вид

7У2р(х I уМу, Tk-Q)dy = m\Tk - 0)р х

-00

X (XI т(Тк - 0))+1 D(Tk - 0) X [2р(х\у) +

. др(х\у) 2 дгр(х\у)\ + 4у—^— + У ' I • (46) ду ду >=».(г4-о)

Подставляя (41), (42) и (46) в (44), получим:

m2{Tk-0)p{x\m(Tk-0))

P(x\m(Tk - 0)) + ^ D(Tk

2 ду

у=т(Тк-Щ

\wt- 0) & / I \ л др(х\у) id2p{x\y) 2р(х\у) + 4у 'V ду ду ут(Тк- 0)

P{x\m(Jk-V) + \D(Tk-0)dlp£}y) 2 ду у=т(Тк-0)

ш(7;-о)+

др(х\у) y=m(Tt-0) "12

p(x\m(Tk-0)) + ^D(Tk-0) д*р(х\у) ду2 >-«(Г,- 0)

(47)

что дает возможность нахождения 0(Тк + 0), яв- Для нахождения окончательных выражений вычисляющегося начальным условием для уравнения (34). ^ производные, входящие в уравнения (42) и (47):

др(х\у)

= Р(х I У)

ду

Введем функцию 1(х,у) =

хгГ(у)

Ш

2 (о1+/{у)У 2(ст„ + f (у))

*7'00

/'(У)

2 (oî+f(y))2 2(ol+f(y))' Тогда (48) примет вид др(х\у)

(48

(49)

Р2(х,у) = Р?(х,у) +

Тогда (51) запишется в виде дгр{х\у)

дР?{х,у) ду

ду2

= Р(х\у)Р2(х,у).

(52)

(53)

ày

= р(х\у)Р,{х, у).

(50)

Аналогично для второй производной будем иметь

С учетом введенных обозначений уравнения (42) и (47) запишутся в следующем в виде: т(Тк +0) = т(Тк -0) + . 0(Тк -0)Р,{х,т(Тк -0))

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

дуг

= р(х\у)

Р2(х,у) +

дР?(х,у) ду

(51)

1 + ~ D(Tt - 0)Р2 (х, т(Тк - 0))

(54)

D(Tt

\ I 0) ^ т2(Тк -°Жх>т(Т* , D(-T> + -0Ш*МТк -0))+т{Тк -0)2Р2(х,т(Тк -0))]

1 + j D(Tk - 0)Рг (х, т(Тк - 0))

m(Tk -0)+-

1+±D(Tt - о)Р2(хМТ„ -0))

D(Tk -0)Pi(x,m(Tt -0))

l + ±D(Tk-0)P2(xMTt~0))

(55)

Заключение решениями уравнений (22), (34) с начальными усло-

виями (54) и (55).

На интервале между измерениями в случае raye- Решение этих уравнений уже гораздо проще, чем совой аппроксимации m(t) и D{t) определяются решение исходных уравнений в частных производных.

........................'ЛЙТЁРХТ*УрА'.......................

Х.Хазен Э.М. Теория оптимальных статистических решений и задачи оптимального управления М.: Сов. радио, 1968.256 с.

2. Поттосина С.А., Терпугов А.Ф. // Изв. вузов. Физика. 1993. № 12. С. 54.

3. РадюкЛЕ., Терпугов А.Ф. Теория вероятностей и случайных процессов. Томск: Изд-во ТГУ, 1988.174 с.

4. Гнеденко Б.В. Курс теории вероятностей. М.: Наука, 1969. 400 с.

5. Федосов E.H. //Известия вузов. Физика. 1995. № 3. С. 17.

Статья представлена кафедрой теории вероятностей и математической статистики факультета прикладной математики и кибернетики Томского государственного университета, поступила в научную редакцию 1 марта 2000 г.

УДК 621.391.1:519.2

Н.С.Демин, М.Р. Кадыров

О КОЛИЧЕСТВЕ ИНФОРМАЦИИ В ЗАДАЧЕ ОБРАТНОЙ ЭКСТРАПОЛЯЦИИ ПРИ ПЕРЕДАЧЕ СТОХАСТИЧЕСКИХ ПРОЦЕССОВ ПО НЕПРЕРЫВНО-ДИСКРЕТНЫМ КАНАЛАМ С ФИКСИРОВАННОЙ ПАМЯТЬЮ

Рассматривается информационный анализ задачи обратной экстраполяции (предсказания, прогноза) стохастических процессов по совокупное™ реализаций непрерывных и дискретных во времени процессов, которые зависят не толы® огтекущего, но и от прошлого значения ненаблюдаемого процесса Получено уравнение для совместного количества информации по Шеннону, на основе которого для процесса Орнлейна-Уленбека исследована эффективность набтокний с памяшоелтеителью наблюдений без памят

1. Постановка задачи

Полезный сигнал (ненаблюдаемый процесс) х,

принадлежит к классу л-мерных марковских случайных процессов диффузионного типа и определяется уравнением (в смысле Ито) [1]:

<Ь, = /(/,х, )сЛ + Ф,(/,х, )<*о,, ¿20. (1.1). Сигналом на выходе непрерывного канала передачи (наблюдаемым процессом) является /-мерный процесс г,, определяемый уравнением

t0 < X < t, т = const.

Сигналом на выходе дискретного канала передачи (наблюдаемый процесс) является ^-мерный процесс г|(?и) с дискретным временем вида

(1.3)

(1.2)

П('„ ) = £('., *,., ) + Ф з('„ ) >

и = 0,1.....

В (1.1)—(1.3) ш, и V, - стандартные винеровские процессы размеров г, и г2; Е,(1т) - стандартная белая последовательность, а

б()=ф ,()ф Го, ю=ф 2()ф 1(1 у()=ф }(-)ф Го

i Надоели баннеры? Вы всегда можете отключить рекламу.