Научная статья на тему 'Информационный анализ в совместной задаче фильтрации, интерполяции и экстраполяции по непрерывно-дискретным наблюдениям с памятью'

Информационный анализ в совместной задаче фильтрации, интерполяции и экстраполяции по непрерывно-дискретным наблюдениям с памятью Текст научной статьи по специальности «Математика»

CC BY
153
32
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Демин Николай Серапионович, Рожкова Светлана Владимировна

Рассматривается информационный аспект совместной задачи фильтрации, интерполяции и экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с фиксированной памятью. Исследуется структура количества информации

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Демин Николай Серапионович, Рожкова Светлана Владимировна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Information analysis for joint filtering-interpolation-extrapolation problems by continuous-discrete observations with memory

This paper considers an information aspect of the joint problem of filtering, interpolation, extrapolation of the stochastic processes by continuous-discrete observations with fixed memory. The structure of information amount has been investigated.

Текст научной работы на тему «Информационный анализ в совместной задаче фильтрации, интерполяции и экстраполяции по непрерывно-дискретным наблюдениям с памятью»

Н.С. Демин, С. В. Рожкова

ИНФОРМАЦИОННЫЙ АНАЛИЗ В СОВМЕСТНОЙ ЗАДАЧЕ ФИЛЬТРАЦИИ, ИНТЕРПОЛЯЦИИ И ЭКСТРАПОЛЯЦИИ ПО НЕПРЕРЫВНО-ДИСКРЕТНЫМ НАБЛЮДЕНИЯМ С ПАМЯТЬЮ

Работа поддержана грантом МД-9509.2006.1

Рассматривается информационный аспект совместной задачи фильтрации, интерполяции и экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с фиксированной памятью. Исследуется структура количества информации.

В связи с тем что задача оценивания [1] связана с извлечением информации из наблюдений, любая статистическая задача имеет информационный аспект [2]. В [3, 4] рассмотрен информационный аспект задачи фильтрации в случае наблюдений без памяти и с памятью единичной кратности, в [5] - совместной задачи непрерывно-дискретной фильтрации и обобщенной экстраполяции в случае произвольной памяти, в [6] -исследована структура в совместной задаче фильтрации и экстраполяции с произвольной памятью, а в [7, 8] - в совместной задаче фильтрации и интерполяции. В данной работе рассматриваются вопросы нахождения шенноновской меры количества информации в совместной задаче непрерывно-дискретной фильтрации, интерполяции и экстраполяции произвольной памятью и исследована структура этого количества информации. Используемые обозначения: М {•} - математическое ожидание; Р{} - вероятность события; N{у;а;В} - гауссовская плотность.

Постановка задачи

На вероятностном пространстве (□, Р, ^ = (р, ),>0, р) ненаблюдаемый «-мерный процесс х1 и наблюдаемый /-мерный процесс 2, определяются стохастическими дифференциальными уравнениями

сСх, = /(,х{) + Ф1 (¿)ём>1, , > 0, (1)

= И(,,х1,(, ..., х%, + Ф2 (,,2^)с1у1 , (2)

В целях более компактной записи математических выражений введем оператор

Ьст

,[фі (ст, у); Ф2 (ст,у)] =

Фі (ст у) Ф2 (ст, У)

1ст,у [Ф2 (ст, У)]-Ф2 (СТ УК,

Фі (ст,)

Ф2 (ст-у).

(4)

где Ьауу [ф(ст, у)] и Ь*а,у [ф(ст, у)] - прямой и обратный

операторы Колмогорова, соответствующие процессу (1), и расширенные переменные

=

х х

Т1 ¿1

~ ї

, х =

хТ х

¿1

х1 , = х1 х

хь , х"+Ь+1

_х" _

Ставится задача: найти информационное количество

тГ Г~" -її

Іт,І,ї \_хт , X , х* ; ^ П

= М Ли

]=

р‘,,4 (; х;х) 1

р (т N, ( ^ х; її, х )

(5)

а наблюдаемый ^-мерный процесс п(т) с дискретным временем имеет вид

П(їт ) = Я (т , ( , V ..., ХТЫ , г)

+ф3 (т , г Н(т ), т = 0,і, ...,

г +

(3)

где 0<т" <••• <т1 <їт <ї, т.е. память фиксированная [1]. Предполагается: і) V1 и у1 являются стандартными винеровскими процессами размеров г1 и г2, |(їт) -стандартная белая гауссовская последовательность размера г3; 2) х0, V1, V1, |(ґт) - статистически независимы; 3) /(•), й(-), я(•), Ф1 (•), Ф2(•), Ф3(•) непрерывны по всем аргументам; 4) Q(•) = Ф1 0Ф[ (•) > 0,

Я() = Ф2 ()Ф2 (•)> 0, К(•) = Ф3 (•)3 (•) > 0; 5) задана начальная плотность р0 (х) = дР{х0 < х}/дх .

о текущих х 1, прошлых хт =

дущих х^ =

{V

} значениях ненаблюдаемо-

го процесса, которые содержатся в совокупности реализаций 20 ={г(а);0<а<,} и т# = {п(*0),) •••, п(т)} наблюдаемых процессов (2), (3), где

р (т N, х" ;^ х; 5ї, х 1 ) =

= д"+1+1Р { < х; Х" < ; х[ < х1}ддхдх"дх1

рТ.м (хN;х;х 1 ) =

= д"+1+1Р { < х; { < X"; хї < х

1 1 х0, пт }/дхдХ" дх1

(6)

N

Общий случай

Утверждение 1. Плотность (7) на интервалах tm < t < tm+— определяется уравнением

d,pX,,, s ( ;x;x L ) =

= Lt, x [ pT,t, s ( ;x;x L); p, (x; xn ))dt+pX,,,, (t ;x;x L)x (8) x[h(t,x,XN,z)-h(t,z)] R-1 (t,z)[dzt -h(t,z)]

с начальным условием

pb, ,s ( ;x; ) =

= [c (x, Nn ; П (tm ) , z)/С ( (tm , z))] p[m;m0 (XN N X' ) ,(9)

p, (x;~n)=dN+lp{t < x;~xN < ~n Iz0, п” }/}n ,

h(t,z) = M{h(t,n, ,{,z)z0m,п,}, (10)

Nn , n(tm ) z) = exp j- — [n(tm ) - g(tm , X XN , z)] X X^(tm , z)h(tm )- gNm , X XN , z^

C(n(tm ), z) = M C(xtm , ~N , n(tm ) z|zO'” , ПГ‘ },

а p‘zZ {~n ; x;~L)=lim pi ,t ,s ( ;x; xL) при , ^ tm •

т,,,я\ N ’

Данное утверждение следует из теоремы 1 и следствия 1 в [1].

Теорема. 1. Количество информации (5) на интервалах ,т <, < ,т+1 определяется уравнением

1

—tr 2

[d ln p\t ,s (; n, ;xL)

cN,

Q (t )m j-

d ln pT,, ,s (; n, ; xSl)

dx.

dln p ( n , (;,, x,; sL, xL) dx,

dln p (% n , (;t, x,; sL, .Tj1)

dx.

с начальным условием

1 m, s[ xtN , \, xL; z0, п” ] =

=1Tm;0o, s[ xtn , xm, xL; z0m, n”-1 ]+

+A1”,, s [ xtN , n,, xL; z0”, n(t,)],

p(t,x;~n,~n)=dN+‘P{n, < x;~xN < ~n}/dxdxN

, n f c(xt ,~tn , n(tm ) z)[

Д1 m [.] = M\- tm T ^

X,,m ,s LJ

(12)

где

C(n(tm ) z ) J’

N', x„, x;;zo,no ]=lim 1X,t,s [.] при 11 ^m •

а 1 tm [;xN N ~L • z tm n”-1

x,tm L

Доказательство. Совместная априорная плотность (6) определяется уравнением

dtp (, Nn ; t, x; sL, xL ) = p |^xN, Nn ; t, x; sL, xL); p (t, x; xN, xN) dt,

d1X,t ,s [N, x,, ~L;z 0, n”]

dt

— ,г[мR 1 (t, z)[/?(t,x, ,~n , z)-h(t, z)x

X |h(t,Nt, NX , z )-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

)-h(z)r}]

+ tr

Q(t )m

d ln p X,, ,s (^xN;x, ;~sL) d ln p, (x, ;~XN)

Sn,

dx,

dln pt (x, ;~xN)

dx,

- tr

Q(t )m<

d ln p(~N ,xxn ; /;x, ;~l ,xsL

dx,

)

dln pN, x ;~n ,xxN) d ln p( x ;~n , xxN)

dx,

dx,

которое следует из (8). Обновляющий процесс 2, дифференциал которого имеет вид - И(,, 2)С,,

является таким, что 2, = (?, ,¥12) есть винеровский процесс с М{?,хТг |р/}=|0Я(т,2)Ст [9]. Тогда дифференцирование по формуле Ито дает, что

,, px,t.sixN;x;x

dtln N ~ ;~ ~l p^Xn , Nn ; t, x; sl , x

)

pT ,, ,sNn ; x;~L)

),, x[,, ,s {~n ; x;~L) p,(x; ~n )t -1

x L t,x [p(n , nn ; ^ x; [l , x

p(~n ,x~; t^L))) ]

L }, p(t, x; ~n ,xN rn

--2[h(,x,~n,z)-h(,z) ^ 1N,z)x xpN , x, ~n , z)- h(, z +

- [h(, x, ~n , z)- h(, z) ^N, z)zt - h(, z).

X

1

x

Применяя к последнему выражению формулу Ито-Вентцеля, получаем аналогично [3, 4, 7], что

А (х";х ;~1)

1

' р° ,х"; их ;~,хї

)

= 2 [(, х, , [", г)-И(, г)] ] 1 (, г)х х [(, х, ХТ", г)- И(, г).ІІ

+ їг

QX)

Її +

1 д2 р,(х ,;х")

р,(х, ;~т") дх2

1 д2 р(/

дх,

+ ІГ

Q(t)

д 1п рТ ,,,.(

)

дх,

д 1и р, (х ;~т") Тд 1и р, (х ;~т") )

дх,

- ,г

Qх:

дх,

д 1и р(,х"; ^ х ;хї,хї

дх,

І -

)

д 1и pх, х;~" ,хт") )

дх,

дх,

1

-----,г

2

QX)

д 1п р Т (;х, ;хі)

і, -

дх,

(•Г -

д 1и р(°,х";(, х, ;~ї Л1

д і

+-------1п

дх,

дх,

р Т (х";х ;~1

(■Г

)

І +

р<Х"Г5х"1,,х,Т^Х175Х^Г)

ф 1 о

V, +

)-И(, г)] Я 1 (, г)ф2 (, г)(Ь, .

+ |Л(,, (,, хТ , г)-

Дальнейшие преобразования по выводу уравнения (11) повторяют преобразования по выводу уравнения (3.8) в [5], а подстановка (9) в (5) приводит к (12). Теорема доказана.

Теорема 2. Пусть

, [

Т,,к

I

= М <Мп

хТ, х,,; г0, пт\х11 =

рТ,,|^ (;х|хї) ] р ((, (;,, х, |-%ї, х1)]

(13)

р^м ,хм; ^ х, \~1,х1 )=

= дм+[р{{ < хм; х < х|х/ = х1 }дхмдх,

рТ ^ (хм; х|х1 ) =

= ды+1Р {;х < х|х1 = х1,20,По |удхмдх

есть условное количество информации о прошлых и текущих значениях процесса х1 при фиксированных будущих значениях этого процесса, которое содержится в совокупности реализаций {?0; пО },

I. _ хї; г0, пт ]= М І1п-

:(*)

’(, хї)]

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(14)

есть количество информации о будущих значениях процесса х1, которое содержится в совокупности реализаций {?0; пО}. Тогда количество информации (5) может быть представлено в виде

ҐТ,,,ї[, х ,х.1;г 0, п^Т ]=

= і ;ф [, х; г 0, пт IXі ]+] [; г 0, пт ],

где

Iі х • Пт

1т,(\s\^т э ЛП ^0’ ‘І0

ї , ті

х. ; zo, П0 ] на интер-

валах ,т <, < ,т+1 определяются уравнениями

х" х • г' пт х1 ШТ,,|ДХ ; X’

1

= — 2

Мі Л 1 (, г) к(, х ,ХТ", 2)- )Х" (, г|х1 |

+,г

А , х", г) - И(",,, )

д 1п рТ,,|. (;х, ) д 1п р, (х,; х")

дх,

^д 1п р, (х; ^

дх.

дх.

- ,г

Q (Ом-

д 1п р (, х; Т N, ^) дх.

дх

д 1п р (, X; Т N, х")

дх.

1

—,г 2

[д 1прТФ (;х,\хї) _

Q (,)М [ ^Т,Ф дх О" -

д 1п р (%", ;^ х|.х, -ї.1)

дх

(•)Г

М

Я\ [хї; г0, пт ] =

Л

і^Т1 (,г) И(%"хХх1)-И((,г) [•]г|

с начальными условиями

(15)

.

1 Ьл [ , \ ; z0:, <\xL ] =

=1Tm^iS [ *?, xm ; z0: , n--1 \%]+

+A1Tmm к[ xf, \ ; z0:, n ( tm ) | xLs ],

i‘: [xL;z0,nm] =

: i<m-0 [^ ; z0m , nm-1 ] + A1Sm [^ ; z0m , n (tm )],

dtP (% , ( ;^ x I h , xL ) =

(17)

(18)

где

h{~N,t, z| ~sL ) = M {h(t, xt, ~tN ,z )^L = ~L,z 0, nm }

A1T:tmk [ xT , Xtm ; z0m , n(tm )|xL ] =

C ( ,( , n(tm ) z)

(19)

C ((m ) z|XL )

A1‘; [xL ; z0m, n(t„ )] =

C (n (tm ) z|XL ) C (n(tm ), z )

(n(tm ) z|~L ) =

(20)

ZM {>m ( , n(tm ) z ^ = ~L , z 0m , nm-1 }

а 1Tmtm° [] = lim 1T,t|s [] , 1lm-0 [] = lim 1S [] ПРИ t î tm . Доказательство. По формуле условной вероятности

pT,ts ( ;x 1 xL ) = pT,t,s ( xn ;x;xL )/p (( ). (21)

Интегрируя (8) слева и справа по x, ~N, получаем с

учетом (21), что апостериорная плотность p‘s (~L ) удовлетворяет уравнению

d,pS ( ) = pS (xL )>

h (xN, t, z|xL )-h (t, z ) R 1 (t, z )[ dzt - h (t, z )dt ].

(22)

dtpT ,t|s (XN ;x 1 xL ) =

pT ,t|s (xn ;x 1 xL ); pt (x; xn )

dt +

+pT,t|s (XN ; x I xL ) h (t, x, xN, z)- h (xN, t, z|xL )

xR 1 (t, z)dzt - h (xN, t, z|xL )dt

>(x

p (n, ( ;t, x 1 «L, X(L

) ; p (t, x; xN, x:f ) dt,

Дифференцируя (21) по формуле Ито с использованием (8), (22), получаем

которое следует из предыдущего уравнения. Дальнейший вывод уравнения (15) проводится с использованием формул Ито и Ито-Венцеля по методике вывода уравнения (11). Уравнение (16) выводится аналогично (15) с использованием (22), и при этом учитывается, что С,р(~~1; х1) = 0. Интегрирование (9) слева и справа по хх 1 дает, с учетом (21),

pi (xL)=p;--o (xL).

c (n(t„ ) z )

Поделив (9) на (23), получаем, с учетом (21),

pT:-; ( xn ;x 1 xL ) =

c (\, ( , n (tm ) z)

(23)

c (n (tm ), z|xL )

pT:-; (xN ;x 1 xL ).

(24)

Использование (24) в (13) приводит, с учетом (19), к (17). Использование (23) в (14) приводит, с учетом (20), к (18). Теорема доказана.

Условно-гауссовский случай Утверждение 2. Пусть

/(•) = F (t)xt, p; (x)= N{x; ц o; ro }

h () = Ho (^ z ) xt + £ Hk (t, z ) xTt,

k =1

N

.? 0 = G0 (tm , z )xt + £ Gk (tm , z )xTk .

(25)

Тогда имеет место свойство

p T ,t,s (~n ; x;~L)=

= N(~N+L+1 ; ~N +L+1 (,CN ,t, SL ) ~N+L+1 (,CN ,t, SL )}^

= N

V(t )

ДN (TN , t)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Д" (SL , t),

r(t) Г0N (TN, t)

(SL , t)

(26)

Априорная плотность p(xN, ~N ; t, x | ~L, ~L ) определяется уравнением

r0N (•) ГN (TN, t) rN,N+1 (TN , ^ SL )

(rL.N+1 (•))" (r(n+1 (•))" гL (SL ,t)

где блочные составляющие параметров распределения (26) определяются дифференциально-рекуррентными уравнениями в [1].

k=1

Теорема 3. Пусть выполняется условие (25). Тогда количество информации (5) на интервалах 1т < I < 1тЛ определяется уравнением

К<,* 1Х , х ,^ 4 пь ]

л

Так гак р,(х,) = р^х, ^)р, ^) то, с учетом (32),

д 1п р, (х,;.N) д 1п Р,|т(х, ^) =

-(/2)[м{ (,2)!^ (тNМ}]- (27)

-(12)[Є()М{Г-1 (| {) +Г-1 (I^) -Г-1 ()}] + +(/2) [бОр (1%) + Р1 (I%) - О'1 ()]]

с начальным условием (/2), где

А1‘т',,т ,5 [х?, \ , Х ; 2‘о~ , п (с )] =

1Г N , , , / , ,т - 0, 5! )| ]

дх, дх,

= -Г-/ (|% Xх/ -Ц(|% )]

д 1п р, (х;х?) д 1п р, (х; хТ )

дх, дх,

(28)

((, ,т , 5! )|

М

дх,

= Г-/ (|% N ).

По формуле условной вероятности

р1,,,5 (хТ;х;х ) = = р,\5 ( | х )

(34)

Нх, 2) = [НоX, 2) 1 Н/(, 2) НN х, 2)]

ГN+/ (~N, 0 =

А (х,)

-р,\т (х, | ^ )р, (х^ )р5 (^ )•

(35)

Тогда

[ Г() ГШ (тN,,) „|д 1п р[,5 (х;; х М < х1) Гд 1п р, (х; х* )"^

1 о. ГN (,CN ,,) _ I дх, дх. V 1 )

Г(|т„) = г()-г0N ,ОГ-1 ,1)ГN (тN,0, (29)

Г(1 ^ ) = Г()-Г^+1 (, 0х

, г (30)

х(Г1 (, 0) (+1 ( ,г)) ,

О ( 1 TN ) = О () - ¿0N (тN , ■1) А-‘ (тN , ■1) D0ГN (тN , ^) , (31)

1 ) = °Х) - °0^+1 Х/, , 0(/~ (~Ь , о) (0(+1 (~ь, ^ ,

°Х) , ¿0 N (% , 0, О N (*^ , О, °0,И+1 (~Ь , 0.

Бь (1, /) - блочные составляющие матрицы вторых моментов априорного гауссовского распределения

= М

д 1п р,|5 (х | ^ ) Г д 1п р,|Т (х | х? )

дх,

дх,

дх,

/

д 1п р,|т (х| хТ"))д 1п р,|т (х| х?)

(36)

дх,

- М

д 1пр, (х) д 1п р ,|т (х | хг )'

дх дх, V г )

р , х(;,, х; 5^, х'

В N+і+/ ,,,~)}, блочная структура параметров кото-

рого аналогична блочной структуре параметров распределения (26).

Доказательство. По свойству гауссовских плотностей имеет место свойство [9]:

р\|т (х | ^) = N {х; { | Т N ), Г(| TN )}^ (32)

| TN ) = Ц() + ~оN (% , О X^N (TN , ^ 1 Н - ~N (% , '‘Е

а г( | ^) определено в (29). Из (/0), (25), (26) следует, что

га = Но,N ( 2)ТтN+1 (TN , t), hX, х , , 2)-Ж2) = Н0,N Х, 2^+1 - тN+/ (TN , ,

М (, х, {, 2)- Ь {, 2)^[й (, х, хТ, 2)- Н (, 2)]

= Но,« (,2)Г«+/ (т«, ,)Но« (,2),

)- N{.rN+i+/; ^N+1+1 (тN , ^, ‘5Ь )^

Аналогично (32)

р,\5 (х | х ) = N{х; 15і), Г(15і)}, (37)

^х |т1 )-ц(/1 )+

+ Го,N+/ (і5!, , (і5!, , о) [т. -. (.г,, ,)]^

а Г(, | ) определено в (3о).

Так как р5(х,;./■) - рф (х, | )р5 ), то, с учетом (37),

д 1пр5 (х;х5) д 1прф (х| х5) дх, дх

= -Г-/ х | )^х -Ц( | )^ .

(38)

Тогда из (34), (38), с учетом (32), (37), следует, что

і ( яі„ „ . і

(33)

М

д 1п р,5 (х| х5) | д 1п р,|т (х| ^)

дх.

дх.

= Г-/ (,). (39)

I

Так как р 1 (х) = ^х; д(,), Г(,)} [9], то

=-г- (,)[ х,-,(,)],

и, с учетом (32), (34),

М

(40)

Теорема 4. Количества информации (13) и (14) на интервалах ,т <, < ,т+1 определяются уравнениями

[ хТ", х; 4 птХ ]

д!пр, (х) "5!п р,\т (х \ ^)'

хд сх, V 1 )

= Г-1 (,). (41)

1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

= — & 2

М¡Л-1 (,z)[H0N (,2)Гн+1 ^,,)НЪ, (,г)-

Тогда из (34), (36), (39)-(41) следует

д!п рТ,,, , (;х; х1) д !п р, (х; ^)

М<

дх, дх,

Г .~м\V'

дх.

(42)

= 0.

-Н 0(Г" (,,) Н1 (,г)

-2,г [е (О^1 (5,) + Б-1 ) - Б-1 () -

-[Г-1 (5ь ) + Г-1 )-Г-1 ()]]]

< [ х-; 4 пт ] =

(47)

Из (38) следует

д !п р,\5 (х I хЬ) Гд !п р,5 (х I х1)л

1

= — ,г 2

М

дх,

дх,

= Г-1 (| 5,). Из (37), (38), (40) следует

М{ (,г){ (,г)(Г1 (ь,,))-1 Н{ (,,г) с начальными условиями (17), (18), где (43) Л^т 5 [ ^ , Х,т ; 20т , П (( т ) | х ] =

= 1!п |ГN +1 (( , ,т - 0|5Ь )|

2 |Г N+1 ((,

(48)

(49)

[д!пр^ )) д!пр, (х,)

дх.

дх.

= Г-1 (,). (44)

М

Из (34), (39), (41), (43), (44) следует

д !п рТ.м (;х; х5))) !п р[,,,. (;х; хЬ)

М‘; [^; г0т, п(С)] =

= 1!п Г (, ^ - 0)|

=2п Г (, т) ,

(50)

дх.

дх.

(45)

= Г-1 )+Г-1 (I % N) - Г-1 ().

При условиях (25) априорная плотность (6) является гауссовской, т.е.

р (х, XN ;^ х; 5ь, х ) =

N ¡Ху+Ь+1; XN+Ь+1 (( ,^ 51 ), DN+Ь+1 (( ^ , 51 )}

(46)

HN+1 ((, г) = Н0 X, г)Г0,N+1 X?, 0 +

N ____

+£ Нк X, г) Гк,N+1 (тк, 5,,), 1 = 1; Ь,

к=1

Нь (,, г) = [НN +1 (,, г) ^ НN + Ь (,, г)^, (51)

+1 (~N , ) =

= +1 (')-

Гь' (•) х 0,N +1 V/ ( ь ())-1 Гь (•) 1 0, N+1 V/

1 1+ 1 V1 и/ 1 1+ 1Гч 1

Тогда для плотности (46) будут справедливы формулы, аналогичные (42), (45). Подстановка (33), (37), (45) и формул, связанных с (46), аналогичных (42), (45), в (11) приводит к (27). Из (9), (26) следует, что

Доказательство. По свойству гауссовских плотностей имеет место свойство [9]:

М <Лп

С (( , (, П( ,т ), ^) |

(П(т ), г) ]

Г"' ь " (ТN, ,т - 0, 5Ь ^

= IМ [!п^+1 ,

2 I ^N+1+1 (ТN, ,т, 5Ь )

т.е. с учетом (12) пришли к (28). Теорема доказана.

р т,,\5 (xN;х \х “ )=

= +1 ; ~N+1 ('CN Т \ ~Ь ), ~N+1 ('CN , , \ )},

ДN+1 {ТN ^\ 5Ь ) = ДN+1 (ТN ^) +

+ГN +1 (ТN ; ,; 5Ь ) (( (5Ь , ,)) 1 [хЬ - ДЬ ( , ,) ,

(52)

~ЛГ+1 (,CN ) =

Гь (•)

1 0,N +1 V/

Г1- (•)

1 N, N+1 V >

(54)

Из (25) следует

h (t, xt, xTN, z) = h (t, z) + H0N (t, z) XTN+1,

h(tn,t,z|x') = h(t,z) +

+H0,N X z)n+1 (TN, t I SL )•

Учитывая (52)-(54), получаем

h(t,xt,xN,z)-h(tn,t,z|¿S') [•] =

= H0,N (t, z) [ *N+1 - ДN+1 (TN,t)] X

x[ *N +1 -An+1 (tN, t)] H0,N (t, z)-

-H0,N (t, z)[*т -An+1 (tN,t)] [* “A (sL ,t)] X Х(Г^' (L ,t)) (t+1 (N; t; ^L )) H)N (t,z)-

-H0,N (t,z)r^N+1 (N;t;)( (SL ,t)) X x[ * “Д (L , 0][ ^т -An+1 (tN , O] H 0,N (t, z) +

+H0,N (t,z)ГN+1 (TN;t;^L )(' (L ,t)) X

x[xL - p.L (.S',t)[xL - ДL (,t)]Г x

X( (L ,t)) (n+1 (N; t; $l )) H0,N (t,z).

Из (51) следует, что HL (, z) = H0>n (, z)N+1 (% ; t; ~) • Тогда

Постановка (42), (45), (55) и формул, связанных с (53) (46), аналогичных (42), (45), в (15) приводит к (47).

С учетом (33) и (44) следует, что

М { h ( xt, { , z)-h ( , t, z|x' ) [•] } = H 0,N (t, z )rN+1 (T N, t)H0,N (t, z )-

-HL (t,z)(rL (S',t))-1 HI (t,z)•

h(xN, t, z| xsL ) - h(t, z)

= H0,N (t, z)[м-N+1 (tN ,t 1 SL ) ~N +1 (tN ,t)]•

Тогда, согласно (52),

О -hM][f } =

М

г(т

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

h(xN,t,z|X. )-У

= HL (t,z)(fL (S',t))-1 HL (t,z)•

(56)

Постановка (56) в (16) приводит к (48) Соотношения (49), (50) следуют непосредственно из (23), (24)

Заключение

Получено количество информации по Шеннону в совместной задаче непрерывно-дискретной фильтрации, интерполяции и экстраполяции с произвольной памятью и исследована структура этого количества

информации в виде представлений /Т,5 [•] через условное количество информации /^ [х^, х1,; г0, пт|хь ]

о прошлых и текущих значениях процесса х1 при фиксированных будущих значениях этого процесса и ко] о будущих значе-

личество информации I‘s [; (55) ниях процесса xt •

xS; z0, пГ1

ЛИТЕРАТУРА

1 Демин Н.С., Рожкова С.В., Рожкова О.В. Обобщенная скользящая экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Изв^ РАК ТиСУ^ 2000^ № 4^ С 39-51 •

2^ Шеннон К. Работы по теории информации и кибернетик М^: ИЛ, 1963• 829 с

3^ Демин Н.С., Короткевич В.И. О количестве информации в задачах фильтрации компонент Марковских процессов // Автоматика и телемеханика • 1983• № 7. С 87-96^

4^ Демин Н.С., Короткевич В.И. Об уравнениях для шенноновского количества информации при передаче Марковских диффузионных сигналов по каналам с памятью // Проблемы передачи информации 1987^ Т 23, № 1 С 16-27^

5^ Dyomin N.S., Rozhkova S.V., Safronova I.E. Information amount determination for joint problem of filtering and generalized extrapolation of stochastic processes with respect to the set of continuous and discrete memory observations // Informatica^ 2003^ Vof 14, № 3^ 295-322^

6^ Dyomin N.S., Rozhkova S. V., Safronova I.E. About structure of Shannon information amount for joint filtering and extrapolation problem by continuous-discrete memory observations // Informatica^ 2004^ Vol 15, № 2^ P^ 171-202^

7^ Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памя-тью^ Общий случай // Известия Томского политехнического университета^ 2004^ Т 307, № 3^ С^ 13-17^

8^ Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памя-тью^ Условно-гауссовский случай // Известия Томского политехнического университета^ 2004^ Т 307, № 4^ С 6—10^

9^ Липцер Р.Ш., Ширяев А.Н. Статистика случайных процессов^ М^: Наука, 1974^ 696 с^

Статья представлена кафедрой прикладной математики факультета прикладной математики и кибернетики Томского государственного университета и кафедрой высшей математики факультета естественных наук и математики Томского политехнического университета, поступила в научную редакцию «Кибернетика» 3 июля 2006 г^

i Надоели баннеры? Вы всегда можете отключить рекламу.