Научная статья на тему 'Количество информации по Шеннону в совместной задаче фильтрации, интерполяции и экстраполяции по непрерывно-дискретным наблюдениям с памятью'

Количество информации по Шеннону в совместной задаче фильтрации, интерполяции и экстраполяции по непрерывно-дискретным наблюдениям с памятью Текст научной статьи по специальности «Математика»

CC BY
139
43
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Демин Н. С., Рожкова С. В.

Рассматривается информационный аспект совместной задачи фильтрации, интерполяции и экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с фиксированной памятью. Исследуется структура количества информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Демин Н. С., Рожкова С. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Quantity of information by Shannon in joint filtration, interpolation, and extrapolation problem on continuous-discrete observation with memory

Information aspect of joint filtration, interpolation, and extrapolation problem of scholastic processes on continuous-discrete observations with fixed memory is considered. Structure of information quantity is investigated.

Текст научной работы на тему «Количество информации по Шеннону в совместной задаче фильтрации, интерполяции и экстраполяции по непрерывно-дискретным наблюдениям с памятью»

Естественные науки

УДК 519.2:621.391

КОЛИЧЕСТВО ИНФОРМАЦИИ ПО ШЕННОНУ В СОВМЕСТНОЙ ЗАДАЧЕ ФИЛЬТРАЦИИ, ИНТЕРПОЛЯЦИИ И ЭКСТРАПОЛЯЦИИ ПО НЕПРЕРЫВНО-ДИСКРЕТНЫМ НАБЛЮДЕНИЯМ

С ПАМЯТЬЮ

Н.С. Демин, С.В. Рожкова*

Томский государственный университет *Томский политехнический университет E-mail: svrhm@rambler.ru

Рассматривается информационный аспект совместной задачи фильтрации, интерполяции и экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с фиксированной памятью. Исследуется структура количества информации.

1. Введение

В [1] был введен и исследован комплекс задач обобщенной скользящей экстраполяции (как наиболее общий вид экстраполяции) стохастических процессов с непрерывным временем по совокупности реализаций процессов с непрерывным и дискретным временем, которые зависят не только от текущих, но и от произвольного числа прошлых значений ненаблюдаемого процесса. В связи с тем, что всякое оценивание связано с извлечением информации из наблюдений, то любая статистическая задача имеет информационный аспект [2]. В [3, 4] рассмотрен информационный аспект задачи фильтрации в случае наблюдений без памяти и с памятью единичной кратности, в [5] - совместной задачи фильтрации и обобщенной экстраполяции в случае произвольной памяти, в [6] - исследована структура в совместной задаче фильтрации и экстраполяции с произвольной памятью, а в [7, 8] - в совместной задаче фильтрации и интерполяции. В данной работе рассматриваются вопросы нахождения шенноновских мер количества информации в совместной задаче фильтрации, интерполяции и экстраполяции по непрерывно-дискретным наблюдениям с произвольной памятью. Используемые обозначения: М{.} - математическое ожидание; Р{.} - вероятность события; Щу;а;В} - гаус-совская плотность.

2. Постановка задачи

Ненаблюдаемый «-мерный процесс х, и наблюдаемый /-мерный процесс ^ определяются стохастическими дифференциальными уравнениями

= /((, х1 )сН + Ф1(()ём>1, I > 0, (1)

= Иу, х1, хт , + Ф 2 )ё\1, (2)

а наблюдаемый ^-мерный процесс п(0 с дискретным временем имеет вид

П) = Я (С, х,т, хТм, 2) + ф 3(Гт, 2)^(1 т),

т = 0,1,-, (3)

где 0<тл<т1</„</, т. е. память фиксированная [1]. Предполагается: 1) ^ и V, являются стандартными винеровскими процессами размеров г1 и г2, £(,„) -стандартная белая гауссовская последовательность размера г3; 2) х0, V,, V,, £(,„) - статистически независимы; 3) Д.), й(.), £(.), Ф1(.), Ф2(.), Фз(.) непрерывны по всем аргументам; 4) б(.)=Ф1(.)Ф[(.)>0, Л(.)=Ф2(.)Ф2г(.)>0, Г(.)=Ф3(.)Ф3(.)>0; 5) задана начальная плотность р0(х)=дР{х0<х}/дх.

В целях более компактной записи математических выражений введем оператор

К, у [ф1(ст. У)У)] = = ^ У ^ У)]^ У) ^ У

ffil, у) У 2 2 у)

где Ьау[ф(о,у)] и Ь\[ф(о,у)] - прямой и обратный операторы Колмогорова, соответствующие процессу (1), и расширенные переменные

" х1" х

х1 = , х"+1+1 х"

х1 _ х1 _

Ставится задача: найти информационное количество

оЯ ■ « ■ с! ^

[х",х,,%;] = М \ 1п

р х; х,; х1)

г т ,,,5 ^ Т 5 , 5 5 '

р (;,,х,; ^Д1)

(5)

= ь,,х[ р',,,, (х";х;х1); р,(х;)]йг+

+Р1, 5 (х^«; х; х1 )[й(,, х , х«, г) -

(8)

-Н(,, г)]Г Л(,, 2)[й2, - Н(,, г)] с начальным условием

р'т,т ,5(;х; х1) =

= [с( х, х«;п(,т), 2)1 с(ц(,т, г))] р^-0 (х«; х; х1), (9)

р,(х; ) = д"+1Р{х, < х; х" < ^ | 4п0 }/дхдх« ,

Л(?Г2) = М {Н($, х ,, , 2 )| 2 0т ,<}, (10)

с(х, х« ,п(,„),2) =

= ехр

-Ш'т) - Я(,О, х, Х„, 2)]г X

К ЛО, 2 )[П(,О ) - Я (, о , х, , 2)]] сШт), 2) = М{с(х^ , ^), 2)|20О, По0-1},

а рТ,0,,0 (х«;х;х1) =11т р',,,, (х«;х; х1) при Лт

Данное утверждение следует из Теоремы 1 и Следствия 1 в [1].

Теорема. 1. Количество информации (5) на интервалах 4,<К4,+1 определяется уравнением

<,,, [ х", х, х; 4п0 ] = л

= 2^[М[Я"1 (г, 2)[х,, х", 2) -

-Ь(г, 2)][А(/, х t, х", 2) - А(/, 2)] х

б(,М

х[А(/, х,, хс", 2) - А(/, 2)] }] +

д 1п р'и, (х"; х1; х^) д 1п р1 (х,; х")

I I -М -I р ......

дх,

д 1п р1 (х,; х") дх

дх

о текущих х,, прошлых ~ 1ЛГ={хТ1,хТ2,...,х%| и будущих х^=[х,, ,х%,...,х^| значениях ненаблюдаем ого процесса, которые содержатся в совокупности реализаций г0={г(о-);0<о</} и П0т={п(,0),п(,1),...,п(,т)} наблюдаемых процессов (2), (3), где

р(т", хм;,, х; 5£, х1) = = д"+1+1Р {х, < х; х" < X"; ^ < х }|дxдХ:Nдх , (6)

р1,и(х";х;хх 1) =

= д"+мР{х, < х;х" < х";х < х 12о,пО }/дхддС" дх . (7) 3. Общий случай

Утверждение 1. Плотность (7) на интервалах

,т<,<,т+1 определяется уравнением (х";х; ) =

- и

6(,)М

д 1п р( X", ЗЕ";,, х,; ^, )

дх

д 1п р( ,, х,; гн, хх")

-1*

2

б(,)М

дх

д 1п р(,, х,; хя, х") дх

д 1п р, (х"; х,; ) Г д 1п рТ (И?; х,; х!^)

дх

дх

д 1п р(Т", х";,, х,; , хх^1) I д 1п р( г", х1";,, х; 5 , х' )

дх,

с начальным условием

дх

(11)

7гт гл" „г О Т

1 т0,т ,5 [ х("т 0 х,т 0 ; 2оПо ] =

= /ТО-о, [ х", х,т, х'; 2'от ,п0-1] + +Д/:°О,, [ х", х,т, ^; г'от ,п( 0)],

(12)

где

р(,,х;Т", •х") = д"+1Р{х, < х; хх" <х" }/дхдх" ,

[с(х, ,хс",п(г ),г) 1 Д/ 'т, [•]= М \ гт Т 1Кт' ' [,

а ДОО!,[х",х,т,%;2'от ,п0-1] = 11тК,, [•] при

Доказательство. Совместная априорная плотность (6) определяется уравнением

й ^(Т", хС";,, х; , хх1) =

= ^, х [ Р (Т", хх"; г, х; , хх1); р(г, х; Т", хх")] Л,

которое следует из (8). Обновляющий процесс дифференциал которого имеет вид ,1)&,

является таким, что ¿¡=(~,Р?) есть винеровский процесс с М{~~?|Р^}=10Л( т,1)йт [9]. Тогда дифференцирование по формуле Ито дает, что

X

р(х» ^ X х Ь )

' р(?» , х» ;'> х; ьь=х 1)

d, 1п

=-г—х1—XI) кх [ р^ (х»;х; х1X р, (х; х„ Ж'-Р',^(х»;х; х)

р( ;',х; ьь,х Ь)

х [ р( т X» )]Л -

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1,

-2[к(',X, X»,2) -к(', 2)]

хЯ 1 (', ¿)[Н(', х, X», 2) -к(', £)]С' +

Т п-V

+[к(', X, X», 2) -к(', ¿)У Я (', 2)[dzt -к(', 2)].

Применяя к последнему выражению формулу Ито-Вентцеля, получаем аналогично [3, 4, 7], что

d, 1п-

1,

р' ,,,( X»; X,; XXI) р(т»,х»;',x';^,хЬ)

= 2[к(',X,,х;,2) -к(',2)\

+ь-

хЯ2)[к(',xl, X», 2) -к(', 2)]С' -1 д2 р , (X'; X» )

2 (')

р, (X,; xт) 1

дх,2

д2 р(', X; т», х» )

+^

2 (')

р(',х'; т», ^ )

д 1п , (X»; х; XI) дх1

дх.

дх2

Л-

д 1п р(х;х») дх,

d' -

2(')

д 1пр(т»,х»;',х';^,%) дх1

д 1п р(', х'; т», X» )

1

--Ь-

2

дх1

д 1п р(', х1; т», X1» ) дх1

д 1п (XX»; х; XI)

d' -

2(')

дх.

()т -

дьр^»,х»х';ь,х1) ()т

дх1 XX»; X,; XI) дх рЧ?» >х» х,; ¿ь=х1)

д

+ 1п

ФуОсЫ/! -

d'-

р(§ь, Xь |т», X»х) = = дьР {хЬ < хь |х» < х»; х, < х}^ ,

р% Лх ь \х»;х) =

= дьР{хЬ < хь \х» < х»;х, < х;20л1}/дх1 ,

есть условное количество информации о будущих значениях процесса %! при фиксированных прошлых и текущих значениях этого процесса, которое содержится в совокупности реализаций (г0';По"},

11,[х»,х,;¿П] = М \ы р:(Х'1 }, (14)

есть количество информации о прошлых и текущих значениях процесса х,, которое содержится в совокупности реализаций (го';п0"}- Тогда количество информации (5) может быть представлено в виде

I',, [ X», X, хЬ;«] = 4 ,'[ хЬ; 2'ап;\х», х, ] + 1',[х», X,; 4<], (15)

где 4 >([XI;,х,] и II,[X»,х,;П] на интервалах ,и<,<,и+1 определяются уравнениями

С1'т л XI; 2'0х\х», X, ]/с, =

= -2*

\д 1п р',( хЬ\х», х,) 2(')М \-^^^ х

^д 1п р'т '(хЬ\х», х,) ^ дх.

дыр(¡ь,х1Ь |т»,х»;их,) дх,

I % т

д1п р( ¡ь, хЬ\ х», хх'»;и х ,) дх,

С1'','[ X», X,; ] = С

(16)

= Ф)^г

М

Я-1 (', 2) [к{', х1х», 2) - к(', 2) ] :

х \^к(', XX», 2) - к(', 2)]Г

- Ьг

2(()М 1д1прдх,х») Гд\прдх,х) дх, I дх,

+[к(', х,, X», 2) - к(', 2)] Я 2) Ф 2(', .

Дальнейшие преобразования по выводу уравнения (11) повторяют преобразования по выводу уравнения (3.8) в [5], а подстановка (9) в (5) приводит к (12). Теорема доказана. Терема 2. Пусть

р г-Ь ' ш\~Ы п .'^ьГ» ; х' ) I

11г,'[х*;^По \х ,х] = М 11п ^и -»—т} =(13) I р(ьь,ху»,х х )1

д1п р(', х,;т», X») [ д1п р(', х,;т», X»)

дх.

дх.

(17)

с начальными условиями

IX[ хЬ; 2'о- ,п;\х», х1ш ] = =1X1 [хЬ; 20- х-1 |х», X. ]+

[ хЬ; 2о- п( - )\ X», х-],

[ xN, x.; ^ nm ] = =I^IXN, Xm; z0m ,n.-1][ X, X.; 2'om )], (19) где

Д^,: [ XL; z0: ) |xN, X: ] =

c( xt.'xN n(tmX z) 1

= M -jln-

c(n(tmX Ax.,; )

Д1Ч. [ xsN, Xt.; z0m ,n(t.)] =

(20)

= M On

c(n(t.),z\X?,X:) | c(n (t.), z) |

(21)

+pt (x; XN )[h(t, x, XN, z) - h(t, z)] x

(24)

p':,.(x; xn ) =

c(n(tm X Z X , X,. )

pt.-0(x; ^ ). (25)

c(n(t.), z)

Поделив (9) на (25) получаем с учетом (22), что

р'~ , (х1 | х„;х) = С(хХ"Ср" "-0 |х ;х). (26)

Использование (26) в (13) приводит с учетом (20) к (18). Использование (25) (14) приводит с учетом (21) к (19).

4. Условно-гауссовский случай Утверждение 2. Пусть / (•) = F (Ох,, Ро(х)= ^{х;М0;Г0},

h(-)= H о(,,а)х, + £ H (t,z)x4,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

k =1

g (•) = Go(t„ ,z)x, + ^ (t. ,z)Xk.

(27)

c(n(t.), z|^n , x) = = M{c(x,. , ^,n(t.), z)| XN = ^, Xt = x, z0. n -1},

а I%1 [•] = Imlttt[•], I^H = UmItt H при i\tm.

Доказательство. По формуле условной вероятности

p',t(xn;x;x) = p\u(x I xN;x)p,(x;%x (22)

P(fN, Xn ; t, x; sL, XXL ) =

= p(Sl , xL |tn, Xn ;t, x)p(Tn , ^; t, x). (23)

Подстановка (22), (23) в (5) с учетом (13), (14) приводит к (15). Плотность pt(x;~N) удовлетворяет уравнению [7]

d,p, (x; Xn ) = Lt; [ p, (x; Xn )]dt +

Тогда имеет место свойство

, s( xN ;x;;L) = = N {XN+L+1; Vn+L +1 (fN >t, SL X ^ +L + 1 fe >t, SL ) }=

= N

X " ^(t) "

XN ; Z^N (fN =t)

_ xL _ _/iL (Sl , t) _

Г(,) Г 0 N (Tn , t) Г On +1(Sl , t)

Г 0 N О ^V (N ,t) ^^N +1 (("N ,t,SL )

(ГГL,N+1(-))r (ГlN,N+1(-))r rL (SL , t)

(28)

x^"1 (t, z)[dzt -h(t, z)dt]. Дифференцируя p'sT,t(xL 1 xn ;x) = p, s( xn ;x;x)/P, (x; XN) по формуле Ито с использованием (8), (24), получаем d,p'T ,,(;;L 1 xn ;x) = -L*x[ pt ^,,(1XN;x)]dt.

где блочные составляющие параметров распределения (28) определяются дифференциально-рекуррентными уравнениями в [1].

Теорема 3. Пусть выполняется условие (27). Тогда количество информации (5) на интервалах 4<К4+1 определяется уравнением

К,,, [ %, х, Х1; ]

dt

Априорная плотность р(§1, Х1 | т^, Хм;,, х) определяется уравнением того же типа, что и Р^ ,, (х1 | хх^; х), т. е. уравнением

(я1, х1 | , ;,, х) =-1(*х [р(•?1, хх1 | % , х ;х)]^/.

Дальнейший вывод уравнения (16) проводится с использованием формул Ито и Ито-Венцеля по методике вывода уравнения (11). Уравнение (17) выводится аналогично (16) с использованием (24) с учетом того что dlp(t, х; тм, хы) = Ц х [р(/, х; тм, х^ )№ (см. [7]). Интегрирование (9) слева и справа по с учетом (22) дает, что

= (V2)tr - (V 2) tr

+(V2)tr

M {R-\t, z) H on (t, z) x"

x^ n+1 Tn , t) HIn (t, z)} Q(t )M {Г-1 (t | Sl ) + +Г-1(,| Tn )-Г-1(,)} Q(t)[D~'(t | Sl) + +D-1 (t | In) - D \t)]

(29)

с начальным условием (12), где

,s [ XN, x , XL; zO. ML)] =

= 1 m hn

2 I \r

N+L+1 Tn , . - SL )| 1

N+L+1 (TN ,t. , SL )|

(30)

Ho n(t, z) = [Ho(t, z) | H1(t, z) | - | Hn(,, z)], r(t) ]f 0N (Tn, t)"

-T N+1 (tn ,t)

Tn, t) Г n (т;, t)

k=1

Г(,1 xN) = Г(,) - Г0N (tn , , ,)ГTN (TN , t), (31)

Г(, | SL ) =

= r(t) - ГLn+1 (Sl , ,)(ГL (Sl , t))-'(^N+1(Sl , t))T, (32) D(t| Tn) = D(t) - D0n (Zn , t)DN\fN, t)DTn (tN , t), (33) = M

D n

' (fN, t, sL ) априорного гауссовского распреде-

ления

= N{x

P(fN, *N; t, x; , x ) =

1 ;

N+L+1' "N+L + 1("^N 't, SL ), DN+L + 1(TN ,t, S )},

h(t, Z) = H TN (t,z) /In+i( Tn , f),

h(t, xt, xN, z) - h(t, z) = = H t,n (t, Z )[ XN+1 -In+I( TN , t)],

M{[h(t, x,, xcf, z) - h(t, z)][h(t, x, XNN, z) - h(t, z)]T} = = Ht,n (t, z)]ГN+i(Tn , t)HTN (t, z)

где lN+i(fN >t) =

(35)

I(t) IN (fN ,t).

~n+' =

xt

N

Так как p, (x,; xf) = p,^ (x,; xNx )pt (^), то с учетом (34)

д ln p, (x.; xN) = 51njp,r(xLMXN) = dx, dx,

= -Г-1(,| z~N)[x, -n(t\ z~N)], M id 1n ^; xN ) ^ I (,| Tn ).(36)

Sx,

Sx,

По формуле условной вероятности

, (xN; x; xL) = = ) pt С, \ xN)P. (xN)л (xL). (37)

Тогда is ln p't s ( xN ; x ; xL ) f

m j

Sx,

d ln p, ( x, ; xN )V

dx,

д ln Р/Л,^)

А Г

dx.

д ln P, |т ( x, 1 xN ) dx.

D(,|Sl ) =

= D(t) - DtLn+1 (Sl , t)(DL (Sl , t)) -1(D{n+i(S , t)) ,

D(t), -TN(Tn, t), DDn (Tn , t), D^ +i(S , t), DL (ç , t) -

блочные составляющие матрицы вторых моментов

+M I дlnРт(x,|xN) f дlnptY(x IxN)

-M

дx,

д ln P,( x,)

дx,

дx,

д ln Pt|T ( xt | ^T ) дx,

(38)

блочная структура параметров которого аналогична блочной структуре параметров распределения (28).

Доказательство. По свойству гауссовских плотностей имеет место свойство [9]

p't (x\xN) = N{x; M(t | Tn ), Г(, | Tn )}, (34)

M(t 1 ¿N) =

= M(t) 0 N (fN , t) (f N (fN , t))-1[ xN - /^n TN , t)],

а Г(/ |~v) определено в (31). Из (10), (27), (28) следует, что

Аналогично (34)

pAs (x | xL) = N{x; /i(t\sL), Г(, | sL)}, (39)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

/(, | Sl ) =

= /(,) + 1"l,n+i(SL, t) (I"L (^,,))-1[^ - / (SL ,.)], а Г(/~ определено в (32). Так как

PS (x,;xL) = p, s(x, | x?L) ps( то с учетом (39)

д ln pS (x,; xL) =Slnps(xLx) = dx, dx, = -Г-1(, | Sl )[ x,-/(,|Sl)]. (40)

Тогда из (37), (40) с учетом (34), (39) следует, что

M 1_дln Ps (xt|xxL) f дln ptt (x | xN )

sx,

дx,

j ' ^

Так как p,(x) = N{x; /(t),Г(,)} [9], то =-Г-'(, )[ x, -к, )],

= ]-1(t). (41)

(42)

и с учетом (34), (37)

M

д ln P,( x,)

Sx,

d ln Pt ( x,|^ )

dx,

= ]-1(t). (43)

M

dx,

Тогда из (37), (38), (41-43)

д ln p. (x*; x,; xj)-Slnp^1xN2" dxt

д ln p, (x,; xN)

dx.

Из (40) следует

= T. (44)

L\ f

M

S ln Pt|s (xt | xJ

Sx,

S In P,|s (x,|

Sx,

= Г-1(,| Sl).

(45)

Из (39), (40), (42) следует

(46)

Из (37), (41), (43), (45), (46) следует

М<

д 1п Р,, X; X,; х? ) ( д 1п р',,, (Т; х,; х? )

дх,

дх.

- г-1(, | а?)+г-1(/|т„) -г1«.

(47)

- N+1+1 с^, т, )|

т. е. с учетом (12) пришли к (30). Теорема доказана.

Теорема 4. Количества информации (13) и (14) на интервалах определяются уравнениями

х?; Ъптх, х ]/<* -

: -(1/2) 1Г[б(,)М{Г-1(, | - Г-1(,)}] + +(1/2)1г[0(О[ £ ~1(,1§1) - £ Л,)]],

(49)

- (1/2) *

<,,[ , х; 4 п у л -

Я7) Н 0„ (,, ) х

М \

|хГN >0Н0,N С, )|

-(1/2)^ \_QOM {Г-1(,| Ти)}] + +(12)1г[0(О )]

с начальными условиями (18), (19), где ыт, т [ х?; ж т )| , хт ] -

1 I Г №, т - о)

М Лп1

(50)

Г (^ Ки, т) м::,т [, х^; # мт)] -

ьЛ, |г , т - о)| ]

-1М Лп1

|ГN+1(Т N > С )|

(51)

(52)

Г?,,) -Г?(•)-

■ N, N+1\" N

1& ,0 Л ^ )

Х(Г N +1^ ,0)-1

Г N, N+1 (Т N , ^ )

(53)

Доказательство. По формуле условной вероят-

ности

р1Д ххЛх; ^) -

а',,, (хТ; х; х?)

При условиях (27) априорная плотность (6) является гауссовской

р((ТN,XNх;,, х?) -

- ^{Ху+ Х+1; XN+1 + 1

^ • ), £>N+1 + Л • )}- (48)

Тогда для плотности (48) будут справедливы формулы аналогичные (44), (47). Подстановка (35), (39), (47) и формул связанных с (48) аналогичных (44), (47), в (11) приводит к (29). Из (9), (28) следует, что

м\ *'Ли\.

- 1 М (ш 1Г»«.1(^ •т - 0, * >11

Тогда

р, (х; х?)

д 1пРт,,(х? | х,;х?) =

дх,

д 1п (^; х; х?) д 1п р, (х,; х*)

дх, дх,

С учетом (37) д 1п(х^Г;х,;Я,) -51пр(х)

дх, дх, дх

Используя (45), (46) в (55), получаем

.(54)

.(55)

М

1п р' ,,(хцх; ххт)(

дх,

д1п Р,И( ; х)

дх

-Г-1(, | ) -Г-1(,). Аналогичные вычисления дают д 1п р( , х1 х; х N, XN)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(56)

М

дх,

д 1п р(, х? х; хN, ххN) Эх,

' У J

- £"1(,|^) -Б-'С). (57)

Подстановка (56), (57) в (16) приводит к (49). Уравнение (50) следует непосредственно в результате подстановки (35), (36) и аналогичного соотношения дляр(1,х;~~) в (17). Соотношения (51), (52) получаются аналогично (30) с использованием (13), (14). Теорема доказана.

5. Заключение

С использованием результатов [7, 8] получено количество информации по Шеннону в совместной задаче фильтрации, интерполяции и экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с памятью и исследована ее структура в виде представлений Г^Х'] через условное количество информации

1,Д х, ; 4,Пот |хТ, х] о будущих значениях процесса при фиксированных прошлых и текущих значениях и количество информации ![,[_х^,х,;] о прошлых и текущих значениях процесса х.

Работа поддержана грантом МД-9509.2006.1.

СПИСОК ЛИТЕРАТУРЫ

1. Демин Н.С., Рожкова С.В., Рожкова О.В. Обобщенная скользящая экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. - 2000. - № 4. -С. 39-51.

2. Шеннон К. Работы по теории информации и кибернетике. -М.: Иностранная литература, 1963. - 829 с.

3. Демин Н.С., Короткевич В.И. О количестве информации в задачах фильтрации компонент Марковских процессов // Автоматика и телемеханика. - 1983. - № 7. - С. 87-96.

4. Демин Н.С., Короткевич В.И. Об уравнениях для шеннонов-ского количества информации при передаче Марковских диффузионных сигналов по каналам с памятью // Проблемы передачи информации. - 1987. - Т. 23. - № 1. - С. 16-27.

5. Dyomin N.S., Rozhkova S.V., Safronova I.E. Information amount determination for joint problem of filtering and generalized extrapolation of stochastic processes with respect to the set of continuous

and discrete memory observations // Informatica. - 2003. - V. 14.

- № 3. - P. 295-322.

6. Dyomin N.S., Rozhkova S.V., Safronova I.E. About structure of Shannon information amount for joint filtering and extrapolation problem by continuous-discrete memory observations // Informatica. - 2004. - V. 15. - № 2. - P. 171-202.

7. Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памятью. Общий случай // Известия Томского политехнического университета. - 2004. - Т. 307. - № 3. -С. 13-17.

8. Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памятью. Условно-гауссовский случай // Известия Томского политехнического университета. - 2004. -Т. 307. - № 4. - С. 6-10.

9. Липцер Р.Ш., Ширяев А.Н. Статистика случайных процессов.

- М.: Наука, 1974. - 696 с.

УДК 330.43

ИМИТАЦИОННОЕ МОДЕЛИРОВАНИЕ ЗНАЧЕНИЙ ВРЕМЕННЫХ РЯДОВ МЕТОДОМ ДИНАМИЧЕСКИХ УСЛОВНЫХ КОРРЕЛЯЦИЙ НА ОСНОВЕ МНОГОМЕРНОГО АСИММЕТРИЧНОГО РАСПРЕДЕЛЕНИЯ ЛАПЛАСА

О.А. Бельснер, О.Л. Крицкий

Томский политехнический университет E-mail: olegkol@mph.phtd.tpu.edu.ru, belsner@bk.ru

Предлагается модификация модели динамических условных корреляций. Модификация заключалась в отказе от предположения о многомерном нормальном распределении логарифмов приращений дневных котировок финансовых инструментов, вследствие ненулевых значений коэффициентов асимметрии и эксцесса, и в использовании асимметричного многомерного распределения Лапласа, позволяющего моделировать линейные комбинации одномерных случайных величин, что особенно важно при расчете предельной величины риска (Value-at-risk, VaR) для портфелей финансовых инструментов.

Понимание механизма взаимодействия финансовых величин является проблемой, довольно длительный период рассматриваемой в экономике. Переменные оказывают влияние друг на друга не только через первый, но и через второй моменты совместных распределений. Это означает, что изменение значения одной переменной может воздействовать не только на уровень другой, но и на степень изменчивости остальных переменных. Для достижения состоятельной, несмещенной и эффективной оценки данной зависимости предлагается большое количество эконометрических методов, позволяющих осуществить наиболее точный анализ.

В течение последних двадцати лет в финансовой эконометрике происходит активное развитие моделей, описывающих процессы изменения цен, основной особенностью которых является непостоянство безусловной или условной дисперсии.

Причины изменения дисперсии у финансовых показателей различны. Среди прочих можно выделить непредвиденные политические события, рез-

кие колебания уровня предложения на рынке (например, вследствие поступления на рынок больших объемов валюты, товаров или ценных бумаг) или его сокращение (что, согласно закону спроса и предложения, приводит к росту цен). Очевидно, что изменения дисперсии цен финансовых инструментов оказывают существенное влияние на финансовые сделки вследствие увеличения рисков потерь.

Общий подход к построению моделей с изменяющейся дисперсией предполагает, что значение финансового показателя Xt в момент времени t определяется посредством уравнения:

Xt =p(t) +otst,

где ¡(t) - условное математическое ожидание процесса X,, e~N(0,1) - стандартная нормально распределенная случайная величина, at - условное стандартное отклонение.

Изучение изменений волатильности привело к появлению в начале 1980-х гг. класса моделей авторегрессии условной гетероскедастичности (ARCH) [1] вида:

i Надоели баннеры? Вы всегда можете отключить рекламу.