Научная статья на тему 'Информационный анализ в совместной задаче непрерывно-дискретной фильтрации и обобщенной экстраполяции. Ч. II. Эффективность наблюдений с памятью и оптимальная передача стохастических процессов'

Информационный анализ в совместной задаче непрерывно-дискретной фильтрации и обобщенной экстраполяции. Ч. II. Эффективность наблюдений с памятью и оптимальная передача стохастических процессов Текст научной статьи по специальности «Математика»

CC BY
98
31
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
сигнал / стохастические системы / фильтрация / экстраполяция / количество информации / signal / stochastic system / filtering / extrapolation / information amount

Аннотация научной статьи по математике, автор научной работы — Демин Николай Серапионович, Рожкова Светлана Владимировна, Рожкова Ольга Владимировна

Исследуется проблема информационной эффективности и оптимальной передачи стохастических сигналов по непрерывнодискретным каналам с памятью в совместной задаче фильтрации и экстраполяции. Основные результаты заключаются в получении формул, определяющих эффективную глубину памяти, кодирующие и декодирующие функционалы.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Демин Николай Серапионович, Рожкова Светлана Владимировна, Рожкова Ольга Владимировна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The problem of information efficiency and optimal transformation of stochastic signals through the discrete-continuous channels with memory in the joint problem of filtering and extrapolation has been studied. The main results consist in obtaining formulas determining the efficient memory depth, coding and decoding functionals.

Текст научной работы на тему «Информационный анализ в совместной задаче непрерывно-дискретной фильтрации и обобщенной экстраполяции. Ч. II. Эффективность наблюдений с памятью и оптимальная передача стохастических процессов»

УДК 519.2

ИНФОРМАЦИОННЫЙ АНАЛИЗ В СОВМЕСТНОЙ ЗАДАЧЕ НЕПРЕРЫВНО-ДИСКРЕТНОЙ ФИЛЬТРАЦИИ И ОБОБЩЕННОЙ ЭКСТРАПОЛЯЦИИ. Ч. II. ЭФФЕКТИВНОСТЬ НАБЛЮДЕНИЙ С ПАМЯТЬЮ И ОПТИМАЛЬНАЯ ПЕРЕДАЧА СТОХАСТИЧЕСКИХ ПРОЦЕССОВ

Н.С. Демин*, С.В. Рожкова, О.В. Рожкова

*Томский политехнический университет Томский государственный университет E-mail: rozhkova@tpu.ru

Исследуется проблема информационной эффективности и оптимальной передачи стохастических сигналов по непрерывнодискретным каналам с памятью в совместной задаче фильтрации и экстраполяции. Основные результаты заключаются в получении формул, определяющих эффективную глубину памяти, кодирующие и декодирующие функционалы.

Ключевые слова:

Сигнал, стохастические системы, фильтрация, экстраполяция, количество информации.

Key words:

Signal, stochastic system, filtering, extrapolation, information amount.

1. Введение

Вопрос информационной эффективности каналов передачи при заданной способе передачи и синтеза оптимальных способов передачи являются одними из основных в теории информации и теории передачи сообщений. В данной работе на основе результатов [1] исследуются указанные вопросы в задаче непрерывно-дискретной передачи с памятью стохастических каналов.

2. Информационная эффективность

наблюдений с памятью

Представляет интерес вопрос об эффективности наблюдений с памятью в задаче экстраполяции, т. е. увеличивает или уменьшает количество информации наличие памяти. Данное исследование проведем для частного случая скалярных стационарных процессов х, 1„ ц(0 определяемых соотношениями

dxl = —оХ'Ж + , а >0,

с12( = Н0х^ + '•■ÍRdvl, ц ) = О0 хт + в1 хь + а2 хТ2 + #£ (т), (2Л)

В качестве меры информационной эффективности наблюдений с памятью Цт) относительно наблюдений без памяти ц(0, когда 61=0, 62=0, в задаче экстраполяции в случае ¿=1 может быть взята величина

Д = Д/'т [х; г0”, ц (")]— А1‘" [х; 4", Ц(" )]

где Д//"[.] и Д//"[.] - приращения количества информации из [1] при ¿=1 в моменты времени ¡т, поступающие соответственно из наблюдений ц(4,) и ц(0. Рассматриваем случай редких дискретных наблюдений. Тогда [2]

А = (1/2) 1п[ уп( s, О/А ")], (2.2)

7>, 1т) = уп(Г) — ^/Ь], (2.3)

7~>,") = 7П(Г) — [Оо2(70(Т))7(К + 0027)], (2.4)

d = [ОУ0(Т) + 01У1( <*, Т) + 07 ( <*, Т )]2,

Ь = V + О02у + С27и ( ) + е2722 ( ) + 2С0 01701 (<1*) +

+20002702(Л) + 20102712 ( <1 , <2 X

где 7, 7о1<^х*), 7о2<^2*), 7п(0, 7п(12), 7п(КЛ), 7‘(Т), 701(Т), 711(/1*,7), 721(/2*,7) определены в (3.2) из [2], /1*=/т-т1 и /2*=/т-т2 являются величинами, характеризующие глубину памяти, Т=з-1т - интервал экстраполяции.

Относительно глубины памяти имеются две крайние ситуации: случай малой глубины, когда ?!*—>0, ^2*—>0; случай большой глубины, когда /2*—-да. Пусть Д0=ИтА при /1*—0, /2*—0 и Дт=ИтД при /1*—да, /2*—да. Из (2.2)-(2.4) и (3.2) в [2] следует

Д0 = (1/2) 1п[(1 — 50)—1], Д„ = (1/2)1п[(1 — <5„)-1], (2.5)

1аУ72

S0 =

(G, + G2)2 + +2G0(Gi + G^X

exp(-2a!T}

[V + 7(Go + G, + G2)2 ]x Q(V + 7G2)(1 - exp(-2aT}) +' +2aV7 exp(-2aT}

2aKy3G02(G12 + G22)exp(-2aT}

(2.6)

[V + 7 (Go2 + k(G2 + G22))] x

Q(V + 7G2)(1 - exp(-2aT}) +

+2aV7 exp(-2aT}

(2.7)

где

7 = (1/5)(А — а), 5 = Н2/Я,

А = ^а2 +8<2, к = (А + а)/2А.

Исследование поведения Д как функции глубины памяти ( для случая /1*=/2*=/* дает следующий результат.

Утверждение. Пусть

С = {О0, 0Р 02): (01 + 02)2 + 20,(0, + 02) < 0}. (2.8)

Если (60,61,62)^, то Д(0 является монотонно убывающей функцией глубины памяти от значения Д0>0 до значения Д„<0, обращаясь в ноль в точке (=Сф для которой справедлива формула

*

teff =

(2.9)

=11п 0 + 02\р+к<)

А П\0^^V2 +к7(01 + 02)2(Г + к7020) ±V)

где знак «—», если 60(61+62)=|60|.|61+62|, и знак «+», если 60(61+62)=-|60|.|61+62|. Если (^ДД^, то Д((*)<0 для всех (’>0.

Дадим комментарии к полученному результату. Величина С=(*1Г может быть определена как эффективная глубина памяти и получена как единственный корень уравнения Д((*)=0, которое имеет вид

(01 + 02)2^ + ку0Ц) ехр{—2А< *} +

+2V00(01 + 02)ехр{—А< *} —

-G2(G + G2)2ky = 0.

(2.10)

При (<('$ дискретные наблюдения с памятью являются более эффективными, нежели дискретные наблюдения без памяти, т. к. при этом Д((*)>0 и составляющие 01хь и Охч сигнала ц((т) несут дополнительную информацию. При (=($ дискретные наблюдения с памятью являются менее эффективными, нежели дискретные наблюдения без памяти, так как при этом Д(С)<0. Данный эффект объясняется тем, что при достаточно большой глубине памяти информационные связи между текущими значениями сигнала хт и его прошлыми значениями хГ[ и хь исчезают и составляющие 61хГ[ и Охч сигнала ц((т) не несут никакой инфор-мац1ии, а д2ействуют как дополнительный шум.

Влияние непрерывных наблюдений на информативность дискретных наблюдений осуществляется через параметр 5=И02/Я, который пропорционален отношению сигнал/шум по интенсивности в непрерывном канале наблюдения. При 5-—да получим, что Д//-[.]—■ 0 и Д//-[.]—■ 0, что дает Д—• 0. Таким образом, при достижении абсолютно точного измерения в непрерывном канале дискретные наблюдения как с памятью так и без памяти не привносят новой информации о значениях х$ при любых Т. При 5-—0, что соответствует случаю отсутствия непрерывных наблюдений, справедливы формулы (2.2)—(2.9), в которых 7=Q/2a, А=а, к=1, т. е. в этом случае появляется явная зависимость от времени корреляции ак=1/а процесса х,.

3. Оптимальная передача стохастических процессов

В данном пункте для случая непрерывно-дискретной передачи с памятью стохастических сигналов рассматривается решение одной из базовых задач теории информации и теории передачи сообщений [3]. Пусть процессы х, г,, ц((т) являются скалярными процессами (см. (2.1)—(2.3) в [1]) и N=1, Д.)=Д ()х,, Ф2(.)=Ф2( (), Ф()=Фъ((т).

Ставится задача: в классе кодирующих функционалов К={Н1; 0}={А (.); ,?(.)}, удовлетворяющих энергетическим ограничениям

М{й2(?, хт, г)} < /г(<),

М{ё2(<т,х<т,^г)} < ), (3.1)

найти функционалы к°(.) и £*(.), обеспечивающие относительно задачи фильтрации минимальную ошибку декодирования Д0(()=1пГД((), где

Д(t)=M{[x-¿u(t)]2} является ошибкой оценки фильтрации /и( ()=M{xJг0',ц0m} процесса х,. Структура к(.) и g(.) такова, что дискретный канал является каналом с памятью, а непрерывный — каналом с чистым запаздыванием, т. к. в нем передается только прошлое значение хг сигнала.

Теорема. На классе К;={Н1;;0,} линейных функционалов

Н = (й(-): к(г, хТ, z) = к(г, z) + Н,($, г)хт},

= | ё ():ё (<т ,х" Д,2) = |

' 1= ё(<т , г) + 00^т , г)х,т + 01(<т , 2)х,\

1) оптимальные кодирующие функционалы И>((,х1,г°), g((т,х,т,х1,г°) имеют представления

г0) =-Н“(?, г >°(т, <),

Н0(<, г0) = [к(<)/Д°п(т, <)]1/2,

g\tm, z0) = ~G00(tm, z>4 -0), G00(tm , z 0) = [ g (tm )/ AVm - 0)]^, G"(tm , Z°) = 0, и имеет место свойство

•О Xt;(z Xfo0)m ]=sup1 [ х; L

где sup берется по всем {A(.);g(.)}eK; и /Л х;(z X«] =

= /°[•] + (1/2) X ln[1 + (g(t)/У(t,))] +

(3.3)

(3.4)

(3.5)

h(a) (A0i(r,a))2

R(a) A (a)A0i(r,a)

-Q(a)

1

1

A0 (a) D(a)

da,

(3.6)

Q(t) =®2(t), R(t) =®2(t), У (tm ) =®2(tm ), mV)=M{xt |( z x^x, mV, t)=m{xt |( z0) 0,(^°) m},

A 0(t) = M{[ Xt-mV )]2},

A0i(t, t) = M{[xt-m\t, t)]2},

A 0i(t, t) = M{[ Xt-M°(t)][ xt-mV, t)]};

2) оптимальное сообщение {z°;^0(tm)} определяется соотношениями

dzt = [h(t V A0i(r, t )]1/2 x

x[xt - m°(t, t)]dt + Ф2(t)dvt, n°(tm ) = [ g (tm V A0(tm - 0)]V2 X x[x^-M0(tm -0)]dt + Ф3(tm)^(tm); (3.7)

3) оптимальное декодирование ^(^ и минимальная ошибка декодирования Д0(,) на интервалах определяются уравнениями

d ¡j°(t) = F (t )^°(t )dt +

+R _I(t)

h(t)

1/2

Л°(т, t) d Л 0(t )/ dt =

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Л 01 (T, t )dz0,

2 F (t) - R ~\t )h(t)

(ЛО1Т , t))2 Л 0(t )Л01(т, t)

xЛ0(t) + Q(t)

(3.8)

(3.10)

ЛО1Т, tm - 0) = Л01(т, tm - 0)

1 +

g (tm )

V (tm )

V (tm ) + g (tm )

2

1 —

(Ot, tm - 0) )

Л0(т, tm - 0)Л01(Т, tm - 0)

(3.11)

Л01(Т, tm ) = V (tm )[V (tm ) + g (tm )Г Л0^, tm - 0).

Доказательство. При заданных {h(.); #(.)} е|H1;;Ge| на интервалах времени tm<t<tm+1

v(f) = M{xt|z0^}, ц(т, f) = M{xt |z'o,^^},

7(0 = M{[xt -^(t)]2 |z0Xh 7ll(т, 0 = M{[X - И(T, t)]2 |z0, <}

701 t) = M{[Xt -^(t)][Xт-v(т, t)] |z0,^0m}

определяются уравнениями [2] d¡u(t) = F(t)^(t)dt + R- (t)H 1 (t,z)701(t,t)dzt, (3.12)

dy(t )/ dt = 2F (t )y(t) -

-R 1 (t )H2 (t, z)702(T, t) + Q(t), (3.13)

d ¡d(z, t) = R _1(t )H 1(t, z )7u(t, t )dzt, dyn(T,t)/ dt = - R ( t) H2 ( t, z) y2 (t, t), d/01(T, t)/ dt =

=[F (t)- R~‘(t) H12(t, z )7ll(T, t)]7lo(T, t) (3.14)

с начальными условиями

/ (<т ) = / (<т — 0) + [ё(<т )/Д 0 (<т — 0)]^ X

Х^(<т ) + ё(<т )ГУ(<т ),

Д0(т) = v(tm )^(т)+ёот, )]—1 д 0 (т — 0); (3.9)

4) ¿и°(т,0, Ди0(т,(), Д010(т,() на интервалах

определяются уравнениями

d ц\т,<) = Я-'(<)[ т/Д01(т,<)]^2 dzt0, d Д°11(т, = —Я-1(<)/г(<)Д01(т, <),

d Д01 (т, <)/^ = [ F (<) — Я-'(<Ж< )]Д 01 (т, <) с начальными условиями

^о(т, <т) = цо(т, т — 0)+д01(т, т — 0) х

Х[£(<т )/Д0 (<т — 0)]12[V(<т ) + ё(<т )ГУ О, ),

V (<т ) х

W ‘(tm , z )j?(tm ),

W-\tm, z),

с начальными условиями

И(<т ) = М<т — 0) +

+[00 (<т , 2)/(<т — 0) + 01(<т , г^^т, ^ — 0)] X

хШ-\<т, г)ц(<т), (3.15)

7(<т ) = 7(<т — 0) —

—[00 (<т, г)7(<т — 0) + 01 (<т, г^^, ^ — 0)]2 X

хШ-\<т, г), (3.16)

/л(т, <т) = /л(т, т — 0) +

00 (<т , z)7ol(т, <т — 0) +

_ + 01(<т , z)7l1(т, <т — 0)

7l1(т, <т ) =7l1(т, <т — 0) —

00 (<т , z)7ol(т, <т — 0) +П2 _ + 01(<т , г)711(т:. <т — 0)

701(т=. <т ) = 701 (т^’ <т — 0) —

—[00 (<т, г)7(<т — 0) + 01 (<т, г )701 (т, <т — 0)] X

00 (<т , г)701 (т^’ <т — 0) +

_ + 01(<т , г)711 (т, <т — 0)

— [А(<, г) + Н,(<, г)/л(т, t)]dt,

?7(<т ) =

ё(<т , г) + 00 (<т , г) ^(<т — 0) +

_+С1(<т, г)и(т, <т — 0)

^ (<т, г) = V (<т ) + 00 (<т, г)7(<„ — 0) +

+ 012(<т , 711 (<т — 0) +

+200(<т , г)°1(<т , 7 01 (<т — 0). (3.20)

Так как M{.}=M{M{.|г0'm,ц0m—1}}, то использование (3.2) в (3.1) дает

М{ё 2(-)} =

ё(<т, г) + 00 (<т, г)^(т — 0) ^2 _+С1^т , г)и(т, <т — 0)

W 1 (tm , z),

= ^(tm ) -

(3.17)

(3.18)

(3.19)

= M

+M

G0 (tm , z)7 (tm - 0) +

+ G12(tm , Z)7ll(T, tm - 0) + +2G0(tm , z )G1(tm , z)7ol(T, tm - 0)

(3.21)

Пусть до момента ,<,т передача шла оптимальным способом. Тогда из (3.16), (3.21) для Д(tm)=M{7(tm)} по неравенству Иенсена

M{F1}>(M{í'})—1 [3] и (3.9) получим

Д(<т ) > V (> )[V (<т ) + ё (<т )]—1 А 0(<т — 0) =

= Л0(^),

(3.22)

Использование (3.4) в (3.16) дает, что 70(,т)=Д0(,т). Совпадение 70(,т) с нижней границей (3.22) для Д(/т) доказывает оптимальность кодирования (3.4). Так как M{.}=M{M{.|z0m■,ц0m—1}}, то использование (3.2) в (3.1) дает

M{h2(-)} = M{[h(t, z) + Hi(t, z)ц(т, t)]2} +

+M{H2(t, z)Yn(T, t)} < h(t). (3.23)

Если h (.)=h°(.) и g (.)=g"(.) тогда Y(0, Yu(*,t) и Y010(T,t) не являются случайными величинами. Тогда из (3.13), (3.23) для A(0=M{y(0} по неравенству Иенсена M{exp{i}}>exp{M{y}} следует A(t)>A0(t), где A0(t) определяется уравнением

dA0(t)/dt = (2F(t) -R~\t)h(t)) x

x[(y0i(^, t))VY°(t)Yi0i(^, t)]A0(t) + Q(t), (3.24)

A0 (t) 11=tm =A0(tm ).

Для Y(t) имеем уравнения

dY0(t)/dt = (2F (t) - R ~\t)h(t)) x

x[(y0i(^, t))VY°(t) A0i(t, t)]Y0( t) + Q( t),

Y°(t)| t=tm =A0(tm). (3.25)

Так как y110(t,/)=A110(t, t), y01°(t,0= A010(r,t), то решения (3.24), (3.25) совпадают, т. е. Y(t)=A0(t), что доказывает оптимальность кодирования (3.3). Уравнения (3.7)—(3.11) следуют в результате подстановки (3.3), (3.4) в (3.12)—(3.20). Справедливость данного результата для произвольного интервала времени tm<t<tm+1 следует по индукции.

Согласно неравенству Ихары /t[.]<(1/2)ln[D(t)/A(t)] [3]. Тогда

sup /[ Xt; z0 ^ ] = /t0[ Xt; (z 0)t0,(^0)m ] =

= (i/2) ln[ D( t)/A0( t)]. (3.26)

Так как

pt(x) = N{x; M°(t), A0(t)} и p(t, x) = N{x; a(t), D(t)} при кодировании (3.3), (3.4), то /Л Xt;(z Xrt] =

= M{ln[ p, (Xt)/ p(t, Xt)]} =

= (i/2)ln[ D( t)/A0( t)]. (3.27)

Совпадение (3.26) и (3.27) обеспечивает справедливость свойства (3.5). Из (3.27) следует

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

d/t°[ x, ;(z 0)Q,On°m] = dt

= i f _i_ dD(t)_________i_ dA0(t)Л

2 v D(t) dt A0(t) dt

Так как

dD(t )/dt = 2F (t )D (t) + Q (t), тогда из (3.8), (3.28) следует что для tm<t<tm+1

d/Q[ x, ;(z °)0,(n°)m] = dt

(3.28)

h(t) (A0i(t, t))2

R(t) A0(t)A0i(T,t)

-Q(a)

i

i

A0 (a) D(a)

(3.29)

Использование (3.9) дает, что /I [ x^;(z °)0m ,(^°)m ] =

= (i/2) ln[D(tm)/A0(tm -0)] =

= /? _0[ •] + (V2)ln[i + g( tm ) /У( tm )].

(3.30)

Тогда (3.6) следует из (3.29), (3.30). Теорема доказана.

Заключение

Рассмотрены задачи информационной эффективности дискретных каналов наблюдения с памятью относительно каналов без памяти в задаче экстраполяции и оптимальной непрерывно-дискретной передачи по непрерывному каналу с чистым запаздыванием и дискретному каналу с памятью. Получены формулы, определяющие эффективную глубину памяти и оптимальный способ передачи.

Работа выполнена при поддержке ФЦП«Научные и научно-педагогические кадры инновационной России» на 2009-2013гг., проект № 02.740.11.5190

СПИСОК ЛИТЕРАТУРЫ

1. Демин Н.С., Рожкова С.В., Рожкова О.В. Информационный анализ в совместной задаче непрерывно-дискретной фильтрации и обобщенной экстраполяции. Ч. 1. Общий случай // Известия Томского политехнического университета. — 2010. — Т. 317. — №5. — С. 6—11.

2. Демин Н.С., Сушко ТВ., Яковлева А.В. Обобщенная обратная экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. — 1997. — № 4. — С. 48—59.

3. Липцер РШ., Ширяев А.Н. Статистика случайных процессов. — М.: Наука, 1974. — 696 с.

Поступила 12.07.2010 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.