СПИСОК ЛИТЕРАТУРЫ
1. Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памятью. Общий случай // Известия Томского политехнического университета. - 2004. - Т. 307. - № 3. -С. 13-17.
2. Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памятью. Условно-гауссовский случай // Известия Томского политехнического университета. - 2004. -Т 307. - № 4. - С. 6-10.
3. Дэвис М.Х.А. Линейное оценивание и стохастическое управление. - М.: Наука, 1984. - 205 с.
4. Ширяев А.Н. О некоторых понятиях и стохастических моделях финансовой математики // Теория вероятностей и ее применения. - 1994. - Т. 39. - № 1. - С. 5-22.
5. Демин Н.С., Рожкова С.В., Рожкова О.В. Обобщенная скользящая экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. - 2000. - № 4. -С. 39-51.
6. Демин Н.С., Короткевич В.И. О количестве информации в задачах фильтрации компонент марковских процессов // Автоматика и телемеханика. - 1983. - № 7. - С. 8-96.
7. Липцер Р.Ш. Оптимальное кодирование и декодирование при передаче гауссовского марковского сигнала по каналу с бесшумной обратной связью // Проблемы передачи информации. - 1974. - Т. 10. - № 4. - С. 3-15.
8. Липцер Р.Ш., Ширяев А.Н. Статистика случайных процессов. - М.: Наука, 1974. - 696 с.
Поступила 15.06.2011 г.
УДК 519.2
ИНФОРМАЦИОННЫЙ АНАЛИЗ В СОВМЕСТНОЙ ЗАДАЧЕ ФИЛЬТРАЦИИ И ОБОБЩЕННОЙ ЭКСТРАПОЛЯЦИИ. АНАЛИЗ
С.В. Рожкова, О.В. Рожкова
Томский политехнический университет E-mail: [email protected]
Исследуются свойства количеств информации по Шеннону в совместной задаче фильтрации и обобщенной экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с памятью, касающиеся информационной эффективности наблюдений с памятью относительно наблюдений без памяти.
Ключевые слова:
Сигнал, стохастические системы, экстраполяция, количество информации.
Key words:
Signal, stochastic system, extrapolation, information amount.
Введение
В [1] для систем калмановского типа была решена задача нахождения количества информации по Шеннону в совместной задаче фильтрации и обобщенной экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с памятью для общего и условно-гауссовского случаев. В данной работе рассматривается информационная эффективность дискретного канала наблюдения относительно дискретного канала без памяти для стационарного гауссовского марковского процесса диффузионного типа (процесс Орнстейна-Уленбе-ка). Система обозначений та же, что ив [1].
Информационная эффективность наблюдений
с памятью относительно наблюдений без памяти
Представляет интерес вопрос об эффективности наблюдений с памятью в задаче экстраполяции, т. е. увеличивает или уменьшает количество информации наличие памяти. Данное исследование проведем для частного случая скалярных стационарных процессов х, ^, пЮ определяемых соотношениями
dxt = -axtdt + -\jQdwt, a > 0, p0(x) = N{x; л0, y0], dzt = H0xtdt + y[Rdvt, n(tm) = Goxtm + ^ + #£(4), (1)
когда непрерывные наблюдения без памяти, дискретные наблюдения с памятью единичной кратности (N=1, т1=т), процесс xt является стационарным гауссовским марковским процессом диффузионного типа с корреляционной функцией Ä(a)=[ß/2a]exp{-a|a|} и временем корреляции ak=1/a. Этот процесс, известный как процесс Орн-стейна-Уленбека, широко используется как в технических приложениях для моделирования реальных процессов с корреляционной функцией экспоненциального типа [2], так и в финансовой математике для моделирования процесса изменения процентной ставки [3].
В качестве меры информационной эффективности наблюдений с памятью n(tm) относительно наблюдений без памяти fj(tm), когда G1=0 в задаче экстраполяции в случае может быть взята величина (см. (3.6), (3.8) в [1])
л^л/Лад'-, пЮЬЛ/Лхл'-, п(01,
где Л1'-[%т,1о-,П('-)] и ЛІ'-[хт,І0-,П('-)] - приращения количества информации (3.30) в [1] при в моменты времени 'т, поступающие соответственно из наблюдений п('т) и П(-). Рассматриваем случай редких дискретных наблюдений, когда на интервалах 'є ('т, 'т+1) решения дифференциальных уравнений для элементов матрицы Г3(т, ',д) достигают стационарных значений у, у01('*), уп( '*), у11(7), уДТ), у11(Т), определяемых формулами (3.19) из [4], где '*='-т и T=s—' являются соответственно глубиной памяти и интервалом экстраполяции. Тогда согласно (4.36) с использованием (2.28), (2.33) из [5]
Ле = (1/2) 1п[ ^ 5,0/у1\5, гт)], (1)
Ро =
Л 0 = (1/2)1п[1/(1 -Ро)],
Л := (1/2) 1п[7(1 + Р„)],
2аУ у 2(011 + 2СоС1)ехр{-2аТ}
Рр
[У + у (Со + ^1)2] х
в(У + Г02)(1 - ехр{-2 аТ}) + +2аУ у ехр{-2аТ}
2аG01G11KY3 ехр{-2 аТ}
[У + у(02 + кО?)] х
в(У + у02)(1 - ехр{-2 аТ}) +
(4)
= уп(Т) -
/Ч5, (я ) =
[СоК(Т)+оу^ \т )]2 У + ОІУ + оЦуп(ґ *) + 20о01їт(ї *)’
(2)
(я) = уп(Г) - [оу0(Т)/(¥+О^у)]. (3)
Относительно глубины памяти имеются две крайние ситуации: случай малой глубины, когда ?*—>0, случай большой глубины, когда Г—<». Пусть Л0е=КшЛе при /*—0 и Л,/=КтЛе, при /*—<». Из (1-3) следует
_+2аУ у ехр{-2аТ}
где у=(1/5)(А-а), 8=И02/Я, Л=^а2+50, к=(А+а)/2А.
Исследование поведения Ле(Г) как функции глубины памяти Г на основе (1-4) с использованием (3.19) из [4] дает следующий результат Утверждение.
Пусть
С = С +иС- = {(С0,+ 2О0О1 < 0}.
1) Если (С0,^1)гО, то Ле( Г) является монотонно убывающей функцией глубины памяти от значения Л0е>0 до значения Л<0, обращаясь в ноль в точке Г=4*, для которой справедлива формула
2 = 1; 5 = 1; V = 1; в0 = 2; в, = 1; Т = 0.1
а1 = 2; а2 = 1; а3 = 0.2;
= 11п \0\(У+к01у )
е Яп\Оо\ф2+Ка^У+Ка&)±у)’ (5)
где знак «-», если ОО^О^О^, и знак «+», если &0&1=-|&0|.|&1|, и которая может быть определена как эффективная глубина памяти.
2) Если (О^О^ев, то Ле((*)<0 для всех (’>0.
Физическая интерпретация полученного результата заключается в следующем. В случае большой глубины памяти ('^ак, где ак=1/а есть время корреляции процесса х, что приводит к отсутствию корреляционных связей между хг, х(>, х. Поэтому при больших (* сигналы У(г)=О1хт не содержат взаимной информации о текущих х^ и о будущих значениях х,
процесса х1 и действует в канале с памятью как дополнительный шум, что приводит к уменьшению приращения количества информации по сравнению с каналом без памяти. Этим и объясняется Л®<0 при любых значениях коэффициентов передачи 00 и О1.
В случае малой глубины памяти, когда ('^ак, коэффициент корреляции между значениями х и х, близок к единице и поэтому сигналы 7(т,(т)=О0х +Ох воспринимаются как У((т)=(О0+О1)х^. Так как условия (60,61)гО означают |60+61|>|(61|, то интенсивность полезного сигнала У(г,(т) в канале с памятью оказывается выше интенсивности полезного сигнала Охт в канале без памяти, что и обеспечивает большую информативность У(г,(т) относительно О^т. Этим и объясняется свойство Л,®>0 в случае (О0,О1)г в и об-
ратное свойство при выполнении противоположного условия. Условие (О0, О1) г в является условием существования единственного корня уравнения
в2(У + кув20)ехр{-2А? *} +
+2УОов1 ехр{-А? *} - кув2^ = 0, (6)
к которому приводит условие Ле((*)=0 и решение которого имеет вид (5).
На рис. 1 приведено семейство по а кривых Ле((*) при 7=0,1, из которого видно, чем меньше а, т. е. больше ак=1/а, тем больше эффективная глубина памяти. Значения (е* на рис. 1 соответствуют
значениям, которые вычислены по формуле (5). Поскольку при малой глубине памяти поведение Ле зависит от соотношения между О0 и О1, то на рис. 2, 3 приведены соответственно семейства по О1 кривых Л0е(О0) и по О0 кривых Л0е(О1) при 7=0,1. На рис. 4 изображены для рассмотренного примера траектории 1‘[х;,10(,п0т] и 1‘[х;,10(,п0т] соответственно для случаев наблюдений с памятью и без памяти, когда (*<(,* и дискретные наблюдения начинаются с момента (1, а на рис. 5 соответствующие траектории, когда ОС*. Физическая интерпретация поведения кривых с учетом проведенного выше исследования очевидна.
1,2 т До Ч))
а=1; 0=1; д=Х У=1; Т =0,1
I—I—I—I—I—I—I—I—I—
-10 -8 -6 -4 -2
-3
Рис.З. Зависимости Ао (в^) от ^ при различных значениях в0
С ростом интервала экстраполяции, когда Т—к>, из (1-3) следует, что Ле—— 0. Этот эффект объясняется тем, что при ,>>(т исчезают корреляционные связи между хТ, , х. Поэтому, как в п((т),
так ив п((т) отсутствует полезная информация о будущих значениях х,, т. е. в этом смысле они становятся информационно эквивалентными.
Влияние непрерывных наблюдений на информативность дискретных наблюдений осуществляется через параметр 8=И02/Я, который пропорционален отношению сигнал/шум по интенсивности в непре-
л и [■]
рывном канале наблюдения. При ё—ю получаем, что ё—ю ІЦх^МО^Ои 7/т[хДо'т,п('т)Н0, что Л——0. Таким образом, при достижении абсолютно точного измерения в непрерывном канале дискретные наблюдения как с памятью, так и без памяти не привносят новой информации о значениях х, при любых Т. При ё=0, что соответствует случаю отсутствия непрерывных наблюдений, справедливы формулы (1-5), в которых Y=Q/2a, Х=а, к=1, т. е. в этом случае появляется явная зависимость '’ от времени корреляции а = 1/а процесса х1.
Рис. 4. Траектории ¡¡[-], ¡'¡[-] для случаев наблюдений с памятью и без памяти при
а = 2; 2 = 1; 5 = 1; V = 1; Т = 0.1
Рис. 5. Траектории ¡¡[-], ¡~'[-] для случаев наблюдений с памятью и без памяти при
О0 = 2; О = 2
Результаты работы могут быть использованы при исследовании таких базовых задач теории информации и теории передачи сообщений, как информационная эффективность каналов передачи и оптимальная передача (оптимальное кодирование и декодировние), когда в качестве математических моделей сообщений используются стохастических процессы диффузионного типа.
Выводы
Рассмотрен пример информационной эффективности наблюдений с памятью относительно наблюдений без памяти в задаче экстраполяции.
Показано, что наличие памяти в наблюдениях может как увеличивать, так и уменьшать количество информации.
Работа выполнена при поддержке ФЦП «Научные и научно-педагогические кадры инновационной России» на 2009-2013гг., проект № 02.740.11.5190.
СПИСОК ЛИТЕРАТУРЫ
1. Dyomin N.S., Rozhkova S.V., Safronova I.E. About structure of Shannon information amount for joint filtering and extrapolation problem by continuous-discrete memory observations // Informati-ca. - 2004. - V. 15. - № 2. - P. 171-202.
2. Дэвис М.Х.А. Линейное оценивание и стохастическое управление. - М.: Наука, 1984. - 205 с.
3. Ширяев А.Н. О некоторых понятиях и стохастических моделях финансовой математики // Теория вероятностей и ее применения. - 1994. - Т. 39. - № 1. - С. 5-22.
4. Демин Н.С., Сушко ТВ., Яковлева А.В. Обобщенная обратная экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. - 1997. - № 4. - С. 48-59.
5. Демин Н.С., Рожкова С.В., Рожкова О.В. Обобщенная скользящая экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. - 2000. - № 4. - С. 39-51.
Поступила 31.10.2011 г.
УДК 621-52+511.92
МНОГОМЕРНЫЙ ДИФФЕРЕНЦИАЛЬНЫЙ АНАЛОГ МЕТОДА Д.К. ФАДДЕЕВА
А.Г. Аветисян
Государственный инженерный университет Армении (Политехник)
E-mail: [email protected]
Предложен метод определения коффициентов-функций собственных многочленов и обратных матриц многопараметрических матриц на основе метода Д.К. Фаддеева и многомерных дифференциальных преобразований Г.Е. Пухова. Представлен модельный пример и процедура нахождения коэффициентов-функций характеристического многочлена и обратной матрицы.
Ключевые слова:
Многомерные дифференциальные преобразования, собственный многочлен, коэффициенты-функции, обратная матрица.
Key words:
Multiparametrical matrices, multidimensional differential transforms, coefficient-functions of characteristic polynomials.
Введение
Собственный многочлен автономной матрицы Л=(а) г,}= 1 ,т имеет вид
det[ А -АЕ] = (-1) яР(А) =
= (-1)я [Ая + рА-1 + РА ~2 + - + Ря ] = 0’
где А, г= 1 ,т - собственные числа матрицы, а р, г= 1 ,т - коэффициенты собственного многочлена, подлежащие определению.
Согласно методу Фаддеева [1], для решения этой задачи строится следующая цепочка последовательностей:
Шаг 1: Л1=Л, ,рЛ1=р1, В1=Л1-р1Е;
Шаг 2: Л2=ЛВ1, (1/2) ,рЛ2=р2, В2=Л2-р2Е;
Шаг т-1: Лт-1=ЛВт-2, (1/(т-1)) ,рЛт_1=Рт-1,
Вт-1=Лт-1-рт-1Е;
Шаг т: Лт=ЛВт-1, (1/т)),рЛт=Рт, Вт=Лт-РтЕ,
где ,р - след соответствующей матрицы, а Е - единичная матрица порядка т, причем Бт=[0], что является удобным контрольным условием правильности проведенных вычислений.
Кроме того, если ёеЫ^0, то обратная матрица имеет вид
А-1 =— Вя-1.
Ря
Математический аппарат
Для вычисления собственного многочлена Р(Я(х1,х2,...,х„)) матрицы А(х1,х2,...,х„) представим метод решения, предположив, что элементы аі](х1,х2,...,хп), і, }= 1 ,т матрицы Л(х1,х2,...,х„) обладают достаточной степенью гладкости по всем параметрам х1, х2,..., х„.
Для построения собственного многочлена неавтономной (однопараметрической) матрицы в [2, 3]