Научная статья на тему 'Рекуррентный алгоритм МНК со скользящим окном при коррелированных помехах'

Рекуррентный алгоритм МНК со скользящим окном при коррелированных помехах Текст научной статьи по специальности «Математика»

CC BY
258
59
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Руденко Олег Григорьевич, Штефан Андреас, Хюбенталь Франк

Рассмотрено построение рекуррентного алгоритма оценивания нестационарных параметров объекта, описываемого уравнением линейной регрессии, при наличии коррелированных помех. Проведены результаты статистического моделирования.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Recursive LS algorithm with a running window in the presence of correlated noise

Modification of RLS algorithm for non-stationary linear object identification problem in the presence of correlated noise is proposed. Simulation results are presented.

Текст научной работы на тему «Рекуррентный алгоритм МНК со скользящим окном при коррелированных помехах»

УДК 681.51.015.

РЕКУРРЕНТНЫЙ АЛГОРИТМ МНК СО СКОЛЬЗЯЩИМ ОКНОМ ПРИ КОРРЕЛИРОВАННЫХ ПОМЕХАХ

РУДЕНКО О.Г., ШТЕФАНА., ХЮБЕНТАЛЬ Ф.

Рассмотрено построение рекуррентного алгоритма оценивания нестационарных параметров объекта, описываемого уравнением линейной регрессии, при наличии коррелированных помех. Проведены результаты статистического моделирования.

Рассмотрим задачу идентификации линейного объекта, описываемого уравнением

Yn = XnCП + еn , (1)

где Yn = (1, y2,..., yn)T — вектор выходных сигналов n х 1; Xn = (, x2,xn)T — матрица входных

jj; / ЇІ: ^ .J. \ T

сигналов n X N ; ^ = (C^, C2n, •••, CNn ) — искомый

вектор параметров N х 1; еП = ((, (2, ...?n)T — вектор помех n x 1; n = 0,1,2,... — дискретное время.

Если сП = const и ^n ~ N(0, ° і?1), для решения задачи идентификации успешно применяется МНК, обеспечивающий получение несмещенных оценок с

и и ¥—■

минимальной дисперсией. Если cn = const и

еn ~ N(0, Dn), где Dn — ковариационная матрица помех, используется обобщенный МНК, приводящий к марковской оценке вида

Cn =(xtD-Ч)—^D—Ч . (2)

При сП = var обычно применяют рекуррентные алгоритмы, базирующиеся на МНК и использующие ряд приемов, позволяющих отслеживать нестационарность, например, экспоненциальное взвешивание информации, применение той или иной модели дрейфа, ограничение входящей в алгоритм матрицы усиления (ковариационной матрицы), использование в алгоритме ограниченного количества измерений (скользящее окно, содержащее фиксированное количество измерений) [1, 2].

Целью данной работы является получение рекуррентных алгоритмов МНК со скользящим окном для случая коррелированных помех, ковариационная матрица которых

D

П

d1,1 d1,2 . •• d1,n

d 2,1 d 2,2 . •• d2,n

d n,1 d n, 2 . •• dn,n

(3)

предполагается невырожденной и известной. Здесь

di,i = M{?i?j}, M{ }

— символ математического ожи-

дания.

Для решения поставленной задачи воспользуемся декорреляцией измерений.

Существует много методов решения задачи замены случайного вектора с коррелированными компонентами другим случайным вектором, компоненты которого взаимно не коррелированы и являются линейными функциями компонентов исходного вектора. Основная идея этих методов заключается в том, что в рассмотрение вводится некоторая матрица преобразования Т, изменяющая модель (1) следующим образом:

TYn = TXnC + Те п (4)

и преобразовывающая помеху еП со свойствами еП ~ N(0, Dn) в новую помеху еn со свойствами

еП ~ n(o, о2l), т.е. обладающую скалярной ковари-

„T T) 2

ТЕПеПТ } = о I.

В этом случае основная задача декорреляции сводится к выбору соответствующей матрицы преобразования Т. При таком подходе в нашем случае необходимо учитывать следующее.

Особенностью алгоритмов с фиксированным окном (постоянной памятью) является то, что матрица наблюдений X на каждом шаге формируется следующим образом: в матрицу включается вновь поступившее наблюдение, а затем исключается самое старое либо наоборот — сначала исключается самое старое, а затем вводится вновь поступившее. Соответственно формируются вектор выходных сигналов Yи ковариационная матрица D. Таким образом, в нашем случае необходимо определять матрицы преобразования T как при накоплении, так и при сбросе информации.

Обозначим количество используемых в алгоритме наблюдений L. Так как оценка (2) справедлива для n > N, где N — размерность оцениваемого вектора, то l > N.

Пусть после (п-1)-го шага с использованием L последних измерений была получена оценка c n -1, которая по аналогии с (2) может быть записана в виде

[3]:

“n -1|L

(x T -1|lD--1|lX T —1| l )-1x:

D

—1

n—ІЩп — 1|Lxn—1|L

Y„

,(5)

где Xn—1|L = (n—Lxn—L+1 ••• xn—1 )T — Матриці X N ;

D

n—1|L

Уn—^, Уn— T L +1, •••, yn — 1j — вектор L

d n—L, n—L d n—L, n—L+1 ••• dn—L, n—1

d n—1, n—L d n—1,n — L+1 ••• d n—1,n—1

— матрица l x L .

Использование вновь поступившего n-го наблюдения соответствует накоплению информации и позволяет получить новую оценку по L+1 наблюдениям

“n|L+1

T L+1D n|1L+1Yn|L+1,(6)

(x TL+1D nL+1XnL+1)—1х П

где XnL+1 =(Xn— 1|L = xn)T — матрица Nx(L +1);

РИ, 1998, № 1

79

Y,

n|L+1

= (Yn—1^ У n)

вектор (L +1) x 1; (7)

D

n|L+1

D n—1|L dn—1

T

d n—1 d n,n

матрица(L +1) x (L +1). (8).

ЗдеСЬ dn—1 (dn, n—L dn, n—L+1 n, n—1)

= m{»t —1|L£,n} .

Соответствующую матрицу преобразования будем искать в виде

ln|L+1

Tn—1|L 0

tT t

Ln—1 Ln,n

Воспользовавшись соотношением Tn|L+1Dn|L+1Tn|L+1 = 1 ,

(9)

(10)

можно получить систему уравнении относительно неизвестных элементов матрицы (9), решая которую, находим

t

n,n

( dn,

t

n—1

T —! 5—0,5 n — dn—1Dn—1|Ldn—1J , (11)

= —dT D—1 t = dn—1Dn—1|LLn,n. (12)

Так как элементы матрицы Tn пересчитываются рекуррентно, а соотношение (10) должно выполняться на каждом шаге, то из (10) следует, что начальное

значение Т0 нужно выбрать равным Т0 = ст ^°5. В

этом случае декоррелированная помеха будет иметь единичную дисперсию.

Таким образом, переход от уравнения (1) к (4) или в нашем случае к уравнению

Yn|L+1 = Xn|L+1cn + Hn|L+1 ,

где Yn|L+1 Tn|L+1Yn|L+1 ,

Xn|L+1 = Tn|L+1Xn|L+1 ,

H n = Tn|L+1S n|L+1 , приводит к получению оценки

cn|L+1 = (Xn|L+1Xn|L+1) Xn|L+1Yn|L+1 , (13)

рекуррентная форма которой определяется стандар -тным приемом путем использования блочного представления входящих в оценку матриц.

Вводя обозначение

Kn|L+1 = (XnL+1Xn|L+1) =(XT— 1|LXn|L + xnxn ) (14)

и применяя к (14) лемму об обращении матриц, имеем

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Kn|L+1 = Kn— 1|L

K n—1|Lx n xnK n —1|L 1 + x TK n—1|L x n

(15)

Выбор начального значения K0 осуществляется как в обычном рекуррентном МНК. Подстановка в (13) выражении (7), (9), (15) и несложные преобразования дают

Kn—1|Lxn /x T~ (16)

cn|L+1 cn—1|L + x^ x Iу n 1 + xn Kn —1|Lxn V cn —1|Lx^ .

~ T T T —1 Здесь xn = ^n, n(xn — dn —1Dn—1|LXn- 1|L) = tn, nxn ; (17)

yn = tn, n(yn — dT—1Dn— 1|LYn—1|L) 1 = tn, ny n (18)

Учитывая (17), (18), соотношения (15), (16) можно переписать так:

___ i Kn—1|Lxn /Д ^Т л \

cn|L+1 = cn—1|L + t—2 + xTK у n — cn—1|Lxn) ;(19)

Ln, n “г xnKn—1|Lxn

„ „ K n—1|L x n xn K n—1|L

Kn|L+1 = Kn—1L — t—2 + xTK xr- . (20)

Ln, n "1" -^n^n— 1|LAn

Для организации процедуры сброса устаревшей информации воспользуемся также блочным представлением входящих в выражение для оценки вектора и матриц, сформировав, однако, блоки следующим образом:

X Т

Xn|L+1

(xn—L'• X3l) , YnTL+1 = (Уn—L^ YnTl

D

n|L+1

n—L, n— L d n—L

d n—L d n|L

(21)

где dn—L =

(dn—L, n—L+1’dn—L, n) = M{^n—LHn|L } .

При этом матрицу преобразования Tn|L+1 будем искать в виде

xn|L+1

t n—L, n — L 0

tT

t n — L

^IL

(22)

Использование условия Tn|L+1Dn|L+1TrTL+1 = In

позволяет получить систему уравнении относительно неизвестных элементов матрицы, решая которую, имеем

Ln — L, n—L

: (d n — L, n—

T —1

— d n — L D n|Ld n—LI

\—0,5

(23)

tT— L = —dn—LDn|"Ltn — L, n—L . (24)

Подстановка в формулу для оценки c n|L всех выражении для матриц и несложные преобразования дают следующие соотношения, описывающие процесс сброса устаревшей информации:

c n|L = c n|L+1 —

K

n|Lxn— L

1—x T—l k

n— L^n|Lxn— L

'(y n—L — cn|L+1x n—L )

к tl = K

K

T L+1x n— L xn—LK T L+1

TL+1 '

где

1 — xn — L K n|L+1x n— L

y n— L = t n— L, n—L (y n— L — Yn|LD TLd n— l) “ = t n— L, n— LУ n— L ;

(25)

(26)

(27)

80

РИ, 1998, № 1

xn-L - tn-L,n-L (xn-L - Xn|LDn|Ldn-1) -

- tn-L, n-Lxn-L • (28)

Соотношения (25), (26) с учетом (27), (28) можно записать так:

c n|L - c n|L+1 -

K n|Lx n-L

-2 л T л

tn-L, n-L - xn-LKn|Lxn|L

(yn-L -cn|L+1xn-L);

(29)

Kn|L - K

K

n|L+1x n-Lx n-LK n|L+1

n|L+1 '

t-2

t n - L, n - L

n - L K n|L+1x n-L

(30)

Таким образом, рекуррентный алгоритм МНК-оценки при коррелированных помехах состоит из двух процедур, первая из которых, описываемая соотношениями (15), (16) (или (19), (20)), соответствует накоплению информации, а вторая, использующая соотношения (25), (26) (или (29), (30)), — сбросу устаревшей информации.

По аналогии с изложенным несложно получить рекуррентную форму МНК-оценки, в которой сначала сбрасывается устаревшая информация, а затем используется вновь поступившая.

На рис. 1,2 приведены результаты моделирования работы алгоритма (15), (16), (25), (26) при оценива-

нии скачкообразно изменяющихся параметров сП

для случая x ~ N(0,1), N - 5, L - 6 (тонкие линии) и l - 8 (жирные линии).

Помеха предполагалась стационарной, коррелированной с коэффициентами корреляции 0,5 (рис. 1)

и 0,9 (рис. 2) и - 0,2 . Проводилось усреднение по

10 реализациям.

Как видно из рис.1,2, алгоритмы обеспечивают слежение за изменяющимися параметрами с некоторым запаздыванием, зависящим от величины L, на выбор оптимальных значений которой влияют многие факторы.

Литература: І.Изерман Р. Цифровые системы управления. М.: Мир, 1984. 544 с. І.ПерельманИ. И. Оперативная идентификация объектов управления. М.: Энергоиз-дат,1982. 272 с. 3.Rudenko O.G., Stephan A. Schaetzung nichtstationaerer Parameter bei korrelierten Stoerungen // 42 IWK. 1997. Band 3. S. 95-99.

Поступила в редколлегию 27.03.98

Руденко Олег Григорьевич, д-р техн. наук, профессор, заведующий кафедрой ЭВМ ХТУРЭ. Научные интересы: адаптивные системы, нейронные сети. Увлечения: изобразительное искусство, латиноамериканская литература. 310726, Украина, Харьков, пр. Ленина, 14, тел. 40-93-54.

Штефан Андреас, доктор-инженер, руководитель фирмы “Dr. Stephan&Parnter, System-und Softwarehaus”, Ильме нау, Германия. Научные интересы: адаптивные системы. Хобби: путешествия. Адрес: 98693, Ilmenau, Grenzhammer, 8. Tel: 03677/841068. Fax: 841068.

Хюбенталь Франк, инженер, руководитель отдела программирования фирмы “Dr. Stephan & Parnter, System-und Softwarehaus”, Ильменау, Германия. Научные интересы: программирование, адаптивные системы. Хобби: автомобиль. Адрес: 98693, Ilmenau, Grenzhammer, 8. Tel: 03677/841068. Fax: 841068.

РИ, 1998, № 1

81

i Надоели баннеры? Вы всегда можете отключить рекламу.