Научная статья на тему 'Об одном алгоритме идентификации при наличии стационарных коррелированных помех'

Об одном алгоритме идентификации при наличии стационарных коррелированных помех Текст научной статьи по специальности «Математика»

CC BY
83
24
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Штефан Андреас

Рассматривается задача идентификации нестационарных параметров линейной регрессионной модели при наличии коррелированных помех. Получен рекуррентный многошаговый алгоритм оценивания, который эффективно использует информацию о степени корреляции помех.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

About one algorithm of identification in presence of correlated disturbances

For nonstationary parameters estimation problems soMus іп presence of stationary correlated d!sturbances we propose modeled multistep algorithm usmg mformation about correlation degree. Recursfve relations, that describe aquisition of new mformation and extraction of old one are presented.

Текст научной работы на тему «Об одном алгоритме идентификации при наличии стационарных коррелированных помех»

(2)

УДК 681.51.015

K г) = а2 е““И,

ОБ ОДНОМ АЛГОРИТМЕ ИДЕНТИФИКАЦИИ ПРИ НАЛИЧИИ СТАЦИОНАРНЫХ КОРРЕЛИРОВАННЫХ ПОМЕХ

ШТЕФАНА.

Рассматривается задача идентификации нестационарных параметров линейной регрессионной модели при наличии коррелированных помех. Получен рекуррентный многошаговый алгоритм оценивания, который эффективно использует информацию о степени корреляции помех.

Рассмотрим задачу оценивания параметров линейной регрессионной модели, описываемой уравнением

Yn ~ X ncn “п ’ (1)

где Yn ={уі,У2,-,Уп)Т — вектор n X 1;

Xn = (xT,xT,...,xT)T - матрица n x N ; xi ={xi1, xi2, ..., xiN)T — вектор N x 1;

cn = \СП,Ъ cn,2,..., cn, N) — вектор оцениваемых, в

общем случае нестационарных, параметров N х 1;

En =(%b%2,...,%n)T — вектор помєхиX 1; n = 0,1,2,^ — дискретное время.

Задача оценивания нестационарных параметров при некоррелированных помехах обычно решается с помощью модифицированных алгоритмов МНК, содержащих некоторый механизм придания больших весов вновь поступившей информации по сравнению с устаревшей. Это может быть осуществлено, например, путем экспоненциального взвешивания информации [1] либо искусственного ограничения входящей в алгоритмы ковариационной матрицы [2, 3], либо путем использования в алгоритмах ограниченного постоянного количества наблюдений [4-6].

Наличие же коррелированных помех обуславливает дополнительные трудности решения данной задачи. При этом оценки искомых параметров должны использовать информацию о ковариационной матрице помех. В работах [5, 6] получены некоторые рекуррентные формы оценки МНК, пригодные для оценивания нестационарных параметров модели (1) для любой произвольно заданной ковариационной матрицы помех. Однако такая общность алгоритма требует определенных вычислительных затрат, связанных, например, с необходимостью запоминания больших массивов наблюдений. Эти вычислительные затраты могут быть существенно уменьшены, если помехи являются стационарными. Именно такой случай рассматривается в настоящей работе, целью которой является получение рекуррентных алгоритмов МНК со скользящим окном в случае стационарных коррелированных помех с нулевым математическим ожиданием и автокорреляционной функцией

где а2 — дисперсия помех; а = const.

В этом случае используемая в оценке матрица K~l

размерности п х п, обратная корреляционной матрице ошибок измерений, является трехдиагональной:

1 - r 0 0 • 0 0 0

- r 1+ r 2 - r 0 • 0 0 0

1 0 - r 1+r 2 - r ■ 0 0 0

а2(1-r2)

\ / 0 0 0 0 • . _ r 1+ r 2 - r

0 0 0 0 • 0 - r 1

(3)

Элементы этой матрицы вычисляются следующим образом:

к~', =

(■ д

2

СТ2|1 -

1 + r

(■ - r Д

СТ2|1 -

М' - r д

i = І = 1, n;

i = j = 2,3,...,п -1;

І = i -1,i = 2,3,...,n j = i +1,i = 1,2,...,n -1.

(4)

1

r

Здесь r = е aAt, At = ti - ti_! — шаг измерений,

Ki j = <?2r\l~j , i,j = 1,2,...,n .

Обозначим количество используемых в алгоритме наблюдений L . Так как оценка МНК справедлива для п > n , где n — размерность оцениваемого вектора, то l > N .

Тогда оценка вектора c* на (п -1) -м шаге, обозначаемая далее как cn и получаемая как решение

системы линейных уравнений

Xn-1 |LKL XL 1 Lcn-1| L = Xn-1\LKLYn-1| L , (5)

может быть записана по аналогии с [5, 6] следующим образом:

cn-1| L = (Xn\LKl}Xn-1| l) XnT-1|LKn-1| LYn-1| L , (6)

где X*—1|l = (xLl,x*T~l+1,-”,xT- JT — матрица L X N ;

Yn—1|L =(yn-L,yn-L+ Ь•••,yn-0T — вектор L x 1; KL —

матрица L x L , определяемая в соответствии с (3).

Как отмечалось в [5], особенностью алгоритмов с конечной памятью (в нашем случае (6)) является то, что порядок формирования на каждом такте входящих в эти алгоритмы векторов и матриц может быть различным, т.е. сначала осуществлять накопление информации, а затем сброс устаревшей, либо наоборот.

Рассмотрим случай сначала накопления информации, а затем ее сброса.

Учет на п -м шаге вновь поступившей информации позволяет получить теперь уже по (L + 1 измерению следующую оценку:

РИ, 1999, № 2

55

cn\L+1 =( Xn\L+1KL+1 Xn\L+ 1) Xn\L +1 KL+1Yn\L+1 j (7)

являющуюся решением системы линейных алгебраических уравнений

Xt\L+1KL+1 Xn\ L + 1en\L+1 = Xt\L+1 KL+1Yn \ L+1 • (8)

Здесь Xn\ L+1 = ( Xn _1\ L I xn) - матрица (b +1 x N ;

Yn\L+1 = (Yn-1\ L \ Уп)Т — вектор {L +1 X 1; Klh — матрица (L +1 x (L + i) •

Запишем входящие в (5), (6) матрицы и векторы следующим образом:

1 г

[Xn _ ьУп - L + xn-1 Уп-1 +

xT-11 ЬКь\-1\ L -

сг2|1-і

О -'2)

( V n—2 n—2 n—1

1+r ЕхіУі -r ЕхіУі+1 -r Ex,y,-1

i=n—L+1 i=n—L ^" T 1 1

1

Xn-1\LKLXn-1\ L -

(9)

a21 -r

T T

xn - Lxn - L + xn — 1Xn-1 +

f1 -r 2)

(v n—2 т n—2 т n—1 т

1+r 2\ X Xfxj - r X XiXi+1 - r X Xfxj_ 1

i=n - L+1

Аналогично

Xn\L+1 KL+1Yn\L+1

(10)

1

a2 1

-\xn - Lyn - L + хпУп +

(1 - r 2)

, - n-1 n-1 n-1

+h +r I eхіУі -r E хіУі+1 -r EхіУі-1

i=n—L+1 i=n—L i=n—L+1

R)[

Xn\L+1KL+1 Xn\ L+1

(11)

a2 1 - r

xn - Lxn- L + xnxl +

I A n_1 т n_1 T n_1 T +11 + r I E xixi - r E xixi+1 -r E xixi_

i=n—L+1 i=n—L i=n—L+1

Прибавив к обеим частям (9) вектор

n—1

n —1

(12)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где

\q_nxn-1 ^ Pnxn jcn-1 \ L j

qn = ~ГГ~Л Vxn-1 “ xA

CT2I1 - r2l 1

-\xn - rxn-1]

(13)

Pn =

- r 2p '""R (14)

после вычитания полученного соотношения из (11)

имеем

Xn\L+1KL+1 Xn\L ы( cn\L+1 _ cn-1\ l) = Xt\L+1KL+1Yn| L+1 '

_ Xn-1\ LKL Yn-1\ L ~ (qinxn-1 ^ pnxn^cn-1\ L , а с учетом того, что

Xn\ L+1KL+1Yn\L+1 _ Xn—1\LKL Yn-1\ L ~ pnyn ~ qnyn-1 ,

после несложных преобразований получаем

cn|L+1 - cn-1\ L+ PfiL+1

Pn

n|L+1 Pn—1\ L

T \ , / т \

cn-1\Lxnj + ЦУп-1 - cn—1 Lxn-1j

(15)

Pn—1 \ Lpnxn Pn—1 \ L ; (16)

і , т ~

1 + xn Pn—1 \ Lpn

Pn—11L Pn—1\ L

Pn—1\ Lqnxn—1 Pn—1\ L

1 + xn-1 Pn-1 \ Lqn

(17)

1-1

Здесь Pn\ L+1 -(XT\L+1KL+1 Xn\ L+1)

Соотношения (15)-(17) соответствуют накоплению информации. Сброс устаревшей информации (в нашем случае — отбрасывание измерений, полученных на (n - L +1 -м такте) соответствует переходу от системы уравнений (8) к системе

xTlKI1 Xn\Lcn\ L = XTlKZX\ L , (18)

где Xn\ l , KT, Yn\ L имеют размерности L X N , L x L и l x 1 соответственно.

Поступая по аналогии с изложенным выше, т.е. вычитая из обеих частей (8):

{qLXn—L+1 pnxn—l|cn \ L+11

где

4l =

PL =

получаем

a2(1 - r 2) r

a2(1 - r 2)

rxn - L+1 - xn - L

)

(xn-L -r

4 - L+1)

(19)

(20) (21)

сПТ ^njL+1 PnL

ЧцУп-Т+1 ~xT-L+1cnL+1j +pL\yn-L -xT~LcnL+1i

(22)

Pn\ L - Pn\L+1 +

Pn \ L+1qLxn—L+1 Pn\ L+1

Pn\ L +1 - Pn\ L+1 +

1 _ xn - L +1 Pn\ L+1qL Pn \ L+1 pLxn - LPn \ L+1

(23)

(24)

1 xn—LPn\L+1 pL

Соотношения (22)-(24) описывают сброс устаревшей информации.

Таким образом, рекуррентный алгоритм текущего регрессионного анализа окончательно описывается соотношениями (15)-(17), (22)-(24).

r

Литература: 1. Изерман Р. Цифровые системы управления. М.: Мир, 1984. 544с. 2. Parkum J.E., PoulsenN.K., Holst J. Recursive forgetting algorithms// Int.J.Control, 1992. Vol.55, № 1. P. 109-128. 3. Parkum J.E., Poulsen N.K., Holst J. Analysis of forgetting algorithms// 9-th IFAC/IFORS Symposium Identification and System Parameter Estimation, Budapest, Hungary. 1992. Vol. 2. P.134-139. 4. Либероль Б.Д, Руденко О.Г. Выбор ширины окна в алгоритме текущего регрессионного анализа// Доповіді НАН України, 1996. №3. С.69-73. 5. Руденко О.Г., Штефан А., Хюбенталь Ф. Рекуррентный алгоритм МНК со скользящим окном при коррелированных помехах// Радиоэлектроника и информатика. 1998. 1. С.79-81. 6. Rudenko O.G., Stephan A. Schaetzung nichtstationaerer Parameter bei korrelierten Stoerungen// 42.IWK.1997.Band 3. S.95-99.

Поступила в редколлегию 30.03.99 Рецензент: д-р техн. наук, проф. Руденко О.Г.

Штефан Андреас, гражданин ФРГ, доктор-инженер, руководитель фирмы “Д-р Штефан и партнеры. Программное и компьютерное обеспечение”. Научные интересы: адаптивные системы. Адрес: BRD, D-98693, Ilmenau, Grenzhammer, 8. Tel. (3677)-84-10-67.

56

РИ, 1999, № 2

i Надоели баннеры? Вы всегда можете отключить рекламу.