(2)
УДК 681.51.015
K г) = а2 е““И,
ОБ ОДНОМ АЛГОРИТМЕ ИДЕНТИФИКАЦИИ ПРИ НАЛИЧИИ СТАЦИОНАРНЫХ КОРРЕЛИРОВАННЫХ ПОМЕХ
ШТЕФАНА.
Рассматривается задача идентификации нестационарных параметров линейной регрессионной модели при наличии коррелированных помех. Получен рекуррентный многошаговый алгоритм оценивания, который эффективно использует информацию о степени корреляции помех.
Рассмотрим задачу оценивания параметров линейной регрессионной модели, описываемой уравнением
Yn ~ X ncn “п ’ (1)
где Yn ={уі,У2,-,Уп)Т — вектор n X 1;
Xn = (xT,xT,...,xT)T - матрица n x N ; xi ={xi1, xi2, ..., xiN)T — вектор N x 1;
cn = \СП,Ъ cn,2,..., cn, N) — вектор оцениваемых, в
общем случае нестационарных, параметров N х 1;
En =(%b%2,...,%n)T — вектор помєхиX 1; n = 0,1,2,^ — дискретное время.
Задача оценивания нестационарных параметров при некоррелированных помехах обычно решается с помощью модифицированных алгоритмов МНК, содержащих некоторый механизм придания больших весов вновь поступившей информации по сравнению с устаревшей. Это может быть осуществлено, например, путем экспоненциального взвешивания информации [1] либо искусственного ограничения входящей в алгоритмы ковариационной матрицы [2, 3], либо путем использования в алгоритмах ограниченного постоянного количества наблюдений [4-6].
Наличие же коррелированных помех обуславливает дополнительные трудности решения данной задачи. При этом оценки искомых параметров должны использовать информацию о ковариационной матрице помех. В работах [5, 6] получены некоторые рекуррентные формы оценки МНК, пригодные для оценивания нестационарных параметров модели (1) для любой произвольно заданной ковариационной матрицы помех. Однако такая общность алгоритма требует определенных вычислительных затрат, связанных, например, с необходимостью запоминания больших массивов наблюдений. Эти вычислительные затраты могут быть существенно уменьшены, если помехи являются стационарными. Именно такой случай рассматривается в настоящей работе, целью которой является получение рекуррентных алгоритмов МНК со скользящим окном в случае стационарных коррелированных помех с нулевым математическим ожиданием и автокорреляционной функцией
где а2 — дисперсия помех; а = const.
В этом случае используемая в оценке матрица K~l
размерности п х п, обратная корреляционной матрице ошибок измерений, является трехдиагональной:
1 - r 0 0 • 0 0 0
- r 1+ r 2 - r 0 • 0 0 0
1 0 - r 1+r 2 - r ■ 0 0 0
а2(1-r2)
\ / 0 0 0 0 • . _ r 1+ r 2 - r
0 0 0 0 • 0 - r 1
(3)
Элементы этой матрицы вычисляются следующим образом:
к~', =
(■ д
2
СТ2|1 -
1 + r
(■ - r Д
СТ2|1 -
М' - r д
i = І = 1, n;
i = j = 2,3,...,п -1;
І = i -1,i = 2,3,...,n j = i +1,i = 1,2,...,n -1.
(4)
1
r
Здесь r = е aAt, At = ti - ti_! — шаг измерений,
Ki j = <?2r\l~j , i,j = 1,2,...,n .
Обозначим количество используемых в алгоритме наблюдений L . Так как оценка МНК справедлива для п > n , где n — размерность оцениваемого вектора, то l > N .
Тогда оценка вектора c* на (п -1) -м шаге, обозначаемая далее как cn и получаемая как решение
системы линейных уравнений
Xn-1 |LKL XL 1 Lcn-1| L = Xn-1\LKLYn-1| L , (5)
может быть записана по аналогии с [5, 6] следующим образом:
cn-1| L = (Xn\LKl}Xn-1| l) XnT-1|LKn-1| LYn-1| L , (6)
где X*—1|l = (xLl,x*T~l+1,-”,xT- JT — матрица L X N ;
Yn—1|L =(yn-L,yn-L+ Ь•••,yn-0T — вектор L x 1; KL —
матрица L x L , определяемая в соответствии с (3).
Как отмечалось в [5], особенностью алгоритмов с конечной памятью (в нашем случае (6)) является то, что порядок формирования на каждом такте входящих в эти алгоритмы векторов и матриц может быть различным, т.е. сначала осуществлять накопление информации, а затем сброс устаревшей, либо наоборот.
Рассмотрим случай сначала накопления информации, а затем ее сброса.
Учет на п -м шаге вновь поступившей информации позволяет получить теперь уже по (L + 1 измерению следующую оценку:
РИ, 1999, № 2
55
cn\L+1 =( Xn\L+1KL+1 Xn\L+ 1) Xn\L +1 KL+1Yn\L+1 j (7)
являющуюся решением системы линейных алгебраических уравнений
Xt\L+1KL+1 Xn\ L + 1en\L+1 = Xt\L+1 KL+1Yn \ L+1 • (8)
Здесь Xn\ L+1 = ( Xn _1\ L I xn) - матрица (b +1 x N ;
Yn\L+1 = (Yn-1\ L \ Уп)Т — вектор {L +1 X 1; Klh — матрица (L +1 x (L + i) •
Запишем входящие в (5), (6) матрицы и векторы следующим образом:
1 г
[Xn _ ьУп - L + xn-1 Уп-1 +
xT-11 ЬКь\-1\ L -
сг2|1-і
О -'2)
( V n—2 n—2 n—1
1+r ЕхіУі -r ЕхіУі+1 -r Ex,y,-1
i=n—L+1 i=n—L ^" T 1 1
1
Xn-1\LKLXn-1\ L -
(9)
a21 -r
T T
xn - Lxn - L + xn — 1Xn-1 +
f1 -r 2)
(v n—2 т n—2 т n—1 т
1+r 2\ X Xfxj - r X XiXi+1 - r X Xfxj_ 1
i=n - L+1
Аналогично
Xn\L+1 KL+1Yn\L+1
(10)
1
a2 1
-\xn - Lyn - L + хпУп +
(1 - r 2)
, - n-1 n-1 n-1
+h +r I eхіУі -r E хіУі+1 -r EхіУі-1
i=n—L+1 i=n—L i=n—L+1
R)[
Xn\L+1KL+1 Xn\ L+1
(11)
a2 1 - r
xn - Lxn- L + xnxl +
I A n_1 т n_1 T n_1 T +11 + r I E xixi - r E xixi+1 -r E xixi_
i=n—L+1 i=n—L i=n—L+1
Прибавив к обеим частям (9) вектор
n—1
n —1
(12)
где
\q_nxn-1 ^ Pnxn jcn-1 \ L j
qn = ~ГГ~Л Vxn-1 “ xA
CT2I1 - r2l 1
-\xn - rxn-1]
(13)
Pn =
- r 2p '""R (14)
после вычитания полученного соотношения из (11)
имеем
Xn\L+1KL+1 Xn\L ы( cn\L+1 _ cn-1\ l) = Xt\L+1KL+1Yn| L+1 '
_ Xn-1\ LKL Yn-1\ L ~ (qinxn-1 ^ pnxn^cn-1\ L , а с учетом того, что
Xn\ L+1KL+1Yn\L+1 _ Xn—1\LKL Yn-1\ L ~ pnyn ~ qnyn-1 ,
после несложных преобразований получаем
cn|L+1 - cn-1\ L+ PfiL+1
Pn
n|L+1 Pn—1\ L
T \ , / т \
cn-1\Lxnj + ЦУп-1 - cn—1 Lxn-1j
(15)
Pn—1 \ Lpnxn Pn—1 \ L ; (16)
і , т ~
1 + xn Pn—1 \ Lpn
Pn—11L Pn—1\ L
Pn—1\ Lqnxn—1 Pn—1\ L
1 + xn-1 Pn-1 \ Lqn
(17)
1-1
Здесь Pn\ L+1 -(XT\L+1KL+1 Xn\ L+1)
Соотношения (15)-(17) соответствуют накоплению информации. Сброс устаревшей информации (в нашем случае — отбрасывание измерений, полученных на (n - L +1 -м такте) соответствует переходу от системы уравнений (8) к системе
xTlKI1 Xn\Lcn\ L = XTlKZX\ L , (18)
где Xn\ l , KT, Yn\ L имеют размерности L X N , L x L и l x 1 соответственно.
Поступая по аналогии с изложенным выше, т.е. вычитая из обеих частей (8):
{qLXn—L+1 pnxn—l|cn \ L+11
где
4l =
PL =
получаем
a2(1 - r 2) r
a2(1 - r 2)
rxn - L+1 - xn - L
)
(xn-L -r
4 - L+1)
(19)
(20) (21)
сПТ ^njL+1 PnL
ЧцУп-Т+1 ~xT-L+1cnL+1j +pL\yn-L -xT~LcnL+1i
(22)
Pn\ L - Pn\L+1 +
Pn \ L+1qLxn—L+1 Pn\ L+1
Pn\ L +1 - Pn\ L+1 +
1 _ xn - L +1 Pn\ L+1qL Pn \ L+1 pLxn - LPn \ L+1
(23)
(24)
1 xn—LPn\L+1 pL
Соотношения (22)-(24) описывают сброс устаревшей информации.
Таким образом, рекуррентный алгоритм текущего регрессионного анализа окончательно описывается соотношениями (15)-(17), (22)-(24).
r
Литература: 1. Изерман Р. Цифровые системы управления. М.: Мир, 1984. 544с. 2. Parkum J.E., PoulsenN.K., Holst J. Recursive forgetting algorithms// Int.J.Control, 1992. Vol.55, № 1. P. 109-128. 3. Parkum J.E., Poulsen N.K., Holst J. Analysis of forgetting algorithms// 9-th IFAC/IFORS Symposium Identification and System Parameter Estimation, Budapest, Hungary. 1992. Vol. 2. P.134-139. 4. Либероль Б.Д, Руденко О.Г. Выбор ширины окна в алгоритме текущего регрессионного анализа// Доповіді НАН України, 1996. №3. С.69-73. 5. Руденко О.Г., Штефан А., Хюбенталь Ф. Рекуррентный алгоритм МНК со скользящим окном при коррелированных помехах// Радиоэлектроника и информатика. 1998. 1. С.79-81. 6. Rudenko O.G., Stephan A. Schaetzung nichtstationaerer Parameter bei korrelierten Stoerungen// 42.IWK.1997.Band 3. S.95-99.
Поступила в редколлегию 30.03.99 Рецензент: д-р техн. наук, проф. Руденко О.Г.
Штефан Андреас, гражданин ФРГ, доктор-инженер, руководитель фирмы “Д-р Штефан и партнеры. Программное и компьютерное обеспечение”. Научные интересы: адаптивные системы. Адрес: BRD, D-98693, Ilmenau, Grenzhammer, 8. Tel. (3677)-84-10-67.
56
РИ, 1999, № 2