УДК 330.43
Александрович Сергей Всеволодович
кандидат физико-математических наук, доцент. Финансовый университет при Правительстве Российской Федерации [email protected]
Прогнозирование по
ЛИНЕЙНОЙ РЕГРЕССИОННОЙ МОДЕЛИ С КОРРЕЛИРОВАННЫМИ ВОЗМУЩЕНИЯМИ, ОЦЕНЕННОЙ С ПОМОЩЬЮ ПРОЦЕДУРЫ КОХРЕЙНА -ОРКАТТА
Sergey V. Aleksandrovich
the physicist's candidate mathematical sciences, the associate professor.
Financial University under the Government of the Russian Federation [email protected]
Forecasting on the linear
REGRESSION MODEL WITH THE CORRELATED DISTURBANCES ESTIMATED USING THE PROCEDURE OF COCHRANE - ORCUTT
Аннотация. Линейная регрессионная модель с коррелированными возмущениями, оцениваемая с помощью процедуры Кохрейна - Оркат-та, рассмотрена как динамическая модель, в которой текущее значение объясняемой переменной зависит от текущего значения объясняющей переменной, лаговых значений объясняемой и объясняющей переменных, а также от оценок коэффициентов корреляции возмущений, получаемых на всех этапах процедуры. Исходя из этой модели, получена и методом математической индукции доказана общая формула для вычисления точечного безусловного прогноза значений объясняемой переменной по прогнозному значению объясняющей переменной и текущему и лаговым наблюдаемым значениям объясняемой и объясняющей переменных при любом количестве итераций в процедуре Кохрейна - Оркатта.
Ключевые слова: линейная регрессионная модель, коррелированные возмущения, процедура Кохрейна - Оркатта, метод математической индукции, безусловное прогнозирование.
Annotation. A linear regression model with correlated disturbances, estimated using the procedure Cochrane - Orcutt, considered as a dynamic model in which the current value of the dependent variable depends on the current value of the explanatory variable, lagged values of the dependent and explanatory variables, as well as estimates of the coefficients of correlation of disturbances produced on all stages of the procedure. Based on this model, a general formula for calculating the point unconditional prediction of the dependent variable, depending on the forecast value of the explanatory variable and the current and lagged observed values of the dependent and explanatory variables was obtained and proved in any number of iterations in the process of Cochrane - Orcutt.
Keywords: linear regression model, correlated disturbances, procedure of Cochrane - Orcutt, method of mathematical induction, unconditional forecasting.
Процедура Кохрейна - Оркатта оценки линейной регрессионной модели с автокорреляцией случайных возмущений представляет собой итерационный процесс, на каждом этапе которого оцениваются параметры линейной регрессионной модели, переменными которой являются преобразованные переменные исходной модели, и коэффициент автокорреляции первого порядка случайных возмущений [1; 2, с. 136].
Начальным шагом этой процедуры является применение обычного метода наименьших квадратов (МНК) для оценки параметров исходной линейной регрессионной модели, переменными которой являются наблюдаемые значения переменных, и получение соответствующих остатков (оценок случайных возмущений): ex;e2;...en . В качестве оценки коэффициента автокорреляции случайных возмущений первого
порядка р используется его МНК-оценка, полученная по регрессии et = pet-1 + Vt.
Затем выполняется авторегрессионное преобразование первого порядка переменных модели, оценивается линейная регрессионная модель по преобразованным переменным, находятся остатки, и по ним вновь оценивается коэффициент автокорреляции случайных возмущений. Полученная оценка коэффициента автокорреляции сравнивается с предыдущей.
Итерационный процесс заканчивается при условии совпадения оценок коэффициента автокорреляции на последней и предпоследней итерациях с заданной точностью.
379
Поскольку при авторегрессионном преобразовании переменных преобразованные переменные зависят от значений преобразуемых переменных в текущий и предыдущие моменты времени, то после нескольких итераций возникает сложная взаимосвязь между исходными и преобразованными переменными. В связи с этим возникают значительные сложности при прогнозировании значений зависимой переменной.
Данная работа посвящена выводу методом математической индукции общей формулы для вычисления точечного безусловного прогноза зависимой переменной по прогнозному значению независимой переменной и текущим и лаговым наблюдаемым значениям независимой и зависимой переменных, а также от оценок параметров линейной регрессионной модели и коэффициента автокорреляции первого порядка, при любом количестве итераций в процедуре Кохрейна - Оркатта.
Для простоты рассмотрим линейную парную модель регрессии, в которой случайные возмущения
£t подвержены авторегрессии первого порядка:
у = а+Д+e, e=Pet-i +n,
где xt— значения независимой переменной X ; yt — значения зависимой переменной Y ; nt — случайные возмущения авторегрессионного уравнения, t = n а,Д,р — параметры модели,
р— коэффициент автокорреляции (—1 < р < 1).
В соответствии с процедурой Кохрейна - Оркатта:
По выборочным данным производится оценка параметров а и Д модели и находится эмпирическое уравнение регрессии:
yt = a + bxt + et ■
где a = a; b = Д; — оценки параметров модели; et =£t — оценки случайных возмущений (остатки).
По остаткам регрессии оценивается модель
et =Pet—i +nt
и находится оценка коэффициента авторегрессии r1 = р .
С помощью оценки r1 = р выполняется авторегрессионное преобразования первого порядка
*(1) *(1)
yt = yt — r1 yt—{; X = x — r1 X—1 ■
Первые наблюдения восстанавливаются по формулам
*(1) = „ ft 3. v*(1)
где
уг7=yW1—r12; x*(1)=xfi-
1 — r2 - поправка Прайса - Уинстена [2, с. 136; 3].
Оценивается модель
y*(1) =а1 +^1 x*(1) + e®
;(1)
и находятся оценки a1 = rJ1; b1 = Д; e{(1 = ё\
По остаткам регрессии оценивается модель
,0)
= P1e
(1)
+ n
(1)
t
и находится оценка коэффициента авторегрессии r2 = р1.
Полученное значение оценки коэффициента автокорреляции сравнивается с оценкой, полученной на предыдущем этапе, и процедура повторяется, начиная с пункта 3).
Процедура заканчивается, когда разность между предыдущей и последующей оценками р станет меньше любого наперед заданного числа.
Так как рассматривается безусловное прогнозирование, то предполагается, что прогнозное значение xt+1 = X независимой переменной X точно известно и за пределам и выборки случайные возмущения и их оценки (остатки) равны нулю [4. с. 184]. Необходимо найти прогнозное значение yt+1 = у зависимой переменной Y .
В процессе выполнения процедуры Кохрейна - Оркатта, образуются последовательности найденных оценок параметров модели:
Ц;b1;/1}, {a2;b2;X}.... К;bN;rN} ■
где {a^; bt; rt} - соответственно значения оценок параметров линейной регрессии и коэффициента ав-
токорреляции случайных возмущений на i — и итерации, N - номер заключительной итерации.
Обозначим через yt(+1 = y(i) - прогнозное значение переменной Y , полученное после выполнения i этапов процедуры.
380
Прогнозирование после первой итерации В этом случае:
*(1) . 7 *(1) , (1) *(1) *(1)
Уг = a1 + b1 xt + et ; Уг = yt - r1 Уг-{; xt = xt - r1 xt-1 ■
Следовательно, с учетом того, что ожидаемое значение ef^ равно нулю, получаем:
*(1) л *(1) л*П) , 7 *(1)
ytУ = yt+1- r1 yt; xtУ = xt+1 - r1 xt и yt у = a1 + b1 xt У ■
Подставляя значения y*+1) и xt*y из первых двух вы ражений в третье, получаем:
yt+1 - r1 yt = a1 + b1( xt+1 - r1xt) ■
Так как xt+1 = x и yt+1 = y(1), безусловный точечный прогноз имеет вид:
y() = a1 + b1(x - r1 xt) + r1 yt или же y() = a1 + b1x + r1(yt - b1 xt) ■
Прогнозирование после второй итерации В этом случае:
*(2) , 7 *(2) . (2) *(2) *(1) *(1) *(2) *(1) *(1)
yt ( ) = a2 + b2 xt ( ) + е\ ; yt = yt - r2yt-1; xt = xt - «1 ■
Следовательно:
*(2)
*(1)
*(1). „*(2)
*(1)
" r2x**(1) И = a2 + b2■
Выражая преобразованные значения переменных через исходные наблюдаемые значения, получаем:
y*(2) = y*(1) - r2У^ = yt - r1 yt-1 - r2 (yt-1 - r1 yt-2 ) = yt - (r1 + r2 )yt-1 + r1r2уt-2 ,
*(2)
= x*(1) - r2xt*--!) = xt - r1 xt-1 - r2(xt-1 - r1 xt-2) = xt - (r1 + r2)xt-1 + r1r2xt-
*(1)
Для наблюдения с номером t +1 полученные выраж ения принимают вид:
У*+12) = У*? -r2У*(1) = •yt(+21) - r1 yt - r2(yt - r1 yt-1) = •yt(+21) - (r1 + r2)yt + r1r2yt-1
*(2)
= x*+1) - r2xt*(1) = xt+1 - r1 xt - r2(xt - r1 xt-1) = xt+1 - (r1 + r2)xt + r1r2xt-1 ■
*(1)
Подставляя значения y*+12) и x*+12) в уравнение y)*(2) = a2 + b2 x*(2), получаем:
yt(+1 - (r1 + r2)yt + ^1 r2Уt-1 = a2 + b2(xt+1 - (r1 + r2)xt + r1r2xt-1) ■
С учетом введенных обозначений у(+1 = y(2) и xt+1 = x, получаем безусловный точечный прогноз:
y(2) = a2 + b2x - b2(r1 + r2) xt + b2 r1r2 xt-1 + (r1 + r2) Уг - ^2 Уг-1 ,
или же
y(2) = a2 + b2x + (r1 + r2)(yt - b2xt) - r1r2 (Уг-1 - b2xt-1 )
Прогнозирование после третьей итерации В этом случае:
У*(3) = a2 + b2x*(3) + е(2>; y*(3) = y*(2) - Гзу*^; x*(3) = x*(2) - r,x**-12) и у™ = a2 + b2x;+13) ■ Выражая преобразованные значения переменных через исходные наблюдаемые значения, получаем:
У*+13) = Уг*+12) - r3У*(2) = уг+1 - (r1 + r2 + r3)Уг + (r1r2 + r1r2 + r1r2)Уг-1 - r1r2гзУг-2 , x*+13) = x*+12) - r3x*(2) = xt +1 - (r1 + r2 + r3)xt + (r1r2 + r1r2 + r1r2)xt-1 - r1r2r3xt-2 ■
Выполняя аналогичные преобразования, получаем безусловный точечный прогноз:
y(3) = a3 + b3x - b3(r1 + r2 + r3)xt + b3(r1r2 + r1r3 + r2r3) - b3r1r2r3xt-2 +
x
+(r1 + r2 + r3)yt - (r1r2 + r1r3 + r2r3)yt-1 + r1r2r3Уг-2
или же:
y(3) = a3 + b3x + (r1 + r2 + r3)(Уг - b3xt) - (r1r2 + r1r3 + r2r3)(Уг-1 - b3xt-1 ) + r1r2r3(Уг-2 - b3xt-2) ■
Прогнозирование после итерации
Наблюдая характер полученных зависимостей прогнозных значений y(1); y(2); j)(3) от прогнозного
значения фактора x и наблюдаемых значений переменных X и Y , можно предположить, что общая формула для прогноза y(N), вычисленного после N этапов процедуры, имеет вид:
381
y( N) = aN + bNx + (£ r )(y - bNxt) - (£ r r)(yt_! - bNxt_x) +... +
ii =1
(i <2)
+(-1)" ( Ё Г1 rh...r,t )(yt_k+1 _ bNXt _k +1 ) + ... + (-1)Nrir2...rN (Уt_ N +1 _ bNXt—N+1 )
i"2;...;>t =1 (i <2 <...<ik)
(*)
При этом:
',(N) _ -*(N)
N N
)У +(L rr
i=1 z!: z2 =1
O1 <2)
y(N) = y*+1N) = i>t+1-(Zr)yt + (Z rr.2)уt-1 +...+(-1)k( E rvr)yt-k+1 +...+(-1)Nr1r2...rNyt-N+1
z1:z2 ;.;zk =1 (Z1 <2 <...<ik)
x*( N) = X xt+\ xt+\
- (Z r ) X + (Z r4 rH)Xt-1 + ... + (-1) k ( Z r4 r2...r4 )xt-k+1 + ... + (-1)Nr1r2...rNXt-N+1
i=1 i i2 =1
(i <i2)
N N
*( N)
vt Jty/^'ifJt -
i=1 ^:i2 =1
(i<i2)
il:i2 ;...;zk =1
(i1 <i2 <...<‘k )
y*(N) = yt - (Z ri )yt-1 + (Z ri. r )У t -2 + ... + (-1)k ( Ё )yt-k + ... + (-1)Nr1r2...rNyt-N
z1 :i2 ;..., =1 (i <i2 <...<?k )
NN N
X*(N) = Xt - Ё r )Xt-1 + (X + ... + (-1)k ( E )Xt-k + ... + (-1)Nr1r2...rNXt-
<2-.. <^-t - N
(i <iz) (i<iz <...<‘k)
Докажем формулу (*) методом математической индукции. Как было показано выше, для N = 1; 2;3 эта формула верна. Предположим, что она верна для N и, исходя из этого, докажем ее для N + 1.
На (N +1) -м этапе процедуры справедливы выражения:
У *(N+1) = a + b X*(N +1) . X*(N+1) = *(N) - r *(N). y *(N+1) = y *(N) - r y*(N).
Xt+1 ~UN+1 ^ UN +1Л1+1 ’ At+1 At+1 'N+1At ’ Xt+1 Xt+1 'N+W t ’
У*Т} - rN +1 У*(N} = aN +1 + bN+1(XM} - rN+1 X*+N});
Подставляя в последнюю формулу выражения для yf+f'1, Xt*+1N'1, y*(N), Xt*(N) которые, составляя формулу (*) , являются верными по предположению индукции, получаем:
Я+1 - (Z r )yt + (Z ri ri2 )yt-1 + ... + (-1)k ( E T4 )yt-k+1 + ... + (-1)Nr1r2...rNyt-N+1 -
i=1 z1 : z*2 =1 z1:z'2 ;...;ik =1
(?1 <,'2) (,1 <,2 <...<z, )
NN N
^N +1 (У t - S r ) yt-1 + (Z r/zM-2 + ... + (-1)k ( E r4rz2...rzt )yt-k + ... + (-1)Nr1r2...rNyt-N ) =
i=1 ,1: z'2 =1 z1:z'2;...;ik =1
(i <,'2) (,1 <,2 <...<zk)
NN N
= aN+1 + bN+1 (Xt+1 - (Z rz) Xt + (Z rK ri2 )Xt-1 + ... + (-1)k ( S r r2...rk )Xt-k+1 + ... + (-1)V2...'
i=1 z1 : z'2 =1 z1:z'2;...;ik =1
(i1 <i2) (,1 <i2 <...<ik)
NN N
-rN+1(Xt - S r )Xt-1 + ^ ^irz2)Xt-2 + ... + (-1)k ( E ^...^ )Xt-k + ... + (-1)V2...‘rNXt-N "
Y Y Y Y
N^t - N +1
i=1 z1 : z'2 =1
(i <2)
z1:i2 ;...;zk =1
(,1 <,2 <...<Zk )
После перегруппировки слагаемых, получаем:
yt+1 - Ё ZZ-) yt - rN+1 yt + ( Ё rh rz2)yt-1 + rN+1^] rz ) yt-1 + ... + (-1) N+1 r1r2...rNrN+1 yt-N -
i=1
i:i2 =1
(,1<Z2 )
= a.
+ bN+1(Xt+1 - Ё rz ) Xt - rN+1 X + ( Ё r4 r0Xt-1 + rN +1^ rz ) Xt-1 + ... + (-1)N+1 r1r2...rNrN+1 Xt- N )
z1 : z'2 =1
(,1 <,2)
Затем, объединяя суммы, получаем:
382
ум -(£ri)yt + (Z rгОум + •••+(-1)^ rir2-r^rw+iy-N -
г1:г2 =1
(il <2)
N+1
N+1
= a
+ bN+1(Xt+1 - (£ ri )Xt + ( ^ Г rhX-1 + • •• + (-1)W+1 /^•••^N+A-N )
t У ?1 12' t -
z=1 z1: z2 =1
(i<>2)
Выражая yt+1 = y( N+1) и учи тывая, что xt+1 = x, окончательно получаем:
N+1
y( N+1) = aw+1 + bw+1X + (£ Г )(yt - bN+1 Xt) - ( Z ГЧ Г2 )(yt-1 - bN+1 Xt-1 ) +
z1: z'2 =1
(h <z2)
+ ••• + ( 1) Г1Г2 •• •rNrN+1( yt - N bN+1 Xt- N )
Следовательно, исходя из того, что формула (*) справедлива для N , показана ее справедливость для N + 1, что и доказывает формулу (*) .
Таким образом, формула для вычисления точечного безусловного прогноза y( N) зависим ой переменной Y по прогнозному значению X независимой переменной X и текущему и лаговым наблюдаемым значениям независимой и зависимой переменных Xt;Xt-1;Xt_2;_;yt;yt-1;yt-2;_ при любом количестве N итераций в процедуре Кохрейна - Оркатта имеет вид:
N N
y(N) = aN + bNX + (Z r )(yt - bNXt) - ( Z ri1 rz2)(yt-1 - bNXt-1) + ••• +
z=1
z1 :z2 =1 (z1 <z2 )
N
+(-1)i ( Z r1 )(yt-k+1 - bNXt-k+1) + ••• + (-1) N4l:rN (yt-N+1 - bNXt - N+1)
w-A=1
(z1<z2 <,,,<ik )
Литература:
1. D. Cochrane, G.H. Orcutt. Application of Least
Square Regression to Relationships Containing Auto-Correlated Error Terms, Journal of the American Statistical Association. 44 (245).
P. 32-61. 1949.
2. Л.О. Бабешко. Основы эконометрического моделирования. М. : КомКнига, 2007. 432 с.
3. S.J. Prais, C.B. Winsten. Trend Estimators and Serial Correlation. Cowles Comission Discussion Paper № 383. P. 1-27. 1954.
4. Я.Р. Магнус, П.К. Катышев, А А. Пересецкий. Эконометрика. Начальный курс. М. : Дело, 2007. 504 с.
Literature:
1. D. Cochrane, G.H. Orcutt. Application of Least
Square Regression to Relationships Containing Auto-Correlated Error Terms, Journal of the American Statistical Association. 44 (245).
P. 32-61. 1949.
2. L.O. Babeshko. Econometric modeling. M. : KomKniga, 2007. 432 p.
3. S.J. Prais, C.B. Winsten. Trend Estimators and Serial Correlation. Cowles Comission Discussion Paper № 383. P. 1-27. 1954.
4. J.R. Magnus, P.K. Katishev, A.A. Peresetsky. Econometrics. Initial course. M. : Delo, 2007. 504 p.
383