Научная статья на тему 'Состоятельность МНК-оценок коэффициентов множественной линейной регрессионной модели'

Состоятельность МНК-оценок коэффициентов множественной линейной регрессионной модели Текст научной статьи по специальности «Математика»

CC BY
822
72
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ / ПРОГНОЗИРОВАНИЕ ЭКОНОМИЧЕСКИХ ПРОЦЕССОВ / МЕТОД НАИМЕНЬШИХ КВАДРАТОВ / СОСТОЯТЕЛЬНОСТЬ ОЦЕНОК КОЭФФИЦИЕНТОВ ЛИНЕЙНОЙ РЕГРЕССИИ / MULTIPLE LINEAR REGRESSION / ECONOMIC FUNCTIONS FORECASTING / REGRESSION MODEL FORMULATION / LEAST SQUARE METHOD / LINEAR REGRESSION COEFFICIENT ESTIMATIONS' CONSISTENCY

Аннотация научной статьи по математике, автор научной работы — Гафарова Любовь Михайловна, Завьялова Ирина Геннадьевна, Мустафин Наиль Нухович

Авторы рассматривают регрессионные модели основной инструмент исследования и прогнозирования экономических процессов в целях исследования оценок параметров регрессии, полученных методом наименьших квадратов. Оценки являются несмещенными, состоятельными и эффективными. Поскольку в доступной литературе доказательства состоятельности приводятся исключительно для простой линейной регрессии (однофакторной), авторы делают попытку доказать состоятельность оценок коэффициентов линейной регрессии для многомерного случая.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Consistency of Multiple Regression Model Coefficient’s OLS-Estimations

The authors consider the regression models, main tool of economic functions’ research and forecasting, for the purpose of researching the estimations of regression parameters obtained by least square method. The estimations are unbiased, consistent and efficient. Because the available bibliography provided the consistency proofs solely for simple linear regression (unifactor), the authors have attempted to prove the consistency of linear regression coefficients estimations for multidimensional case.

Текст научной работы на тему «Состоятельность МНК-оценок коэффициентов множественной линейной регрессионной модели»

УДК 519.86

Состоятельность МНК-оценок коэффициентов множественной линейной

регрессионной модели

Л. М. Гафарова, И. Г. Завьялова, Н. Н. Мустафин

Национальный исследовательский университет «МИЭТ»

Авторы рассматривают регрессионные модели — основной инструмент исследования и прогнозирования экономических процессов — в целях исследования оценок параметров регрессии, полученных методом наименьших квадратов. Оценки являются несмещенными, состоятельными и эффективными. Поскольку в доступной литературе доказательства состоятельности приводятся исключительно для простой линейной регрессии (однофакторной), авторы делают попытку доказать состоятельность оценок коэффициентов линейной регрессии для многомерного случая.

Ключевые слова: множественная линейная регрессия; прогнозирование экономических процессов; метод наименьших квадратов; состоятельность оценок коэффициентов линейной регрессии.

Рассмотрим модель множественной линейной регрессии

M(X/ T = t ) = вф + (32^2 + - + З/р

где T = (T1, T2, ..., Tk) — вектор факторов регрессии; в = (вр в2, ..., Pk) — вектор коэффициентов регрессии; k — число факторов регрессии, фиксированное [1, с. 197]; (X1, ..., Xn) — значения случайной величины X, наблюдаемые в n экспериментах, n > k; (t(1), ..., t(n)) — значения /-го фактора регрессии в n экспериментах, / = 1, ..., k.

X = вф(1) + P2t21} + ••• + Pktk1} + ^

x = p1t(n) + e2t2n) +... + ektkn) + £.

n '11 '22 1 k k n

Здесь £ = (£1, ..., £n) — вектор остатков (ошибок наблюдений). Запишем эту систему в матричном виде

X = T • в + £,

( V ... tk1

где матрица T = •• • — .

\ t(n) t(n)

1k

© Гафарова Л. М., Завьялова И. Г., Мустафин Н. Н.

Вектор остатков £ удовлетворяет следующим предположениям:

1) £. ~ N(0, о2), / = 1, ..., n, т. е. все остатки имеют нормальное распределение с нулевым математическим ожиданием и дисперсией о2;

2) cov(£., £) = о2б.., где

б = ^ / = ^

ij [0, / * j, / = 1, ..., n; j = 1, ..., k,

т. е. остатки некоррелированы. Из этих условий следует также независимость остатков. _

Оптимальные оценки в* = (в*, •••, в^ коэффициентов регрессии получаются методом наименьших квадратов (МНК). Это оценки, которые доставляют минимум сумме квадратов остатков в n экспериментах.

i £ 2 = (£, £) = ||£||2 = (X - Тв)(Х - TX - min.

/ = 1 1

Оценки в* являются ^решением нормальной системы T • T • в* = T’ • X или Ав* = T' • X, где A = T • T — информационная матрица.

18

Экономические и социально-гуманитарные исследования № 1 (9) 2016

Гафарова Л. М., Завьялова И. Г., Мустафин Н. Н.

Если A — невырожденная матрица, т. е. rank(A) = к < п, то в этом и только в этом случае нормальная система имеет единственное решение в* = A-1 • T' • X [2, с. 168]. Из этого равенства следует несмещенность в* : М(в*) = в [2, с. 168].

Сложнее доказать состоятельность оценок в*, т. е. доказать, что Р* —Р,- (в* сходятся по вероятности к в,-), i = 1, 2, ..., k (для любого £ > 0

Согласно неравенству Чебышева,

D^

^{|в; - в,| > £} = р{|в* - мв;| > £} < -у-

Докажем, что для i = 1, ..., к, дисперсии оценок коэффициентов регрессии

Дисперсии Бв), i = 1, ..., к, стоят на главной диагонали ковариационной матрицы вектора в* — К*.

Кр, = о2 • A-1, где о2 — дисперсия ошибок наблюдений; A — информационная матрица [1, с. 201]. Перечислим свойства информационной матрицы A = T' • T.

1. Матрица A симметрична, положительно полуопределена, и rank(A) = = rank(T) (см. [3]).

2. Поскольку матрица A невырожденная, ее собственные значения не равны нулю, и матрица A положительно определена [4, стр. 130].

3. Любая симметричная положительно определенная матрица A может быть приведена к диагональному виду D переходом к новому базису D = P-1 • A • P; на главной диагонали матрицы D стоят собственные значения матрицы A (действительные и положительные) — Ар А2, ..., Ак; P — матрица перехода к новому базису [5, с. 127].

В новом базисе матрица обратного оператора D 1 тоже диагональная с собственными значениями на главной диагонали 1/Ар 1/А2, ..., 1/Ак [4, с. 136].

4. Характеристические многочлены матриц A и D одинаковые:

det(D - АЕ) = det(P-1 • A • P - АЕ) = = det(P-1 • A • P - P-1 • AEP) =

= det(P-1(A - XE)P) = det(P-1) x x det(A - АЕ) • det(P) = det(A - АЕ).

Значит, совпадают коэффициенты характеристических многочленов при одинаковых степенях X. Характеристический многочлен диагональной матрицы D det(D - AE) = (A1 - А)(А2 - A) ... (Ак - A). Приравняем коэффициенты при одинаковых степенях А:

- при Ак : (-1)к = (-1)к;

- при Ак - 1 : Оп + a22 + ... + акк = А1 + А2 +

+ ... Ак (след матрицы инвариантен относительно преобразования P-1 • A • P);

- при Ак - 2 : (аи • a22 - ax22) +

+ (a11 • a33 - a123) + . + (ак - 1к - 1 • акк - ак- 1к) =

= А1А2 + А1А3 + ••• Ак - 1Ак и т. д.;

- при А0 : detA = А1 • А2 • ... • Ак.

Таким образом, суммы миноров по-

рядка г, симметричных относительно главной диагонали, у матриц A и D совпадают, г = 1, 2, ..., к. В частности, сумма таких миноров порядка (к - 1) матрицы A равна А2 • . • Ак + А1 • А3 • . • Ак +

+ ... + А1 • ...• Ак - 1.

Выпишем матрицу A = T' • T

.1 _ (f(,>)2 ... i 1 • к'

i щ() i (t®)2 ...

, j = 1 2 1 j = 1 j

1 tWp

j = 1 к 1

1 (tjt^)2

j = 1

Предположим, что существует такое б > 0, что для всех элементов матрицы T \t()\ > б, i = 1, ..., к, j = 1, ..., п. В противном случае, если есть подпоследовательность из {Д}, сходящаяся к нулю, то для выполнения этих условий достаточно начало отсчета перенести в другую

Экономические и социально-гуманитарные исследования № 1 (9) 2016

19

Организационно-экономические аспекты инновационного развития

точку, отдаленную от всех предельных точек не менее чем на некоторое б > 0 (при этом все значения факторов регрессии сместятся на б > 0). Следовательно, не ограничивая общности, можно считать, что \t()\ > б. Это означает, что все диагональные элементы матрицы A стремятся к бесконечности au ~n^'x, i = 1, 2, ..., к. Поскольку след матрицы A и след матрицы D совпадают, X, + Х2 +... + X. ► 00 и deb4-°о.

Аналогично, определитель лю б ой подматрицы матрицы A, симметричной относительно главной диагонали (подматрица соответствует некоторому подмножеству факторов), стремится к бесконечности при n ^ ^.

Если обозначить вектор-столбцы матрицы T как ф ..., tk, то матрицу A

можно переп_ исат_ь в_ виде _ _

№ ад . • ад\

A = (t2,t1) \\t;\\2 . • ад

ад (fA) . • й2,

где \\j\ — норма вектора t; (t.,tJ) — скаляр-

J J i J

ное произведение векторов ti и tJ (матрица

i J

Грама). det A — определитель Грама векторов ф, Г2, ., Гк. Он равен квадрату k-мерного объема параллелепипеда, построенного на этих векторах [6, § 5.1.5—5.1.7].

Вернемся к доказательству того, что Щ>*-----—0, i = 1, 2, ..., к.

1 П-юа

De * < a2trA—1 =

= a2(1/^1 + 1/X2 + ... + 1Дк) =

= a

2

■ X, + XX ■

к 13

X, + XX

к 12

...• X

к- 1

< a2

X1 ^ X2 к • А

<

к — 1,max

det A

X

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2

X

к

где А, . — максимальный минор по-

рядка (к — 1), симметричный относительно главной диагонали (см. свойство 4 информационной матрицы) и равный

квадрату объема (к — 1)-мерного параллелепипеда, построенн ого на (к — 1) векторе из множества |t~, t2,..., Гк] (кроме вектора te). Отсюда

det A = А, . • \\t"\\2 • sin а,

к — 1,max e

где а — угол между вектором X и линейной оболочкой векторов, на которых построен (к — 1)-мерный параллелепипед [6, § 5.1.7]; IIXI2 =аее-*-«>.

Поскольку det Л---*^°°, существует

0 < у < 1 такое, что при любом n \sin а\ >

> 1 — у.

Итак, De* < ка2 х

к — 1,max

А

к — 1,max

\\02 • sin а

а2к

арр '(1 - Y)

0.

х

Состоятельность МНК-оценок коэффициентов множественной линейной регрессии доказана.

Литература

1. Вуколов Э. А. Основы статистического анализа. М.: Форум: ИНФРА-М, 2004. 462 с.: ил. (Профессиональное образование).

2. Чернова Н. И. Лекции по математической статистике. Новосибирск: НГУ, 2003. 179 с.

3. Bhatia R. Positive Definite Matrices. Princeton: Princeton University Press, 2015. 240 p. (Princeton Series in Applied Mathematics).

4. Сборник задач по математике для втузов [в 4 ч.] / Под ред. А. В. Ефимова, В. С. Поспелова. Ч. 1. М.: Изд-во Физико-математической литературы, 2003. 288 с.: ил.

5. Бугров Я. С., Никольский С. М. Элементы линейной алгебры и аналитической геометрии. 2-е изд., перераб. и доп. М.: Наука, 1984. 190 с.: ил. (Высшая математика).

6. Овсянников А. Я. Линейная алгебра. Екатеринбург: Изд-во Гуманит. ун-та, 2004. 293 с.

Гафарова Любовь Михайловна — старший преподаватель кафедры высшей математики № 2 (ВМ-2) МИЭТ. E-mail: hm2@miet.ru

Завьялова Ирина Геннадьевна — кандидат физико-математических наук, доцент кафедры ВМ-2 МИЭТ.

E-mail: irinazavialova@gmail.com

Мустафин Наиль Нухович — старший преподаватель кафедры ВМ-2 МИЭТ.

E-mail: hm2@miet.ru

20

Экономические и социально-гуманитарные исследования № 1 (9) 2016

i Надоели баннеры? Вы всегда можете отключить рекламу.