Научная статья на тему 'Оценки параметров гиперболической регрессии'

Оценки параметров гиперболической регрессии Текст научной статьи по специальности «Математика»

CC BY
324
53
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Демченко Д. В., Рутковский Н. В.

Предложен новый метод получения оценок параметров гиперболической регрессии. Выведены формулы оценок через вероятностные характеристики выборки. Разобран численный пример, показывающий преимущество предложенной модели по сравнению с известными моделями регрессии.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Оценки параметров гиперболической регрессии»

УДК 519.862.6

Д.В.Демченко, Н.В.Рутковский

ОЦЕНКИ ПАРАМЕТРОВ ГИПЕРБОЛИЧЕСКОЙ РЕГРЕССИИ

Институт электронных и информационных систем НовГУ

A new method of estimating of hyperbolic regression is suggested in this article. The formulae of estimations through probabilistic characteristics of selection are derived. The investigated numerical example shows advantages of the proposed model in comparison with the well-known models of regression.

Среди экономических моделей нелинейной регрессии наиболее простой и часто используемой является модель гиперболической регрессии [1,2], которую можно представить в следующем виде:

у = а +—в—+ е, (1)

х - у

где х — объясняющая переменная, у — объясняемая переменная, е — случайная составляющая с нулевым математическим ожиданием. Коэффициенты а , в , у называются параметрами регрессии.

Таким образом, функция регрессии у по х

М (у / х) = а + в—, поскольку М(е) = 0 . Среднее

х - у

квадратичное отклонение случайной величины е , как правило, зависит от значения объясняющей переменной х , и мы будем предполагать его пропорциональным 1 . Сформулируем основную задачу: по

Iх - У1

х1 х2...х

данным выборки найти оценки параметров

У1 У2... Уп

регрессии, являющиеся по возможности простыми и качественными. Непосредственное применение метода наименьших квадратов к модели (1) приводит к громоздким нелинейным уравнениям, связывающим параметры регрессии. В связи с этим желательно по-

лучить более простым путем оценки параметров гиперболической регрессии. Основной целью работы и является получение таких оценок.

Запишем модель гиперболической регрессии в мультипликативном виде:

У = а + -

x - Y

(2)

где и — случайный коэффициент. Приравнивая правые

„ ,,, и в

части уравнений (1) и (2), получим ---------=—-—+ е,

х - у х - у

откуда и = в + е(х - у). Следовательно, М(и ) = в и

Б(и) = (х - у)2 • В(е). Учитывая предположение по поводу среднего квадратичного отклонения е , приходим к выводу, что среднее квадратичное отклонение случайной величины и не зависит от х .

Для модели (2) требуется найти оценки параметров а, у и математического ожидания М(и ) = в

х1 х2...х

на основе значений выборки .

У1 У2...Уп

Применительно к значениям выборки модель (2) можно записать следующим образом:

и, =(х, - УНУ/ - а) 1 = 1 2 ..., п.

Обозначая оценки параметров а, в, У через а, Ь, с, мы можем выразить оценку дисперсии случайной величины и :

1 п 1 п

- У.(и, - Ь)2 = - У((х - с)(У, - а)-Ь)2.

п “ п “

1=1 1=1

В соответствии с этим выражением оценки а, Ь, с определим как МНК-оценки для функции

п

Яа,Ь,с) = ^((х1 - с)(У1 - а) - Ь)2.

1=1

Запишем необходимые условия минимума

— = -c)(xг -c)(yi -a)-b) = °,

a i=1

n

іУ^і - c)(y, - a)- b) = °, (3)

dF

db

i=1

jFF = -іУ (y, - a)((x, -c)(yi - a)-b) = °.

i=1

Из второго уравнения этой системы получаем равен-

п

ство ^(х, - с)(у1 - а) = пЬ. Используя обозначение

i=1

_ 1

x, , запишем выражение b через a и c:

'1 • і

г=1

Ь = ху - ах - су + ас. (4)

ТогДа (хг - с)( Уг - а)- Ь = (хг ■ Уг - ху) - а(Х - х)- с( Уг - у).

Подставляя полученное выражение в первое и третье уравнения системы (3) и учитывая равенство

П

У ((х, - с)(уг - а)- Ь) = 0, запишем систему двух

г =1

уравнений с неизвестными а и с :

П

^ Хг ( ' Уг - ХУ)- а(Х‘ - Х)- с(Уг - У)) = 0

г=1

П

У Уг ( • У, - ХУ)- а(Х - х)- с(Уг - У)) = °.

г=1

Разделив оба уравнения на п и выделив неизвестные, перепишем систему в виде

[а(х2 - х2 )+ с(хУ - х ■ У) = х2У - х ■ ХУ,

[а(ху - х ■ У) + с( - У 2 ) ху 2 - ху ■ У.

Далее воспользуемся известными обозначениями для оценок дисперсии и коэффициента корреляции:

х2 - х2 = с2, у2 - у2 = а2у, ху - х • y = cov(x, y) = roxoy ,

х2у - x • xy = cov(x, xy), xy2 - xy • у = cov(xy, у). Система примет вид

f«2 + xC 2 = «М* ^

[arc xC у + сс x = cov(xy, y).

Это линейная система, ее определитель V = = с2 • с2 - r2 с2с2у = с2 • с2 • (1 - r2). Естественно считаем, что с х Ф 0, с у Ф 0 и что случайная величина у не зависит линейно от х. Последнее влечет неравенство r2 Ф1, и значит, V Ф 0 .

Таким образом, приходим к однозначным оценкам а и с , определяемых формулами

a =

О 2 GOv(x, xy )- ГО x О у GOv(xy, у )

2 - 2 (1 - Г 2 )

c = •

О2 GOv(xy, у)- ГОx О у GOv(x, xy )

(5)

22 О x • О у

(1 - Г 2 )

Оценка Ь параметра в выражается через а и с по формуле (4).

Оставляя на будущее исследование вопроса о качестве полученных оценок, рассмотрим численный пример, на котором сравним модель (2) с оценками (4) и (5) с известными моделями линейной и квадратичной регрессий и равнобочной гиперболы (см.

u

Исходные данные

x 6 7 12 9 2,5 4 4,5 8 11 3 6,5 1О 3,5 5

У 9 9 9,5 9,4 2 8 8,5 9,3 9,5 6 9,1 9,5 7,3 8,7

рис.). В качестве критерия сравнения моделей возьмем величину суммы квадратов отклонений (СКО) и коэффициента детерминации Я2 .

Рассматриваемые модели

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

— линейная регрессия: у = а + Ь • х + е;

— квадратическая регрессия: у = а + Ь • х + с • х2 + е ;

— равнобочная гипербола: у = а + Ь/х + е ;

— гиперболическая регрессия: у = а + Ь/(х + с) + е .

Полученные расчетные уравнения

— линейная регрессия:

у = 4,93 + 0,48 • х (СКО = 26,27, Я2 = 0,51);

— квадратическая регрессия:

у = -0,45 + 2,38 • х - 0,13 • х2 (СКО = 13,05, Я2 = 0,71);

— равнобочная гипербола:

у = 10,85 - 13,40/х (СКО = 13,67, Я2 = 0,75);

— гиперболическая регрессия:

у = 9,91 - 3,71/( х - 2,04) (СКО = 0,075, Я2 = 0,99).

Вывод

Как показывают расчеты, из четырех рассмотренных моделей наиболее соответствует исходным данным гиперболическая модель. Об этом свидетельствуют самое высокое значение коэффициента детерминации и наименьшее значение суммы квадратов отклонений.

1. Kолемаев В.А. Эконометрика. М.: ИНФРА-М, 2004. 150 с.

2. Charemza W.W. and Deadman D.F. New direotiOns in eGOnOmetriG praGtiGe. Cheltenham, UK, 1997. 344 р.

i Надоели баннеры? Вы всегда можете отключить рекламу.