СТРУКТУРНАЯ И ПАРАМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ ЛИНЕЙНОЙ МНК-МОДЕЛИ БЕЗ РЕШЕНИЯ СИСТЕМЫ НОРМАЛЬНЫХ УРАВНЕНИЙ
В.В. Белов,
доктор технических наук, профессор кафедры «Вычислительная и прикладная математика» Рязанского государственного радиотехнического университета,
Адрес: 390005, Рязань, ул. Гагарина, 59/1, кафедра «Вычислительная и прикладная математика» Белов В.В. Тел: 8-903-835-54-98. E-mail: [email protected]
ҐҐ ^
Предлагается способ вычисления значений линейной МНК-модели, в частности MLR (Multiple Linear Regression), без оценивания её параметров. Предлагаемый способ может использоваться в алгоритмах поиска наилучшего в некотором смысле линейного описания процесса, представленного дискретными значениями (временнымрядом). Предлагается рекуррентная схема вычисления параметров МНК-модели, альтернативная решению системы нормальных уравнений Гаусса.
^ *
Ключевые слова: Линейная МНК-модель. Последовательное введение переменных. Вычисление значений. Оценка параметров. Рекурсивная схема.
Предварительные замечания
Результаты, приведённые в данной статье, получены в процессе выполнения работ по заказам Министерства труда и социального развития России, а также Федеральной службы государственной статистики. Главные задачи работ состояли в получении прогнозных значений для заданных групп показателей производственного травматизма в РФ и занятости населения в экономике страны. Необходимые статистические данные были предоставлены Федеральной службой государственной статистики. Обусловливалось обязательное построение варианта модели в виде линейной множественной регрессии (MLR-описания) с регрессорами, входящими в сценарные условия прогнозирования. Допускалось использование альтернативных методов моделирования для дополнительной оценки надежности полученного прогноза. Поскольку крайне желательно находить MLR-описание с наименьшим количеством параметров (это, в частности, способствует минимизации дисперсии коэффициентов модели), в практике
реальных приложений регрессионного анализа часто приходится решать задачу структурной идентификации линейной модели — поиска «наилучшей» в некотором смысле регрессии. В процессе решения этой задачи происходит последовательное добавление регрессоров в модель в разных сочетаниях до достижения требуемой погрешности аппроксимации.
Длительные упражнения в решении задачи последовательного синтеза наилучшей линейной модели и оценки качества частичных описаний привели к возникновению идеи вычисления векторов значений MLR-описания без предварительного оценивания его параметров, т.е. без осуществления операции параметрической идентификации. Такой приём позволяет ускорить процесс поиска: новый регрессор добавляется без повторного решения системы нормальных уравнений Гаусса. Кроме того, происходит, хотя и несущественное, повышение точности вычислений. Платой за эти преимущества являются ухудшение пространственных характеристик программного приложения — увеличиваются затраты на память.
Сопутствующим результатом явился альтернативный алгоритм параметрической идентификации — вычисления параметров линейной модели без решения системы нормальных уравнений.
Однако он представляет, видимо, чисто теоретический интерес — как средство описания вариативности процедур оценки параметров линейных описаний. В плане утилитарности вряд ли можно указать условия целесообразности его применения.
История вопроса
Задача расширения линейной модели, параметры которой оцениваются методом наименьших квадратов, впервые рассмотрена в [1]. Однако В.М. Кохран ограничился рассмотрением случая добавления в модель одной переменной. На случай нескольких переменных подход В.М. Кохрана распространил М.Г. Квинауил [2]. Указанные результаты описаны в [3] и доступны на русском языке в переводе [4]. Общим началом подходов В.М. Кохрана и М.Г. Квинауила является то, что они предлагают схему добавления новых регрессоров, меняющую коэффициенты предшествующих описаний: добавление нового слагаемого (ар-хр) в MLR-описание сопровождается пересчетом всех коэффициентов а1, а2,..., ар_1 предыдущего варианта модели.
Последовательное расширение описания, предлагаемое в настоящей статье, отличается тем, что параметры модели не оцениваются вовсе:
1) коэффициент нового добавляемого в модель регрессора не вычисляется;
2) значения коэффициентов «старых» регрессоров не пересчитываются.
Предлагаемый способ целесообразен в тех случаях, когда конкретика значений коэффициентов не важна. Это, прежде всего, как уже указывалось, — задачи поиска наилучших линейных моделей с минимальных количеством параметров.
Классическое решение задачи последовательного введения регрессоров
При введении дополнительных регрессоров по Кохрану и Квинауилу предполагается, что подобрана модель регрессии
где Y = (у1, у2,..., уп)т — временной ряд, т.е. вектор последовательных равноотстоящих по времени
значений некоторого процесса (результативного признака); X — матрица регрессоров (аргументов или факторных признаков) размером пХр ранга р; в — вектор коэффициентов регрессии, состоящий из р элементов; !п — единичная матрица порядка п; О — дисперсия значений временного ряда Y. Оценка в вектора в находится методом наименьших квадратов: в = (XTX)"1XTY.
Рассматривается задача добавления новых регрессоров таким образом, чтобы новая модель имела вид:
V
с-. Е(¥) = хре + гУс = (х Т)
Ус.
= \¥6Г
где буква G идентифицирует новую модель;
Z — матрица дополнительных регрессоров размером пХ1 ранга !;
во — вектор новых коэффициентов при «старых» регрессорах, объединённых в матрицу X; уо — вектор коэффициентов при новых регрессорах, объединённых в матрицу Z, состоящий из!элементов;
W = (X Z) — матрица объединённых регрессоров, т.е. матрица всех регрессоров модели О, имеющая размер п X (р + !) и ранг р + !; 0О = (вО уО)т — вектор всех коэффициентов модели О, состоящий из р + ! элементов.
Указанные предположения означают, что имеет место стандартная ситуация: длина п временного ряда Y больше числа параметров модели, т.е. п > р + ! и все столбцы матрицы W (все регрессоры) линейно не зависимы.
Естественно, вычислить оценку оо вектора 0О и её дисперсионную матрицу D(о) можно следующим:
Однако можно сократить объём вычислений, используя результат обращения матрицы (XTX), полученный ранее при вычислении оценки в вектора коэффициентов в.
Суть метода Кохрана-Квинауила выражается следующей теоремой [4, с. 69].
Теорема Себера
Пусть R = ^ - X(XTX)-1XT,
Тогда
Замечания:
1) пункт (и) теоремы определяет алгоритм вычисления коэффициентов при новых переменных, добавляемых в модель; если вместо нескольких переменных добавить одну переменную, то матрица Z трансформируется в вектор г, одновременно матрицы ZTRZ и ZTRY трансформируются в скаляры, формула коэффициента при добавляемой переменной принимает вид:
и это уже не вектор, а скаляр;
2) пункт (1) определяет алгоритм коррекции вектора в коэффициентов при переменных, уже входивших в модель; заметим, что он предполагает использование вектора коэффициентов при добавляемых переменных, определяемого в следующем пункте, и, главное, — формула для матрицы Ь предполагает вычисление обратной матрицы (ХтХ)-1;
3) семантически матрица Ь = (ХТХ)-1Х^ представляет собой совокупность векторов модельных значений — у-й столбец этой матрицы представляет собой результат объяснения у-й добавляемой переменной всеми предыдущими переменными;
4) пункты (ш) и (гу) определяют две эквивалентные по значениям формулы вычисления остаточной суммы квадратов YTRGY для итоговой модели через матрицы R и Z, формируемые старыми и новыми переменными.
векторы вещественных чисел, условно называемые объясняющими переменными или факторными признаками; Jn = [1]п — вектор единиц, состоящий из п элементов; 1п — единичная матрица размером п X п, X = [х0 х1 х2... хр] — матрица объясняющих переменных, причём х0 = Jn и гапк(Х) = р + 1; У = (У1, У2,..., Уп)т, — вектор значений линейной модели зависимости результативного признака от объясняющих переменных, т.е. у = Х а, где а = (а0, а1,..., ар) — вектор параметров (коэффициентов) модели, вычисляемых методом наименьших квадратов: а = (ХТ-Х)-1-ХТ-у; Р = Х-(ХТ-Х)-ХТ — матрица, порождающая значения модели у = Ру .
Тогда:
1) проекционная матрица Р = Х(ХТХ)-1ХТ, порождающая значения уУ линейной модели, построенной с использованием факторных признаков х1, х2,..., хр, эквивалентной по значениям описанию, параметры которого оцениваются методом наименьших квадратов, может быть получена по рекуррентной схеме: Р = Рр, где Рр — финальное значение в последовательности рекуррентных вычислений
2) остаточная сумма квадратов RSS = уТ(1п — Рр)у.
Доказательство
Запишем формулу (3.37) [4, с. 72], описывающую значения модели с ортогональной структурой, для частного случая, когда матрица Z вырождается в вектор ху в новых обозначениях:
В соответствии с пунктом (гг) теоремы Себера (см. выше) для рассматриваемого частного случая и используемых обозначений имеем:
,,[>]_ ху ' ку-1' У
у т
/ к х Кроме того, учтём, что
лу-1] = '[/-1]
Ху-Га ^Г = У1 .
Подставляя указанные выражения в (*), получим:
Ш] = - [у-1]
+ К,_ 1-х,.
*ГК/-гУ
х к х
Далее с учётом того, что
имеем
Откуда и следует, что матрица Ру может быть вычислена рекуррентно:
Р, = Р н + -
к 4 х к
х/'К/-1'х/
Терминальная ветвь рекурсии для случая у = 1 определяется значением Р0. По определению
Поскольку х0 = Jn, а произведение Jn • Jn скалярно и равно п, имеем:
тТ
к-к
п
Остаточная сумма квадратов по определению равна уТ (1п — Р) у. Равенство Р = Рр определяет возможность вычисления остаточной суммы по формуле ЯББ = уТ(1п - Рр)у.
Алгоритм вычислений
В соответствии с указанной теоремой алгоритм вычисления вектора значений уУ линейной модели без операции её параметрической идентификации имеет вид:
3) вспомогательные величины:
(1) Jn = [1]п — вектор единиц, состоящий из п элементов;
(2) 1п = 1ёепИ1у(п) — единичная матрица размером пХп;
4) начальное значение:
квадратная матрица размером пХп, все элементы которой равны 1/п, — начальное значение матрицы, порождающей линейную модель, построенную по первому столбцу х0 = Jn матрицы объясняющих переменных Хр;
5) рекуррентные вычисления для у = 1, р:
(1) Rу■—1 = 1п — Ру—1 — вспомогательная матрица для упрощения записи формул;
(2) если ву-гх/ ф [0]п, где [0]п — вектор, состоящий из одних нулей, то вычисляется
очередное значение порождающей матрицы Р;
(3) иначе, если Rу■—1•xу■ = [0]п, то переменная Ху исключается из списка потенциальных аргументов модели и осуществляется переход к следующему значению у;
6) вычисляется вектор у(Х) = Рр у значений модели, построенной по матрице объясняющих переменных X = [х0 х1 х2... хр].
Замечания:
1) вычисление значений модели по указанному алгоритму не требует выполнения операции обращения матрицы;
2) на каждом шаге рекуррентных вычислений могут быть получены значения частных описаний, построенных по части объясняющих переменных: уу] = у(х0 х1 х2... хр) = Ру-у;
3) условие Ку—1^ху-ф [0]пх1 исключает переменные, векторы значений которых коллинеарны с векторами уже включёнными в модель; произведение Ку—1 • ху представляет собой вектор ошибок объяснения вектора ху векторами х0 х1 х2... ху—1.
Вычислительный эксперимент
Проверка правильности алгоритма была осуществлена путём генерации нескольких векторов случайных чисел, равномерно распределённых от нуля до десяти. Один из векторов интерпретировался как значения результативного признака У = (у1, у2,..., уп)Т, а остальные — как значения факторных признаков х1 = (х11, х21,..., хп1)Т, х2 = (х1,2, Х2,2,..., Хп,2)Т, ..., хр = (Х1,р, Х2^,..., ХПрУ. Матрица, порождающая значения модели находилась двумя способами — рекуррентно Рр и путём прямых вычислений Р = X•(XT•X)-1•XT. Затем находились векторы значений модели у[р] = Рр-у и у = Рр-у .
Длины векторов, участвовавших в вычислениях выбрались равными: 5; 10; 30; 100 и 500. Количество факторных признаков: 4; 7 и 15.
Расчёты выполнялись с использованием восьми байтов для представления вещественных чисел. Результаты показали, что во всех случаях абсолютная величина разности элементов векторов у[р] и у мала:
тах (|у — у|)< 10 ,
где стрелка над выражением символизирует операцию векторизации, в данном случае — формирования вектора абсолютных значений разностей
соответствующих элементов матриц и векторов. Таким образом, различие результатов вычисления проекционных матриц и значений модели классическим и предлагаемым способами имеет порядок погрешности внутримашинного представления вещественных данных.
Теорема 2
Пусть у = (уь У2,..., у„)т — вектор вещественных чисел, условно называемый результативным признаком;
векторы вещественных чисел, условно называемые объясняющими переменными или факторными признаками; Jn = [1]” — вектор единиц, состоящий из п элементов; I” — единичная матрица размером пХп, X = [х0 x1 X2... xp] — матрица объясняющих переменных, причём x0 = Jn и гапк^) = р +1; a = (а0, а1,..., ар] — вектор параметров (коэффициентов) модели, вычисляемых методом наименьших квадратов: a = (XT•X)"1•XT•y.
Тогда вектор параметров a линейной модели может быть получен альтернативно по рекуррентной схеме:
Доказательство
Утверждение 1. Обозначим X^ = [х0 x1 x2 ... х^, к < p. При этом X = [х0 x1 x2 ... xp] = Xp. Согласно уравнениям системы XT•X•a = XT•y нормальных уравнений Гаусса равенство справедливо для всех j = 0; p, поскольку XT•(y—X•a) = [0]^ и rank(X) = p+1. Вследствие этого равенства Х^е = [0]!+' справедливы для всех k = 0; р.
Утверждение 2. Если в качестве объясняемой переменной использовать одну из объясняющих переменных Xj, где j < k, с числовым коэффициентом a, то вектор Ь = (Ь0, Ь1,..., bk)T, представляющий собой решение соответствующей системы нормальных уравнений Гаусса Xk•Xk•b = X •xja, таков: bj = a; Ь = 0 при 0 < < и j<i < k, т.е. Ь = 0 при i j.
Утверждение 3. Рассмотрим систему алгебраических уравнений
относительно вектора Ь. Заметим, что
Рассматриваемая система принимает вид
ХІ-Х,
•Ь = хт -(5>-х . + е)
,=о
и с учётом утверждений 1 и 2 имеем в качестве решения Ь = (a0, a1,..., ak), т.е. вектор Ь является частью вектора а — состоит из первых k + 1 элементов этого вектора.
Утверждение 4. Формула для вычисления ap определяет значение последнего (с наибольшим номером) коэффициента линейной модели согласно пункту (и) теоремы Себера для частного случая
г = xp.
Утверждение 5. Формула
определяет значение последнего (^го) коэффициента линейной модели для объясняемого вектора
Согласно утверждению 3 этот коэффициент совпадает по значению с искомым коэффициентом ak.
Утверждение 6. Заметим предварительно, что среднее значение V произвольного вектора V равно
т
При этом J„ ■J„ = п. Формула для вычисления a0 получается как результат объяснения остатка
вектора у вектором х0 = J, т.е. это среднее значение вектора ^
Пример практического использования предлагаемых решений
Предлагаемый способ последовательного введения регрессоров без параметрической идентификации был использован, в частности, для решения задачи прогноза значений группы показателей
производственного травматизма, занятости населения, реально располагаемых денежных доходов и заработной платы в РФ. В качестве исходных данных использованы временные ряды Государственного комитета по статистике РФ.
Прогнозируемые показатели для упрощения ссылок пронумерованы следующим образом:
Т1 — «Число пострадавших с утратой трудоспособности на 1 рабочий день и более (в том числе со смертельным исходом), тыс. чел.»;
Т2 — «Число пострадавших со смертельным исходом, чел.»;
Т3 — «Число пострадавших с утратой трудоспособности на 1 рабочий день и более (в том числе со смертельным исходом), в расчете на 1000 работающих»;
Т4 — «Число пострадавших со смертельным исходом в расчете на 1000 работающих»;
Т5 — «Число человеко-дней нетрудоспособности на 1 рабочий день и более, временная нетрудоспособность которых закончилась в отчетном году, в расчете на 1000 человек».
31 — «Численность занятого в экономике населения, млн чел.»;
32 — «Общая численность безработных, млн чел.»;
33 — «Реально располагаемые денежные доходы населения в % к предыдущему году»;
34 — «Номинальная начисленная среднемесячная заработная плата на 1 работника, руб.».
Показатели Т1 — Т5, Э1, Э2, Э4 — являются абсолютными (не относительными) и имеют натуральное выражение; Э3 — цепной годовой индекс, измеряемый в процентах.
Набор факторных переменных состоял из 12 показателей, каждый из которых в процессе предварительного корреляционного анализа учитывался с лагами 0, 1, 2 и 3 года. Таким образом, общее число потенциальных регрессоров составило 48. В результате поиска «лучших» описаний для каждой модели был определен адекватный набор регрессоров. Множество всех адекватных регрессоров финальных моделей включает:
1) ВВП — валовой внутренний продукт в сопоставимых ценах; используется в 5 моделях;
2) ВВП_2 — ВВП с лагом в 2 года; используется в двух моделях;
3) ПотрЦен — индекс потребительских цен; используется в двух моделях;
4) ПотрЦен-2 — ПотрЦен с лагом в 2 года; используется в одной модели;
5) ИнвОК — инвестиции в основной капитал в сопоставимых ценах; используется в трех моделях;
6) ИнвОК2 — ИнвОК с лагом в 2 года; используется в трех моделях;
7) ОПП — объем промышленного производства в сопоставимых ценах; используется в одной модели;
8) ОПП_1 — ОПП с лагом в 1 год; используется в одной модели;
9) ЧисЗан — численность занятого в экономике населения; используется в трех моделях;
10) ЧисЗан_1 — ЧисЗан с лагом в 1 год; используется в одной модели;
11) ЧисЗан_2 — ЧисЗан с лагом в 2 года; используется в одной модели.
В данных Государственного комитета по статистике РФ значения факторных показателей представлены в абсолютном выражении и в виде цепных индексов. В то же время известно, что факторные показатели целесообразно представлять в виде базисных индексов, так как проблемные показатели более коррелированны с базисными индексами, нежели с цепными. Кроме этого, базирование отображает данные в окрестность интервала [0; 100], что приводит к одному порядку значений коэффициентов регрессии.
Исходные статистические данные для показателей производственного травматизма начинаются с 1993 г., данные по социально-экономическим показателям — с 1991 г. Этот факт обусловил то, что в качестве информационной платформы для построения моделей использовались показатели социально-трудовой сферы, начиная с 1993 г. В качестве базы использованы данные за 1991 г. Базисные индексы этого года приняты равными 100 %. Расчёт базисных индексов для ^го года через цепные осуществляется с помощью соотношения:
JAk) = JXKk—1)^jx (^/100,
где Jx (К), jx (К) — соответственно базисный и цепной годовой индексы фактора X.
В качестве сценарных условий для прогнозирования использованы «Основные показатели прогноза социально-экономического развития Российской Федерации до 2011 года» от Минэкономразвития РФ.
Окончательная модель для показателя Т1 является четырехпараметрической с тремя факторами без лагов:
Т1(0 = % + ^ ^ВВИ(0 + ^ ^ИнвОК(0 + a3'JЧисЗан(0,
где ? — номер года, ? > 1993; a0 = -598,11; a1 = -8,94;
a2 = 7,81; a3 = 12,86.
Окончательная модель для показателя Т2 содержит два фактора без лагов:
Т2(0 = а0 + а1'^ВВп(0 + а2'JИнвОК(0,
где ґ — номер года, ґ> 1993; а0 = 12341,26; а1 = -241,06; а2 = 270,71.
Окончательная модель для показателя Т3 содержит также два фактора без лагов:
Т3(0 = а0 + а1'^ИнвОК(0 + a2'JЧис3ан(0,
где ґ — номер года, ґ> 1993; а0 = -15,04; а1 = -0,0653; а2 = 0,257.
Окончательная модель для показателя Т4 имеет три фактора:
Т4(0 = а0 + а1'/ввп(0 + а2'^ОПП(0 + а3* ^Чис3ан(ґ 1^
где ґ — номер года, ґ > 1994; а0 = 0,476; а1 = 0,00776; а2 = -0,00589; а3=0,00567. Индекс численности занятых имеет лаг в 1 год.
Для показателя Т5 финальная модель содержит два фактора:
Т5(0 = а0 + а1'^ИнвОК(?—2) + а2* ^нсЗан^^
где ґ — номер года, ґ > 1995; а0 = 12,24; а1 = -0,089; а2 = 0,212. Индекс инвестиций в основной капитал имеет лаг в 2 года.
Для показателя Э1 модель содержит два фактора без лагов:
Э1(0 = а0 + а1'^ВВП(0 + а2 * ^ПотрЦен(
где ґ — номер года, ґ> 1993; а0 = 49,68; а1 = -0,2748; а2 = -0,0006274.
Для показателя Э2 модель содержит три фактора с лагами в 2 года и 1 год:
Э2(0 = а0 + а1'^ВВП(г—2) + а2‘^ИнвОК(г—2) + а3‘•^ЭПП^-1^
где ґ — номер года, ґ > 1995; а0 = 11,08; а1 = 0,2884; а2 = -0,2589; а3 = -0,2466.
Для показателя Э3 модель содержит три фактора:
Э3(0 = а0 + а1^ВВП(?) + а2^ПотрЦен(0 + ^ЧисЗан^-2^
где t — номер года, t > 1995; a0 = 401,84; ax = 3,63;
a2 = -0,00974; a3 = -5,563. Индекс численности
занятых имеет лаг в 2 года.
Для показателя Э4 модель содержит три фактора с лагами в 2 года:
Э4(0 = a0 + ai'/BBn(t—2) + a2* ^ПотрЦен^ 2) + + a3'JИнвОК(t—2),
где t — номер года, t> 1995; a0 = -2899,9; a1 = 60,554; a2 = 0,51199; a3 = -26,595.
Все полученные модели имеют хорошие показатели качества:
1) они значимы в целом по критерию Фишера на уровне значимости a = 0,01;
2) все коэффициенты отличны от нуля по t-критериям на том же уровне значимости, таким образом, все модели являются приемлемыми по критерию минимальной значимой разности (least significant difference);
3) показатель прогностической силы по Дрейперу и Смиту [5]
всех полученных описаний существенно (в два раза и более) превышает пороговый уровень 4, т.е. модели пригодны для решения задачи прогнозирования.
На основании изложенного можно утверждать, что прогнозы, получаемые по полученным описаниям имеют надежность, совпадающую с надежностью сценарных условий. Наиболее существенная качественная особенность полученных результатов прогноза состоит в следующем:
1) для показателей социально-экономического развития РФ Э1, Э3, Э4 полученные прогнозные значения количественно и качественно близки к прогнозу Минэкономразвития России, что свидетельствует о том, что оба прогноза отражают одни и те же взаимосвязи между показателями и факторами;
2) для показателя Э2 («Общая численность безработных, млн чел.»); полученные прогнозные значения существенно превышают прогноз Минэкономразвития России, что свидетельствует о том, что Минэкономразвития при прогнозировании этого показателя использовал не взаимосвязи между «первичными» и «вторичными» показателями, а некоторые экспертные рассуждения.
Выводы
Научными результатами, представленным в настоящей статье, являются рекуррентные методы вычисления:
1) проекционной матрицы Р, порождающей вектор значений линейной модели без оценки её параметров;
2) вектора параметров линейной модели без использования операции обращения матрицы объясняющих переменных.
Прикладное значение метода вычисления проекционной матрицы состоит в том, что на его основе создан алгоритм предназначенный для использования в процедурах поиска наилучшего состава регрессоров MLR-модели в заданном множестве потенциальных аргументов х1, х2,..., хр, ориентированной на решение задачи прогнозирования. На первом этапе этих процедур отыскиваются регрессии лучшие по RSS — остаточной сумме квадратов с одним, двумя, тремя и так далее р регрес-
сорами. При этом не требуется параметрическая идентификация модели. Затем среди найденных моделей находится наиболее устойчивое описание, прогнозирующие способности которой наиболее существенны.
Использование предложенного алгоритма на первом этапе процедуры поиска наилучшей модели в некоторых случаях позволяет сократить время и повысить точность вычислений. Указанные эффекты достигаются за счёт увеличения используемых объёмов оперативной памяти.
Предложенный в настоящей статье алгоритм вычисления параметров линейной модели без использования операции обращения матрицы объясняющих переменных представляет, видимо, чисто теоретический интерес, однако, можно утверждать, что изложенные материалы в своей совокупности позволяют исследователям глубже проникнуть в тонкости процедур оценки параметров линейной модели и расширяют арсенал средств аналитиков-практиков. ■
Литература
1. Cochran W.G. The omission or addition an independent variable in multiple linear regression // J. R. Stat. Soc. Suppl., № 5, pp. 171-176.
2. Quenouille M.H. An application of least squares to family diet surveys // Econometrica, № 18, pp. 27-44.
3. Seber G.A.F. Linear regression analysis. Wiley: New York, London, Sydney and Toronto. 1977.
4. Себер Дж. Линейный регрессионный анализ: Пер с англ. М.: Мир, 1980. 456 с.
5. Дрейпер Н., Смит Г. Прикладной регрессионный анализ: в 2-х кн. Кн.1: Пер. с англ. М.: Финансы и статистика, 1986. 366 с.