УДК 621.391
И. В. Гетманская
ФОРМУЛА ОЦЕНИВАНИЯ РЕГРЕССИОННОГО КОЭФФИЦИЕНТА НЕЛИНЕЙНОЙ ПАРНОЙ РЕГРЕССИИ С ИСПОЛЬЗОВАНИЕМ ВЕСОВОЙ ФУНКЦИИ
Рассмотрена возможность точечного оценивания регрессионного коэффициента нелинейной регрессии с использованием рекуррентной формулы, построенной с помощью весовой функции. Приведены результаты вычислительного эксперимента оценивания существенно нелинейной регрессии предлагаемым методом в сравнении с оцениванием методом, программно реализованным в компьютерной системе математических символьных вычислений Maple 7, и методом наименьших квадратов.
В естественнонаучных и технических дисциплинах достаточно часто используются нелинейные по параметрам в = (в1; в2,...,вр) формулы типа у = r(x, в) — формулы нелинейной регрессии. По результатам наблюдений значений x и y построение формул сводится к минимизации функционала, зависящего как от значений x и у, так и от вида зависимости у = r(x, в), определенной с точностью до неизвестных параметров в — регрессионных коэффициентов.
Несмотря на то, что задача оценивания регрессионных коэффициентов нелинейной регрессии значительно сложнее, чем линейной, на практике использование методов линеаризации модели для упрощения задачи часто приносит больше потерь, чем выгод [1].
В настоящей работе предлагается рекуррентная формула для оценивания однопараметрической однофакторной нелинейной относительно параметра регрессии. Построена формула на основании весовой функции, что позволяет использовать любой вид минимизируемого функционала.
В приведенном примере оценивание выполнено в трех вариантах, отличающихся видом минимизируемого функционала: медианное оценивание, оценивание по методу наименьших квадратов и с использованием оценок, принадлежащих семейству оценок Мешалкина.
Как в формулах оценивания, так и в начальном приближении используются значения регрессионного коэффициента, реализующие функцию регрессии в наблюдаемых значениях x и у. Такой подход позволяет решать проблему единственности решения задачи на начальном этапе ее решения и гарантирует лучшую сходимость к истинному значению неизвестного параметра.
В заключение приведены результаты вычислительного эксперимента по оцениванию с использованием предлагаемой формулы параметра существенно нелинейной регрессии, Для сравнения было проведено оценивание с помощью программы, реализующей регрессионный анализ в системе Maple, а также программы, реализующей общий метод наименьших квадратов.
Постановка задачи. Пусть имеются n пар наблюдений (xi,yi), i = 1,n, значений функции отклика у, полученных при соответствующих значениях объясняющей переменной (предиктора, фактора) xi. Будем называть эти значения исходными данными. Пусть существует зависимость
Y = r (X, в) Е Y с R; (1)
здесь X е н с R — независимая переменная; r(-, •) — функция регрессии известного вида, определенная с точностью до подлежащего оценке регрессионного коэффициента в Е в с R. Объясняющая переменная ж и отклик у — это независимая переменная X и зависимая переменная Y с учетом погрешностей 8 и г:
ж = X + 8, у = Y + г, (2)
где 8 и г — случайные величины с начальными моментами Ег = 0, Е8 = 0, Ег2 := а\, Е82 := По имеющимся независимым наблюдениям (жi,yi), i = 1,n, необходимо найти оценку в регрессионного коэффициента в.
Минимально контрастная регрессия. В условиях поставленной задачи минимально контрастная оценка в регрессионного коэффициента в минимизирует следующую сумму:
m0in p(Xi, y' в)=p(Xi, y' в)
Далее будем называть эту сумму минимизируемым функционалом, Непрерывную и дифференцируемую почти везде функцию минимума контраста р(хг, уг, в) при в = в запишем в виде
р(хг, Уг, в) = р(ёг),
где Ег = уг — т(хг, в). Действительно, на основании зависимости (1) имеем Уг ^ т(хг, в), а на основании выражений (2) имеем Ег = уг — Уг. Тогда
Ег ^ Е = уг — т{хг, в).
В оценочном уравнении
(Xi,yi, в) = о
оценочная функция ф(х, у, в), определенная с точностью до не зависящего от х и у множителя с = с(в) = 0, получена в результате дифференцирования функции минимума контраста р(x^, у^, в) по параметру в:
*, S) = *(S,) = ) Sp№)
дв д^ дв
Например, в традиционном методе наименьших квадратов функция минимума контраста имеет вид
) = (ё»)2 •
Оценочной функцией в этом случае является функция
„дт(хн, в)
ф ) = £{-^--,
^ дв
и оценка, полученная с ее помощью, называется оценкой с помощью метода наименьших квадратов (ОНК).
Минимизацией функции минимума контраста
p(гi) = N
можно получить медианную оценку (МО), оценочная функция которой имеет вид
ф(£^ = в1§П(£Г I) --•
дв
Функция минимума контраста для семейства оценок Мешалкина (СОМ) имеет следующий вид:
Л = _ е-А(е1)2/2
P(si) =
Тогда оценочная функция приобретает вид
* (s i) = s, e
= .e-A(e-i)2/2 дв)
дв
Полученная при этом оценка принадлежит СОМ.
Чтобы получить итерационное уравнение для параметров распределения случайных величин, а также чтобы наглядно представить различие оценочных функций [2], используют так называемую весовую функцию, Построим аналогичную весовую функцию для оценки регрессионных коэффициентов.
Очевидно, что оценочное уравнение является неявной функцией относительно оценки в регрессионного коэффициента.
Рис. 1. Весовые функции регрессий:
1 — весовая функция ОНК (£(е) = 1); 2 — весовая функция МО (£(е) = 8щп(е)/е); 3 — весовая функция СОМ (£(е) = е-Аг2/2 при Л =1)
Весовая функция регрессии. Весовая функция связана с оценочной функцией равенством £(ё) = ё-1 ф(ё). Построим графики весовых функций регрессии, с точностью до дг(х, в) /дв соответствующих оценочным функциям ф (ё) = ё, ф(ё) = sign(ё), ф(ё) = ёв-Ае /2, которые, в свою очередь, соответствуют минимально контрастным ОНК, МО и СОМ.
Предположим, что частная производная дг(х, в)/дв существует в области К х О определения функции г (х, в) и ограничена. Весовая функция ОНК имеет вид £(ё ) = 1 (кривая 1 на рис. 1), в этом случае все наблюдения имеют равные веса. Весовая функция МО имеет вид £(ё) = sign(ё) /ё (кривая 2), в этом случае наблюдения с большими отклонениями имеют малые веса, а веса наблюдений с малыми отклонениями неограниченно возрастают. Анализ кривой 3 на рис. 1, соответствующей весовой функции СОМ £ (ё) = в-Ае /2 при Л = 1, позволяет сделать вывод о том, что наблюдения с большими отклонениями имеют веса меньшие, чем в случае весовой функции МО, а веса наблюдений с малыми отклонениями приближаются к единице. Таким образом, при малых отклонениях наблюдений значения, полученные с помощью весовой функции СОМ, приближаются к значениям, полученным с помощью весовой функции ОНК, а при больших отклонениях — к полученным с помощью весовой функции МО с усилением или ослаблением свойств МО в зависимости от значений параметра Л.
Рекуррентная формула оценивания регрессионного коэффици-
о 0 0 о
ента. Обозначим в = (в1, в2,..., вга) значения регрессионного коэффициента, реализующего функцию регрессии У = г(Х, в) в точках
(хг,уг), % = 1 , п. Получить значения вг можно, решив систему урав-
о __о
нений уг = г(хг, вг), % = 1,п, относительно вг. Отметим, что в общем случае решение каждого из уравнений этой системы не является единственным. На практике получить единственное решение можно, сузив
о
область возможных значений вг, исходя из условий конкретной задачи [3]. Пусть
О n 0
ö:= n-^ в,
i=1
О
— среднее значение ряда в,
21
n / V
Е(в<- в"
,=1
— дисперсия этого ряда.
Запишем с помощью весовой функции оценочное уравнение
X ф (г) = X = X г с & ) = 0. (3)
Выразим г » через в — в», разложив функцию г(х», в) в ряд Тейлора
о
в окрестности точки в» е в с точностью до бесконечно малой вели-
о
чины о(А,(в)), где Аг(в) = в — в»• Предположим, что в окрестности
о
точки (х», в») екх в производная г0 (х», в) = дг(х», в)/дв существует, непрерывна и ограничена. Тогда
г(х», в) = г(х, вг) + А»(в) г'в(хг, в) ◦ + о(А»(в)), V / 0=0^
г^ж,, в ^ = г^ж,, в+ в^ r0(ж,,
в=вг
+ о( Д,( 0
где А» ^в ^ = в — в». Подставим г(х», в) в формулу для г». В результате получим
_ о _
г» = у» — г(х», в) = г(х», в») — г(х», в) =
= — А» (ё)г0 (х», в) ◦ — О А» (в~)).
в=вi
Таким образом, оценочное уравнение (3) с точностью до бесконечно малой величины ^^ о(А»(примет следующий вид:
ХД, ( (ж,
е (s,) = 0,
(4)
в=вг
откуда оценка регрессионного коэффициента в с точностью до величи-
ны
£0( Дг( ¿¡))т)
i
Ere (xi> fa) £ (^i)
определяется формулой
X—"> о / о е
2^вгГ0, (хг, вг) £(ёг) в = ~--^-. (5)
(хг, вг) £ (ёг)
г
Для увеличения точности формулы (5) необходимо повысить порядок малости к бесконечно малой величины о(Дк(в)), являющейся остаточным членом разложения регрессии по формуле Тейлора. При этом формула оценивания, зависящая от производных до к-го порядка включительно, будет иметь более сложный вид.
Правая часть формулы (5) зависит от в . Действительно,
(в - r, (Xi, в)
в=вг
Необходимо ответить на вопрос: какое значение оценки в выбрать в качестве начального приближения?
Начальное приближение оценки регрессионного коэффициента. В качестве начального приближения оценки в, от которого зависит правая часть рекуррентной формулы (5), можно выбрать значение
о
вг для любого i или значение числовой характеристики положения ряда
о °
в, в том числе значение в. С большой долей вероятности можно полагать, что эти приближения принадлежат области, соответствующей глобальному минимуму минимизируемого функционала.
Отметим, что данные начальные приближения могут служить оценками регрессионного коэффициента.
Вычислительный эксперимент оценивания регрессионного коэффициента нелинейной парной регрессии. Вычислительный эксперимент проводился в компьютерной системе математических символьных вычислений Maple в операционной системе Windows.
Модель значений отклика и предиктора строилась по формуле (2). Функциями регрессии являлись функции, принадлежащие классу существенно нелинейных функций вида
r(X, в) = eX30-2, (6)
r(X, в)=ех30-2 ch(0-1), (7)
где C = 10/max r(-, в), К = (a, b). Область К зависела от значения в и
задавалась таким образом, чтобы функция регрессии проявляла или не проявляла существенную нелинейность. В достаточно узком интервале (a, b) функция регрессии становится гладкой. Моделирование погрешностей S и £ предиктора и отклика осуществлялось программой random статистического пакета Stats системы Maple.
Погрешности S и £ строились как выборки объема n композиций двух случайных величин: S = + £ = £1 + £2. Составляющие ^ и £1 генерировались по законам нормального распределения с начальными моментами E£1 = 0, E^ = 0, E£2 = of, E^2 = of, где
=
max r(-, 0) — min r(-, 0)
к 4 7 к 4 '
20
=
b — a 20k '
k = 1, 2.
Составляющие £2 и г2 генерировались либо равномерно распределенными случайными величинами на интервале (0, ) для г2 и на интервале (0, а2/к), к = 1, 2, для , либо как случайные величины показательного распределения с параметрами 2/стх для г2 и 3/ст2 для Один из результатов такого моделирования представлен на рис. 2.
На рис. 3 приведены зависимости значений относительной погрешности |в — вк| /в оцениваемого параметра от номера итерации к. Здесь
Рис. 2. Модель регрессионной зависимости У = г(Х, в) вида (6); о — точки с координатами (хг, уг), хг = Xг + ёг,
Уг = г(Х*, в) + £*
Рис. 3. Зависимость относительной погрешности |в — вк | /в оценки параметра в от номера итерации к до изменения условия конца итерации для случаев использования весовых функций МО (1), ОНК (2), СОМ (3)
в — истинное значение параметра в, которое в вычислительном эксперименте является заданной величиной, а вк — оценка параметра в после k-й итерации, полученная по формуле (5). Подобранное значение параметра Л весовой функции СОМ соответствовало лучшим результатам оценивания, при этом весовая функция строилась на основании функции минимума контраста р(ег) = — e-x(si) /2°"2 [2] как оптимальной минимаксной оценки для полиномиальной регрессии.
Условием конца итерации являлось малое отличие значений оценок параметра на соседних шагах итерации: |вк — вк_11 6 10-5.
На рис. 3, 4 продемонстрированы отдельные результаты оценивания. Из этих рисунков видно, что результатом процесса итерации не является лучшая оценка. Для того, чтобы лучшая оценка была достигнута с использованием данного алгоритма, необходимо изменить условие конца итерации.
Условие конца итерации, приводящее к оптимальной для данного алгоритма оценке. Из рис. 4 видно, что существует связь между точностью оценки и значениями минимизируемого функционала. Выбор оптимальной для данного алгоритма оценки необходимо связать с анализом поведения минимизируемого функционала на всех шагах итерации. Начало неубывания для функционала является началом или близко к началу увеличения отклонения оценки от истинного значения.
Алгоритм был откорректирован следующим образом. Признаком конца итерационного процесса выбрано начало неубывания минимизируемого функционала или достаточное приближение его к нулю. При этом каждому функционалу соответствовал свой нуль — отброшенная после разложения в ряд оценочной функции в оценочном уравнении (4) бесконечно малая величина
X о(Аг (в))^ (ё,),
г
где о(Дг(в )) — остаточный член разложения регрессии по формуле Тейлора в форме Пеано, выраженный в форме Коши.
На рис. 5 приведены графики зависимостей относительной погрешности оценивания регрессионного коэффициента в от номера итерации с использованием откорректированного алгоритма.
Сравнение результатов оценивания, полученных согласно формуле (5), с использованием программы fit и методом наименьших квадратов. В системе Maple 7 регрессионный анализ реализует программа fit пакета StatGraphics. Эта программа осуществляет приближение регрессий, в том числе нелинейных. Однако класс аппроксимируемых программой функций ограничен функциями, линейными по па-
\
V 1 \
г \
О 5 10 к
Рис. 4. Зависимость значений функционала (1) и относительной погрешности (2) для случая использования весовой функции МО
] \\ч J г
\\
\
0,5 1 1,5 к
Рис. 5. Зависимость относительной погрешности \ 6 — \ /6 оценки параметра 6 от номера итерации к после изменения условия конца итерации для случаев использования весовых функций МО (1), ОНК (2) СОМ (3)
раметрам. Вследствие этого предлагаемый в настоящей работе метод имеет преимущества перед существующим методом, программно обеспеченным в системе Maple 7, для класса парных нелинейных по параметру регрессий.
Чтобы осуществить сравнение рассмотренных результатов с результатами оценивания, полученными с использованием программы fit, линеаризуем функцию регрессии (6) методом логарифмирования:
ln(Y) = ln(C) + X3 в-2.
Введем обозначения Z := ln(Y), в := в-2. В результате получим линейную по параметру в модель Z = ln(C) + вХ3. Исходными данными для программы fit являются точки (xi5 z), i = 1,n, где z = ln(y^). Получим параметр в как результат аппроксимации: в = Z(l) — ln(C).
Тогда оценка в искомого регрессионного коэффициента будет равна
в = l/Vfr
В табл. 1 приведены результаты оценивания по формуле (5) (столбцы eMO, eOHK, eCOM) и с использованием программы fit (столбец в), из которых видно (см. строки 1-11), что оценки, полученные предлагаемым в настоящей работе методом, точнее в 2-50 раз по сравнению с оценками, полученными методом, программно обеспеченным в системе Maple 7, применять который можно в случае линеаризации регрессионной модели.
№ в М) n N <У\ Ö2 Ö3 О в вмо вонк eCOM 0
1 0,1 (1; 2) 6 3 0,4707 0,0136 0,0277 0,0740 0,1001 0,1001 0,1001 0,0826
2 0,1 (1; 2) 6 3 0,5946 0,0695 0,0270 0,0635 0,1005 0,1005 0,1005 0,0807
3 0,1 (1; 2,5) 7 3 0,4123 0,0602 0,0189 0,0720 0,0969 0,0969 0,0969 0,0800
4 1 (1; 2,5) 7 4 0,6492 0,0497 0,1961 0,7611 1,0608 1,0608 1,0608 0,9138
5 1 (1; 2) 6 6 0,3898 0,0261 0,1855 0,8192 0,9749 0,9713 0,9710 0,9459
6 1 (1; 2) 5 4 0,2660 0,0317 0,2254 0,8671 1,0116 1,0112 1,0112 0,9714
7 1 (1;3) 7 3 0,3679 0,0948 0,2564 0,6886 0,9306 0,9306 0,9306 0,8155
8 3 (1; 3,5) 7 5 0,4563 0,0919 0,5840 2,5770 2,9702 2,9691 2,9684 2,9163
9 3 (1,5; 5) 7 3 0,3149 0,1415 0,6317 2,1174 2,7415 2,7415 2,7416 2,6175
10 3 (2; 5) 7 5 0,4807 0,1812 0,6352 2,0953 2,9099 2,9099 2,9100 2,5661
11 3 (2,5; 6) 6 4 0,5769 0,1942 0,3572 2,3525 2,8699 2,8699 2,8699 2,4422
12 3 (1;2,5) 5 4 0,4375 0,0129 0,7342 2,7304 2,7727 2,9924 3,0373 3,0165
13 1 (1; 1,5) 5 5 0,6184 0,0208 0,2497 1,0622 1,0045 1,0025 1,0028 1,0088
14 1 (1;1,5) 6 6 0,3420 0,0132 0,0619 0,9844 0,9966 1,0099 1,0169 0,9999
15 0,1 (0,1; 0,4) 6 6 0,5991 0,0051 0,0338 0,0673 0,1031 0,1031 0,1031 0,0994
Регрессионная модель вида (7), по сути, является суммой двух экспоненциальных функций:
r(X, в) = C (eX30-2+0-1 + eX30-2-0-1 )/2,
которую нельзя линеаризовать методом логарифмирования, как модель вида (6). Поэтому для сравнения проведем оценивание параметра в традиционным методом наименьших квадратов (ТНК), реализованным с помощью алгоритма, в котором корень неявного относительно неизвестного параметра в оценочного уравнения
Е (Vi - r(xi, в))^^Хвт1 = 0 (8)
i=1
является оценкой, полученной методом наименьших квадратов (вТНк). Корень определялся численным методом половинного деления.
Результаты оценивания параметра в для регрессионной модели вида (7) по формуле (5) и с использованием ТНК приведены в табл. 2. Прочерки в столбце втнк означают, что уравнение (8) в области в предполагаемых значений параметра в, в = (в — в/m; в + в/m), m Е [1; 10], корней не имеет.
№ в (а, b) n N <У\ Ö2 Ö3 О в вмо eOHK eCOM вТНК
1 3 (2,5; 6) 6 3 0,4494 0,1680 1,0026 1,7427 3,1585 3,1585 3,1585 -
2 3 (1;5) 8 5 0,3210 0,1823 0,8011 2,1287 2,9938 2,9937 2,9938 2,9195
3 3 (1;4) 6 5 0,3149 0,2030 1,2600 2,2021 2,2021 2,7580 2,7548 3,6622
4 0,3 (1;2) 6 3 0,3017 0,0662 0,0933 0,1922 0,3222 0,3222 0,3222 -
5 0,3 (1; 1,5) 6 4 0,4692 0,0382 0,0369 0,2400 0,2900 0,2900 0,2900 -
6 0,1 (1; 1,5) 6 4 0,5260 0,0196 0,0171 0,0749 0,0989 0,0989 0,0989 -
7 1 (1;2) 6 5 0,2117 0,0282 0,2447 0,8918 1,0060 1,0072 1,0075 0,9738
8 1 (1;3) 6 3 0,4920 0,0278 0,0342 0,6993 1,0002 1,0002 1,0002 0,8773
9 1 (1;2) 6 4 0,6092 0,0732 0,1963 0,7906 0,9983 0,9981 0,9983 0,9657
10 2 (1;4) 6 4 0,4722 0,1027 0,5492 1,4372 2,0925 2,0925 2,0925 1,6221
11 2 (1;4) 7 4 0,3837 0,2458 0,6817 1,3243 2,3731 2,3731 2,3731 3,7413
12 2 (1;4,5) 8 4 0,4708 0,3347 0,5639 0,9438 1,7598 1,7598 1,7598 -
13 3 (1;3) 6 6 0,4180 0,0477 0,7368 2,7503 2,9137 2,9024 2,8950 3,0926
14 1 (1,4; 2) 6 6 0,5061 0,2291 0,1174 0,9526 1,0196 1,0235 1,0243 0,9932
15 0,1 (0,1; 0,4) 6 4 0,4929 0,0026 0,0116 0,0878 0,0995 0,0996 0,0996 0,0992
16 0,1 (0,1; 0,3) 6 6 0,1667 0,0034 0,0012 0,0998 0,1000 0,1009 0,1010 0,1000
17 0,1 (0,1; 0,3) 5 4 1,3264 0,0088 0,0013 0,1023 0,1018 0,1006 0,1005 0,1032
Из табл. 2 видно (см. строки 1-12), что оценка по формуле (5) имеет преимущества перед оценкой с использованием ТНК: точность первой превосходит в десятки, а иногда и в сотни раз точность второй.
о
В табл. 1 и 2 столбец N соответствует числу значений 6^, чаще всего не совпадающему с числом п исходных данных. Связано это с тем, что для регрессий вида (6), (7) в условиях проявления их существен-
о
ной нелинейности уравнения y^ = т(хг, (9), г = 1,п, не всегда имеют корни в области в предполагаемых значений параметра 6. Это можно использовать в качестве фильтра, отбрасывающего исходные данные, не реализуемые рассматриваемой регрессионной моделью. Как видно из результатов оценивания (см. табл. 1, 2), потеря исходных данных (до N = 3) в предлагаемом методе не делает оценку хуже, чем в традиционных методах, в которых используется полный набор исходных данных, Отметим, что метод имеет явные преимущества для существенно нелинейных моделей регрессий. Функции регрессии вида (6), (7) становятся гладкими в достаточно узкой области (а, Ь) задания. В этом случае точность оценивания по формуле (5) превосходит или не превосхо-
дит в незначительной степени точность оценивания с использованием программы fit (см. строки 12-15 табл. 1) и точности оценивания с использованием ТНК (см. строки 13-17 табл. 2).
Выводы. 1. Предложенная рекуррентная формула оценивания регрессионного коэффициента парной регрессии выражена через весовую функцию, которая зависит от оценочной функции. Это позволяет производить точечную оценку регрессионного коэффициента для любого вида оценочной функции, а значит, можно считать эту формулу в некотором смысле обобщенной.
2. Как в формулах, так и в начальном приближении оценивания регрессионного коэффициента используются значения регрессионного коэффициента, реализующие функцию регрессии в наблюдаемых значениях отклика и объясняющей переменной. Такой подход позволяет не рассматривать проблему единственности решения задачи при минимизации функционала. При этом, однако, необходимо решить проблему единственности задачи нахождения начального приближения. Последняя сводится к нахождению корней нелинейного уравнения и является менее сложной задачей, чем нахождение экстремального значения функционала. Будем иметь в виду, что на практике единственность решения этих задач гарантирует знание интервала возможных значений параметра регрессии. Преимущество предложенного подхода заключается еще и в том, что вопрос единственности решения задачи переносится на более ранний, а вернее, начальный этап задачи оценивания параметра регрессии.
3. Начальное приближение, полученное через реализацию исходных данных, также является оценкой регрессионного коэффициента. Предлагаемая рекуррентная формула при некоторых условиях делает ее более точной.
4. В методе оценивания регрессионного коэффициента, предложенном в настоящей работе, не используются законы распределения погрешностей. Известно, что даже малые ошибки в предположении о виде распределения приводят к значительным ошибкам в оценках характеристик наблюдаемых явлений [2]. На практике отклонение распределения случайных величин от модельного неизбежны. Независимость от предположений о законах распределения случайных величин освобождает от ошибок подобного рода.
5. Предложенный в настоящей работе метод оценивания параметра существенно нелинейных моделей однопараметрических однофактор-ных регрессий дает более точные результаты, чем общий метод наименьших квадратов и чем метод, программно обеспеченный в системе Maple, применить который можно в случае линеаризации регрессионной модели по параметру.
СПИСОК ЛИТЕРАТУРЫ
1. Ермаков С. М., Жиглявский А. А. Математическая теория оптимального эксперимента. - М.: Наука, 1987. - 319 с.
2. Шурыгин А. М. Прикладная стохастика, робастность, оценивание, прогноз. - М.: Финансы и статистика, 2000. - 224 с.
3. Грешилов А. А. Математические методы построения прогнозов. - М.: Радио и связь, 1997.- 112 с.
Статья поступила в редакцию 10.03.2004
Ирина Васильевна Гетманская родилась в 1956 г., окончила в 1978 г. Казахский государственный университет им. С.М. Кирова. Старший преподаватель кафедры "Высшая математика" Калужского филиала МГТУ им. Н.Э. Баумана. Автор 3 научных работ в области математической физики и прикладной статистики.
I.V. Getmanskaya (b. 1956) graduated from the Kazakh State University n.a. S.M. Kirov in 1978. Senior teacher of "Higher Mathematics" department of the Bauman Moscow State Technical University. Author of 3 publications in the field of mathematical physics and applied statistics.
ЖУРНАЛ "ВЕСТНИК МОСКОВСКОГО ГОСУДАРСТВЕННОГО ТЕХНИЧЕСКОГО УНИВЕРСИТЕТА имени Н.Э. БАУМАНА"
В журнале публикуются наиболее значимые результаты фундаментальных и прикладных исследований и совместных разработок, выполненных в МГТУ имени Н.Э. Баумана и других научных и промышленных организациях.
Журнал "Вестник МГТУ имени Н.Э. Баумана" в соответствии с постановлением Высшей аттестационной комиссии Министерства образования Российской Федерации включен в перечень периодических и научно-технических изданий, в которых рекомендуется публикация основных результатов диссертаций на соискание ученой степени доктора наук.
Журнал издается в трех сериях: "Приборостроение", "Машиностроение", "Естественные науки" — с периодичностью 12 номеров в год.
Подписка по каталогу 'Тазеты, журналы" агентства "Роспечать"
Индекс Наименование серии Объем выпуска Подписная цена (руб.)
Полугодие 3 мес. 6 мес.
72781 "Машиностроение" 2 150 300
72783 "Приборостроение" 2 150 300
79982 "Естественные науки" 2 150 300
Адрес редакции журнала "Вестник МГТУ имени Н.Э. Баумана": 105005, Москва, ул.
2-я Бауманская, д. 5.
Тел.: (095) 263-62-60; 263-60-45.
Факс: (095) 265-42-98; 263-67-07.
E-mail: [email protected], [email protected]