Г. М. Кошкин, В. А. Симахин и др. ; Тос. гос. ун-т. Томск, 1974.
3. Шуленин В. П. Введение в робастную статистику / Тос. гос. ун-т. Томск, 1993.
4. Воинов В. Г., Никулин М. С. Несмещенные оценки и их применения. М. : Наука, 1989.
5. Шурыгин А. М. Прикладная статистика. Робастность. Оценивание. Прогноз. М. : Финансы и статистика, 2000.
6. Beran R. An efficient and robust adaptive estimator of location // Ann. Stat. 1978. Vol. 6, № 2. P. 292-313.
7. Симахин В. А. Непараметрическая статистика.
Ч. II. Теория оценок / Курган. гос. ун-т. Курган, 2004.
8. Симахин В. А. Взвешенный метод максимального правдоподобия // Высокие технологии XXI века : материалы IX Междунар. науч.-техн. конф. : в 2 т. Т. 2. Воронеж, 2008. С. 661-672.
9. Васильев В. А., Добровидов А. В., Кошкин Г. М. Непараметрическое оценивание функционалов от распределений стационарных последовательностей. М. : Наука, 2004.
V. А. Simakhin
ROBUST NONPARAMETRIC ESTIMATION OF LINEAR FUNCTIONALS
Robust nonparametric algorithms for estimation of linear functionals on the basis of weighted maximum likelihood method is considered in the article.
Keywords: robust, nonparametric, linear functional.
© CnMaxHH B. A., 2010
УДК 62-506.1
Н. А. Сергеева, Е. С. Терентьева
О НЕПАРАМЕТРИЧЕСКИХ ОЦЕНКАХ ФУНКЦИИ РЕГРЕССИИ И ЕЕ ПРОИЗВОДНЫХ ПРИ НАЛИЧИИ ПРОПУСКОВ ДАННЫХ
Рассмотрены непараметрические методы оценивания регрессии и ее производных по выборкам случайных величин с некоторыми особенностями при их измерении. Представлен бутстреп-метод, применяемый для решения задачи заполнения пропусков в неполных данных или устранения пустот в пространстве наблюдений.
Ключевые слова: непараметрическая оценка регрессии, H-аппроксимация, бутстреп-метод, непараметрическая оценка производной функции регрессии, сходимость оценок.
Проблема моделирования дискретно-непрерывных процессов является одной из центральных в кибернетике. Определяющее значение при постановке задачи идентификации имеет математическая постановка, соответствующая различным априорным предпосылкам. Априорные сведения о процессе, по существу, определяют подход к задаче идентификации.
Ниже мы остановимся на задаче идентификации и связанной с ней задаче оценивания соответствующих вероятностных характеристик в условиях непараметрической неопределенности. В отличие от ставшего традиционным параметрического подхода к решению задачи идентификации в дальнейшем нам понадобятся некоторые качественные свойства поведения исследуемого процесса. Одним из главных этапов на пути решения этой задачи является оценивание регрессионных характеристик входных-выходных переменных процесса.
Непараметрический уровень априорной информации не предполагает наличия этапа выбора параметрической структуры модели, но требует некоторых сведений качественного характера о процессе, например от однозначности или неоднозначности его ха-
рактеристик, линейности для динамических процессов или характере нелинейности. При идентификации линейных динамических объектов мы сталкиваемся с необходимостью оценивания производной функции регрессии. Это связано с оценкой весовой функции линейной системы по измерениям функции переходной характеристики последней. Непараметрическая модель в этом случае представляет собой оценку интеграла Дюамеля.
Существенная особенность данного исследования состоит в предположении, что исходные выборки содержат пропуски данных при контроле входных-выходных переменных объекта. Это приводит к необходимости построения модифицированных непараметрических оценок функции регрессии и ее производных.
Пусть имеется неравномерная выборка статистически независимых наблюдений (иі, xi), і = 1,5, входных и выходных переменных системы объемом 5. Здесь иі - значение вектора наблюдений входных воздействий размерности т в і-й точке выборки, а хі -значение выходного воздействия в этой точке. Требу-
ется построить непараметрическую модель объекта и восстановить производную первого порядка стохастической зависимости х(и) по имеющейся выборке наблюдений.
На начальном этапе восстановления х(и) Ух е 0(х) принимается статистика [1]:
х(и) = Е х. ПФ
І=1 к=1
(„к Л
с:
ЕПф
1=1 к=1
кк
ск
V 5 у
I" Ф2(2^2 <ОТ, ІІт — -Ф J С
с.
= 5(и^ - ti),
С, > 0, Ііт С, = 0, Ііт 5 - С,т = с».
[2]:
. (и)=кСт Е х* П н
ЛСк і=і і=і
і * і Л
иу - и/
V к у
1 к т / .
1 Х-' 1—Г ^ И _ И
— Е Пф кст /-її і
Л6к і=1 і=1
= const Уи є О(и).
Можно показать, что
кт
—ЕП н
т
ко'
■к і=1 і=1
= 1 У и єО(и).
(5)
(1)
К классу функций Н(2) и Ф(2) относятся, например, гауссова кривая и функция Соболева.
В качестве оценки производной регрессии предлагается взять аппроксимацию, построенную на рабочей равномерной выборке, в виде [3]:
где Ф(2) - колоколообразная функция, удовлетворяющая следующим условиям [1]:
Ф(2) <ГО, У 2 еП(г), | Ф(2^2 = 1,
(2)
кт
Хк (и)=к-т Е х* П н (/)
КСк і=1 і=1
/ і * і Л иу - и/
V к У
(6)
здесь 5 (и1 - ^) - дельта-функция Дирака, 2 - аргументы колоколообразной функции.
Параметр размытости С5 должен удовлетворять условиям [1]:
(3)
где а = (а1,...,ат), а. = {0,1}, і = 1,т, если а. = 1, то
по переменной и1 берется производная первого порядка, если а = 0, то производная нулевого порядка;
Н(/)(2) - функция, удовлетворяющая интегральным условиям, сформулированным ниже.
Если и - скалярная величина, т. е. т = 1, то оценка первой производной регрессии (6) при а = 1 является асимптотически несмещенной и состоятельной при выполнении следующих условий:
| Н(l)(2)d2 = 0, Ок | 2Н(/)(2)d2 = -1,
На следующем этапе строится Н-аппроксимация
| Н(//) (2^2 < <Х>.
(7)
(4)
где {(и*,х*)} - рабочая равномерная выборка объемом k < 5; с*т —— 0; — да; Уj = 1,...,т. Тогда
1 ( и1 — ti Л
—НI----------I — 5(иу — ti) с ростом ^ где Н (2) - ко-
ск I с* )
локолообразная функция, отличающаяся от Ф(2) на множитель, равный константе
Техника доказательства основывается на результатах [3].
Заметим, что обозначенные выше условия сужают класс функций, которые могли бы применяться в случае восстановления кривой регрессии. В частности,
гауссова кривая Н(2) =------ (рис. 1, а) имеет произ-
2л
водную Н '(2) (рис. 1, б), которая сложна с вычислительной точки зрения, однако ее можно заменить кусочно-постоянным аналогом Н<7> (2) (рис. 1, в). Отметим, что время вычисления Н<7> (2) в 1,3 раза меньше, чем Н '(2).
и -и
о
к
х
Рис. 1
Для выбора оптимального параметра размытости введем меру отклонения оценки (6) от истинной производной:
W(ск) = | (Вх(и) — Вахк(и))2du, (8)
О(и )
где О(и) - область сравнения. Тогда критерий оптимальности будет иметь вид
W (ск) — min,
(9)
где 0-(ск) = (0, +да). Но при практическом применении данный критерий невозможно использовать, так как Вах(и) неизвестна.
Преобразуем (9), используя формулу интегрирования по частям и тем самым понижая порядок производной. Тогда критерий оптимальности приобретет следующий вид:
I(ск) = | (ВаХк(и))2du —
О (и)
— 2 | Хк (и)ВаХк (и)|о и du_ +
(10)
О (и )
+ 2 [ хк(и)Ва+ хк(u)du — min,
с,.
где
О(и)
и~ = (м1,...,и.—1,и1+1,...,ит), здесь 1 такое, что
оценки кривой регрессии. На следующем шаге определяется оптимальный параметр размытости с\ для оценки производной кривой регрессии первого порядка по какой-либо переменной. Критерий оптимальности на этом шаге имеет вид (10) при Х(и) = Х(и,с0) и а = (0,..., 0,1, 0, ...,0).
При построении модели реального процесса иногда используются выборки случайной величины, результаты измерений которой распределены неравномерно. Это приводит к тому, что в некоторых подобластях пространства наблюдений образуются пустоты. В таких условиях приходится отказываться от применения стандартной непараметрической оценки регрессии.
При наличии пустот в пространстве наблюдения 0.(и) непараметрическая оценка регрессии основывается на использовании не конкретного значения выходной переменной в 1-й точке выборки, а ее оценки. Проводить это оценивание будем по представленному ниже алгоритму.
Пусть мы находимся в .-й точке выборки. Определим множество Л . соседних точек выборки, в которых колоколообразная функция не равна нулю:
л 5.=Ь: ПФ
( ик — и ^ V С,‘ (с5 , Р, ) )
> 0!
(11)
а = (а!,..., а^ а. +1, а.+1,..., а т); хк (и) -
оценка любого типа, которая в смысле некоторого критерия достаточно хорошо аппроксимирует нужную нам величину; О(и) с 0.(и) - область хорошего качества оценки Хк (и). Если это непараметрическая
оценка, то вычисление оптимального параметра размытости становится рекуррентным. На первом шаге находится оптимальный параметр размытости с° для
I = 1,5, . = 1, 5,
где р, - параметр оптимизации, а колоколообразная
функция для каждой входной переменной ик,
к = 1, т, расширяется в направлении разрежений в выборке, т. е. ее ветви имеют разные константы Липшица. Приведем пример такой асимметричной функции:
Ф
С„
к к \\
1 и — и С081 -
I С
(ик —ик ^ 51 ~С~
+ —, — I -л<----
2 С
1 ик — ик
+ —, lf 0 <-- <л
2С
.ик — ик. Л (ик — ик.
0, lf I----------------- > л IVI---------------- < — I -л
С
1 ик—ик ^
I С.
^ (мк—мк ^
С051 -
<0
V С,
С
1 ик — ик.
+ -, lf 0 <-^ < I-л
2С
1 ик — ик!
+ —, ^ —л<-L < 0
2С
С
С
,lf ЛОк + с,) > (ик — h,с,),
ик —ик
где к > 0 - радиус окрестности текущей точки и; I > 1 - коэффициент расширения колоколообразной функции, при I =1 колоколообразная функция принимает симметричный вид. Функция множества в виде непараметрической оценки плотности [4] с малым параметром размытости
1
/, (ик, о,) = — ЕФ(
,ик - ик
), к = 1, т,
(12)
++■ -Н- + -И- +
0.2 0.4 0.6 0.8 и;
Рис. 2
- точки, в которых производились измерения входной переменной объекта; 11И - ш = 0,26
сятая точка выборки и точки вокруг нее, колоколообразная функция Ф( (и - иі)/С,) в которых не равна 0. В данном случае их 4. Таким образом, вектор коэффициентов рТ при наборе базисных функций
¥(и) = (1, и)Т определяется по методу наименьших квадратов на основании пяти выделенных точек.
применяется для определения сгущений и разрежений точек в выборке по каждой входной переменной ик,
к = 1, т. Форма и вид колоколообразной функции зависят от плотности точек выборки в к-окрестности текущей точки.
Рассмотрим выборку наблюдений входной переменной и,, I = 1,20 (рис. 2) с функцией множества (12) (рис. 3). Тогда график колоколообразной функции в точке и1 = 0,26 при разных значениях коэффициента
расширения I будет иметь вид, представленный на рис. 4 колоколообразная функция расширилась по направлению уменьшения значения функции множества в окрестности текущей точки и1 = 0,26.
----колоколообразная функция
Рис. 4
Рис. 5
Произведем модификацию непараметрической оценки регрессии следующим образом [5]:
Е ф.(и)ПФ
І=1 V к =1
x(u, С, Р,) = —
( ик - ик. ^ СВ (05 , Р, )
ЕПф
І=1 к=1
( ик - ик. Л С8 (0, , Р, )
(13)
Рис. 3
На подобласти 0(х,и), определяемой Л., сформированной в соответствии с правилом (11), строится поверхность ф (и) = Р.Т(и), . = 1,5, где Т(и) - вектор базисных функций; - вектор параметров, определяемых по методу наименьших квадратов.
Для примера рассмотрим выборку наблюдений со скалярным входным и выходным воздействиями
(и,, х1), I = 1,15 (рис. 5), где функции ф (и), . = 1,15,
имеют линейный вид. На рис. 5 отмечена текущая де-
Параметр размытости в формуле (13) оценивается для каждой .-й точки из выборки наблюдений [6]:
(14)
Выбор оптимального параметра размытости с5 и коэффициента пропорциональности рх осуществляется путем минимизации среднеквадратичного критерия:
1 5
^ (о, р. ) = - Е (х-- Х(и<, о,, р,))2 ^ трп (і5)
с С,,Р,
»=1 ’
о
Другим методом непараметрического оценивания регрессии между входными и выходными воздействиями объекта является предварительное заполнение пустот в пространстве наблюдений случайной величины. Для этого используется следующая бутстреп-процедура [7].
1. Точка иг равномерной сетки, натянутой на область наблюдения О, (и) входных переменных ик, к = 1,т, будет считаться пропуском, если
П ^ (и1,о,) < а а >0.
І=1
(16)
хй = Х(и1) + є;, I = 1, К,
(17)
ф(и) = ф(и', и2) = єт(7 - и1 + и2); £ - аддитивная центрированная помеха, имеющая нормальный закон распределения с математическим ожиданием М(£) = 0 и ограниченной дисперсией.
Помеха накладывается следующим образом:
- измеряется интервал изменения сигнальной части [а1; а2];
- задается уровень помех h на интервале [0; 1];
- с помощью генератора случайных чисел формируется вектор £ значений случайной величины, распределенной по нормальному закону с М(£) = 0,
Пусть таких точек будет К, т. е. I = 1, К. Параметр а > 0 настраивается исходя из оптимизационной процедуры по среднеквадратичному критерию.
2. По присутствующим наблюдениям (и,, х,), I = 1,5 входных и выходных переменных системы строится регрессионная модель (1), однако параметр размытости оценивается по формуле (14) для каждой точки выборки наблюдений, что позволяет избежать неадекватного поведения оценки (1) в областях разрежений (пустот) пространства наблюдений
Я (и).
3. По построенной регрессионной модели находятся оценки хИ. = х(и,), I = 1, 5.
4. Определяются ошибки 6. = х. — х., I = 1, 5, для всех точек выборки.
5. Для каждого пропуска после подстановки значения сопутствующей входной переменной иг в полученное регрессионное уравнение находится оценка х(и1), I = 1, К.
6. Значения выходной переменной, которыми замещают пропуски, получается по формуле
ст(£) =
^а2 - а1)
. Вектор £ складывается с вектором
значений сигнальной части.
Создадим пробел в выборке наблюдений, расположение точек иі, і = 1,200, для которой приведено на рис. 6. С помощью генератора случайных чисел формируем вектор и2, |и 2| = 200, значений случайной величины, распределенной по равномерному закону на интервале [0;0,5]. Затем генерируем векторы
и1 и и2, [и1] = \и\\ = 100, на интервалах [0;0,2] и
[0,3; 0,5] соответственно. Выборка наблюдений входных воздействий объемом 200 имеет вид (и1 и и2; и2).
где б1 выбирается случайно из ошибок, рассчитанных в п. 4. Это можно реализовать следующим образом: с помощью генератора случайных чисел выбирается целое число q на интервале [1; 5], 6, =бд, и операция
повторяется для каждого 6,, I = 1, К.
7. Данные, полученные после заполнения пропусков, (и,, х,), I = 1, К, объединяются с исходной выборкой наблюдений (и,, х,),. = 1,5. По итоговой выборке объема 5 + К строится регрессионная модель (1).
Приведем численные результаты моделирования при использовании модифицированной непараметрической оценки регрессии (13) в сравнении со стандартной непараметрической оценкой (1).
Пусть размерность входной переменной равна двум и имеется неравномерная выборка наблюдений
(и,, х,), I = 1,5, объемом 5 = 200, и = (и1, и2), на облас-(и):{и1 е[0;0,5],и2 е[0;0,5]|; х = ф(и) + £, где
ти
Рис. 6
Пусть в каналах измерения выходного сигнала присутствует 5%-я помеха, т. е. к = 0,05, а
ф.(и) = Р2.и2 + Р1 и +Р0., . = 1,5, имеет линейный вид, где и2, и1 - входные переменные. Результат моделирования в виде среза (и2 = 0,25, и1 = [0;0,5]) представлен ниже (рис. 7).
Среднеквадратичная оценка ошибки моделирования при использовании стандартной непараметрической оценки регрессии (1) равна 3,3 %. При использовании модифицированной оценки регрессии (13) с несимметричной колоколообразной функции оценка ошибки равна 1,5 %, что в 2 раза меньше, чем при ис-
пользовании стандартной оценки. Оценка ошибки моделирования здесь и в дальнейшем рассчитывалась следующим образом:
Е =
Е (ф(и) - Х(и,- ))2
100
-100 %,
где и і, і = 1,100 - вектор значений случайной величины, распределенной по равномерному закону на области О, (и).
Рис. 8
Рис. 7
Пусть размерность входной переменной равна четырем и имеется неравномерная выборка наблюдений (и,,х,),, = 1,5, объемом 5 = 400, и = (и1,и2,и3,и4), на области (и): {и1 е [0;0,5], и2 е [0;0,5], и3 е [0;0,5], и4 е [0;0,5]}. И пусть в этой области имеются искусственно созданные пустоты по двум входным переменным: и3 е [0;0,2]и[0,25;0,5], и,4 е [0;0,3]и[0,4; 0,5],
, = 1,400 ; х = ф(и) + £, где £ - аддитивная помеха, имеющая нормальный закон распределения с М(£) = 0 и В(£) < да, а истинная зависимость имеет вид
ф(и) = ф(и',и2, и3,и4) = 5ш(0,45 - и1) —
— 5ш(0,5 - и2) + 5ш(0,45 - и3) — 5ш(0,5 - и4).
Пусть в каналах измерения выходного сигнала присутствует 5%-я помеха. Тогда результат моделирования при помощи модифицированной оценки регрессии (13) в виде среза (и1 = и2 = 0,2, и3 = 0,4, и4 = [0; 0,5]) будет представлен в виде линейного аппроксимирующего полиноми (рис. 8) и квадратичного аппроксимирующего полинома (рис. 9).
Оценка ошибки моделирования при использовании модифицированной оценки регрессии (13) с квадратичным аппроксимирующим полиномом
Ф. (и),. = 1,5, в 8,2 раза меньше, чем с линейным полиномом, и в 15,6 раз меньше, чем при использовании стандартной непараметрической оценки (1).
Рис. 9
Таким образом, результаты экспериментов, представленные на рис. 6-9, подтверждают, что использование модифицированной непараметрической оценки регрессии (13) с квадратичной аппроксимирующей функцией дает в несколько раз меньшую ошибку идентификации при наличии пустот в пространстве наблюдений, чем применение стандартной непараметрической оценки (1).
Выберем объект с одномерным входным и выходным воздействиями. Для этого примем ф(и) = 5(и — 0,5)2. Пусть объем выборки равен 5 = 30:
(и,, х,),, = 1,30, а сама выборка наблюдений отно- си-
тельно равномерна и не имеет больших пробелов.
Результаты моделирования, приведенные на рис. 10, показывают, что среднеквадратичная оценка ошибки моделирования при использовании стандартной непараметрической оценки регрессии (1) в 1,5 раза больше, чем при применении оценки регрессии (13) с несимметричной колоколообразной функцией и линейным аппроксимирующим полиномом.
Таким образом, при разреженной выборке, без явных пробелов в пространстве наблюдений, ошибка моделирования с использованием модифицированной оценки регрессии (13) меньше, чем с применением стандартной оценки.
Проведем сравнение результатов численного моделирования, полученных с помощью модифициро-
ванной оценки регрессии (13) и бутстреп-метода со стандартной непараметрической оценкой (1).
---- оценка регрессии (13)
.... оценка регрессии (1)
+++ выборка наблюдений
Рис. 10
Пусть имеется неравномерная выборка наблюдений одномерных входного и выходного воздействий
объекта (и,, х,), , = 1,5, объемом 5 = 20, и е[0;1], х = ф(и) + £, где ф(и) = 5ш(5 - и); £ - 5 %-я помеха в каналах измерения выходного сигнала. Пусть ф. (и) = Р2.и2 +Р1 и + Р0.,. = 1,5. Тогда результаты моделирования будут следующими (рис. 11, 12).
О 0.4 0.Е и
---- оценка регрессии (13)
.... оценка регрессии (1)
С * выборка, наблюдений
Рис. 11
1 -----------1
£(«). -г1 "
х(и) . 0
0 ■
^--------,-------,---------,--------
0 0.4 0.8 ы
---- оценка на основе бутстреп-метода
.... оценка регрессии (1)
ооо выборка наблюдений
Рис. 12
Исходная выборка наблюдений входных воздействий может быть дополнена значениями наблюдений по бутстреп-методу (рис. 13).
-------1-------1-------1-------1-------
о *** Ш **■ Л*АУ*У>* *
0 0.2 0.4 0.6 0.8 и;
♦ ♦♦ исходная выборка наблюдений ддд «дополненные» наблюдения
Рис. 13
Среднеквадратичная оценка ошибки моделирования при использовании стандартной непараметрической оценки регрессии (1) равна 3 %, при применении модифицированной оценки регрессии (13)-1,45 %, а при построении непараметрической оценки (1) на основе выборки, сформированной по бутстреп-методу, - 1,5 % (рис. 14).
В-0 ошибка моделирования при использовании оценки (13) ошибка моделирования при использовании бутстреп-метода 0-$ ошибка моделирования при использовании оценки (1)
Рис. 14
Анализ графиков на рис. 14 позволяет сделать вывод, что при сравнительно малом уровне помехи в каналах измерения выходного сигнала (< 15 %) наименьшую ошибку моделирования дает модифицированная оценка регрессии (13). При увеличении уровня шума (> 15 %) ошибка моделирования на основе бут-стреп-метода становится меньше, чем при использовании оценки (13). Следует отметить, что при высоком уровне помехи в каналах измерения (> 40 %) качество построения модели при помощи модифицированной оценки (13) становится практически эквивалентным качеству моделирования на основе стандартной непараметрической оценки (1).
Сравним результаты численного моделирования при использовании модифицированной оценки регрессии (13) в случае, когда функция локальной аппроксимации ф (и) = Р2.и2 + Р1.и + Р0. , . = 1, 5, имеет квадратичный вид, и в случае, когда она линейна:
ф. (и) = р1и + р0., . = 1,5.
Пусть имеется неравномерная выборка наблюдений одномерных входного и выходного воздействий
объекта (и,, х1), , = 1,5, объемом 5 = 20, и е (0;1), х = ф(и) + £, где ф(и) = 5ш(5 - и); £ - 30%-я центрированная помеха в каналах измерения выходного сигнала.
Оценка ошибки моделирования при использовании непараметрической оценки регрессии (13) с квадратичным аппроксимирующим полиномом
ф.(и) = Р2.и2 +Р1 и + Р0.,. = 1,5, в 1,1 раза меньше,
чем с линейным полиномом ф. (и) = Р1.и +Р0., . = 1,5.
При дальнейшем увеличении порядка полинома ошибка моделирования практически не изменяется, а при порядке полинома больше четырех ошибка моделирования увеличивается. Таким образом, предлагается использовать второй порядок аппроксимирующего полинома ф. (и),. = 1,5.
Представим зависимости оценок ошибки моделирования при использовании стандартной непараметрической оценки (1) на основе исходной выборки наблюдений и выборки, дополненной по бутстреп-методу, а также модифицированной оценки регрессии с квадратичным аппроксимирующим полиномом от уровня шума, % (рис. 15).
В-В ошибка моделирования при использовании оценки (13) д-д ошибка моделирования при использовании бутстреп-метода 0-0 ошибка моделирования при использовании оценки (1)
Рис. 15
Таким образом, разработанные методы построения непараметрических моделей позволяют довольно эффективно моделировать объекты в случае неравномерно распределенной выборки наблюдений входных и выходных воздействий. Применение несимметричной колоколообразной функции способствует большей согласованности модели и объекта по сравнению с симметричной функцией. Однако при увеличении размерности входной переменной на единицу время расчета модели при использовании модифицированной оценки регрессии (13) с несимметричной коло-
колообразной функцией увеличивается в среднем в 1,5 раза при фиксированном объеме выборки наблюдений.
В заключение дадим несколько рекомендаций по применению представленных оценок в различных условиях. В случае идентификации объекта на основе представительной выборки наблюдений можно использовать любую из предложенных оценок. При наличии пустот в пространстве наблюдений и малом уровне помехи в каналах измерения для моделирования больше подходит модифицированная оценка регрессии (13) с несимметричной колоколообразной функцией и квадратичным аппроксимирующим полиномом. Если в каналах измерения высокий уровень помех, то предлагается использовать непараметрическую оценку, построенную на основании дополненной по бутстреп-методу выборки наблюдений.
Библиографические ссылки
1. Надарая Э. А. Замечания о непараметрических оценках плотности вероятности и кривой регрессии // Теория вероятности и ее применение. 1970. Т. 15. Вып. 1. С. 139-142.
2. Медведев А. В. Непараметрические системы адаптации. Новосибирск : Наука. Сиб. отд-ние, 1983.
3. Медведева Н. А. Непараметрические оценки производной кривой регрессии и модели динамики // Информатика и процессы управления. Красноярск, 1995. С. 74-81.
4. Parzen E. On estimation of a probability density function and mode // Ann. Math. Stat. 1962. Vol. 33. P. 1065-1076.
5. Катковник В. Я. Непараметрическая идентификация и сглаживание данных. М. : Наука, 1985.
6. Непараметрическое моделирование стохастических систем / В. А. Гутшмидт, Я. И. Демченко, М. В. Кураченко и др. // Теория вероятностей, случайные процессы, математическая статистика и приложения. Минск, 2008. С. 66-73.
7. Злоба Е., Яцкив И. Статистические методы восстановления пропущенных данных // Computer Modeling & New Technologies. 2002. Т. 6, № 1. С. 51-61.
N. A. Sergeeva, E. S. Terentyeva
NONPARAMETRIC ESTIMATIONS OF REGRESSION FUNCTION AND ITS DERIVATIVES IN THE PRESENCE OF DATA ADMISSIONS
In the article we consider nonparametric methods of estimation of a regression and its derivatives on samplings of random variables with some singularities at their measurement. A bootstrap-method applied to the decision of the passes filling task in incomplete data or elimination of emptiness in space of observations is presented.
Keywords: nonparametric estimation of a regression, H-approximation, a butstrep-method, nonparametric estimation of a derivative of a regression, convergence of estimations.
© Сергеева Н. А., Терентьева Е. С., 2010