Научная статья на тему 'О непараметрических оценках функции регрессии и ее производных при наличии пропусков данных'

О непараметрических оценках функции регрессии и ее производных при наличии пропусков данных Текст научной статьи по специальности «Математика»

CC BY
545
64
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕПАРАМЕТРИЧЕСКАЯ ОЦЕНКА РЕГРЕССИИ / H-АППРОКСИМАЦИЯ / БУТСТРЕП-МЕТОД / НЕПАРАМЕТРИЧЕСКАЯ ОЦЕНКА ПРОИЗВОДНОЙ ФУНКЦИИ РЕГРЕССИИ / СХОДИМОСТЬ ОЦЕНОК / NONPARAMETRIC ESTIMATION OF A REGRESSION / H-APPROXIMATION / A BUTSTREP-METHOD / NONPARAMETRIC ESTIMATION OF A DERIVATIVE OF A REGRESSION / CONVERGENCE OF ESTIMATIONS

Аннотация научной статьи по математике, автор научной работы — Сергеева Наталья Александровна, Терентьева Е. С.

Рассмотрены непараметрические методы оценивания регрессии и ее производных по выборкам случайных величин с некоторыми особенностями при их измерении. Представлен бутстреп-метод, применяемый для решения задачи заполнения пропусков в неполных данных или устранения пустот в пространстве наблюдений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

NONPARAMETRIC ESTIMATIONS OF REGRESSION FUNCTION AND ITS DERIVATIVES IN THE PRESENCE OF DATA ADMISSIONS

In the article we consider nonparametric methods of estimation of a regression and its derivatives on samplings of random variables with some singularities at their measurement. A bootstrap-method applied to the decision of the passes filling task in incomplete data or elimination of emptiness in space of observations is presented.

Текст научной работы на тему «О непараметрических оценках функции регрессии и ее производных при наличии пропусков данных»

Г. М. Кошкин, В. А. Симахин и др. ; Тос. гос. ун-т. Томск, 1974.

3. Шуленин В. П. Введение в робастную статистику / Тос. гос. ун-т. Томск, 1993.

4. Воинов В. Г., Никулин М. С. Несмещенные оценки и их применения. М. : Наука, 1989.

5. Шурыгин А. М. Прикладная статистика. Робастность. Оценивание. Прогноз. М. : Финансы и статистика, 2000.

6. Beran R. An efficient and robust adaptive estimator of location // Ann. Stat. 1978. Vol. 6, № 2. P. 292-313.

7. Симахин В. А. Непараметрическая статистика.

Ч. II. Теория оценок / Курган. гос. ун-т. Курган, 2004.

8. Симахин В. А. Взвешенный метод максимального правдоподобия // Высокие технологии XXI века : материалы IX Междунар. науч.-техн. конф. : в 2 т. Т. 2. Воронеж, 2008. С. 661-672.

9. Васильев В. А., Добровидов А. В., Кошкин Г. М. Непараметрическое оценивание функционалов от распределений стационарных последовательностей. М. : Наука, 2004.

V. А. Simakhin

ROBUST NONPARAMETRIC ESTIMATION OF LINEAR FUNCTIONALS

Robust nonparametric algorithms for estimation of linear functionals on the basis of weighted maximum likelihood method is considered in the article.

Keywords: robust, nonparametric, linear functional.

© CnMaxHH B. A., 2010

УДК 62-506.1

Н. А. Сергеева, Е. С. Терентьева

О НЕПАРАМЕТРИЧЕСКИХ ОЦЕНКАХ ФУНКЦИИ РЕГРЕССИИ И ЕЕ ПРОИЗВОДНЫХ ПРИ НАЛИЧИИ ПРОПУСКОВ ДАННЫХ

Рассмотрены непараметрические методы оценивания регрессии и ее производных по выборкам случайных величин с некоторыми особенностями при их измерении. Представлен бутстреп-метод, применяемый для решения задачи заполнения пропусков в неполных данных или устранения пустот в пространстве наблюдений.

Ключевые слова: непараметрическая оценка регрессии, H-аппроксимация, бутстреп-метод, непараметрическая оценка производной функции регрессии, сходимость оценок.

Проблема моделирования дискретно-непрерывных процессов является одной из центральных в кибернетике. Определяющее значение при постановке задачи идентификации имеет математическая постановка, соответствующая различным априорным предпосылкам. Априорные сведения о процессе, по существу, определяют подход к задаче идентификации.

Ниже мы остановимся на задаче идентификации и связанной с ней задаче оценивания соответствующих вероятностных характеристик в условиях непараметрической неопределенности. В отличие от ставшего традиционным параметрического подхода к решению задачи идентификации в дальнейшем нам понадобятся некоторые качественные свойства поведения исследуемого процесса. Одним из главных этапов на пути решения этой задачи является оценивание регрессионных характеристик входных-выходных переменных процесса.

Непараметрический уровень априорной информации не предполагает наличия этапа выбора параметрической структуры модели, но требует некоторых сведений качественного характера о процессе, например от однозначности или неоднозначности его ха-

рактеристик, линейности для динамических процессов или характере нелинейности. При идентификации линейных динамических объектов мы сталкиваемся с необходимостью оценивания производной функции регрессии. Это связано с оценкой весовой функции линейной системы по измерениям функции переходной характеристики последней. Непараметрическая модель в этом случае представляет собой оценку интеграла Дюамеля.

Существенная особенность данного исследования состоит в предположении, что исходные выборки содержат пропуски данных при контроле входных-выходных переменных объекта. Это приводит к необходимости построения модифицированных непараметрических оценок функции регрессии и ее производных.

Пусть имеется неравномерная выборка статистически независимых наблюдений (иі, xi), і = 1,5, входных и выходных переменных системы объемом 5. Здесь иі - значение вектора наблюдений входных воздействий размерности т в і-й точке выборки, а хі -значение выходного воздействия в этой точке. Требу-

ется построить непараметрическую модель объекта и восстановить производную первого порядка стохастической зависимости х(и) по имеющейся выборке наблюдений.

На начальном этапе восстановления х(и) Ух е 0(х) принимается статистика [1]:

х(и) = Е х. ПФ

І=1 к=1

(„к Л

с:

ЕПф

1=1 к=1

кк

ск

V 5 у

I" Ф2(2^2 <ОТ, ІІт — -Ф J С

с.

= 5(и^ - ti),

С, > 0, Ііт С, = 0, Ііт 5 - С,т = с».

[2]:

. (и)=кСт Е х* П н

ЛСк і=і і=і

і * і Л

иу - и/

V к у

1 к т / .

1 Х-' 1—Г ^ И _ И

— Е Пф кст /-її і

Л6к і=1 і=1

= const Уи є О(и).

Можно показать, что

кт

—ЕП н

т

ко'

■к і=1 і=1

= 1 У и єО(и).

(5)

(1)

К классу функций Н(2) и Ф(2) относятся, например, гауссова кривая и функция Соболева.

В качестве оценки производной регрессии предлагается взять аппроксимацию, построенную на рабочей равномерной выборке, в виде [3]:

где Ф(2) - колоколообразная функция, удовлетворяющая следующим условиям [1]:

Ф(2) <ГО, У 2 еП(г), | Ф(2^2 = 1,

(2)

кт

Хк (и)=к-т Е х* П н (/)

КСк і=1 і=1

/ і * і Л иу - и/

V к У

(6)

здесь 5 (и1 - ^) - дельта-функция Дирака, 2 - аргументы колоколообразной функции.

Параметр размытости С5 должен удовлетворять условиям [1]:

(3)

где а = (а1,...,ат), а. = {0,1}, і = 1,т, если а. = 1, то

по переменной и1 берется производная первого порядка, если а = 0, то производная нулевого порядка;

Н(/)(2) - функция, удовлетворяющая интегральным условиям, сформулированным ниже.

Если и - скалярная величина, т. е. т = 1, то оценка первой производной регрессии (6) при а = 1 является асимптотически несмещенной и состоятельной при выполнении следующих условий:

| Н(l)(2)d2 = 0, Ок | 2Н(/)(2)d2 = -1,

На следующем этапе строится Н-аппроксимация

| Н(//) (2^2 < <Х>.

(7)

(4)

где {(и*,х*)} - рабочая равномерная выборка объемом k < 5; с*т —— 0; — да; Уj = 1,...,т. Тогда

1 ( и1 — ti Л

—НI----------I — 5(иу — ti) с ростом ^ где Н (2) - ко-

ск I с* )

локолообразная функция, отличающаяся от Ф(2) на множитель, равный константе

Техника доказательства основывается на результатах [3].

Заметим, что обозначенные выше условия сужают класс функций, которые могли бы применяться в случае восстановления кривой регрессии. В частности,

гауссова кривая Н(2) =------ (рис. 1, а) имеет произ-

водную Н '(2) (рис. 1, б), которая сложна с вычислительной точки зрения, однако ее можно заменить кусочно-постоянным аналогом Н<7> (2) (рис. 1, в). Отметим, что время вычисления Н<7> (2) в 1,3 раза меньше, чем Н '(2).

и -и

о

к

х

Рис. 1

Для выбора оптимального параметра размытости введем меру отклонения оценки (6) от истинной производной:

W(ск) = | (Вх(и) — Вахк(и))2du, (8)

О(и )

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где О(и) - область сравнения. Тогда критерий оптимальности будет иметь вид

W (ск) — min,

(9)

где 0-(ск) = (0, +да). Но при практическом применении данный критерий невозможно использовать, так как Вах(и) неизвестна.

Преобразуем (9), используя формулу интегрирования по частям и тем самым понижая порядок производной. Тогда критерий оптимальности приобретет следующий вид:

I(ск) = | (ВаХк(и))2du —

О (и)

— 2 | Хк (и)ВаХк (и)|о и du_ +

(10)

О (и )

+ 2 [ хк(и)Ва+ хк(u)du — min,

с,.

где

О(и)

и~ = (м1,...,и.—1,и1+1,...,ит), здесь 1 такое, что

оценки кривой регрессии. На следующем шаге определяется оптимальный параметр размытости с\ для оценки производной кривой регрессии первого порядка по какой-либо переменной. Критерий оптимальности на этом шаге имеет вид (10) при Х(и) = Х(и,с0) и а = (0,..., 0,1, 0, ...,0).

При построении модели реального процесса иногда используются выборки случайной величины, результаты измерений которой распределены неравномерно. Это приводит к тому, что в некоторых подобластях пространства наблюдений образуются пустоты. В таких условиях приходится отказываться от применения стандартной непараметрической оценки регрессии.

При наличии пустот в пространстве наблюдения 0.(и) непараметрическая оценка регрессии основывается на использовании не конкретного значения выходной переменной в 1-й точке выборки, а ее оценки. Проводить это оценивание будем по представленному ниже алгоритму.

Пусть мы находимся в .-й точке выборки. Определим множество Л . соседних точек выборки, в которых колоколообразная функция не равна нулю:

л 5.=Ь: ПФ

( ик — и ^ V С,‘ (с5 , Р, ) )

> 0!

(11)

а = (а!,..., а^ а. +1, а.+1,..., а т); хк (и) -

оценка любого типа, которая в смысле некоторого критерия достаточно хорошо аппроксимирует нужную нам величину; О(и) с 0.(и) - область хорошего качества оценки Хк (и). Если это непараметрическая

оценка, то вычисление оптимального параметра размытости становится рекуррентным. На первом шаге находится оптимальный параметр размытости с° для

I = 1,5, . = 1, 5,

где р, - параметр оптимизации, а колоколообразная

функция для каждой входной переменной ик,

к = 1, т, расширяется в направлении разрежений в выборке, т. е. ее ветви имеют разные константы Липшица. Приведем пример такой асимметричной функции:

Ф

С„

к к \\

1 и — и С081 -

I С

(ик —ик ^ 51 ~С~

+ —, — I -л<----

2 С

1 ик — ик

+ —, lf 0 <-- <л

.ик — ик. Л (ик — ик.

0, lf I----------------- > л IVI---------------- < — I -л

С

1 ик—ик ^

I С.

^ (мк—мк ^

С051 -

<0

V С,

С

1 ик — ик.

+ -, lf 0 <-^ < I-л

1 ик — ик!

+ —, ^ —л<-L < 0

С

С

,lf ЛОк + с,) > (ик — h,с,),

ик —ик

где к > 0 - радиус окрестности текущей точки и; I > 1 - коэффициент расширения колоколообразной функции, при I =1 колоколообразная функция принимает симметричный вид. Функция множества в виде непараметрической оценки плотности [4] с малым параметром размытости

1

/, (ик, о,) = — ЕФ(

,ик - ик

), к = 1, т,

(12)

++■ -Н- + -И- +

0.2 0.4 0.6 0.8 и;

Рис. 2

- точки, в которых производились измерения входной переменной объекта; 11И - ш = 0,26

сятая точка выборки и точки вокруг нее, колоколообразная функция Ф( (и - иі)/С,) в которых не равна 0. В данном случае их 4. Таким образом, вектор коэффициентов рТ при наборе базисных функций

¥(и) = (1, и)Т определяется по методу наименьших квадратов на основании пяти выделенных точек.

применяется для определения сгущений и разрежений точек в выборке по каждой входной переменной ик,

к = 1, т. Форма и вид колоколообразной функции зависят от плотности точек выборки в к-окрестности текущей точки.

Рассмотрим выборку наблюдений входной переменной и,, I = 1,20 (рис. 2) с функцией множества (12) (рис. 3). Тогда график колоколообразной функции в точке и1 = 0,26 при разных значениях коэффициента

расширения I будет иметь вид, представленный на рис. 4 колоколообразная функция расширилась по направлению уменьшения значения функции множества в окрестности текущей точки и1 = 0,26.

----колоколообразная функция

Рис. 4

Рис. 5

Произведем модификацию непараметрической оценки регрессии следующим образом [5]:

Е ф.(и)ПФ

І=1 V к =1

x(u, С, Р,) = —

( ик - ик. ^ СВ (05 , Р, )

ЕПф

І=1 к=1

( ик - ик. Л С8 (0, , Р, )

(13)

Рис. 3

На подобласти 0(х,и), определяемой Л., сформированной в соответствии с правилом (11), строится поверхность ф (и) = Р.Т(и), . = 1,5, где Т(и) - вектор базисных функций; - вектор параметров, определяемых по методу наименьших квадратов.

Для примера рассмотрим выборку наблюдений со скалярным входным и выходным воздействиями

(и,, х1), I = 1,15 (рис. 5), где функции ф (и), . = 1,15,

имеют линейный вид. На рис. 5 отмечена текущая де-

Параметр размытости в формуле (13) оценивается для каждой .-й точки из выборки наблюдений [6]:

(14)

Выбор оптимального параметра размытости с5 и коэффициента пропорциональности рх осуществляется путем минимизации среднеквадратичного критерия:

1 5

^ (о, р. ) = - Е (х-- Х(и<, о,, р,))2 ^ трп (і5)

с С,,Р,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

»=1 ’

о

Другим методом непараметрического оценивания регрессии между входными и выходными воздействиями объекта является предварительное заполнение пустот в пространстве наблюдений случайной величины. Для этого используется следующая бутстреп-процедура [7].

1. Точка иг равномерной сетки, натянутой на область наблюдения О, (и) входных переменных ик, к = 1,т, будет считаться пропуском, если

П ^ (и1,о,) < а а >0.

І=1

(16)

хй = Х(и1) + є;, I = 1, К,

(17)

ф(и) = ф(и', и2) = єт(7 - и1 + и2); £ - аддитивная центрированная помеха, имеющая нормальный закон распределения с математическим ожиданием М(£) = 0 и ограниченной дисперсией.

Помеха накладывается следующим образом:

- измеряется интервал изменения сигнальной части [а1; а2];

- задается уровень помех h на интервале [0; 1];

- с помощью генератора случайных чисел формируется вектор £ значений случайной величины, распределенной по нормальному закону с М(£) = 0,

Пусть таких точек будет К, т. е. I = 1, К. Параметр а > 0 настраивается исходя из оптимизационной процедуры по среднеквадратичному критерию.

2. По присутствующим наблюдениям (и,, х,), I = 1,5 входных и выходных переменных системы строится регрессионная модель (1), однако параметр размытости оценивается по формуле (14) для каждой точки выборки наблюдений, что позволяет избежать неадекватного поведения оценки (1) в областях разрежений (пустот) пространства наблюдений

Я (и).

3. По построенной регрессионной модели находятся оценки хИ. = х(и,), I = 1, 5.

4. Определяются ошибки 6. = х. — х., I = 1, 5, для всех точек выборки.

5. Для каждого пропуска после подстановки значения сопутствующей входной переменной иг в полученное регрессионное уравнение находится оценка х(и1), I = 1, К.

6. Значения выходной переменной, которыми замещают пропуски, получается по формуле

ст(£) =

^а2 - а1)

. Вектор £ складывается с вектором

значений сигнальной части.

Создадим пробел в выборке наблюдений, расположение точек иі, і = 1,200, для которой приведено на рис. 6. С помощью генератора случайных чисел формируем вектор и2, |и 2| = 200, значений случайной величины, распределенной по равномерному закону на интервале [0;0,5]. Затем генерируем векторы

и1 и и2, [и1] = \и\\ = 100, на интервалах [0;0,2] и

[0,3; 0,5] соответственно. Выборка наблюдений входных воздействий объемом 200 имеет вид (и1 и и2; и2).

где б1 выбирается случайно из ошибок, рассчитанных в п. 4. Это можно реализовать следующим образом: с помощью генератора случайных чисел выбирается целое число q на интервале [1; 5], 6, =бд, и операция

повторяется для каждого 6,, I = 1, К.

7. Данные, полученные после заполнения пропусков, (и,, х,), I = 1, К, объединяются с исходной выборкой наблюдений (и,, х,),. = 1,5. По итоговой выборке объема 5 + К строится регрессионная модель (1).

Приведем численные результаты моделирования при использовании модифицированной непараметрической оценки регрессии (13) в сравнении со стандартной непараметрической оценкой (1).

Пусть размерность входной переменной равна двум и имеется неравномерная выборка наблюдений

(и,, х,), I = 1,5, объемом 5 = 200, и = (и1, и2), на облас-(и):{и1 е[0;0,5],и2 е[0;0,5]|; х = ф(и) + £, где

ти

Рис. 6

Пусть в каналах измерения выходного сигнала присутствует 5%-я помеха, т. е. к = 0,05, а

ф.(и) = Р2.и2 + Р1 и +Р0., . = 1,5, имеет линейный вид, где и2, и1 - входные переменные. Результат моделирования в виде среза (и2 = 0,25, и1 = [0;0,5]) представлен ниже (рис. 7).

Среднеквадратичная оценка ошибки моделирования при использовании стандартной непараметрической оценки регрессии (1) равна 3,3 %. При использовании модифицированной оценки регрессии (13) с несимметричной колоколообразной функции оценка ошибки равна 1,5 %, что в 2 раза меньше, чем при ис-

пользовании стандартной оценки. Оценка ошибки моделирования здесь и в дальнейшем рассчитывалась следующим образом:

Е =

Е (ф(и) - Х(и,- ))2

100

-100 %,

где и і, і = 1,100 - вектор значений случайной величины, распределенной по равномерному закону на области О, (и).

Рис. 8

Рис. 7

Пусть размерность входной переменной равна четырем и имеется неравномерная выборка наблюдений (и,,х,),, = 1,5, объемом 5 = 400, и = (и1,и2,и3,и4), на области (и): {и1 е [0;0,5], и2 е [0;0,5], и3 е [0;0,5], и4 е [0;0,5]}. И пусть в этой области имеются искусственно созданные пустоты по двум входным переменным: и3 е [0;0,2]и[0,25;0,5], и,4 е [0;0,3]и[0,4; 0,5],

, = 1,400 ; х = ф(и) + £, где £ - аддитивная помеха, имеющая нормальный закон распределения с М(£) = 0 и В(£) < да, а истинная зависимость имеет вид

ф(и) = ф(и',и2, и3,и4) = 5ш(0,45 - и1) —

— 5ш(0,5 - и2) + 5ш(0,45 - и3) — 5ш(0,5 - и4).

Пусть в каналах измерения выходного сигнала присутствует 5%-я помеха. Тогда результат моделирования при помощи модифицированной оценки регрессии (13) в виде среза (и1 = и2 = 0,2, и3 = 0,4, и4 = [0; 0,5]) будет представлен в виде линейного аппроксимирующего полиноми (рис. 8) и квадратичного аппроксимирующего полинома (рис. 9).

Оценка ошибки моделирования при использовании модифицированной оценки регрессии (13) с квадратичным аппроксимирующим полиномом

Ф. (и),. = 1,5, в 8,2 раза меньше, чем с линейным полиномом, и в 15,6 раз меньше, чем при использовании стандартной непараметрической оценки (1).

Рис. 9

Таким образом, результаты экспериментов, представленные на рис. 6-9, подтверждают, что использование модифицированной непараметрической оценки регрессии (13) с квадратичной аппроксимирующей функцией дает в несколько раз меньшую ошибку идентификации при наличии пустот в пространстве наблюдений, чем применение стандартной непараметрической оценки (1).

Выберем объект с одномерным входным и выходным воздействиями. Для этого примем ф(и) = 5(и — 0,5)2. Пусть объем выборки равен 5 = 30:

(и,, х,),, = 1,30, а сама выборка наблюдений отно- си-

тельно равномерна и не имеет больших пробелов.

Результаты моделирования, приведенные на рис. 10, показывают, что среднеквадратичная оценка ошибки моделирования при использовании стандартной непараметрической оценки регрессии (1) в 1,5 раза больше, чем при применении оценки регрессии (13) с несимметричной колоколообразной функцией и линейным аппроксимирующим полиномом.

Таким образом, при разреженной выборке, без явных пробелов в пространстве наблюдений, ошибка моделирования с использованием модифицированной оценки регрессии (13) меньше, чем с применением стандартной оценки.

Проведем сравнение результатов численного моделирования, полученных с помощью модифициро-

ванной оценки регрессии (13) и бутстреп-метода со стандартной непараметрической оценкой (1).

---- оценка регрессии (13)

.... оценка регрессии (1)

+++ выборка наблюдений

Рис. 10

Пусть имеется неравномерная выборка наблюдений одномерных входного и выходного воздействий

объекта (и,, х,), , = 1,5, объемом 5 = 20, и е[0;1], х = ф(и) + £, где ф(и) = 5ш(5 - и); £ - 5 %-я помеха в каналах измерения выходного сигнала. Пусть ф. (и) = Р2.и2 +Р1 и + Р0.,. = 1,5. Тогда результаты моделирования будут следующими (рис. 11, 12).

О 0.4 0.Е и

---- оценка регрессии (13)

.... оценка регрессии (1)

С * выборка, наблюдений

Рис. 11

1 -----------1

£(«). -г1 "

х(и) . 0

0 ■

^--------,-------,---------,--------

0 0.4 0.8 ы

---- оценка на основе бутстреп-метода

.... оценка регрессии (1)

ооо выборка наблюдений

Рис. 12

Исходная выборка наблюдений входных воздействий может быть дополнена значениями наблюдений по бутстреп-методу (рис. 13).

-------1-------1-------1-------1-------

о *** Ш **■ Л*АУ*У>* *

0 0.2 0.4 0.6 0.8 и;

♦ ♦♦ исходная выборка наблюдений ддд «дополненные» наблюдения

Рис. 13

Среднеквадратичная оценка ошибки моделирования при использовании стандартной непараметрической оценки регрессии (1) равна 3 %, при применении модифицированной оценки регрессии (13)-1,45 %, а при построении непараметрической оценки (1) на основе выборки, сформированной по бутстреп-методу, - 1,5 % (рис. 14).

В-0 ошибка моделирования при использовании оценки (13) ошибка моделирования при использовании бутстреп-метода 0-$ ошибка моделирования при использовании оценки (1)

Рис. 14

Анализ графиков на рис. 14 позволяет сделать вывод, что при сравнительно малом уровне помехи в каналах измерения выходного сигнала (< 15 %) наименьшую ошибку моделирования дает модифицированная оценка регрессии (13). При увеличении уровня шума (> 15 %) ошибка моделирования на основе бут-стреп-метода становится меньше, чем при использовании оценки (13). Следует отметить, что при высоком уровне помехи в каналах измерения (> 40 %) качество построения модели при помощи модифицированной оценки (13) становится практически эквивалентным качеству моделирования на основе стандартной непараметрической оценки (1).

Сравним результаты численного моделирования при использовании модифицированной оценки регрессии (13) в случае, когда функция локальной аппроксимации ф (и) = Р2.и2 + Р1.и + Р0. , . = 1, 5, имеет квадратичный вид, и в случае, когда она линейна:

ф. (и) = р1и + р0., . = 1,5.

Пусть имеется неравномерная выборка наблюдений одномерных входного и выходного воздействий

объекта (и,, х1), , = 1,5, объемом 5 = 20, и е (0;1), х = ф(и) + £, где ф(и) = 5ш(5 - и); £ - 30%-я центрированная помеха в каналах измерения выходного сигнала.

Оценка ошибки моделирования при использовании непараметрической оценки регрессии (13) с квадратичным аппроксимирующим полиномом

ф.(и) = Р2.и2 +Р1 и + Р0.,. = 1,5, в 1,1 раза меньше,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

чем с линейным полиномом ф. (и) = Р1.и +Р0., . = 1,5.

При дальнейшем увеличении порядка полинома ошибка моделирования практически не изменяется, а при порядке полинома больше четырех ошибка моделирования увеличивается. Таким образом, предлагается использовать второй порядок аппроксимирующего полинома ф. (и),. = 1,5.

Представим зависимости оценок ошибки моделирования при использовании стандартной непараметрической оценки (1) на основе исходной выборки наблюдений и выборки, дополненной по бутстреп-методу, а также модифицированной оценки регрессии с квадратичным аппроксимирующим полиномом от уровня шума, % (рис. 15).

В-В ошибка моделирования при использовании оценки (13) д-д ошибка моделирования при использовании бутстреп-метода 0-0 ошибка моделирования при использовании оценки (1)

Рис. 15

Таким образом, разработанные методы построения непараметрических моделей позволяют довольно эффективно моделировать объекты в случае неравномерно распределенной выборки наблюдений входных и выходных воздействий. Применение несимметричной колоколообразной функции способствует большей согласованности модели и объекта по сравнению с симметричной функцией. Однако при увеличении размерности входной переменной на единицу время расчета модели при использовании модифицированной оценки регрессии (13) с несимметричной коло-

колообразной функцией увеличивается в среднем в 1,5 раза при фиксированном объеме выборки наблюдений.

В заключение дадим несколько рекомендаций по применению представленных оценок в различных условиях. В случае идентификации объекта на основе представительной выборки наблюдений можно использовать любую из предложенных оценок. При наличии пустот в пространстве наблюдений и малом уровне помехи в каналах измерения для моделирования больше подходит модифицированная оценка регрессии (13) с несимметричной колоколообразной функцией и квадратичным аппроксимирующим полиномом. Если в каналах измерения высокий уровень помех, то предлагается использовать непараметрическую оценку, построенную на основании дополненной по бутстреп-методу выборки наблюдений.

Библиографические ссылки

1. Надарая Э. А. Замечания о непараметрических оценках плотности вероятности и кривой регрессии // Теория вероятности и ее применение. 1970. Т. 15. Вып. 1. С. 139-142.

2. Медведев А. В. Непараметрические системы адаптации. Новосибирск : Наука. Сиб. отд-ние, 1983.

3. Медведева Н. А. Непараметрические оценки производной кривой регрессии и модели динамики // Информатика и процессы управления. Красноярск, 1995. С. 74-81.

4. Parzen E. On estimation of a probability density function and mode // Ann. Math. Stat. 1962. Vol. 33. P. 1065-1076.

5. Катковник В. Я. Непараметрическая идентификация и сглаживание данных. М. : Наука, 1985.

6. Непараметрическое моделирование стохастических систем / В. А. Гутшмидт, Я. И. Демченко, М. В. Кураченко и др. // Теория вероятностей, случайные процессы, математическая статистика и приложения. Минск, 2008. С. 66-73.

7. Злоба Е., Яцкив И. Статистические методы восстановления пропущенных данных // Computer Modeling & New Technologies. 2002. Т. 6, № 1. С. 51-61.

N. A. Sergeeva, E. S. Terentyeva

NONPARAMETRIC ESTIMATIONS OF REGRESSION FUNCTION AND ITS DERIVATIVES IN THE PRESENCE OF DATA ADMISSIONS

In the article we consider nonparametric methods of estimation of a regression and its derivatives on samplings of random variables with some singularities at their measurement. A bootstrap-method applied to the decision of the passes filling task in incomplete data or elimination of emptiness in space of observations is presented.

Keywords: nonparametric estimation of a regression, H-approximation, a butstrep-method, nonparametric estimation of a derivative of a regression, convergence of estimations.

© Сергеева Н. А., Терентьева Е. С., 2010

i Надоели баннеры? Вы всегда можете отключить рекламу.