Нечеткий робастный метод для оценивания регрессионной модели в страховании Текст научной статьи по специальности «Математика»

Научная статья на тему 'Нечеткий робастный метод для оценивания регрессионной модели в страховании' по специальности 'Математика' Читать статью
Pdf скачать pdf Quote цитировать Review рецензии
Авторы
Коды
  • ГРНТИ: 27 — Математика
  • ВАК РФ: 01.01.00
  • УДK: 51
  • Указанные автором: УДК:519.6

Статистика по статье
  • 41
    читатели
  • 26
    скачивания
  • 0
    в избранном
  • 0
    соц.сети

Ключевые слова
  • РОБАСТНАЯ РЕГРЕССИЯ
  • НЕЧЕТКАЯ РЕГРЕССИЯ
  • ФУНКЦИЯ ПРИНАДЛЕЖНОСТИ
  • РОБАСТНА РЕГРЕСіЯ
  • НЕЧіТКА РЕГРЕСіЯ
  • ФУНКЦіЯ ПРИНАЛЕЖНОСТі
  • ROBUST REGRESSION
  • FUZZY REGRESSION
  • MEMBERSHIP

Аннотация
научной статьи
по математике, автор научной работы — ГРИЦЮК В.И.

В случае, если набор данных имеет выбросы, используют робастные методы оценки параметров. Когда входные данные нечеткие и набор данных имеет выбросы, нечеткая робастная регрессия исследуется вместо только метода наименьших квадратов, либо только робастных методов. В этом случае весовая матрица определяется по отношению к функции принадлежности.

Abstract 2016 year, VAK speciality — 01.01.00, author — GRITSYUK V.I.

If the data set has outliers, robust methods of parameters estimation are used. When the input data are fuzzy and the data set has outliers, fuzzy robust regression is investigated instead of the least squares method or only robust methods. In this case the weight matrix is defined with respect to the membership function.

Научная статья по специальности "Математика" из научного журнала "Вестник Харьковского национального автомобильно-дорожного университета", ГРИЦЮК В.И.

 
Рецензии [0]

Текст
научной работы
на тему "Нечеткий робастный метод для оценивания регрессионной модели в страховании". Научная статья по специальности "Математика"

ПРОГНОЗИРОВАНИЕ
УДК 519.6
НЕЧЕТКИЙ РОБАСТНЫЙ МЕТОД ДЛЯ ОЦЕНИВАНИЯ РЕГРЕССИОННОЙ
МОДЕЛИ В СТРАХОВАНИИ
В.И. Грицюк, доц., к.т.н., Харьковский национальный университет радиоэлектроники
Аннотация. В случае, если набор данных имеет выбросы, используют робастные методы оценки параметров. Когда входные данные нечеткие и набор данных имеет выбросы, нечеткая робастная регрессия исследуется вместо только метода наименьших квадратов, либо только робастных методов. В этом случае весовая матрица определяется по отношению к функции принадлежности.
Ключевые слова: робастная регрессия, нечеткая регрессия, функция принадлежности.
НЕЧ1ТКИЙ РОБАСТНИЙ МЕТОД ДЛЯ ОЦ1НЮВАННЯ РЕГРЕС1ЙНО1
МОДЕЛ1 У СТРАХУВАНН1
В.1. Грицюк, доц., к.т.н., Харкчвський нацюнальний ушверситет радюелектрошки
Анотаця. У випадку, якщо наб1р даних мае викиди, використовують робастм методи оценки параметр1в. Коли вх1дш дат нечгткг й наб1р даних мае викиди, нечтка робастна регреая досл1джуеться зам1сть тыьки методу найменших квадрат1в, або тыьки робастних метод1в. У цьому випадку вагова матриця визначаеться по в1дношенню до функцп приналежност1.
Ключов1 слова: робастна регреая, нечтка регреая, функция приналежност1.
FUZZY ROBUST METHOD FOR REGRESSION MODEL ESTIMATION
IN INSURANCE
V. Gritsyuk, Assoc. Prof., Ph. D. (Eng.), Kharkiv National University of Radio Electronics
Abstract. If the data set has outliers, robust methods of parameters estimation are used. When the input data are fuzzy and the data set has outliers, fuzzy robust regression is investigated instead of the least squares method or only robust methods. In this case the weight matrix is defined with respect to the membership function.
Key words: robust regression, fuzzy regression, membership.
Введение
Наблюдения, имеющие большие остатки, чем другие, называются выбросами. Процедура называется робастной, если она нечувствительна к появлению больших ошибок в данных. В таких случаях предпочтительнее
робастные методы, чем метод наименьших квадратов (LS). Нечеткий регрессионный анализ - это нечеткий тип регрессионного анализа, который применяется для вычисления функциональных соотношений между зависимыми и независимыми переменными в
случае нечетких событий. В этом исследовании, когда входные данные - нечеткие числа
(X. = (хг,,у, Yt = (я,а,))
и набор данных имеет выбросы, весовая матрица определяется по отношению к функции принадлежности. Поэтому актуальным является создание объединенных методов ро-бастного и нечеткого метода наименьших квадратов для минимизации негативных воздействий выбросов на модель.
Анализ публикаций
Исследуется множественная регрессионная модель, когда зависимые и независимые переменные представлены треугольными нечеткими числами и оценки параметров - четкими числами. Tanaka и др. [1] предложил изучение линейной регрессии с нечеткой моделью. Однако приближение Tanaka может давать некорректную интерпретацию результатов нечеткой линейной регрессии, когда набор данных содержит выбросы.
Yang and Liu [2] предложили использовать алгоритм нечетких наименьших квадратов для моделей линейной регрессии. Этот алгоритм робастный против выбросов для простой регрессии. В алгоритме ортогональные условия добавлены для решения проблемы оптимизации. В Rousseeuw и др. [3] (1984) рассматривается простая регрессионная модель. Кроме этого, зависимая и независимая переменные представлены как четкие (crisp) числа и оценки параметров -четкие числа.
Цель и постановка задачи
Объект исследования - процесс разработки объединенных методов робастного и нечеткого метода наименьших квадратов.
Целью настоящей работы является исследование и разработка объединенных методов робастного и нечеткого метода наименьших квадратов, в которых возможные негативные последствия выбросов на модель сведены к минимуму.
Для достижения поставленной цели решались следующие задачи:
- анализ известных методов M-оценок, сглаженно-сниженных M-оценок;
- разработка объединенных методов ро-бастной и нечеткой регрессии;
- получение результатов моделирования по сравнению методов Хьюбера, Хампеля, Тью-ки, Андрюса, \|/ -функции, МНК и с применением разработанного объединенного метода робастной и нечеткой регрессии.
Материал и результаты исследования робастной и нечеткой регрессии, результаты моделирования. Робастные методы
M-оценивание основано на идее замены квадратов остатков, используемых в оценке МНК, другой функцией остатков, получая
n
m.inZР(Г ) , (1)
б • 1 г=1
где р является симметричной функцией с минимумом в нуле
1. Р(0) = 0;
2. p(t) > 0;
3. p(t) = p(-t);
4. for 0 < tl < t2 ^ p(tx) < p(t2);
5. p - непрерывная.
Дифференцируя уравнение (1) по отношению к коэффициентам регрессии, получаем
r)xl} = 0, j = 1,2,...,p, (2)
i=1
¿у(г /a)Xj = 0, j = 1,2,.,p, (3)
i=1
где у является производной от р и xi является вектор-строкой объясняющих переменных i-го наблюдения. M-оценка получается путем решения системы 'p' нелинейных уравнений. Решение не эквивариантно относительно масштабирования. Таким образом, остатки должны быть стандартизированы с помощью некоторой оценки стандартного отклонения о, чтобы они могли быть оценены одновременно.
Возможность состоит в использовании медианы абсолютных отклонений (MAD). Шкала оценки: a = 1,483medt \ri |. Умножение на 1,483 сделано для того, чтобы для нормально распределенных данных a являлось оценкой стандартного отклонения.
W-функция (весовая функция) для любого р определяется как
ra(t) =

(4)
Используя эти W-функции в МНК, получаем взвешенный метод наименьших квадратов (WLS), и полученные оценки называются взвешенными оценками (Hoaglin и др.). Взвешенные оценки вычисляются путем решения уравнений, где W является диагональной квадратной матрицей, имеющей диагональные элементы в качестве весов.
ß = ( XTWX XTWy.
(5)
^-функция Хьюбера определяется как [4, 5]
V(t ) =
-а, t < -а, t, - а < t < а,
t > а,
(6)
где а - так называемая константа настройки (а=1,5).
Сниженные М-оценки
Сниженные М-оценки были введены Натре1, который использовал три части сниженных оценок с р-функциями; ограниченная у-функция принимает значение 0 для больших (Хампель и др., 1986) |^|[6]. Состоящая из трех частей сниженная ^-функция Хампеля определяется как
sgn (t) |t|, если 0 < tl < а, a sgn (t), если а < |t| < b, {(с - |t|) / (с - b)}аsgn(t),
V(t ) =
(7)
если b < t < с, 0, с < Itl
(Hoaglin и др.), a=1,7; 6=3,4; c=8,5. Возникает потребность в у-функции сглаженно-сниженной природы. Некоторые сглаженно-сниженные M-оценки были предложены разными авторами. Улучшения были получены Эндрюсом (Andrews, 1974) и Тьюки (Mosteller и Tukey 1977; Hoaglin и др, 1983) [6], которые использовали волновые оценки (также называемые синус-оценки) и бивейт
оценки соответственно. Волна Эндрюса и бивейт оценки Тьюки являются сглаженно-сниженными ^-функциями. Кадир (1996) [6] предложил ^-функцию с весовой функцией бета-функцией с а = р. Волновая функция Эндрюса (а=1,5)
V(t ) =
а sin | — |, It < яа а .
Itl > яа.
(8)
Бивейт функция Тьюки
V( t) =
1 -I ^
\t\ < а,
t > а.
(9)
а = 4,685.
Нов ая у- функция
Новая р-функция предложена в семействе гладко-сниженных М-оценок [6]. ^-функция, связанная с этой р-функцией, достигает большей линейности в центральной части прежде, чем она спадает, по сравнению с другими ^-функциями, такими, как синус Эндрюса, бивейт Тьюки и Кадира бета-функция, в результате ее повышенной эффективности. Многократно ревзвешенный метод наименьших квадратов (IRLS) на основе предложенной р-функции явно обнаруживает выбросы и игнорирует выбросы, которые уточняются при последующем анализе. Метод достигает целей, ради которых он построен, потому что дает улучшенные результаты во всех ситуациях и способен выдержать значительное количество выбросов. Предлагаемая ^-функция [6] при-в ед ена ниже .
V(t) =
'i-i ^44 * а
если t < а,
(10)
если t > а,
где а - константа настройки (a=2) и для /-го наблюдения переменная t - остатки, шкалированные MAD; р - функция, соответствующая ^-функции, приведенной выше, которая удовлетворяет стандартным свойствам, как правило, связанным с обоснованной целевой функцией.
t
2
2
t
а
0
а
Выбросы обладают большими остатками при робастной подгонке; помимо нечувствительности к выбросам, оценки робастной регрессии легко определяют выбросы.
Остатки из LS не могут быть использованы для этих целей, так как выбросы могу обладать очень малыми LS остатками [7].
Нечеткий робастный регрессионный анализ
Оценки LS, как известно, являются наилучшими, когда данные имеют нормально распределенные ошибки. В данном исследовании рассмотрим регрессионную модель с использованием нечетких чисел, когда X и У -треугольные нечеткие числа, оценка параметров - четкие числа. В оценивании модели эвристика не допускается.
Матрица весов определяется функцией принадлежности остатков. Метод нечеткой ро-бастной регрессии может обнаруживать выбросы автоматически, давая каждому из них степень принадлежности, которая равна нулю или очень мала по сравнению с другими степенями.
Треугольное нечеткое число определяется как X = (т,т,т), где т - модальная величина X; т - левосторонний разброс; т - пра-востороннш разброс.
Когда Хг = (X , , ^ ) и У = (У , , Ц )
?
г = 1,2,.,п - треугольные нечеткие числа, нечеткая регрессионная модель определяется как
У = а + ЬХ, где а, Ь - четкие числа.
Когда параметры четкие, проблема оптимизации нечетких наименьших квадратов определяется как
Minimum r (a, b) = ^ d (a + bXt ,Yi )2 (ц) d (a + bXt )2 =
a + bxi -yi -(-л,.)] + a + bx, - yt +(bl, )J +
+(a + bx, - yt )2.
В этом исследовании модель нечетких наименьших квадратов представлена обобщенной многомерной моделью Y =Р0 + P,X, +P2X2 +... + РpXp +в . В этом
случае проблема оптимизации определяется как
Min r(a,bj,b2,...,bp) =
= X d (a + bjXji + ... + bpXpi ,Y )2.
(12)
Параметры оцениваются минимизацией уравнения (12). Итерационную процедуру продолжают до достижения разумной степени сходимости процесса.
Численный пример
В исследуемом примере данные собраны от хорошо известной страховой компании [8, 9]. Х1, Х2 и У представляют номер месяца, количество требований в соответствующем месяце, платежи в соответствующем месяце. Эта структура - часть изучения Dаlkilis и др. (2009). В Хи и Li (2001) величины разброса предполагались авторами [10]. В рассмотренном примере независимые переменные -нечеткие, в анализе нечеткой робастной регрессии ^ЯЯ) метода взяты величины независимых переменных центр, левый и правый
разброс как хг, = хг /8 и = хг /7 соответственно. Зависимая переменная величина -нечеткая, в FRR методе взяты величины зависимых переменных: центр, левый и правый разброс определены как уг, ц. = уг /8 и
цг = уг /7 соответственно.
Таблица 1 Набор данных
X1 X 2 Y *104 X: X 2 Y *104
1 1270 125 7 3169 631
2 2630 387 8 3448 545
3 3653 589 9 3163 583
4 3045 591 10 3096 606
5 3232 609 11 3765 753
6 3681 654 12 4481 898
Был выполнен анализ для LS, М и нечеткого робастного метода ^ЯК). Результаты получены используя набор данных, который приведен в табл. 1. Результаты анализа остатков показывают, что восьмое наблюдение является выбросом.
Оценки параметров регрессионной модели даны в табл. 2. Оценки параметров для FRR -такие же по знаку и почти такие же по величине, как и полученные робастными методами, хотя весовая матрица получена исполь-
зуя функцию принадлежности. Можно заметить, что на FRR не влияют выбросы.
Сумма квадратов ошибок дана в табл. 2 для LS, М и FRR методов. Можно отметить, что сумма квадратов ошибок больше для М методов, чем для других методов, благодаря величинам остатков с выбросами в робаст-ных методах. Также можно заметить, что сумма квадратов ошибок для FRR метода ближе к данным М методов. Веса, полученные LS, М и FRR методами, показаны в табл. 3.
Таблица 2 Оценки параметров регрессии
Метод Рс Р1 Р2 Sum of Square Residual
LS -118,4505 12,2627 0,1924 22503,91
Huber -123,0438 14,1149 0,1908 22843,58
Hampel -121,3489 13,8046 0,1908 22783,41
Tukey -130,7773 16,5404 0,1847 25221,06
Andrews -120,6023 13,238 0,1915 22636,21
\|/ функция -125,8294 17,1891 0,1824 25232,49
FRR -103,12 15,5868 0,1808 23388,85
Таблица 3 Веса, полученные LS, M и FRR методами
Method LS Huber Hampel Tukey Andrews \|/ функция FRR
1 1,0000 1,0000 1,0000 0,9808 0,473 0,6642 0,9555
2 1,0000 1,0000 1,0000 0,9991 0,4625 0,6341 0,9611
3 1,0000 1,0000 1,0000 0,9828 0,4526 0,5803 0,9765
4 1,0000 0,4566 0,5497 0,0000 0,3407 0, 0000 0,2812
5 1,0000 0,7607 0,9362 0,0000 0,4267 0,3975 0,611
6 1,0000 1,0000 1,0000 0,9713 0,4734 0,6659 1,0000
7 1,0000 0,6787 0,8192 0,0000 0,4089 0,1658 0,5877
8 1,0000 0,3619 0,3526 0,0000 0,249 0,0000 0,0852
9 1,0000 1,0000 1,0000 0,7043 0,4639 0,6587 0,8617
10 1,0000 1,0000 1,0000 0,9999 0,4762 0,6666 1,0000
11 1,0000 1,0000 1,0000 0,9632 0,4753 0,6651 1,0000
12 1,0000 1,0000 1,0000 0,9933 0,4763 0,6665 1,0000
Весовая матрица получена через функцию принадлежности. Так минимизировано негативное влияние выбросов на модель. Получены оценки параметров регрессионной модели, где X и У, треугольные нечеткие числа. В этом случае влияние выбросов меньше, чем в методе LS. Видно, что восьмое наблюдение является выбросом, так как имеет большой остаток (-99, 9409).
В расчетах зависимые и независимые переменные - четкие числа в LS и М оценках, в то время как в FRR - нечеткие числа. Оценки параметров регрессии - четкие числа во всех методах. Веса восьмого наблюдения «0,3619», «0,3525», «0», «0,249», «0» и «0,0852» для методов НиЬег, Натре1, Тикеу,
Andrew, \|/ -функции и FRR соответственно. Веса, которые получены в FRR методе, -степень принадлежности каждого наблюдения. Эти принадлежности показывают воздействие наблюдений на модель. В табл. 3 показано, что выбросы влияют на модель очень малой степенью принадлежности, в то время как степень принадлежности других наблюдаемых величин 1, или близкая к 1.
Обсуждение результатов исследования робастной и нечеткой регрессии, результаты моделирования
Достоинством метода является то, что в данном случае нечеткая робастная множествен-
ная регрессия робастна для оценивания нечеткой регрессионной модели, особенно, когда существуют выбросы. Данный метод позволяет автоматически обнаруживать выбросы. Весовая матрица получена через функцию принадлежности, каждое наблюдение включается в оценку регрессионной модели в зависимости от степени принадлежности. Поэтому воздействие выброса на модель минимизировано. Главное преимущество заключается в обнаружении наблюдений для дальнейшего изучения.
Выводы
В результате проведенных исследований проведен анализ известных методов М-оце-нок, сглаженно-сниженных М-оценок (волны Эндрюса и бивейт оценки Тьюки, -функции);
- разработан объединенный метод робаст-ной и нечеткой регрессии ^ЯЯ);
- получены результаты моделирования по сравнению методов МНК, Хьюбера, Хампе-ля, Тьюки, Андрюса, \|/ -функции и с применением разработанного объединенного метода робастной и нечеткой регрессии ^ЯЯ).
В проведенном исследовании метод нечеткой робастной регрессии предложен для построения модели для описания соотношения между зависимыми и независимыми переменными вместо метода наименьших квадратов и классического метода робастной регрессии. Исследована множественная регрессионная модель с использованием нечетких чисел, когда зависимая и независимая переменные являются треугольными нечеткими числами и оценки параметров - четкие числа. При рассмотрении табл. 2 видно, что оценки параметров регрессии, полученные методом нечеткой робастной регрессии, имеют тот же самый знак и почти ту же величину, что и оценки, полученные робаст-ными методами. Также видно, что сумма квадратов ошибок FRR метода ближе к данным М методов.
Взвешенный метод нечетких наименьших квадратов применяется используя весовую матрицу, которая определяется из функции принадлежности остатков. Нечеткий робаст-ный регрессионный метод может автоматически определять выбросы. Таким образом,
возможное влияние выброса на модель минимизировано .
Литература
1. Tanaka H. Linear regression analysis with
fuzzy model / H. Tanaka, S. Uegima and K. Asai // IEEE Trans. Systems Man Cybernet 12: . - 1982. - P. 903-907.
2. Yang M.S. and Liu H.H. Fuzzy Least Squares
Algorithms for Interactive Fuzzy Linear Regression Models // FuzzySets and Systems. - 2003. - Vol. 135. - Р. 305-316.
3. Rousseeuw P. Applying robust regression to
insurance / P. Rousseeuw B. Daniels, A. Leroy // Insurance: Mathematics and Economics. - 1984. - Vol. 3. - P. 67-72.
4. Alma O.G. Comparison of Robust Regression
Methods in Linear Regression / O.G. Alma // Int. J. Contemp. Math. Sciences. - 2011. -Vol. 6, Issue 9. - P. 409-421.
5. Qadir M.F. Robust Method for Detection of
Single and Multiple Outliers / M.F. Qadir // Scientific Khyber. - 1996. - Vol. 9. -P.135-144.
6. Asad A.A. Modified M-Estimator for the De-
tection of Outliers / A.A. Asad, M.F. Qadir // Pakistan Journal of Statistics and Operation Research. - 2005. - Vol. 1. - P. 49-64.
7. Rousseuw P.J. and Leroy A.M. Robust re-
gression and outlier detection / P.J. Rousseuw and A.M. Leroy. - JohnWiley & Sons, New York, 1997. -334 p.
8. Kula K.S. Fuzzy Robust Regression analaysis
Based on the Ranking of Fuzzy Sets / K.S. Kula, A. Apaydin // Int. J. Uncertainty, Fuzziness and Knowledge-Based Systems (IJUFKS). - 2008. - Vol. 16. -P.663-681.
9. Kula Kamile §anli A study on fuzzy robust
regression and its application to insurance / Kamile §anli Kula, Fatih Tank, Turkan Er-bay dalk // Mathematical and Computational Applications. - 2012. - Vol. 17, No. 3. - P. 223-234.
10. Xu R. and Li C. Multidimensional least-
squares fitting with a fuzzy model / R. Xu and C. Li // Fuzzy Sets and Systems. -2001. - Vol. 119. - P. 215-223.
Рецензент: А.В. Бажинов, профессор, д.т.н., ХНАДУ.
Статья поступила в редакцию 01 апреля 2016 г.

читать описание
Star side в избранное
скачать
цитировать
наверх