Научная статья на тему 'Точное оценивание линейных регрессионных моделей методом наименьших модулей на основе спуска по узловым прямым'

Точное оценивание линейных регрессионных моделей методом наименьших модулей на основе спуска по узловым прямым Текст научной статьи по специальности «Математика»

CC BY
150
27
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МЕТОД НАИМЕНЬШИХ МОДУЛЕЙ / ЛИНЕЙНАЯ РЕГРЕССИОННАЯ МОДЕЛЬ / АЛГОРИТМ / УЗЛОВАЯ ТОЧКА / УЗЛОВАЯ ПРЯМАЯ / ГИПЕРПЛОСКОСТЬ / ВЫЧИСЛИТЕЛЬНАЯ СЛОЖНОСТЬ / THE LEAST ABSOLUTE DEVIATIONS METHOD / LINEAR REGRESSION MODEL / ALGORITHM / NODAL POINT / NODAL STRAIGHT LINE / HYPERPLANE / COMPUTATIONAL COMPLEXITY

Аннотация научной статьи по математике, автор научной работы — Тырсин А. Н., Азарян А. А.

При построении линейных моделей во многих случаях приходится сталкиваться со стохастической неоднородностью экспериментальных данных. Это проявляется в нарушении условий теоремы Гаусса-Маркова, в частности наблюдения могут быть засорены грубыми ошибками. В этих условиях оценивание параметров моделей требуется выполнять с помощью устойчивых методов. К их числу относят метод наименьших модулей. Однако известные алгоритмы его реализации являются достаточно эффективными лишь для малых размерностей моделей и ограниченного объема выборок. Цель данного исследования разработка эффективных вычислительных алгоритмов реализации метода наименьших модулей, не имеющих ограничений на порядок моделей и объем экспериментальных данных. Описаны алгоритмы точного решения задачи оценивания параметров линейных регрессионных моделей методом наименьших модулей. Они основаны на спуске по узловым прямым. Для снижения вычислительных затрат использована особенность узловых прямых все расположенные на каждой такой прямой узловые точки являются пересечением набора гиперплоскостей, из которых различными является только одна гиперплоскость. Данные алгоритмы значительно выигрывают по сравнению с известным переборным алгоритмом и могут эффективно использоваться на практике. Получена оценка вычислительной сложности алгоритма спуска по узловым прямым. Приведена схема алгоритма.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Тырсин А. Н., Азарян А. А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

EXACT EVALUATION OF LINEAR REGRESSION MODELS BY THE LEAST ABSOLUTE DEVIATIONS METHOD BASED ON THE DESCENT THROUGH THE NODAL STRAIGHT LINES

When building linear models, in many cases one has to deal with stochastic nonhomogeneity of experimental data. This manifests itself in violation of the assumptions of the Gauss-Markov theorem, in particular, observations can contain outliers. Under these circumstances the estimation of the parameters of models is required to be performed using resistant methods. Among those is the least absolute deviations method. However, the known algorithms for its implementation are sufficiently effective only for small dimensions of models and a limited volume of samples. The purpose of this study is the development of effective computational algorithms for implementation of the least absolute deviations method, which have no limitations as to the order of models, and the amount of experimental data. Algorithms for the exact solution of the problem on estimating the parameters of linear regression models by the least absolute deviations method are described. They are based on the descent through the nodal straight lines. To reduce computational costs, the particular feature of nodal straight lines is used all nodes located on each such straight line are intersections of a set of hyperplanes, of which only one hyperplane is different. These algorithms significantly outperform the best-known brute-force search and can be effectively used in practice. The computational complexity of the descent algorithm for nodal straight lines is assessed. The scheme of the algorithm is provided.

Текст научной работы на тему «Точное оценивание линейных регрессионных моделей методом наименьших модулей на основе спуска по узловым прямым»

УДК 519.237.5:519.24

DOI: 10.14529/mmph180205

ТОЧНОЕ ОЦЕНИВАНИЕ ЛИНЕИНЫХ РЕГРЕССИОННЫХ МОДЕЛЕЙ МЕТОДОМ НАИМЕНЬШИХ МОДУЛЕЙ НА ОСНОВЕ СПУСКА ПО УЗЛОВЫМ ПРЯМЫМ

А.Н. Тырсин1'2, А.А. Азарян2

1 Научно-инженерный центр «Надежность и ресурс больших систем и машин» УрО РАН, г. Екатеринбург, Российская Федерация

2 Уральский федеральный университет имени первого Президента России Б.Н. Ельцина, г. Екатеринбург, Российская Федерация

E-mail: [email protected]

При построении линейных моделей во многих случаях приходится сталкиваться со стохастической неоднородностью экспериментальных данных. Это проявляется в нарушении условий теоремы Гаусса-Маркова, в частности наблюдения могут быть засорены грубыми ошибками. В этих условиях оценивание параметров моделей требуется выполнять с помощью устойчивых методов. К их числу относят метод наименьших модулей. Однако известные алгоритмы его реализации являются достаточно эффективными лишь для малых размерностей моделей и ограниченного объема выборок. Цель данного исследования - разработка эффективных вычислительных алгоритмов реализации метода наименьших модулей, не имеющих ограничений на порядок моделей и объем экспериментальных данных. Описаны алгоритмы точного решения задачи оценивания параметров линейных регрессионных моделей методом наименьших модулей. Они основаны на спуске по узловым прямым. Для снижения вычислительных затрат использована особенность узловых прямых - все расположенные на каждой такой прямой узловые точки являются пересечением набора гиперплоскостей, из которых различными является только одна гиперплоскость. Данные алгоритмы значительно выигрывают по сравнению с известным переборным алгоритмом и могут эффективно использоваться на практике. Получена оценка вычислительной сложности алгоритма спуска по узловым прямым. Приведена схема алгоритма.

Ключевые слова: метод наименьших модулей; линейная регрессионная модель; алгоритм; узловая точка; узловая прямая; гиперплоскость; вычислительная сложность.

Введение

Одной из распространенных задач при статистической обработке результатов экспериментальных исследований является оценивание неизвестных коэффициентов линейной регрессионной модели [1-4]

У = Ха + г, (1)

где y =

( У1 Л

У 2

( 1

е Rn — вектор измерений; X = {xij }nXm =

J П , (e >

1x

рица; s:

e

Vе n

V 1 Xn2

( a1 ^

f v ^

- заданная мат-

е Rn — вектор случайных ошибок; a =

V am J

е Rm — вектор коэффициентов регрес-

сии.

x

x

1m

x

x

2

x

x

n

e

a

2

2

Среди прикладных статистических методов построения регрессионных зависимостей наибольшее распространение получил метод наименьших квадратов (МНК). Использование МНК требует выполнения ряда предпосылок, называемых условиями Гаусса-Маркова [4, с. 6-7]. При их выполнении МНК-оценки параметров модели (1) являются состоятельными и несмещенными. Кроме того, если случайные ошибки имеют нормальный закон распределения, то МНК-оценки становятся эффективными. Однако использование МНК при нарушении условий Гаусса-Маркова может привести к значительным ошибкам при оценивании коэффициентов, а в случае присутствия в измерениях больших выбросов даже к несостоятельности оценок.

С целью обеспечения устойчивости оценок относительно отклонений случайных ошибок от гауссовой модели разработан ряд статистических методов, основанных на более общих предположениях относительно случайных ошибок. Одним из них является метод наименьших модулей (МНМ) [5, 6]. МНМ для задачи (1) имеет вид

Q(a) = - (я, хг)| ® min . (2)

. , aGR

i=1

Целевая функция Q(a) задачи (2) является выпуклой. Поскольку во всех точках, где у функции Q(a) существует производная, она линейна, то, следовательно, ее локальные минимумы могут быть только в особых точках. Известно несколько точных и приближенных методов решения задачи (2) [6-9].

Кусочно-линейный вид целевой функции позволяет рассчитывать на наличие быстрых и точных методов решения задачи (2). Однако в настоящее время в целом удовлетворительно решена только проблема ее приближенного решения. Здесь можно отметить метод вариационно-взвешенных квадратических приближений (называемый также алгоритмом Вейсфельда) [6, 7], подход, основанный на сведении данной проблемы к задаче линейного программирования и ее приближенное решение методом внутренней точки [10], численные методы спуска нулевого порядка [9]. Недостатком этих методов в первую очередь является неточное решение при относительной простоте целевой функции.

К точным методам относится сведение (2) к эквивалентной задаче линейного программирования [6, 11] и ее решение при помощи широко известного симплекс-метода и переборный алгоритм [9].

Использование симплекс-метода ограничено задачами малой размерности. Это вызвано накоплением погрешностей из-за ошибок округлений и требованием чрезмерно большого выделения памяти. Предложенное в [12] использование массивно-параллельных вычислений с использованием дробно-рациональных вычислений без округления устраняет проблему накопления вычислительных погрешностей, но приводит к существенному усложнению реализации и росту вычислительных затрат, затрудняющих широкое практическое применение данного подхода.

Второй метод [9] основан на переборе всех узловых точек, в которых не существует производная функции Q(a) ни по одному из возможных направлений пространства Rm. Переборный

алгоритм требует решения СЩ систем линейных уравнений порядка т. Вычислительные погрешности здесь незначительны и не накапливаются. Однако с ростом n и m наблюдается экспоненциальный рост вычислительных затрат. Фактически практическое применение переборного алгоритма ограничено объемом выборки n < 200 и числом коэффициентов регрессии т < 4 . Однако отсутствие эффекта накопления вычислительных погрешностей делает возможным использование данного метода при условии ограничения числа перебираемых узловых точек.

Целью статьи является описание эффективного, точного вычислительного метода решения задачи (2), осуществляющего неполный перебор особых точек.

Алгоритмы спуска по узловым прямым

Обычный спуск. Введем гиперплоскости Wi = W(a,xi,yi) в виде уравнений:

y - (a, x г) = 0, (i = 1,2,..., n). (3)

Зададим также узловые точки пересечения гиперплоскостей (3):

U ...,km) = П W, , М ={kl,..., кт } к < к2 < ...< km , к, G иД... , П}. (4)

Тырсин А.Н., Азарян А.А.

Точное оценивание линейных регрессионных моделей методом наименьших модулей на основе спуска по узловым прямым

Обозначим и - множество всех узловых точек (4). Алгоритм точного решения задачи (2) основан на спуске к точному решению, двигаясь вдоль узловых прямых I, каждая из которых является пересечением (т — 1) различных гиперплоскостей О,:

С^..^ кт—1)

т—1

: П О,, к1 е {1,2,..., п}.

(5)

1=кл

В качестве начального приближения берется произвольная узловая точка, являющаяся пересечением т гиперплоскостей Ок ,...,Ок . Исключив одну из гиперплоскостей, получим узловую

прямую I. В любой узловой точке можно построить т таких узловых прямых. Выберем ту, вдоль которой целевая функция достигает наименьшего значения, которое всегда будет достигаться в одной из узловых точек. Найдя эту точку, продолжим движение из нее по тому же принципу. В результате будет найдена узловая точка, спуск из которой невозможен. И эта узловая точка будет являться точным решением задачи (2). В основе алгоритма лежат следующие теоремы.

Теорема 1. Рассмотрим модель (1), для которой имеется выборка наблюдений (х;,у1) = (хг1,х12,..., хт,у1), (/ = 1, ... , п), и пусть заданы функция Q(a) задачи (2), гиперплоскости (3) и множество и всех узловых точек (4). Тогда функция (2) всегда имеет точку глобального минимума, эта точка либо единственна и принадлежит и, либо состоит из выпуклого линейного многогранника, вершины которого являются точками из и.

Доказательство теоремы 1. Известно, что выпуклая, непрерывная, кусочно-линейная функция либо имеет глобальный минимум, либо стремится к минус бесконечности. А поскольку функция Q(a) является также ограниченной снизу (Q(a) > 0 как сумма модулей) функцией, то она всегда имеет точку глобального минимума.

Пусть а* = (а*,а*,...,а*т)Т — стационарная точка и является точкой минимума функции Q(a). Тогда ее градиент в этой точке равен нулю. Поскольку Q(a) кусочно-линейная функция, то из равенства §гаё Q(a *) = 0 следует, что функция Q(a) является постоянной функцией на выпуклом

многограннике с вершинами a1, a2,..., a1, гранями которой являются гиперплоскости (3), имеющем вид [13]:

А = ^ : a = £ А* aк, £ 1\ = 1}.

О

Функция Q(a) является постоянной до граничных точек многогранника А, лежащих на гиперплоскостях (3) Следовательно, вершины a1, a2,..., a1 этого многогранника являются узловыми точками и функция Q(a) достигает минимума и в этих точках.

Все гиперплоскости (3), и только они являются особыми точками функции Q(a), поскольку только в них она не дифференцируема. Если взять т — 1 произвольных невырожденных соотношений вида I, = у, — х^ = 0, то они в совокупности определяют прямую (5) в пространстве {ах,а2,... ,ат) и вместе с тем плоскость Р^о £„,_!)> па~ раллельную оси Q в пространстве а1, а2,..., ат). Присоединяя к системе (5) выражение (2) и рассматривая их совместно, найдем уравнение ломанной М, полученной в результате пересечения поверхности (2) плоскостью

Р^М,...,кт—1) .

Если с помощью уравнений, входящих в систему (5), выразить т — 1 неизвестных а^ а2,..., ат—1 через оставшееся неизвестное и подставить в выражение (2), то получим уравнение проекции ломанной М на плоскость ат) (рис. 1). Точки Т, Т] , . ,Т являются проекциями на эту плоскость точек пересечения прямой

т т

'1 '2

Рис. 1. Вид функции

С^..^ кт—1)

гиперплоскостями (3), не вошедшими в (5).

Функция Q(am) на плоскости ат) - выпуклая и кусочно-линейная с особыми точками Т ,Т2 ,... , которые являются узловыми точками. Отсюда следует, что функция Q(a) дости-

гает минимума в узловой точке.

Теорема 2. Алгоритм спуска вдоль узловых прямых для нахождения решения задачи (2), сходится к точному решению за конечное число шагов.

Доказательство теоремы 2. На каждом шаге алгоритма мы находим узловую точку с все меньшим значением целевой функции, а поскольку количество узловых точек конечно, то алгоритм выполняется за конечное число шагов.

Докажем, что алгоритм всегда будет достигать минимума целевой функции (т. е. решения). Допустим, что мы находимся на к-м шаге алгоритма в какой-то узловой точке и пытаемся осуществить спуск вдоль одной из т узловых прямых, проходящих через эту точку, к другой узловой точке с меньшим значением целевой функции. Покажем, что либо мы сможем найти такую точку, либо текущая узловая точка является минимальной.

Целевая функция Q(a) является выпуклой функцией в пространстве Ят. Поэтому, если взять

произвольную точку х и т линейно независимых прямых ¡^, (] = 1,2,..., т), проходящих через

нее, то либо найдется такая окрестность этой точки, в которой целевая функция будет убывать хотя бы вдоль одного из направлений, либо в текущей узловой точке достигается минимум целевой функции.

Поскольку вероятность того, что случайная величина (случайные погрешности) более одного раза примет одно и то же значение, равна нулю, то узловые прямые, проходящие через узловую точку, являются линейно независимыми. То есть вдоль одной из них целевая функция убывает, причем она будет убывать вплоть до следующей узловой точки на этой узловой прямой, поскольку между двумя соседними узловыми точками, целевая функция (2) будет линейна, так как все ее подмодульные выражения не будут менять знак. Действительно, смена знака означает пересечение одной из образующих гиперплоскостей, что приведет к образованию узловой точки, а мы рассматриваем часть узловой прямой между двумя соседними узловыми точками.

На практике из-за конечной точности измерений гипотетически могут возникнуть ситуации, когда узловые прямые, проходящие через узловую, окажутся параллельными. В этом случае узловой точки не существует, и переходим к рассмотрению другой узловой прямой.

Таким образом, либо произвольная узловая точка является минимумом целевой функции, либо хотя бы по одной из проходящих через нее узловых прямых можно сделать переход к узловой точке с меньшим значением целевой функции. Теорема доказана.

Поясним этот алгоритм, используя рис. 1 (для случая т = 2). В качестве начальной точки выберем точку Н. Через нее проходят прямые I и II. Сначала рассмотрим прямую I. Среди узловых точек, которые лежат на этой прямой, выбираем ту, в которой достигается минимальное значение целевой функции (таким образом, происходит спуск по прямой). Предположим, что такой точкой является точка С. Рассмотрим прямую II. Спускаясь по прямой II, находим на ней точку, в которой достигается минимальное значение. Пусть, например, эта точка Ь. Далее, сравнивая значения целевой функции в точках С и Ь, выбираем ту, в которой достигается минимальное значение. Пусть, например, эта точка С. Через нее помимо прямой I проходит прямая III. На этой прямой находим оче- Рис- 2 Спуск по узловым прямым

редную точку, в которой достигается минимальное значение целевой функции. Далее, сравнивая значения целевой функции в точках С и В, выбираем ту, в которой достигается минимальное значение. Пусть такой точкой является В.

Тырсин А.Н., Азарян А.А.

Точное оценивание линейных регрессионных моделей методом наименьших модулей на основе спуска по узловым прямым

Допустим, что на прямой IV, проходящей через В, точкой минимума является сама точка В Тогда в качестве решения выбираем точку В, в которой достигается минимум целевой функции (если бы нашлась другая точка минимума на этой прямой, то из нее продолжили бы дальнейший спуск).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Спуск с использованием разреженных матриц. Двигаясь вдоль прямой к 1), для нахождения узловых точек, принадлежащих этой прямой, нужно для каждой точки решать систему линейных алгебраических уравнений (СЛАУ) порядка т:

а1 + а2Хкъ2 + а3Хкъ3 + ... + ат Хк1 ,т = Ук1 ,

а1 + а2 Хк2,2 + а3 Хк2,3 + ... + атХк2„

--Ук2

(6)

°1 + а2 Хкт-1,2 + а3 Хкт-1,3 + ... + ат Хкт- ,т = укт-1 , а1 + а2Х,,2 + а3 Х7,3 + ... + атх,,т = У,

где к1 <к2 <...<кт-1, 7е (1,2,..., п} , 7й {к1,к2,..., кт-1} .

Очевидно, что СЛАУ двух различных узловых точек, принадлежащих этой прямой, отличаются лишь одним (последним) уравнением. Следовательно, вычислительная эффективность алгоритма спуска существенно повысится, если для нахождения узловых точек, которые лежат на прямой /(к к !), первые (т — 1) строк расширенной матрицы, соответствующей СЛАУ (6),

предварительно преобразуем с помощью элементарных преобразований к ступенчатому виду. Расширенная матрица СЛУ прямой к 1) имеет вид

А

(к1 ,...,кт—1)

Г 1 Хк1,2 Хк1,3 Хк1,т—1 Хк1,т Ук1

1 Хк2,2 Хк2,3 Хк2,т—1 Хк2,т Ук2

1 Хк3,2 Хк3,3 Хк3,т—1 Хк3,т Ук3

V 1 Хкт—1,2 Хкт—1,3

Хкт—1,т—1 Хкт—1,т Укт—1

Применив алгоритм прямого хода метода Гаусса, преобразуем матрицу А (к к ) к ступенчатому виду

а;

(к1,...,кт—1)

Г1 Хк1,2 Хк1,3 • • Хк1,т—1

0 1 / Хк2,3 • / ' Хк2,т—1

0 0 1 / ' Хк3,т—1

0 0 0 . 1

к ,т

к2,т

к3,т

Ук1 Ук2 Ук3

/

Укт—1

Л

т—1 /

Используя ступенчатую матрицу А(к к i), можно значительно сократить вычислительные затраты на нахождение всех узловых точек, лежащих на прямой к х). Действительно, для каждой искомой узловой точки имеем расширенную матрицу

А

(к1 ,...,кт—1,7)

Г1 Хк1,2 Хк1,3 • • Хк1,т—1 Хк1,т Ук1

0 1 / Хк2,3 • / ' Хк2,т—1 / Хк2,т Ук2

0 0 1 / ' Хк3,т—1 / Хк3,т Ук3

7,2

43

Х7,т—1 Х7,

Укт—1 У7

(7)

где к1 <к2 <...<кт—1, 7е (1,2,..., п} , 7й (к1,к2,..., кт—1} .

х

т

т—1

0

0

1

х

т

т—1

Варьируя номер 7 в (7), найдем все узловые точки, лежащие на прямой k х).

Спуск с использованием разреженных матриц и с учетом направления спуска. Вычислительную эффективность алгоритма спуска можно повысить, рассматривая направление спуска. Поясним как.

Используя ступенчатую матрицу А(к к 1) и решив СЛАУ, соответствующую расширенной матрице (7), находим значение т-го коэффициента атк1,к2,.кт—1,7) (к <к2 <...<кт—1, 7е {1,2,...,п} , 7й {к1,к2,...,кт—1}) для каждой узловой точки. После чего по возрастанию атк1,к2,."кт—1,7) упорядочиваем все узловые точки, которые лежат на прямой к х), и выполняем описанный выше

алгоритм спуска, но с учетом направления. Если при непосредственном переходе от одной узловой точки к другой значение целевой функции увеличивается, то в этом направлении значение целевой функции будет увеличиваться во всех узловых точках (вытекает из выпуклости целевой функции). Назовем такое направление «плохим». Для осуществления спуска до вычисления значения целевой функции в очередной узловой точке рассматриваем направление спуска. Если оно «плохое», то переходим к следующей точке, не вычисляя в данной узловой точке ни значение

целевой функции, ни значения коэффициентов аУ1^2'"*™"1'1^, у = 1, 2,.,т — 1.

Анализ вычислительных затрат алгоритмов спуска по узловым прямым

Воспользуемся методом статистических испытаний Монте-Карло [14]. В таблице для 1 000 испытаний приведены средние значения общего количества рассмотренных узловых точек Ь и узловых прямых Р (переходов с одной прямой на другую) в алгоритме спуска с использованием разреженных матриц и с учетом направления спуска для некоторых значений п и т.

Средние количества рассмотренных узловых точек и узловых прямых в алгоритме спуска

n Кол-во узловых точек L Кол-во узловых прямых P

m = 3 m = 4 m = 5 m = 6 m = 7 m = 3 m = 4 m = 5 m = 6 m = 7

30 56 91 127 168 211 5,2 6,6 7,7 8,8 9,6

50 85 136 197 262 334 6,1 8,0 9,8 11,3 12,7

100 148 235 348 459 604 7,3 9,9 12,3 14,3 16,8

150 214 337 490 655 847 7,9 10,8 13,7 16,3 19,0

300 397 618 895 1205 1529 9,1 12,7 16,1 19,6 22,9

500 644 1002 1441 1905 2477 9,8 13,9 18,0 21,8 26,0

700 881 1417 2008 2665 3390 10,4 15,0 19,1 23,5 28,1

900 1123 1752 2505 3330 4242 10,9 15,5 20,0 24,4 29,3

1000 1257 1946 2771 3676 4701 11,0 15,7 20,3 25,0 30,1

1200 1461 2341 3345 4400 5626 11,3 16,3 21,0 26,1 31,2

1500 1855 2928 4043 5413 6973 11,8 16,8 21,7 26,9 32,4

1700 2155 3294 4600 6165 7860 12,0 17,1 22,1 27,6 33,1

1850 2278 3520 5004 6763 8602 12,1 17,4 22,5 28,0 33,5

2000 2453 3867 5363 7215 9204 12,2 17,6 22,8 28,2 33,8

Оценим вычислительные затраты спуска с использованием разреженных матриц и с учетом направления спуска. Для этого необходимо оценить средние количества рассмотренных узловых точек Ь и узловых прямых Р. Анализ полученных результатов для различных п и т показал, что Ь ~ О(тп), Р ~ 0(т 1п п).

Теорема 3. Алгоритм спуска по узловым прямым имеет вычислительную сложность

О О Л О О

Ж = 0(т п + т п 1п п + т п 1п п) .

Тырсин А.Н., Точное оценивание линейных регрессионных моделей

Азарян А.А. методом наименьших модулей на основе спуска по узловым прямым

Доказательство теоремы 3. Оценим вычислительную сложность всех основных функций, заложенных в базисе алгоритма спуска по узловым прямым. Его схема приведена на рис. 3.

Функция trapezoidalMatrix расширенную матрицу размера (m —1) X (m +1) приводит к трапециевидному виду за (m — 1) итерацию. В ходе i-й итерации выполняется (m + 2 — i)(2m — 1 — 2i) операций умножения и вычитания. Следовательно, общее количество выполненных операций

m—1 m—1 m—1 m+1 m+1

I = £ (m + 2 — i)(2m — 1 — 2i) = 2£ (m + 2 — i)2 — 5£ (m + 2 — i) = [ j = m + 2 — i] = 2£ j2 — 5 £ j .

i=1 i=1 i=1 j=3 j=3

m 2 m(m + 1)(2m +1) m m(m +1)

Известно, что £ j =- и £ j =-, поэтому

j=1 6 j=1 2 I = 2, ^(m +1)(m + 2)(2m + 3) — 5j — 5. ^(m +1)(m + 2) — зj = Q(m3 ).

Функция getMCoeff к трапециевидной матрице размера (m — 1) X (m +1) добавляет строку и вычисляет m-й коэффициент. Здесь выполняется (m — 1) итераций. В ходе i-й итерации выполняется 2(m +1 — i) операций умножения и вычитания (кроме первой итерации, во время которой выполняется не 2m, а m операций умножения и вычитания). Следовательно, общее количество

m—1

выполненных операций будет равно 2^ (m +1 — i) + m — 1 = m2 — 1 = O(m2).

i=1

Функция obj вычисляет и возвращает значение целевой функции Q(a). Очевидно, что функция obj имеет O(mn) вычислительную сложность.

Функция sort реализует сортировку полученного массива. Известно, что сортировка Хоара в среднем имеет для входного массива из n элементов O(n ln n) вычислительную сложность [15].

Функция descent, имея матрицу вида (7) и m-й коэффициент, вычисляет остальные коэффициенты и вызывает функцию obj. Данные действия выполняются циклически, количество итераций примерно равно L /(m • P) = O(mn) /(m )(m ln n)) = O(n /(m ln n)).

Для вычисления остальных коэффициентов выполняется (m — 1) итераций. В ходе i-й итерации выполняется 2i операций умножения и вычитания. Следовательно, общее количество выпол-

m—1

ненных операций 2^ i = m2 — m = O(m2).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

i=1

Поскольку функция obj имеет вычислительную сложность O(mn), то функция descent имеет O(n • (mn + m2) / m ln n) вычислительную сложность.

Теперь из схемы работы алгоритма получим, что спуск по узловым прямым имеет вычислительную сложность

O \m ln n-

m • I mi + (n — m) • m2 + (n — m) • ln(n — m) +--n— (m2 + mn)

I m ln n

•(m2 + mn )j

= 0(т2п2 + т4п 1пп + т2п 1п2 п + да3п) = 0(т2п2 + т4п 1пп + т2п 1п2 п) .

Отметим, что для п > тах( 1п2 п; т21п п ) вычислительная сложность спуска по узловым прямым Ж = 0(т2п2).

Выводы

Предложены точные алгоритмы реализации метода наименьших модулей при оценивании параметров линейных регрессионных моделей, основанные на спуске по узловым прямым.

Данные алгоритмы позволяют значительно снизить вычислительные затраты при точной реализации метода наименьших модулей. Выигрыш достигается за счет того, что вместо перебора узловых точек осуществляется спуск по ним. Вычислительная сложность спуска по узловым прямым позволяет на практике реализовать точное оценивание методом наименьших модулей для любых размеров экспериментальных данных.

Литература

1. Кендэл, М.Д. Статистические выводы и связи / М.Д. Кендэл, А. Стьюарт. - М.: Наука, 1973. - 899 с.

2. Справочник по теории вероятностей и математической статистике / В.С. Королюк, Н И. Портенко, А.В. Скороход, А.Ф. Турбин. - М.: Наука, 1985. - 640 с.

3. Демиденко, Е.З. Линейная и нелинейная регрессия / Е.З. Демиденко. - М.: Финансы и статистика, 1981. - 302 с.

Тырсин А.Н., Точное оценивание линейных регрессионных моделей

Азарян А.А. методом наименьших модулей на основе спуска по узловым прямым

4. Айвазян, С.А. Прикладная статистика: Исследование зависимостей / С.А. Айвазян, И.С. Енюков, Л.Д. Мешалкин. - М.: Финансы и статистика, 1985. - 487 с.

5. Bloomfield, P. Least absolute seviations: theory, applications, and algorithms / P. Bloomfield, W.L. Steiger. - Boston-Basel-Stuttgart: Birkhauser, 1983. - 349 p.

6. Мудров, В.И. Методы обработки измерений: квазиправдоподобные оценки / В.И. Мудров, В.Л. Кушко. - М.: Радио и связь, 1983. - 304 с.

7. Weiszfeld, E. On the point for which the sum of the distances to n given points is minimum / E. Weiszfeld // Annals of Operations Research. - 2009. - Vol. 167, Issue 1. - P. 7-41.

8. Акимов, П. А. Уровни неоптимальности алгоритма Вейсфельда в методе наименьших модулей / П.А. Акимов, А.И. Матасов // Автоматика и телемеханика. - 2010. - № 2. - С. 4-16.

9. Тырсин, А.Н. Оценивание линейных регрессионных уравнений с помощью метода наименьших модулей / А.Н. Тырсин, К.Е. Максимов // Заводская лаборатория. Диагностика материалов. - 2012. - Т. 78, № 7. - С. 65-71.

10. Boyd, S. Convex optimization / S. Boyd, L. Vandenberghe. - Cambridge: Cambridge University Press, 2004. - 730 p.

11. Зуховицкий, С.И. Линейное и выпуклое программирование / С.И. Зуховицкий, Л И. Авдеева. - М.: Наука, 1967. - 460 с.

12. Панюков, А.В. Применение массивно-параллельных вычислений для решения задач линейного программирования с абсолютной точностью / А.В. Панюков, В.В. Горбик // Автоматика и телемеханика. - 2012. - № 2. - С. 73-88.

13. Рокафеллар, Р. Выпуклый анализ / Р. Рокафеллар. - М.: Мир, 1973. - 469 с.

14. Михайлов, Г.А. Численное статистическое моделирование. Методы Монте-Карло / Г.А. Михайлов, А.В. Войтишек. - М.: Академия, 2006. - 366 с.

15. Алгоритмы: построение и анализ / Т.Х. Кормен, Ч. Лейзерсон, Р. Ривест, К. Штайн. - М.: Вильямс, 2013. - 1323 с.

Поступила в редакцию 16 января 2017 г.

Bulletin of the South Ural State University Series "Mathematics. Mechanics. Physics" _2018, vol. 10, no. 2, pp. 47-56

DOI: 10.14529/mmph180205

EXACT EVALUATION OF LINEAR REGRESSION MODELS BY THE LEAST ABSOLUTE DEVIATIONS METHOD BASED ON THE DESCENT THROUGH THE NODAL STRAIGHT LINES

12 2 A.N. Tyrsin ' , A.A. Azaryan

1Science and Engineering Center «Reliability and Resource of Large Systems and Machines»» Ural Branch, Russian Academy of Sciences, Yekaterinburg, Russian Federation

2Ural Federal University named after the first President of Russia B.N.Yeltsin, Yekaterinburg, Russian Federation

E-mail: [email protected]

When building linear models, in many cases one has to deal with stochastic nonhomogeneity of experimental data. This manifests itself in violation of the assumptions of the Gauss-Markov theorem, in particular, observations can contain outliers. Under these circumstances the estimation of the parameters of models is required to be performed using resistant methods. Among those is the least absolute deviations method. However, the known algorithms for its implementation are sufficiently effective only for small dimensions of models and a limited volume of samples. The purpose of this study is the development of effective computational algorithms for implementation of the least absolute deviations method, which have no limitations as to the order of models, and the amount of experimental data. Algorithms for the exact solution of the problem on estimating the parameters of linear regression models by the least absolute deviations method are described. They are based on the descent through the nodal straight lines. To reduce computational costs, the particular feature of nodal straight lines is used - all nodes lo-

cated on each such straight line are intersections of a set of hyperplanes, of which only one hyperplane is different. These algorithms significantly outperform the best-known brute-force search and can be effectively used in practice. The computational complexity of the descent algorithm for nodal straight lines is assessed. The scheme of the algorithm is provided.

Keywords: the least absolute deviations method; linear regression model; algorithm; nodal point; nodal straight line; hyperplane; computational complexity.

References

1. Kendel M.D., St'yuart A. Statisticheskie vyvody i svyazi (Statistical Inferences and Relationships). Moscow, Nauka Publ., 1973, 899 p. (in Russ.).

2. Korolyuk V.S., Portenko N.I., Skorokhod A.V., Turbin A.F. Spravochnikpo teorii veroyatnostey i matematicheskoy statistike (A Handbook on Probability Theory and Mathematical Statistics). Moscow, Nauka Publ., 1985, 640 p. (in Russ.).

3. Demidenko E.Z. Lineynaya i nelineynaya regressiya (Linear and nonlinear regression). Moscow, Finansy i statistika Publ., 1981, 302 p. (in Russ.).

4. Ayvazyan S.A., Enyukov I.S., Meshalkin L.D. Prikladnaya statistika: Issledovanie zavisimostey (Applied statistics: Dependency Studies). Moscow, Finansy i statistika Publ., 1985, 487 p. (in Russ.).

5. Bloomfield P., Steiger W.L. Least absolute seviations: theory, applications, and algorithms. Boston-Basel-Stuttgart, Birkhauser, 1983, 349 p.

6. Mudrov V.I., Kushko V.L. Metody obrabotki izmereniy: kvazipravdopodobnye otsenki (Measurement processing methods: quasi-truth estimates). Moscow, Radio i svyaz' Publ., 1983, 304 p. (in Russ.).

7. Weiszfeld E. On the point for which the sum of the distances to n given points is minimum. Annals of Operations Research, 2009, Vol. 167, no. 1, pp. 7-41. DOI: 10.1007/s10479-008-0352-z

8. Akimov P.A., Matasov A.I. Levels of nonoptimality of the Weiszfeld Algorithm in the least-modules method. Automation and Remote Control, 2010, Vol. 71, Issue 2, pp. 172-184. DOI: 10.1134/S0005117910020025

9. Tyrsin A.N., Maksimov K.E. Estimation of the Linear Regression Equations Using the Least-Modules Method. Zavodskaya laboratoriya. Diagnostika materialov, 2012, Vol. 78, no. 7, pp. 65-71. (in Russ.).

10. Boyd S., Vandenberghe L. Convex optimization. Cambridge, Cambridge University Press, 2004, 730 p. DOI: 10.1017/CB09780511804441

11. Zukhovitskiy S.I., Avdeeva L.I. Lineynoe i vypukloe programmirovanie (Linear and convex programming). Moscow, Nauka Publ., 1967, 460 p.

12. Panyukov A.V., Gorbik V.V. Using massively parallel computations for absolutely precise solution of the linear programming problems. Automation and Remote Control, 2012, Vol. 73, Issue 2, pp. 276-290. DOI: 10.1134/S0005117912020063

13. Rokafellar R. Vypuklyy analiz (Convex analysis). Moscow, Mir Publ., 1973, 469 p. (in Russ.).

14. Mikhaylov G.A., Voytishek A.V. Chislennoe statisticheskoe modelirovanie. Metody Monte-Karlo (Numerical statistical modeling. Monte Carlo methods). Moscow, Akademiya Publ., 2006, 368 p. (in Russ.).

15. Kormen T.Kh., Leyzerson Ch., Rivest R., Shtayn K. Algoritmy: postroenie i analiz (Algorithms: construction and analysis). Moscow, Vil'yams Publ., 2013, 1323 p. (in Russ.).

Received January 16, 2017

i Надоели баннеры? Вы всегда можете отключить рекламу.