Научная статья на тему 'Двухкритериальное оценивание линейных регрессионных моделей методами наименьших модулей и квадратов'

Двухкритериальное оценивание линейных регрессионных моделей методами наименьших модулей и квадратов Текст научной статьи по специальности «Математика»

CC BY
17
5
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
линейная регрессия / метод наименьших квадратов / метод наименьших модулей / множественное оценивание / линейное программирование / множество Парето / linear regression / ordinary least squares / least absolute deviations / multiple estimation / linear programming / Pareto set

Аннотация научной статьи по математике, автор научной работы — Базилевский Михаил Павлович

Статья посвящена проблеме оценивания моделей множественной линейной регрессии. На сегодняшний день разработано много различных методов решения этой проблемы. Самым популярным из них в научной среде считается метод наименьших квадратов, состоящий в решении оптимизационной задачи минимизации суммы квадратов ошибок. Достоинство этого метода в том, что решение оптимизационной задачи сводится к решению системы линейных алгебраических уравнений, а также в том, что в рамках метода разработана целая система различных критериев адекватности, отвечающих за измерение самых разных качественных характеристик регрессионной модели. Но оценки метода наименьших квадратов очень чувствительны к выбросам. Менее чувствительные к выбросам оценки даёт метод наименьших модулей, состоящий в решении оптимизационной задачи минимизации суммы модулей ошибок. Её решение равносильно решению особым образом сформулированной задачи линейного программирования, что несколько медленнее, чем решение линейной системы при реализации метода наименьших квадратов. К тому же при реализации метода наименьших модулей невозможно использовать такие критерии адекватности, как коэффициент детерминации, критерий Дарбина-Уотсона и т.д. Споры о том, какой из двух методов лучше, не прекращаются до сих пор. В данной работе с определенными допущениями сформулирована задача двухкритериального оценивания линейных регрессий методами наименьших модулей и квадратов. С использованием линейной свёртки двухкритериальная задача сведена к однокритериальной задаче линейного программирования. На примере данных с химическим экспериментом получены как известные, так и новые оценки линейной регрессии, свойства которых требуют дальнейшего изучения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Two-criteria Estimation of Linear Regression Models Using Least Absolute Deviations and Squares

This article is devoted to the problem of estimating multiple linear regression models. Today many different methods have been developed to solve this problem. The most popular of them in the scientific community is ordinary least squares, which consists in solving the optimization problem of minimizing the sum of squared errors. The advantage of this method is that the optimization problem solution is reduced to solving a system of linear algebraic equations, and also that within the framework of the method, a whole system of various adequacy criteria has been developed that are responsible for measuring a variety of qualitative characteristics of the regression model. But least squares estimates are very sensitive to outliers. Estimates less sensitive to outliers are provided the least absolute deviations, which consists of solving the optimization problem of minimizing the sum of absolute deviations. Its solution is equivalent to solving a specially formulated linear programming problem, which is somewhat slower than solving a linear system when implementing the least squares. In addition, when implementing the least absolute deviations, it is impossible to use such adequacy criteria as the coefficient of determination, the Durbin-Watson criterion, etc. The debate about which of the two methods is better continues to this day. In this work, with certain assumptions, the problem of two-criteria estimation of linear regressions is formulated using the least absolute deviations and squares. Using linear convolution, the two-criteria problem is reduced to a single-criteria linear programming problem. Using data from a chemical experiment as an example, both known and new linear regression estimates were obtained, the properties of which require further study.

Текст научной работы на тему «Двухкритериальное оценивание линейных регрессионных моделей методами наименьших модулей и квадратов»

Двухкритериальное оценивание линейных регрессионных моделей методами наименьших модулей и квадратов

М. П. Базилевский

Аннотация—Статья посвящена проблеме оценивания моделей множественной линейной регрессии. На сегодняшний день разработано много различных методов решения этой проблемы. Самым популярным из них в научной среде считается метод наименьших квадратов, состоящий в решении оптимизационной задачи минимизации суммы квадратов ошибок. Достоинство этого метода в том, что решение оптимизационной задачи сводится к решению системы линейных алгебраических уравнений, а также в том, что в рамках метода разработана целая система различных критериев адекватности, отвечающих за измерение самых разных качественных характеристик регрессионной модели. Но оценки метода наименьших квадратов очень чувствительны к выбросам. Менее чувствительные к выбросам оценки даёт метод наименьших модулей, состоящий в решении оптимизационной задачи минимизации суммы модулей ошибок. Её решение равносильно решению особым образом сформулированной задачи линейного программирования, что несколько медленнее, чем решение линейной системы при реализации метода наименьших квадратов. К тому же при реализации метода наименьших модулей невозможно использовать такие критерии адекватности, как коэффициент детерминации, критерий Дарбина-Уотсона и т.д. Споры о том, какой из двух методов лучше, не прекращаются до сих пор. В данной работе с определенными допущениями сформулирована задача двухкритериального оценивания линейных регрессий методами наименьших модулей и квадратов. С использованием линейной свёртки двухкритериальная задача сведена к однокритериальной задаче линейного программирования. На примере данных с химическим экспериментом получены как известные, так и новые оценки линейной регрессии, свойства которых требуют дальнейшего изучения.

Ключевые слова—линейная регрессия, метод наименьших квадратов, метод наименьших модулей, множественное оценивание, линейное программирование, множество Парето.

I. Введение

Проблема анализа разнородных статистических данных, накопленных в самых разных сферах человеческой деятельности, чрезвычайно актуальна в настоящее время. Эффективным инструментом анализа числовых данных по праву считается регрессионный

Статья получена 22 февраля 2024.

Базилевский Михаил Павлович, Иркутский государственный университет путей сообщения, Иркутск, Российская Федерация (е-шай: [email protected]).

анализ [1]. Обычно он начинается с построения самой простой регрессионной модели - линейной регрессии. Однако даже для неё, для самой простой модели, нерешенным остается вопрос о том, каким методом лучше оценивать её неизвестные параметры.

Самым известным и пользующимся популярностью в научной среде можно уверенно считать метод наименьших квадратов (МНК) [2]. Менее популярен метод наименьших модулей (МНМ), реализация которого, как отмечено в [3], требует решения специальным образом сформулированной задачи линейного программирования (ЛП) [4,5]. В [6] исследуется альтернативный алгоритм быстрого МНМ-оценивания с помощью спуска по узловым прямым. Достоинство МНМ по отношению к МНК состоит в том, что первый обладает меньшей чувствительностью к выбросам, чем второй. Иными словами МНМ -робастный метод оценивания [7] регрессионных моделей. Достоинство МНК в том, что для нахождения оценок неизвестных параметров достаточно решить систему линейных алгебраических уравнений, что быстрее, чем решение задачи ЛП для МНМ. К тому же конкретно для МНК разработан самый большой арсенал различных критериев адекватности моделей, таких, например, как коэффициент детерминации, критерий Фишера, Стьюдента, Дарбина-Уотсона и др., недоступных для МНМ.

Таким образом, ответить на вопрос о том, какой из двух методов однозначно лучше - МНМ или МНК, затруднительно. Критику МНМ можно встретить в работе [8], в которой авторы вовсе не рекомендуют его для применения на практике ввиду простоты реализации МНК. А в [9], наоборот, критикуется МНК. Там же отмечается, что МНК разработан, прежде всего, для сферы естественных наук, а его оценки имеют в определенном смысле формальный характер, поскольку минимум квадратов отклонений не имеет четкого экономического смысла.

Существуют и другие известные методы оценивания линейных и нелинейных регрессионных моделей (см., например, [10-12]). Среди них хотелось бы выделить метод антиробастного оценивания (МАО) [3], суть которого состоит в минимизации максимальной ошибки регрессии. МАО, в отличие от МНМ, сверхчувствителен к выбросам, поэтому применяется тогда, когда каждое наблюдение выборки уникально и не допускает исключения. Реализация МАО также требует решения задачи ЛП. В [3] сформулирована двухкритериальная задача оценивания линейных регрессий по критериям

МНМ и МАО. А в [13,14] процесс её решения был назван множественным оцениванием. Обобщением МНМ, МНК и МАО является так называемое Ьу-оценивание [15]. С помощью него в [16] была сформулирована задача множественного Ьу-оценивания. Все перечисленные в этом абзаце методы основаны на МАО, необходимость применения которого на практике встречается крайне редко.

Цель работы состоит в формализации двухкритериальной задачи оценивания линейных регрессий по критериям МНМ и МНК и её сведении к однокритериальной задаче ЛП.

II. Двухкритериальная задача

Модель множественной линейной регрессии, как известно, имеет следующий вид:

У =ао + ЕаХ + е ,

¡=1

где п - объем выборки; ху - известное 1-е наблюдение ¡-й объясняющей переменной; у. - / -е наблюдение объясняемой переменной у; е1 - 1-я ошибка аппроксимации; а0, а1, ..., а1 - неизвестные параметры; I - количество объясняющих переменных. Запишем модель (1) в матричном виде у = X а + е ,

где

i = 1, n ,

(1)

У =

00

У 2

У

f

X =

\

1 x„.

\-/n У

МНМ предполагает оптимизационной задачи:

x,

а

ni /

решение

Ь1

J=ХЫ

^ min.

S(ui + v mln,

i= 1 I

а +Y,ajxij + u- vi = у ■■

j=1

i = 1, n .

(3)

(4)

J2 = S

s, ^ min.

(6)

следующую систему линейных алгебраических уравнений:

Ka = K„

(7)

где

К„ = XTX =

n S xi1 i =1

n n

S xi1 S xi1

S xii S:

V i=1 i=1

S xii i =1 n

S x.1x i=1

n

Sxi2 i=1 У

Kx = XTy =

( n \

S y. i=1

n

S x.1 yt

S ад

V i=1

Для удобства обозначим элементы матрицы Kxx - xi

k, j = 1, i +1, а матрицы Kyx - y#, k = 1, i +1. Тогда система (7) примет вид

-1 х# = у#, к = 1,1 +1. (8)

]=1

Введем аддитивно в систему линейных алгебраических уравнений (8) искусственные (мнимые) ошибки ¿;к,

к = П:

следующей

(2)

Получить МНМ-оценки неизвестных параметров линейной регрессии (1) по критерию (2) можно, решив следующую задачу ЛП [3]:

Еа-1 х# + & = Ук#, к = 1,1 +1. (9)

]=1

Смысл введения искусственных ошибок заключается в расширении области возможных близких к МНК оценок параметров линейной регрессии. Если все эти ошибки равны 0, т.е. к = 0, к = 1,1 +1, то система (9) даёт строгие МНК-оценки. Если искусственные ошибки довольно малы, то система (9) позволяет получить новые, отличные от строгих, оценки. Будем называть их нестрогими МНК-оценками. Чем больше искусственные ошибки, тем сильнее различаются строгие и нестрогие МНК-оценки.

Сформулируем следующую оптимизационную задачу:

и1 > 0, > 0, I = 1, п , (5)

где неотрицательные переменные и1 и подчинены правилам

{е,, если е > 0,

и1 = \

[0, в противном случае,

1-е, если е < 0, [0, в противном случае.

Суть МНК заключается в решении следующей оптимизационной задачи:

^МНК = Sl^kl ^min.

(10)

Для решения задачи (10) можно по аналогии с формулами (3) - (5) сформулировать задачу ЛП:

S(4k + wk^

Sa-1 xkj+qk - wk = y#, k=11+L

j=1

где

4k =

Получить МНК-оценки неизвестных параметров линейной регрессии (1) по критерию (6) можно, решив

qk > 0, wk > 0, k = 1, i +1

ïk, если & > a

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0, в противном случае,

(11) (12) (13)

i=1

k=1

k =1

i=1

, если < °

[0, в противном случае.

Очевидно, что задача ЛП (11) - (13) всегда имеет решение qk = wk = 0 , k = 1, l +1, соответствующее МНК-оцениванию. Поэтому сформулируем следующую двухкритериальную задачу оценивания линейной регрессии:

J1 (а) ^ min , ,/МНК (а) ^ min • (14)

Формулировка (14) означает, что требуется найти такие оценки линейной регрессии, которые одновременно робастны и близки к МНК-оценкам. Как и при реализации множественного оценивания [13], сформируем линейную свёртку критериев Jl и JM™ с изменяющимися положительными коэффициентами р : J = (1 -р)J + р^МНК , ре [0,1].

Тогда, разбивая равномерным образом отрезок р е [0,1] как можно большим количеством точек и решая для каждой из них задачу ЛП

n l+1

(1 -р)Т,(и< + v )+рЕ( qk+w) ^ min, (15)

i=1 k=1

с ограничениями (4), (5), (12), (13) можно получить множество Парето в критериальном пространстве

(J„ ^) •

Аналогичным образом можно сформулировать трехкритериальную задачу оценивания линейной регрессии:

Jj (а)^ min, J1МНК (а) ^ min, J„(a)^ min, где Ja(a) = max Ц - функция потерь для МАО [3].

i=1,n

Такая задача также легко сводится к задаче ЛП.

III. Пример

Для демонстрации функционирования предложенного математического аппарата решалась задача оценивания линейной регрессии по данным о химических экспериментах из монографии [15]. В качестве переменных выступают:

y - выход реакции (количество вещества B3, кг);

x1 - количество вещества B1 (кг);

x2 - температура реакции (°С);

x3 - количество катализатора (г).

Для воспроизводимости вычислений в таблице 1 представлены значения перечисленных переменных.

Таблица 1 - Статистические данные

198,76 374,91 106,88 12,15

У Xl X2 X3

140,28 252,36 96,67 8,37

142,02 262,54 100,07 9,07

149,9 285,7 96,78 9,35

147,12 277,52 101,3 9,67

163,62 307,95 100,35 9,45

173,4 322,44 104,8 10,12

178,86 334,88 106,17 10,35

186,26 350,11 109,2 11,03

183,53 346,1 104,48 10,38

Заметим, что объем выборки в [15] составляет 15 наблюдений. В таблице 1 для упрощения процедуры оценивания линейной регрессии были взяты только первые 10 из них.

Сначала по данным из таблицы 1 была определена матрица Кх и вектор Кух:

3114,51 985119,8 321142,5 31497,02

K„ =

f 10 3114,51 1026,7 99,94

99,94 ^ 31497,02 10296,54 1009,12

Kx =

1026,7 321142,5 105576,4 10296,54 ( 1663,75 ^ 525785 171522,8 , 16813,12

V ~ /

Затем задача ЛП с целевой функцией (15) и линейными ограничениями (4), (5), (12), (13) была формализована для решателя LPSolve IDE в виде следующей программы:

min: 0.2J1+0.8J1_mnk; J1=u1+v1+u2+v2+u3+v3+u4+v4+u5+v5+u6+v6+u7+v7+u8 +v8+u9+v9+u10+v10;

J1_mnk=q1+w 1+q2+w2+q3+w3+q4+w4; b0+252.36b1+96.67b2+8.37b3+u1-v1=140.28; b0+262.54b1+100.07b2+9.07b3+u2-v2=142.02; b0+285.7b1+96.78b2+9.35b3+u3-v3=149.9; b0+277.52b1+101.3b2+9.67b3+u4-v4=147.12; b0+307.95b1+100.35b2+9.45b3+u5-v5=163.62; b0+322.44b1+104.8b2+10.12b3+u6-v6=173.4; b0+334.88b1+106.17b2+10.35b3+u7-v7=178.86; b0+350.11b1+109.2b2+11.03b3+u8-v8=186.26; b0+346.1b1+104.48b2+10.38b3+u9-v9=183.53; b0+374.91b1+106.88b2+12.15b3+u10-v10=198.76;

10b0+3114.51b1+1026.7b2+99.94b3+q1-w1=1663.75; 3114.51b0+985119.7623b1+321142.4659b2+31497.0205b

3+q2-w2=525785.009; 1026.7b0+321142.4659b1+105576.4284b2+10296.5402b3

+q3-w3=171522.8154; 99.94b0+31497.0205b1+10296.5402b2+1009.1204b3+q4-w4=16813.1216; b0>=-Inf; b1>=-Inf; b2>=-Inf; b3>=-Inf;

После чего, меняя в этой программе в целевой функции значения параметра р от 0 до 1 с шагом 0.01, было построено множество Парето в критериальном пространстве (J1, JM™) (таблица 2).

Как видно по таблице 2, множество Парето состоит из семи решений. При р = 0 имеет МНМ-оценки, а при р = 1 - МНК-оценки. В остальных пяти случаях получены новые нестрогие МНК-оценки линейной регрессии. В последнем столбце таблицы 2 приведены значения сумм квадратов остатков оцененных регрессий. На рисунке 1 представлены так называемые вершины множества Парето в критериальном

International Journal of Open Information Technologies ISSN: 2307-8162 vol. 12, no. 6, 2024 пространстве ( J1, Jf™ ).

Таблица 2 - Множество Парето

р а0 а а2 а3 J1 j МНК S

0 (МНМ) -22,2912 0,4703 0,3671 0,4515 11,4221 277,765 34,5113

0,01 - 0,02 -22,5114 0,4752 0,3924 0,0566 11,5289 28,8738 32,233

0,03 - 0,21 -20,0789 0,4793 0,4099 -0,4905 12,2612 1,245 29,469

0,22 - 0,24 -15,0367 0,4928 0,3577 -0,8824 12,4106 0,7152 28,527

0,25 - 0,44 -10,868 0,5041 0,3147 -1,2064 12,5342 0,3402 28,323

0,45 - 0,78 -14,6812 0,5066 0,3734 -1,506 12,8025 0,0079 28,08

0,79 - 1 (МНК) -15,8402 0,5056 0,3886 -1,5148 12,8315 0 28,0696

По таблице 2 видно, что применение разных методов может не просто приводить к разным оценкам линейной регрессии, но и к смене направления влияния объясняющих переменных на у . Например, при МНМ-оценивании наблюдается прямое влияние катализатора х3 на у , а при МНК-оценивании - обратное.

Рис. 2 - Зависимость оценки а0 от параметра р 0,513

300 250 200 150 100 50 О

мнк

—•—•- ■Л

11,3 11,8 12,3 12,8

Рис. 1 - Вершины множества Парето в критериальном пространстве (./1МНК)

Множество Парето (рисунок 1) может быть использовано для визуального выбора наиболее приемлемой альтернативы.

Графики зависимостей оценок линейной регрессии от параметра р представлены на рисунках 2 - 5.

-10

-12

-14

-16

-18

-20

-22

-24

IT,

0 1

J

!

J

J P

0,508 0,503 0,498 0,493 0,438 0,483 0,478 0,473 0,468

a\

I P

О ОД 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 Рис. 3 - Зависимость оценки а1 от параметра р 0,42

0,4

0,38

0,36

0,34

0,32

0,3

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

О 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 Рис. 4 - Зависимость оценки а2 от параметра р 0,75

2

/

I

P

0,25 -0,25 -0,75 -1,25 -1,75

a I 3

\

1

I

£

О ОД 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

О ОД 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

Рис. 5 - Зависимость оценки а3 от параметра p

IV. Заключение

В статье сформулирована двухкритериальная задача оценивания линейной регрессии. Первый критерий представляет собой сумму модулей ошибок и отвечает за робастность оценок. Второй - сумму модулей искусственных ошибок и отвечает за близость оценок к МНК-оценкам. Двухкритериальная задача с использованием линейной свертки сведена к однокритериальной задаче линейного

программирования. Показано, как с помощью этой задачи формировать множество Парето. Проведен численный эксперимент. В результате было сформировано множество Парето с двумя известными решениями (МНК и МНМ), а также с пятью новыми решениями. Научный интерес вызывают свойства новых оценок линейной регрессии, а также то, как они соотносятся с компромиссом L15 [15] между

классической оценкой МНК и робастными оценками.

Библиография

[1] Arkes J. Regression analysis: a practical introduction. Taylor & Francis, 2023.

[2] Lakshmi K., Mahaboob B., Rajaiah M., Narayana C. Ordinary least squares estimation of parameters of linear model // Journal of Mathematical and Computational Science. 2021. Vol. 11. No. 2. P. 2015-2030.

[3] Носков С.И. Технология моделирования объектов с нестабильным функционированием и неопределенностью в данных. Иркутск : РИЦ ГП «Облинформпечать», 1996. 320 с.

[4] Dorfman R. Application of linear programming to the theory of the firm: including an analysis of monopolistic firms by non-linear programming. Univ of California Press, 2022.

[5] Darst R. Introduction to linear programming: applications and extensions. CRC Press, 2020.

[6] Тырсин А.Н. Алгоритмы спуска по узловым прямым в задаче оценивания регрессионных уравнений методом наименьших модулей // Заводская лаборатория. Диагностика материалов. 2021. Т. 87. № 5. С. 68-75.

[7] Миллер Б.М., Колосов К.С. Робастное оценивание на основе метода наименьших модулей и фильтра Калмана // Автоматика и телемеханика. 2020. № 11. С. 72-92.

[8] Авдюшев В.А., Мезенцева А.Д. Метод наименьших модулей и его эффективность при обработке измерений с ошибками различного распределения // Известия Высших учебных заведений. Физика. 2012. Т. 55. № 10/2. С. 68-76.

[9] Староста Р.Д. Применение метода наименьших модулей в экономическом анализе : автореф. дис. ... канд. экон. наук. Л., 1979. 22 с.

[10] Смоляк С.А. Применение метода максимального правдоподобия для стоимостной оценки // Экономика и математические методы. 2020. Т. 56. № 2. С. 114-126.

[11] Носков С.И., Перфильева К.С. Моделирование объема погрузки на железнодорожном транспорте методом смешанного оценивания // Известия Тульского государственного университета. Технические науки. 2021. № 2. С. 148-153.

[12] Носков С.И., Бычков Ю.А. Модификация непрерывной формы метода максимальной согласованности при построении линейной регрессии // Известия Тульского государственного университета. Технические науки. 2022. № 5. С. 88-94.

[13] Носков С.И., Баенхаева А.В. Множественное оценивание параметров линейного регрессионного уравнения // Современные технологии. Системный анализ. Моделирование. 2016. № 3 (51). С. 133-138.

[14] Баенхаева А.В., Базилевский М.П., Носков С.И. Моделирование валового регионального продукта Иркутской области на основе применения методики множественного оценивания

регрессионных параметров // Фундаментальные исследования. 2016. № 10-1. С. 9-14.

[15] Демиденко Е.З. Линейная и нелинейная регрессии. М.: Финансы и статистика, 1981.

[16] Носков С.И., Базилевский М.П. Множественное Lv-оценивание линейных регрессионных моделей // Успехи кибернетики. 2022. Т. 3. № 4. С. 32-40.

Базилевский Михаил Павлович, к.т.н., доцент кафедры математики Иркутского государственного университета путей сообщения, Иркутск, Россия; ORCID 0000-0002-3253-5697 (e-mail: [email protected])

Two-criteria Estimation of Linear Regression Models Using Least Absolute Deviations and

Squares

M. P. Bazilevskiy

Abstract—This article is devoted to the problem of estimating multiple linear regression models. Today many different methods have been developed to solve this problem. The most popular of them in the scientific community is ordinary least squares, which consists in solving the optimization problem of minimizing the sum of squared errors. The advantage of this method is that the optimization problem solution is reduced to solving a system of linear algebraic equations, and also that within the framework of the method, a whole system of various adequacy criteria has been developed that are responsible for measuring a variety of qualitative characteristics of the regression model. But least squares estimates are very sensitive to outliers. Estimates less sensitive to outliers are provided the least absolute deviations, which consists of solving the optimization problem of minimizing the sum of absolute deviations. Its solution is equivalent to solving a specially formulated linear programming problem, which is somewhat slower than solving a linear system when implementing the least squares. In addition, when implementing the least absolute deviations, it is impossible to use such adequacy criteria as the coefficient of determination, the Durbin-Watson criterion, etc. The debate about which of the two methods is better continues to this day. In this work, with certain assumptions, the problem of two-criteria estimation of linear regressions is formulated using the least absolute deviations and squares. Using linear convolution, the two-criteria problem is reduced to a single-criteria linear programming problem. Using data from a chemical experiment as an example, both known and new linear regression estimates were obtained, the properties of which require further study.

Keywords—linear regression, ordinary least squares, least absolute deviations, multiple estimation, linear programming, Pareto set.

References

[1] Arkes J. Regression analysis: a practical introduction. Taylor & Francis, 2023.

[2] Lakshmi K., Mahaboob B., Rajaiah M., Narayana C. Ordinary least squares estimation of parameters of linear model // Journal of Mathematical and Computational Science. 2021. Vol. 11. No. 2. P. 2015-2030.

[3] Noskov S.I. Tekhnologiya modelirovaniya ob"ektov s nestabil'nym funktsionirovaniem i neopredelennost'yu v dannykh. Irkutsk : RITs GP «Oblinformpechat'», 1996. 320 p.

[4] Dorfman R. Application of linear programming to the theory of the firm: including an analysis of monopolistic firms by non-linear programming. Univ of California Press, 2022.

[5] Darst R. Introduction to linear programming: applications and extensions. CRC Press, 2020.

[6] Tyrsin A.N. Algoritmy spuska po uzlovym pryamym v zadache otsenivaniya regressionnykh uravneniy metodom naimen'shikh moduley // Zavodskaya laboratoriya. Diagnostika materialov. 2021. Vol. 87. No. 5. P. 68-75.

[7] Miller B.M., Kolosov K.S. Robastnoe otsenivanie na osnove metoda naimen'shikh moduley i fil'tra Kalmana // Avtomatika i telemekhanika. 2020. No.11. P. 72-92.

[8] Avdyushev V.A., Mezentseva A.D. Metod naimen'shikh moduley i ego effektivnost' pri obrabotke izmereniy s oshibkami razlichnogo raspredeleniya // Izvestiya Vysshikh uchebnykh zavedeniy. Fizika. 2012. Vol. 55. No. 10/2. P. 68-76.

[9] Starosta R.D. Primenenie metoda naimen'shikh moduley v ekonomicheskom analize : avtoref. dis. ... kand. ekon. nauk. L., 1979. 22 p.

[10] Smolyak S.A. Primenenie metoda maksimal'nogo pravdopodobiya dlya stoimostnoy otsenki // Ekonomika i matematicheskie metody. 2020. Vol. 56. No. 2. P. 114-126.

[11] Noskov S.I., Perfil'eva K.S. Modelirovanie ob"ema pogruzki na zheleznodorozhnom transporte metodom smeshannogo otsenivaniya // Izvestiya Tul'skogo gosudarstvennogo universiteta. Tekhnicheskie nauki. 2021. No. 2. P. 148-153.

[12] Noskov S.I., Bychkov Yu.A. Modifikatsiya nepreryvnoy formy metoda maksimal'noy soglasovannosti pri postroenii lineynoy regressii // Izvestiya Tul'skogo gosudarstvennogo universiteta. Tekhnicheskie nauki. 2022. No. 5. P. 88-94.

[13] Noskov S.I., Baenkhaeva A.V. Mnozhestvennoe otsenivanie parametrov lineynogo regressionnogo uravneniya // Sovremennye tekhnologii. Sistemnyy analiz. Modelirovanie. 2016. No. 3 (51). P. 133-138.

[14] Baenkhaeva A.V., Bazilevskiy M.P., Noskov S.I. Modelirovanie valovogo regional'nogo produkta Irkutskoy oblasti na osnove primeneniya metodiki mnozhestvennogo otsenivaniya regressionnykh parametrov // Fundamental'nye issledovaniya. 2016. No. 10-1. P. 914.

[15] Demidenko E.Z. Lineynaya i nelineynaya regressii. M.: Finansy i statistika, 1981.

[16] Noskov S.I., Bazilevskiy M.P. Mnozhestvennoe Lv-otsenivanie lineynykh regressionnykh modeley // Uspekhi kibernetiki. 2022. Vol. 3. No. 4. P. 32-40.

Bazilevskiy Mikhail Pavlovich, Ph.D., Associate Professor of the

Department of Mathematics, Irkutsk State Transport University, Irkutsk,

Russia; ORCID 0000-0002-3253-5697 (e-mail: [email protected])

i Надоели баннеры? Вы всегда можете отключить рекламу.