Abhari Peyman Bahmanovich, candidate of technical sciences, docent, payha-ries@gmail. com, Ukraine, Kramatorsk, Donbass State Engineering Academy,
Goncharuk Kristina Vasil'evna, postgraduate, [email protected], Ukraine, Kramatorsk Donbass State Engineering Academy
УДК 004.021
НЕЛИНЕЙНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ В СТАТИСТИЧЕСКОМ МАШИННОМ ЭКСПЕРИМЕНТЕ
С.В. Недошивин
Предложена методика проведения статистического машинного эксперимента при анализе исследуемой технологической системы с детерминированной моделью. Рассмотрены этапы проведения нелинейного множественного корреляционного анализа на заключительных этапах разработанной методики.
Ключевые слова: статистический машинный эксперимент, множественный нелинейный регрессионный анализ.
Проведение и обработка результатов статистических машинных (модельных, условных) экспериментов (СМЭ) с детерминированными (теоретическими) моделями позволяют существенно расширить и углубить количественное и качественное представление о сущности и характере сложных взаимосвязей между признаками в многопараметрических исследуемых системах, особенно в тех случаях, когда проведение натурных экспериментов проблематично или нецелесообразно [1]. Во многих случаях планирование, проведение и обработка результатов СМЭ осуществляются на основе планируемого многофакторного эксперимента [2, 3]. Однако в процессе проведения исследований часто возникают варианты, когда проведение активного многофакторного эксперимента не представляется возможным или в нем нет необходимости по другим соображениям. В этих случаях значительный результат может дать реализация СМЭ на основе математического аппарата классического множественного корреляционно-регрессионного анализа [4]. В работе [5] изложены фрагменты разработанной методики проведения статистического машинного эксперимента, касающиеся этапов непосредственной реализации множественного регрессионного анализа при линейном характере получаемого уравнения регрессии.
Сравнительно часто линейная регрессионная модель неадекватно
68
отображает исследуемые взаимосвязи, и наилучшее приближение дают нелинейные уравнения.
Для взаимоувязанного представления материала, изложенного в данной работе, в рамках одной совокупной методики, продолжим его изложение в соответствии с пунктами, сформулированными в работах [4, 5].
Проведение нелинейного множественного регрессионного анализа. В зависимости от характера нелинейной связи различают положительную равноускоренно или равнозамедленно возрастающую регрессию, отрицательную равноускоренно или равнозамедленно убывающую регрессию либо их комбинированные формы. Для выбора и обоснования кривой регрессии нет универсального метода. Односторонняя стохастическая зависимость между двумя явлениями может быть описана, например, с помощью полиномиальной регрессии:
Применяются также степенная, показательная, логарифмическая и тригонометрическая функции. Подбор функции регрессии должен производиться с применением той конкретной науки, на базе которой возникает задача установления связи между явлениями. Чаще всего рекомендуется использовать семейства кривых, уравнения которых выражаются многочленами целых положительных степеней (полиномы типа (1)). Полином первой степени (прямая линия) не имеет перегибов. С помощью полинома второй степени можно передать одну точку поворота функции. Полином третьей степени отражает две точки поворота функции. О характере зависимости между переменными часто судят по внешнему виду эмпирического графика регрессии. Однако при малом числе наблюдений этот путь приводит к неудовлетворительным результатам, т. к. резкие зигзаги эмпирической (ломаной) линии регрессии затрудняет выявление закономерностей. В каждом случае следует проверять возможность применения линейной регрессии. Также следует обращать внимание на то, чтобы оценка регрессии производилась с достаточной степенью надежности. Информацию об этом дает коэффициент детерминации.
Различают два класса нелинейных регрессий. К первому классу относятся регрессии, нелинейные относительно включенных в анализ независимых переменных Х}, но линейные по неизвестным, подлежащим оценке параметрам (коэффициентам) регрессии Ь. Поэтому образующие этот класс нелинейные регрессии называют также квазилинейными регрессиями. Их преимущество состоит в том, что для них возможно непосредст-
/ = Ь) + Ь • х + Ь1 • х2 +... Либо с помощью гиперболической регрессии
(1)
х
(1)
венное применение метода наименьших квадратов, а следовательно, остаются все исходные предпосылки линейного регрессионного анализа. Используются те же критерии значимости, аналогично строятся доверительные интервалы.
Второй класс регрессий характеризуется нелинейностью по оцениваемым параметрам. Он обладает существенным недостатком -не допускает применения обычного метода наименьших квадратов. Для решения получающейся системы уравнений привлекают итерационные методы либо прибегают к аппроксимации параметров искомой зависимости. Широко используется, также, линейное преобразование функции регрессии, которое позволяет применять к преобразованным параметрам статистические критерии линейной регрессии.
Оценивание параметров регрессий, нелинейных по независимым переменным.
Проблема оценивания параметров, в данном случае, решается относительно просто. Можно использовать два основных способа.
1. Составление системы нормальных уравнений на основе метода наименьших квадратов.
Рассмотрим в общем виде квазилинейную регрессию, т. е. функцию, нелинейную по независимым переменным, но линейную по оцениваемым параметрам:
У = bo + b • F(x) + b1 • F(x)+... , (3)
где F (x), F (x), ••• - функции от независимых переменных x. Они не содержат других параметров. Так, например, это могут быть функции вида
F (x) = log x или F (x) = -1, но не такие, как F (x) = log (x-b) или
x
Fi (x)= 1
Л'
Применяя метод наименьших квадратов к (3), получим систему нормальных уравнений
т т т
X У] = т • Ъ) + Ъ • X Р ( X) + Ъ2 • X р2 (х)+...;
]=1 ]=1 ]=1 т т т т
X У] (х) = Ъ0 • X Р]1 (х) + Ъ • X (х) + Ъ2 • X (х) • Р]2(х) +...; ]=1 ]=1 ]=1 ]=1 т т т т
X У] Р] 2 ( X ) = Ъ) • X Р] 2 ( X) + Ъ • X Р]1 ( X)• Р] 2 ( х) + Ъ2 • X ] ( X)+.... ]=1 ]=1 ]=1 ]=1
После подстановки числовых данных полученная система нормальных уравнений приводится к каноническому виду и решается одним из известных методов.
Приведем системы нормальных уравнений для функций, используемых при проведении машинных экспериментов, моделирующих процессы обработки металлов давлением (табл. 1).
Таблица 1
Перечень квазилинейных аппроксимирующих функций (первого класса) и соответствующих им систем нормальных уравнений
№ Функция Нормальные уравнения
1 2 3
т т т £ У] = ¿з •т + ¿1 • £ х]+¿2 • £ х2; >1 ]=1 ]=1
1 7 = ¿з + ¿1 • х + Ь2 • х2 т т т т £ У] ■х]=¿з • £ х]+¿1 • £ х;-+¿2 • £ 4; ]=1 ]=1 ]=1 ]=1 т т т т £ УJ • х] = ¿0 • £ х2 + ¿1 • £ ху + ¿2 • £ х4. ]=1 ]=1 ]=1 ]=1
т т т т £ У] = ¿з •т+¿1 • £ х]+¿2 • £ ^+¿3 • £ 4; ]=1 ]=1 ]=1 ]=1
2 у = Ьз + ¿1 • х + ¿2 • х2 + т т т т т £ У] • х] = ¿0 • £ х] + ¿1 • £ х2 + ¿2 • £ х3 + ¿3 • £ х4; ]=1 ]=1 ]=1 ]=1 ]=1
+ ¿3 • х3 т т т т т £ У] • х] = ¿0 • £ х] + ¿1 • £ х3 + ¿2 • £ х] + ¿3 • £ х5; ]=1 ]=1 ]=1 ]=1 ]=1 т т т т т £ У] • ху = ¿0 • £ ху + ¿1 • £ х4 + ¿2 • £ + ¿3 • £ х]. ]=1 ]=1 ]=1 ]=1 ]=1
3 У = ¿з + ¿1 • х тт £ У] = ¿ь •т + ¿1 • £ х]; ]=1 ]=1 т т т £ х] • У] = ¿з • £ х]+¿1 • £ ^. ]=1 ]=1 ]=1
Окончание табл. 1
1 2 3
m mm S log уу=¿О •m+b • S xj+b2 • S x2; j=1 j=1 j=1
4 log j = bo + b • x + b> • x2 m m m m S xj ■ log уу=¿о • S xj+b • S x2 •+b2 • S^; j=1 j=1 j=1 j=1 m m m m S x2 • log Уj = bo • S x2' + b • S + ¿2 • S x4 • j=1 j=1 j=1 j=1
5 log у = bo +• x + ¿2 • x2 + + b • x3 Такие же, как для функции 2, при замене у у на log у у
6 у = bo + b • log x mm S У у = ¿о •m+• S log xj; j=1 у=1 m mm 2 S уу • log xj = ¿o • S log xj+¿i • S (log xj) • j=1 j=1 j=1
mm S log уу = bo • m + b • S log xj; j=1 j=1 m mm 2 S (log уу • log xj) = ¿0 • S log xj + b • S (log xj) • j=1 j=1 j=1
7 log у = bo + b • log x
8 log у = bo + b • log x+ Такие же, как для функции 1, при замене: xj на log xj; x2
+ ¿2 •( log x)2 на (log xj )2 ; уу на log у у •
9 log у = bo + b • log x+ Такие же, как для функции 2, при замене: xj на log xj ; x2j
+62 •(log x)2 + b3 •(log x)3 на (log xj )2 ; x3 на (log xj )3; уу на log уу.
10 у = bo + b •1 x m m 1 S уу = ¿o •m+¿1 • S —; j=1 j=1 xj m 1 m 1 m 1 S уу--= ¿0 • S — + b • S "r j=1 xj j=1 xj j=1 ^
11 = и и 1 и 1 у = ¿о + Ь —+ ¿2 2 x x2 Такие же, как для функции 1, при замене: 1 „2 1 Лу на —; xj на — • xj xj
Замена переменных. Независимые переменные, имеющие степень, отличающуюся от первой, заменяют другими независимыми переменными в первой степени, и к новой системе переменных применяют обычный ме-
72
тод наименьших квадратов. После того как получено уравнение регрессии с оцененными параметрами, введенные в него новые независимые переменные вновь заменяются на первоначальные.
Пусть необходимо рассчитать параметры (коэффициенты регрессии) теоретического уравнения
/ = Ь) + ь • X + Ь2 • Х2 + Ьз • X2 + Ь4 • х^ + е. (4)
Введем переменные
*1 = *Ь г2 = х2 ; 23 = X2 ; г4 = *2 , (5)
после чего запишем
7 = Ь) + Ь1 • + Ь2 • ^2 + Ь • 23 + Ь4 • 24 + е . (6)
Далее, следуя аналогии линейного множественного регрессионного анализа [5], определяют компоненты вектора неизвестных (искомых) параметров Ь1 ([5], зависимость (3)). Для этого в формуле ([5], зависимость
(7)) следует заменить обратную матрицу (ХТ X) на обратную матрицу в
(ZTZ) и вектор ХТ • 7 - на вектор • у. В резуль-
новых переменных тате получим
Ь = ( ZTZ )-1 • ZT • у. (7)
Для полученной регрессии можно найти ошибки параметров (коэффициентов регрессии) и доверительные интервалы, например, по численным данным табл. 2.
В качестве аппроксимирующей кривой выберем параболу второго порядка
у = Ь) + Ь • х + Ь> • х2 = Ь) + Ь • 2 + Ь2 • 22.
Как уже отмечалось, форму, уравнение аппроксимирующей кривой и систему соответствующих линейных уравнений для оценок искомых коэффициентов этого уравнения устанавливают визуально по характеру расположения экспериментальных (модельных) точек на графике с использованием соответствующих статистических таблиц [6].
Таблица 2
Числовые данные для определения ошибок параметров и доверительных интервалов регрессии
7 6 7 13 16 20 24 22 20
X 0,9 1,0 1,8 2,4 4,0 5,8 7,6 8,5
Для оценки параметров воспользуемся формулами ([5], зависимость (2)). По приведенным числовым данным табл. 2 получим
т 2 т 2
у = 16,0; = 4,0; £ Яд = 62,46; £ = 5453,9;
7=1 7=1
т т т
£ у] • яд = 118,6; £ у) • = 943,0; £ яд • = 572,0. 7=1 7=1 7=1
Далее ([5], зависимость (2)):
В = 62,46 • 5453,9 - 572,02 = 13466,6;
, 5453,9 118,6 - 572,0 • 943,0 Ь =-------— = 7,7231;
1 13466,6
, 62,46 • 943,0 - 572,0 118,6
¿ъ =-= -0,6638;
2 13466,6
Ь0 = 16,0 - 7,7231 • 4 + 0,6638 • 23,81 = 0,9127. Таким образом,
у = 0,9127 + 7,7231 • х - 0,6638 • х2.
Индекс корреляции (корреляционное отношение). Измерение силы (тесноты) связи в случае нелинейной регрессии осуществляется с помощью индекса корреляции или корреляционного отношения
I =
2
е
т
£7
71-, (8)
£ (У]- у )2
7=1
где I - индекс корреляции (корреляционное отношение); е] - отклонение
экспериментального (модельного) значения результативного признака у от расчетного (полученного по уравнению нелинейной регрессии) в каждом 7 -м условном опыте.
По данным предыдущего примера
т т _ 2 7 25
£ е2 = 7,25; £ (уу - у) = 322,0, тогда I =Н - = 989.
Если, например, в качестве первого и самого грубого приближения применить линейную парную регрессию, то получим
1
_ т
yj = 8,405 +1,899 • xj; £ e2 = 96,7; и r = 0,83.
j=1
Таким образом, введение дополнительного члена в уравнение регрессии, т. е. переход от линейной к параболической регрессии
У; = 8,405 + 7,7231 • x; - 0,6638 • x2, повышает качество описания иссле-
J j J J
дуемой зависимости. При этом резко снижается значение «необъясненной» регрессией суммы квадратов отклонений и возрастает мера тесноты связи. Дальнейшее усложнение формы кривой, например, введение членов в третьей и более степени, практически не увеличит меру тесноты связи, так как «объясняющая способность» уравнения регрессии, по существу, не изменится.
Оценивание параметров регрессий, нелинейных по параметрам.
При обработке результатов машинных экспериментов часто приходится иметь дело с функциями, нелинейными относительно оцениваемых параметров. Использование этого класса регрессий связано с вычислительными трудностями, т. к. указанные регрессии не допускают непосредственного применения обычного метода наименьших квадратов. Для того, чтобы сделать это возможным, исходные данные подвергают преобразованиям, главное назначение которых в линеаризации рассматриваемых зависимостей по оцениваемым параметрам. Так, например, путем логарифмического преобразования можно перейти от зависимости показательного типа к линейной:
У = a • bx, (9)
log y = log a + x • log b. (10)
Произведя в (10) замену log y = Z, log a = A и log b = B, получим
Z = A + B . (11)
К уравнению (11) можно применить метод наименьших квадратов. При этом требование МНК будет относиться к условию
т 2 т _ 2
£ (zj - Zj) ® min, а не к условию £ (yj - yj) ® min . Следовательно, j=1 j=1
т т _
для (11) не является обязательным равенство £ yj = £ yj.
j=1 j=1
Таким образом, для определения зависимости типа (9) нужно выполнить логарифмическое преобразование переменной y, т. е. пролога-
рифмировать эмпирическое значение yj, Zj = log yj. Аналогичному преобразованию подвергают исходные данные при изучении зависимости вида y = a ■ № . После возведения в квадрат обеих частей данного уравнения
перейдем к логарифмам. Введем следующие обозначения: 2logy = Z; 2log a = A; b = B. В итоге получим: Z = A + B ■ log x. Оценки параметров A и B можно найти снова с помощью метода наименьших квадратов.
Итак, некоторые функции с помощью преобразования переменных поддаются линеаризации относительно своих параметров. Параметры регрессии исходных функций находят путем обратных преобразований. Линеаризация связей дает возможность применять для нахождения оценок параметров метод наименьших квадратов. Но оценки параметров исходных функций могут не обладать свойствами МНК-оценок, поэтому разработаны способы уточнения этих оценок.
Для удобства практического использования приведем в табл. 3 наиболее часто встречающиеся при обработке экспериментальных результатов нелинейные функции второго класса.
Таблица 3
Перечень нелинейных аппроксимирующих функций (второго класса) и соответствующих им систем нормальных уравнений
Название функции Аналитическое выражение функции Преобразование функции
1. Степенная y = a ■ xb log y = log a + b ■ log x
2. Показательная y = a ■ bx log y = log a + x■ log b
3. Показательно-степенная y = a ■ xb ■ cx log y = log a + b■ log x + x■ log c
4. Экологическая -b2 ■( x-c )2 y = a ■ e v ' log y = log a - b ■ c ■ log e+ +2b2 ■ c■ (log e) ■ x- b2 ■ (log e) ■ x
5. Логистическая (8-образная функция, сигмо-ид, функция Фишера) a y = 1 + b ■ e~°x a y = 1 + beb-c x log / log V a -1 Vy a -1] .y = log b - c ■ x■ log e = b ■ log e - c ■ x■ log e
6. Частный случай логистической функции a i bГ log f a a -1 Vy = c ■ log b - c ■ log x
7. Функция Гомперца (8-образная функция) log y = log a + b ■ cx log (log a - log y) = log (-b) + +x ■ log c
Окончание табл. 3
Название функции Аналитическое выражение функции Преобразование функции
8. Иррациональная y =V a + b • x + c • x2 y • 2 = a + b • x + c •x2
9. Гиперболическая 1 y = «. a + b • x 1 = 1 y a + b x
10. Функция, обратная квадратному трехчлену 1 У = 2 a + b • x + c • x 1 = a + b • x + c- x2 y
11. Дробно-рациональная функция x y = 2 a + b • x + c • x x = a + b • x + c^ x2 y
12. Функция Джонсона log У = + c b + x 1 b 1 = x (log y - c) a a
13. Модифицированная экспоненциальная y = a • ebx log y = log a + b • x• log e
Проверка уравнений регрессии с помощью дисперсионного анализа. Дисперсионный анализ как вспомогательное средство применим и в корреляционно-регрессионном анализе. В частности, с его помощью можно проверить гипотезу о наличии связи между переменными (без постановки вопроса о форме этой связи). Далее последовательно можно испытать пригодность линейной регрессии и регрессии более высоких порядков. Если испытывается регрессия на несколько независимых переменных, то дисперсионный анализ позволяет проверить существенность вклада дополнительных переменных.
Наличие зависимости между переменными проверяется с помощью простой схемы дисперсионного анализа (полностью случайный отбор) при условии, что для каждого уровня (числового значения) фактора имеется несколько наблюдений результативного признака. В качестве фактора здесь выступает независимая переменная. Если систематическая дисперсия существенно выше случайной, то гипотеза об отсутствии связи отклоняется.
Проверка гипотезы линейной связи состоит в расчленении суммы квадратов отклонений на две составляющие:
2 2 т т _ т
I (У/ - У) = I (У/ - У) +1 е2 , (I2)
>1 /=1 /=1
где в/ = у/ - у. Первое слагаемое в этой сумме характеризует сумму квадратов, определяемую изменением по линейной регрессии (кратко - сумма квадратов регрессии), второе - случайную составляющую (отклонение от регрессии). Схема дисперсионного анализа имеет вид, представленный в
табл. 4.
Соответственно находится соотношение дисперсий, определяющее расчетное значение критерия Фишера:
р=4; {-Ч • (13)
¡2 {т - 2
Табличное значение критерия Фишера ЕТ определяется для соответствующего уровня значимости а и двух степеней свободы (в выражении (13) фигурные скобки): г1 = 1 и г2 = т - 2.
Таблица 4
Схема дисперсионного анализа для проверки гипотезы о наличии линейной связи
Источник вариации Сумма квадратов Число степеней свободы Оценка дисперсии
Линейная регрессия (2 = I (77 - 7) 7=1 1 ¡2 = (2
Остаточная вариация т, = ^ (1 = I (77 - 7) 7=1 т - 2 ¡2 = (1 ¡1 = 1 т - 2
Итого т 2 (о = I (77 - 7) 7=1 т -1
Известны соотношения
т 2 т 2
I (7- 7) = ь2 • I (7 - X) ; (14)
>1 >1
т т 2 т
I «2 = I (77 - 7) - Ь' I (*7 - ХМ- 7). (15)
7=1 7=1 7=1
Этими соотношениями можно пользоваться при определении (
и а.
Общее число степеней свободы равно т -1. Число степеней свободы для оценки остаточной дисперсии равно т - 2. Таким образом, на долю линейной регрессии остается т -1 -(т - 2) = 1 степень свободы. Отношение
дисперсий ^ позволяет проверить нулевую дисперсию о том, что переменные не имеют линейной связи. Аналогичный подход сохраняется и при проверке гипотез о наличии регрессий более высоких степеней, т. е. дисперсия, обусловленная регрессией, сравнивается с остаточной дисперсией.
Рассмотрим далее проверку гипотезы о существовании нелинейной регрессии. Эту проблему можно решить, прибегая к дисперсионному анализу, следующим образом. Сначала определяются линейная регрессия и
сумма квадратов отклонений от нее
I У л)
и=1
. Затем находятся нелинейная
регрессия, допустим, параболическая, и соответствующая остаточная сум-
ма квадратов
Г т ^
1 6А нл)
Разность
1 еЛ л)- 1 е\ нл)
и=1 j=1
показывает, как
уменьшается (или увеличивается) случайная составляющая суммы квадратов отклонений. Можно, также, проверить, значимо или нет это уменьшение. Приведем схему дисперсионного анализа для этого случая (табл. 5).
Таблица 5
Схема дисперсионного анализа для проверки гипотезы о наличии нелинейной связи
т
т
Источник вариации Сумма квадратов Число степеней свободы Оценка дисперсии
Линейная регрессия т С = I ед л) j= 1 т - 2 -
Параболическая регрессия т С = I еЛнл) У=1 т - 3 ,2 = С т - 3
Криволинейность С2 = Со - С 1 ,22 = С2
Для проверки нулевой гипотезы (криволинейность и соответственно сокращение остаточной суммы квадратов несущественны) находим отношение дисперсий
Ш • (1б)
Ранее были оценены регрессии
у = 8,405 +1,899• х и у = 0,9127 + 7,7231-х-0,6638• х2.
Значим ли переход от линейной к квадратичной дисперсии? Для ответа на этот вопрос составлена таблица дисперсионного анализа (табл. 6).
Таблица 6
Схема дисперсионного анализа для проверки нулевой гипотезы в примере
Источник вариации Сумма квадратов Число степеней свободы Оценка дисперсии
Линейная регрессия 96,7 8-2 -
Параболическая регрессия 7,5 8-3 1,5
Криволинейность 89,2 1 89,2
По полученным данным расчетное значение ¥ = 59,5. Для а = 0,05, г1 = 1 и г2 = 8 - 3 = 5 табличное значение критерия Фишера РТ = 6,61. Поскольку ¥ = 59,5 < РТ = 6,61, то нулевая гипотеза отвергается.
Таким образом, в данной работе подробно рассмотрены основные аспекты проведения математических операций и действий, рекомендуемых для реализации нелинейного регрессионного анализа на соответствующем этапе разработанной методики статистического машинного эксперимента с детерминированной моделью.
Список литературы
1. Советов Б.Я., Яковлев С.А. Моделирование систем: учебник для вузов. М.: Высшая школа, 2СС9. 343 с.
2. Панфилов Г.В., Недошивин С.В. Активный статистический анализ систем с теоретическими моделями проведением машинного эксперимента // Известия ТулГУ. Технические науки. Тула: Изд-во ТулГУ. 2Ы1. Вып. 4. С. 27-34.
3. Панфилов Г.В., Недошивин С.В., Перминов Д.А. Применение статистического машинного эксперимента для исследования теоретической модели штамповки сердечников пуль // Известия ТулГУ. Технические науки. Тула: Изд-во ТулГУ. 2М1. Вып. 4. С. 27-34.
4. Панфилов Г.В., Недошивин С.В., Калинин С.С. Планирование и первичная обработка результатов статистического машинного эксперимента на основе множественного корреляционно-регрессионного анализа // Известия ТулГУ. Технические науки. Тула: Изд-во ТулГУ. 2Ы1. Вып. 4. С. 27-34.
5. Недошивин С.В. Линейный множественный регрессионный анализ в статистическом машинном эксперименте // Известия ТулГУ. Технические науки. Тула: Изд-во ТулГУ. 2611. Вып. 4. С. 27-34.
6. Информационно-статистические методы в технологии машиностроения: пособие по обработке результатов эксперимента В.Г. Григорович [и др.] М.: Изд-во «Нефть и газ» РГУ нефти и газа им. И.М. Губкина, 2000. 184 с.
Недошивин Сергей Владимирович, канд. техн. наук, доц., [email protected], Россия, Тула, Тульский государственный университет
THE NONLINEAR REGRESSION ANALYSIS IN STATISTICAL MACHINE EXPERIMENT
S. V. Nedoshivin
The technique of carrying out statistical machine experiment is offered in the analysis of studied technological system with the determined model. Aspects of carrying out the nonlinear multiple correlation analysis at the final stages of the developed technique are considered.
Key words: statistical machine experiment, multiple nonlinear regression
analysis.
Nedoshivin Sergey Vladimirovich, candidate of technical sciences, docent, [email protected], Russia, Tula, Tula State University