Научная статья на тему 'НЕЧЕТКИЙ РОБАСТНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ ДЛЯ НЕЧЕТКИХ ВХОДНЫХ И ВЫХОДНЫХ ДАННЫХ'

НЕЧЕТКИЙ РОБАСТНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ ДЛЯ НЕЧЕТКИХ ВХОДНЫХ И ВЫХОДНЫХ ДАННЫХ Текст научной статьи по специальности «Математика»

CC BY
110
22
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РОБАСТНАЯ РЕГРЕССИЯ / НЕЧЕТКАЯ РЕГРЕССИЯ / ФУНКЦИЯ ПРИНАДЛЕЖНОСТИ / РОБАСТНА РЕГРЕСіЯ / НЕЧіТКА РЕГРЕСіЯ / ФУНКЦіЯ ПРИНАЛЕЖНОСТі / ROBUST REGRESSION / FUZZY REGRESSION / MEMBERSHIP FUNCTION

Аннотация научной статьи по математике, автор научной работы — Грицюк В.И.

В множественном регрессионном анализе очень важен анализ данных. Если набор данных имеет выбросы, используют робастные методы оценки параметров. Когда входные данные нечеткие и набор данных имеет выбросы, весовая матрица определяется по отношению к функции принадлежности. Нечеткая робастная регрессия исследуется вместо только метода наименьших квадратов либо только робастных методов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Fuzzy robust regression analysis for fuzzy input-output data

In multiple regression analysis data analysis is very important. If data set has outliers, robust methods are used in parameter estimates. When input data are fuzzy and data set has outlier, the weight matrix is defined by the membership function of the residuals. In this study, multiple regression is suggested when the dependent and independent variables are triangular fuzzy numbers and parameters estimation are crisp numbers. The weighted fuzzy least squares are used with the weight matrix. Outliers influence the model by very small degree of membership, the degrees of membership of the other observation values are 1 or close to 1, and the effects of those on the estimation of the regression model are very important. The fuzzy robust regression method may be able to detect outliers automatically. Thus, possible negative effects of the outlier on the model may be minimized.

Текст научной работы на тему «НЕЧЕТКИЙ РОБАСТНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ ДЛЯ НЕЧЕТКИХ ВХОДНЫХ И ВЫХОДНЫХ ДАННЫХ»

УДК 519.6

Б01: 10.15587/2312-8372.2015.54189

грицюк в. и. нечеткий ровлстный регрессионный анализ для нечетких входных и выходных данных

В множественном регрессионном анализе очень важен анализ данных. Если набор данных имеет выбросы, используют робастные методы оценки параметров. Когда входные данные нечеткие и набор данных имеет выбросы, весовая матрица определяется по отношению к функции принадлежности. Нечеткая робастная регрессия исследуется вместо только метода наименьших квадратов либо только робастных методов.

Ключевые слова: робастная регрессия, нечеткая регрессия, функция принадлежности.

1. Введение

Наблюдения, которые имеют большие остатки, чем другие, называются выбросами. Статистическая процедура называется робастной, если она нечувствительна к появлению больших ошибок в данных. В таких случаях робастные методы предпочтительнее метода наименьших квадратов (LS). Нечеткий регрессионный анализ — это регрессионный анализ, который применяется для вычисления функциональных соотношений между зависимыми и независимыми переменными в случае нечетких событий.

Поэтому, актуальным является создание объединенных методов робастного и нечеткого метода наименьших квадратов для минимизации негативных воздействий выбросов на модель.

Целью настоящей работы является исследование и разработка объединенных методов робастного и нечеткого метода наименьших квадратов, в которых возможные негативные последствия выбросов на модели сведено к минимуму.

Для достижения поставленной цели решались следующие задачи:

— анализ известных методов M-оценок, сглажено-сниженных M-оценок;

— разработка объединенных методов робастной и нечеткой регрессии;

— получение результатов моделирования по сравнению методов Хьюбера, Хампеля, Тьюки, Андрюса, у фнкции, МНК и с применением разработанного объединенного метода робастной и нечеткой регрессии.

2. Анализ литературных данных и постановка проблемы

В этой статье автор рассматривает множественную регрессионную модель, когда зависимые и независимые переменные представлены треугольными нечеткими числами и оценки параметров четкими числами. Tanaka предложил изучение линейной регрессии в нечеткой модели [1]. Однако, приближение Танака может давать некорректную интерпретацию результатов нечеткой линейной регрессии, когда набор данных содержит выбросы.

Yang и Liu предложили алгоритм нечетких наименьших квадратов для моделей линейной регрессии [2]. Этот алгоритм робастный против выбросов для простой регрессии. В этом алгоритме ортогональные условия добавлены для решения проблемы оптимизации. В работе Rousseeuw рассматривается простая регрессионная модель [3]. Кроме этого, зависимая и независимая переменные представлены как четкие (crisp) числа и оценки параметров четкие числа. В этой статье автор рассматривает множественную регрессионную модель, когда зависимые и независимые переменные представлены треугольными нечеткими числами и оценки параметров четкие числа.

3. Объект, цель и задачи исследования

Объект исследования — процесс разработки объединенных методов робастного и нечеткого метода наименьших квадратов.

4. Материал и результаты исследования робастной и нечеткой регрессии, результаты моделирования

4.1. Робастные методы. M-оценивание основано на идее замены квадратов остатков, используемых в оценке МНК, другой функцией остатков, получая:

n

min £p(n), (1)

0 i=1

где p является симметричной функцией с минимумом в нуле:

1) Р(0) = 0;

2) p(t) >0;

3) p(t) = p(-t);

4) for 0^ t1 ^t2 ^p(t1)<p(t2);

5) p — непрерывная.

Дифференцируя уравнение (1) по отношению к коэффициентам регрессии, получаем:

n

П)xj = 0, j = 1,2.....p, (2)

i=1

£ =0, j=a..., p, (3)

i=1

ТЕХНОЛОГИЧЕСКИЙ АУДИТ И РЕЗЕРВЫ ПРОИЗВОДСТВА — № 6/2(26], 2015, © Грицюк В. И.

где у является производном от р и xi является вектор-строкой объясняющих переменных i-го наблюдения. M-оценка получается путем решения системы 'p' нелинейных уравнений. Решение не эквивариантно относительно масштабирования. Таким образом, остатки должны быть стандартизированы с помощью некоторой оценки стандартного отклонения о, так что, они должны быть оценены одновременно. Одна возможность состоит в использовании медианы абсолютных отклонений (MAD). Шкала оценки: 5 = 1,483med^r^. Умножение на 1,483 сделано так, что для нормально распределенных данных 5 является оценкой стандартного отклонения. Соответствующая ^-функция (весовая функция) для любого р затем определяется, как:

) =

a

к

< na,

(8)

0, Id >na.

Бивейт функция Тьюки:

W)=

1 -

^2

a

V у

, И «

(9)

0, И > a,

a(ti) =

¥(ii)

(4)

Используя эти ^-функции в МНК, автор статьи получает взвешенный метод наименьших квадратов (WLS) и полученные оценки называются взвешенными оценками (Hoаglin и др.). Взвешенные оценки вычисляются путем решения уравнений, где W является диагональной квадратной матрицей, имеющей диагональные элементы в качестве весов.

в = (ХТШ ) Х^у, (5)

где у — функция Хьюбера определяется, как [4, 5]:

где a = 4,685.

Новая у-функция. Новая р-функция, предложена в семействе гладко сниженных М-оценок [6]. у-функция, связанная с этой р-функцией, достигает гораздо большей линейности в центральной части прежде, чем она спадает, по сравнению с другими у-функциями, такими, как синус Эндрюса, бивейт Тьюки и Кадира бета-функция, в результате ее повышенной эффективности. Многократно ревзвешенный метод наименьших квадратов (IRLS) на основе предложенной р-функции явно обнаруживает выбросы и игнорирует выбросы, которые уточняются при последующем анализе. Метод действительно достигает целей, ради которых он построен, потому что дает улучшенные результаты во всех ситуациях и способен выдержать значительное количество выбросов. Предлагаемая у-функция [6] приведена ниже:

) =

-a, t < -a, t, -a < t < a, a, t > a,

(6)

) =

sgn(t)|t|, если 0 < t < a, a sgn (t), если a < |t| < b, {(c-|t|)/(c- b)}asgn(t), если b < |t| < c,

0, Itl,

V(t) =

где а — так называемая константа настройки (а = 1,5).

Сниженные М-оценки. Сниженные М-оценки были введены Натре1, который использовал три части сниженных оценок с р-функциями, ограниченная у-функция принимает значение 0 для больших (Хампель и др., 1986) |г| [6]. Состоящая из трех частей сниженная у-функция Хам-пеля определяется, как:

1-

^ 4

a

V у

, если t < a,

(10)

0, если Itl > a,

(7)

где a = 1,7; b = 3,4; c = 8,5 (Hoaglin и др.). Возникает потребность в у-функции сглаженно сниженной природы. Некоторые сглаженно сниженные M-оценки были предложены разными авторами. Улучшения были получены Эндрюсом (Andrews, 1974) и Тьюки (Mosteller и Tukey 1977; Hoaglin и др, 1983) [6], которые использовали волновые оценки (также называемые синус-оценки) и бивейт оценки, соответственно. Волна Эндрюса и бивейт оценки Тьюки являются сглажено сниженными у-функциями. Кадир (1996) [6] предложил у-функцию, с весовой функцией бета-функцией с а = р. Волновая функция Эндрюса (a = 1,5):

где а — константа настройки (a = 2) и для i-го наблюдения переменная t — остатки, шкалированные MAD.

р-функция, соответствующая у-функции, приведенной выше, удовлетворяет стандартным свойствам, как правило связанным с обоснованной целевой функцией.

Выбросы обладают большими остатками при робаст-ной подгонке, поэтому помимо нечувствительности к выбросам, оценки робастной регрессии легко определяют выбросы. Остатки из LS не могут быть использованы для этих целей, так как выбросы могу обладать очень малыми LS остатками [7].

4.2. Нечеткий робастный регрессионный анализ. Рассматривается множественная регрессионная модель. Для получения начальных оценок применим формулы [8]:

в = (XTX + ATA + BTB)-1 (XTY + ATC + BTD), (11)

где:

X =

1 X11 xl p 1 (У1Л

1 x21 ... x2p 1 xn1 . • ■ xnp

, Y =

y2 V yn у

2

t

t

A =

B =

C =

1 xii"' x1p-^1p 1 x21 x 2 p-\2p

1 Xn1 -\nl "' Xnp-^np

1 x11•■• x1 p+hp 1 x21 +^21 x2p +^2p

1 xn1 + £,n! " ' xnp + ^np

У-Hi

C-n2

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Cn n

D =

У1 +П1

У 2 +П2

Уп +Пп

при условии, что (ХТХ)-1 существует. Предложенный алгоритм.

В соответствии с величиной абсолютных остатков, медиана определяется и расстояние вычисляется:

W = diag ((, ц2,..., Цп).

Итерационную процедуру продолжают до достижения разумной степени сходимости процесса.

4.3. Численный пример. В исследуемом примере данные собраны от хорошо-известной страховой компании [9]. Xi, X2 и Y представляют число месяцев, требуемый спрос в соответствующем месяце и платежи в соответствующем месяце. Эта структура часть изучения Dalkilis и др. (2009). В работе Xu и Li (2001) величины разброса предполагались авторами [11]. В рассмотренном примере независимые переменные нечеткие, в анализе нечеткой робастной регрессии (FRR) метода взяты величины независимых переменных: центр, левый и правый разброс, как xi, = x^8 и ^ = Xi/7, соответственно. Зависимая переменная величина нечеткая, в FRR методе взяты величины зависимых переменных: центр, левый и правый разброс определены, как yi, ni = yi/8 и n = Уг!7, соответственно.

Был выполнен анализ для LS, M и нечеткого ро-бастного метода (FRR). Результаты получены, используя набор данных, который приведен в табл. 1. Результаты анализа остатков показывают, что восьмое наблюдение является выбросом.

Di = j|abs(r)- median(abs(r))), i = 1,2,...,n,

Таблица 1

Набор данных

где ||| — евклидово расстояние [9, 10].

В соответствии с расстоянием функция принадлежности определяется:

ц(г ) =

1, \r\^ a, b - Irl

-, a <\r\< b,

b - a

0, в другом случае,

ß = (XTWX + ATWA + BTWB)) x x(XTWY + ATWC + BTWD),

(12)

Xi X2 Y * 104 X1 X2 Y* 104

1 1270 125 7 3169 631

2 2630 387 8 3448 545

3 3653 589 9 3163 583

4 3045 591 10 3096 606

5 3232 609 11 3765 753

6 3681 654 12 4481 898

где a = median (Di), b = max (Di) + d, d = median^/0,6745.

Из уравнения (12) определена функция принадлежности, величины функции принадлежности определены и весовая матрица построена. Весовая матрица — диагональная матрица, у которой диагональные элементы — величины функции принадлежности. Взвешенные нечетких наименьших квадратов оценки определяются, как:

(13)

Оценки параметров регрессионной модели даны в табл. 2. Оценки параметров для FRR такие же по знаку и почти такие же по величине, как полученные робастными методами, хотя весовая матрица получена используя функцию принадлежности. Можно заметить, что на FRR не влияют выбросы.

Остатки и веса, полученные LS, М и FRR методами, показаны в табл. 3 и табл. 4. Весовая матрица получена через функцию принадлежности. Так минимизировано негативное влияние выбросов на модель. Получены оценки параметров регрессионной модели, где X и 7 треугольные нечеткие числа. В этом случае влияние выбросов меньше, чем в методе LS. Видно, что восьмое наблюдение является выбросом, так как имеет большой остаток (-99,9409).

Таблица 2

Оценки параметров регрессии

Метвд щенки LS Huber Hampel Tukey Andrews у-функция FRR

в 0 -118,4505 -123,0438 -121,3489 -130,7773 -120,6023 -125,8294 -103,12

в1 12,2627 14,1149 13,8046 16,5404 13,238 17,1891 15,5868

в 2 0,1924 0,1908 0,1908 0,1847 0,1915 0,1824 0,1808

ТЕХНОЛОГИЧЕСКИЙ АУДИТ И РЕЗЕРВЫ ПРОИЗВОДСТВА — № 6/2(26], 2015

таблица 3

Остатки для LS, M метода и FRR метода

Method LS Huber Hampel Tukey Andrews у-функция FRR

1 -13,2563 -7,3226 -9,7292 4,7034 -11,0125 1,9127 -17,0708

2 -25,2858 -17,7856 -20,9763 -0,9912 -22,8747 -1,4257 -16,533

3 -32,451 -24,2315 -27,9354 -4,4511 -30,1566 -3,2743 -15,0687

4 74,3113 79,1505 76,2446 93,289 75,1204 92,4731 81,2652

5 44,0555 47,5126 44,7656 60,2149 44,0464 59,1629 49,87051

6 -9,6290 -6,8953 -9,6938 5,7567 -10,2361 5,0477 -1,8919

7 53,6558 53,2506 51,1726 60,7683 51,6434 58,2787 52,0865

8 -98,3076 -99,8639 -101,8568 -93,2957 -101,0611 -95,8179 -99,9409

9 -17,7148 -21,8397 -23,2842 -19,2047 -21,6830 -23,005 -26,9924

10 5,9182 -0,2273 -1,3186 -0,3721 0,9185 -4,9706 -6,4762

11 11,8894 5,5737 4,2534 6,5418 6,4764 2,7724 3,9879

12 6,8142 0,4459 -1,1405 2,7762 1,0273 -0,0602 3,9549

таблица 4

Веса для LS, M метода и FRR метода

Method LS Huber Hampel Tukey Andrews у-функция FRR

1 1,0000 1,0000 1,0000 0,9808 0,473 0,6642 0,9555

2 1,0000 1,0000 1,0000 0,9991 0,4625 0,6341 0,9611

3 1,0000 1,0000 1,0000 0,9828 0,4526 0,5803 0,9765

4 1,0000 0,4566 0,5497 0,0000 0,3407 0, 0000 0,2812

5 1,0000 0,7607 0,9362 0,0000 0,4267 0,3975 0,611

6 1,0000 1,0000 1,0000 0,9713 0,4734 0,6659 1,0000

7 1,0000 0,6787 0,8192 0,0000 0,4089 0,1658 0,5877

8 1,0000 0,3619 0,3526 0,0000 0,249 0,0000 0,0852

9 1,0000 1,0000 1,0000 0,7043 0,4639 0,6587 0,8617

10 1,0000 1,0000 1,0000 0,9999 0,4762 0,6666 1,0000

11 1,0000 1,0000 1,0000 0,9632 0,4753 0,6651 1,0000

12 1,0000 1,0000 1,0000 0,9933 0,4763 0,6665 1,0000

В табл. 3 зависимые и независимые переменные четкие числа в LS и M оценках, в то время как в FRR — нечеткие числа. Оценки параметров регрессии — четкие числа во всех методах. Веса восьмого наблюдения «0,3619», «0,3525», «0», «0, 249», «0» и «0,0852» для методов Huber, Hampel, Tukey, Andrew, у-функции и FRR соответственно. Веса, которые получены в FRR методе — степень принадлежности каждого наблюдения. Эти принадлежности показывают воздействие наблюдений на модель. В табл. 4 показано, что выбросы влияют на модель очень малой степенью принадлежности, в то время как степень принадлежности других наблюдаемых величин 1 или близкая к 1.

5. обсуждение результатов исследования робастной и нечеткой регрессии, результатов моделирования

Достоинством метода является то, что в разработанном методе нечеткая робастная множественная регрессия робастна для оценивания нечеткой регрессионной модели, особенно, когда существуют выбросы. Метод позволяет автоматически обнаруживать выбросы. Весо-

вая матрица получена через функцию принадлежности, каждое наблюдение включается в оценку регрессионной модели в зависимости от степени принадлежности. Поэтому негативное воздействие выброса на модель минимизировано. Главное преимущество заключается в обнаружении наблюдений для дальнейшего изучения.

6. выводы

В результате проведенных исследований:

— был проведен анализ известных методов М-оценок, сглажено-сниженных М-оценок (волна Эндрюса и бивейт оценки Тьюки, у-фнкции);

— разработан объединенный метод робастной и нечеткой регрессии;

— получены результаты моделирования по сравнению методов Хьюбера, Хампеля, Тьюки, Андрюса, у-функции, МНК и с применением разработанного объединенного метода робастной и нечеткой регрессии ^ЯЯ).

В данном исследовании метод нечеткой робастной регрессии предложен для построения модели для описания соотношения между зависимыми и независимыми

переменными вместо метода наименьших квадратов и классического метода робастной регрессии. Исследована множественная регрессионная модель с использованием нечетких чисел, когда зависимая и независимая переменные являются треугольными нечеткими числами и оценки параметров четкие числа. При рассмотрении табл. 2 видно, что оценки параметров регрессии, полученные методом нечеткой робастной регрессии имеют тот же самый знак и почти ту же величину, как оценки, полученные робастными методами. Весовая матрица определяется из функции принадлежности остатков. Взвешенный метод нечетких наименьших квадратов применяется, используя весовую матрицу. Нечеткий робастный регрессионный метод может автоматически определять выбросы. Таким образом, возможное негативное влияние выброса на модель минимизировано.

Литература

1. Tanaka, H. Linear regression analysis with fuzzy model [Text] / H. Tanaka, S. Uegima, K. Asai // IEEE Transactions on Systems, Man, and Cybernetics. — 1982. — Vol. 12, № 6. — P. 903-907. doi:10.1109/tsmc.1982.4308925

2. Yang, M.-S. Fuzzy Least Squares Algorithms for Interactive Fuzzy Linear Regression Models [Text] / M.-S. Yang, H.-H. Liu // Fuzzy Sets and Systems. — 2003. — Vol. 135, № 2. — Р. 305-316. doi:10.1016/s0165-0114(02)00123-9

3. Rousseeuw, P. Applying robust regression to insurance [Text] / P. Rousseeuw, B. Daniels, A. Leroy // Insurance: Mathematics and Economics. — 1984. — Vol. 3, № 1. — P. 67-72. doi:10.1016/0167-6687(84)90020-9

4. Alma, G. Comparison of Robust Regression Methods in Linear Regression [Text] / G. Alma // International Journal of Contemporary Mathematical Sciences. — 2011. — Vol. 6, № 9. — P. 409-421.

5. Qadir, M. F. Robust Method for Detection of Single and Multiple Outliers [Text ] / M. F. Qadir // Scientific Khyber. — 1996. — Vol. 9. — P. 135-144.

6. Asad, A. A Modified M-Estimator for the Detection of Outliers [Text] / A. Asad, M. F. Qadir // Pakistan Journal of Statistics and Operation Research. — 2005. — Vol. 1, № 1. — P. 49-64. doi:10.18187/pjsor.v1i1.116

7. Rousseuw, P. J. Robust regression and outlier detection [Text] / P. J. Rousseuw, A. M. Leroy. — New York: JohnWiley&Sons, 1987. — 334 p. doi:10.1002/0471725382

8. Kula, K. S. Fuzzy Robust Regression Analysis Based on the Ranking of Fuzzy Sets [Text] / K. S. Kula, A. Apaydin // International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems. — 2008. — Vol. 16, № 5. — P. 663-681. doi:10.1142/ s0218488508005558

9. Kula, K. S. A study on fuzzy robust regression and its application to insurance [Text] / K. S. Kula, Fatih Tank, Tiirkan Erbay Dalkilio // Mathematical and Computational Applications. — 2012. — Vol. 17, № 3. — P. 223-234.

10. Sanli, K. The fuzzy robust regression analysis, the case of fuzzy data set has outlier [Text] / K. Sanli, A. Apaydin // G. U. Journal of Science. — 2004. — Vol. 17. — P. 71-84.

11. Xu, R. Multidimensional least-squares fitting with a fuzzy model [Text] / R. Xu, C. Li // Fuzzy Sets and Systems. — 2001. — Vol. 119, № 2. — P. 215-223. doi:10.1016/S0165-0114(98)00350-9

НЕЧ1ТКИЙ РОбАСТНИЙ РЕГРЕС1ЙНИЙ АНАЛ13 ДЛЯ НЕЧ1ТКИХ ВХ1ДНИХ ТА ВИХ1ДНИХ ДАНИХ

У множинному регресшному анашз1 дуже важливий анашз даних. Якщо набiр даних мае викиди, використовують робастш методи оцшки параметрiв. Коли вхщш даш неч^ю i набiр даних мае викиди, вагова матриця визначаеться по вщно-шенню до функци приналежность Нечггка робастна регреая дослщжуеться замють тшьки методу найменших квадра^в або тшьки робастних методiв.

Kлючовi слова: робастна регреая, неч^ка регреая, функщя приналежность

Грицюк Вера Ильинична, кандидат технических наук, доцент, кафедра проектирования и эксплуатации электронных аппаратов, Харьковский национальный университет радиоэлектроники, Украина, e-mail: astra_kk12@mail.ru.

Грицюк Bipa Iллiвна, кандидат технгчних наук, доцент, кафедра проектування та експлуатацп електронних апаратiв, Хар-квський нащональний утверситет радюелектротки, Украта.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Gritsyuk Vera, Kharkiv National University of Radioelectronics, Ukraine, e-mail: astra_kk12@mail.ru

УДК 574:539.3 Б01: 10.15587/2312-8372.2015.56800

АнАЛ13 стану розровок шФоРМАЦ1Йно-АнАЛ1тичних систем моделювання Еколопчно небезпечних ситУАщй

Розглянутг методологгчнг аспекти монторингу фонових концентраций токсичних забруднень в екологгчних об'ектах I викидах технологгчних систем. Проаналгзовано особливостг виявлення прюритетних параметргв стану навколишнього природного середовища 1з застосуванням мето-дгв математичного моделювання. Запропоновано принципи побудови тформацшно-аналтичних моделей при створеннг ¡мтацшних систем, котрг використовують в завданнях управлтня р\з-номантними екологгчними системами.

клпчов1 слова: екологгчно небезпечш ситуацИ, гмтацшш системи, тформацшно-аналтична модель, математичне моделювання, прюритетш параметри.

1. вступ середньо ^або опосередковано через iншi елементи

технолопчного середовища. Безперечно, що для нор-Природш комплекси розглядають як споживачiв мального функщонування природного об'екту величина антропогенних впливiв ввд техшчних об'екпв безпо- таких навантажень не повинна перевищувати значення,

Антонець А. В., Пляцук Д. Л.

ТЕХНОЛОГИЧЕСКИЙ АУДИТ И РЕЗЕРВЫ ПРОИЗВОДСТВА — № 6/2(26], 2015, © Антонець А. В., Пляцук Д. Л.

i Надоели баннеры? Вы всегда можете отключить рекламу.