УДК 519.95
СИНТЕЗ СОГЛАСОВАННЫХ ЛИНЕЙНЫХ ОПТИМИЗАЦИОННЫХ МОДЕЛЕЙ ПО ПРЕЦЕДЕНТНОЙ ИНФОРМАЦИИ: ПОДХОД НА ОСНОВЕ КОЛМОГОРОВСКОЙ СЛОЖНОСТИ
© В. И. Донской
Abstract. In the paper, approach is expounded to the analysis of the linear optimization models built on precedent initial learning information. In supposition, that all numerical parameters are rational and limited by the bit net of computer, estimations of Kolmogorov's complexity and nonrandomness of extraction of model as empirical regularity are got from the sample.
Линейные оптимизационные модели во многих случаях хорошо описывают процессы экономического планирования производства, распределения ресурсов, размещения объектов. Активно развивающееся в математике направление, связанное с алгоритмической сводимостью, позволяет увидеть, как часто возникающие на практике задачи сводятся к задачам линейной оптимизации. В то же время на этапе внедрения линейных моделей в производственное управление выявились две основные проблемы, связанные, главным образом, с ростом размерности. Первая — сложность сбора данных для фиксации модели, вторая — неадекватность модели реальному процессу или объекту вследствие неполноты и/или неадекватности данных.
Основная идея, на которой основан развиваемый в статье подход, состоит в том, что линейная модель должна быть согласована с реальной, фактической информацией об объекте моделирования. Такой фактической информацией являются прецеденты — наблюдения, зафиксированные в процессе функционирования объекта.
Многие задачи линейного программирования с вещественными неотрицательными переменными имеют вид (
где X = (х1,... , Хп), А = \\aij ||тХп, В =(&ь...,6т )Т, х > 0, а^ 2 К, Ь 2 К, f : Кп ! К. Будем называть П = {X : АХТ 6 В} множеством допустимых решений задачи (1).
Таврический национальный университет им. В. И. Вернадского факультет математики и информатики пр-т Вернадского, 4, г. Симферополь, 95007, Украина Е-МА1Ь: [email protected]
Введение
(1)
Задача, которая решается в данной статье, состоит в следующем. Предполагается, что для решения оптимизационной задачи вида (1) в некоторой проблемной области представлена только начальная информация в виде конечного набора точек из Rn вместе со значением неизвестной целевой функции в каждой точке (если это значение измеряно), а также логическим значением 1, если точка удовлетворяет всем требуемым ограничениям, которые определяются проблемной областью, или 0 — если эта точка ограничениям не удовлетворяет. Требуется: а) обосновать возможность применения модели линейного программирования (1) и б) — если применение линейной модели возможно, — синтезировать модель по предоставленной прецедентной начальной информации, т.е. построить матрицу A и вектор B, определив при этом число линейных ограничений-неравенств m, а также найти целевую функцию f. Затем синтезированная модель
!max f (X)
AXT 6 B
должна быть некоторым образом обоснована, т.е. требуется с) дать оценку адекватности синтезированной модели (2).
Формально начальная информация имеет вид набора троек D = {(Xk,yk,!к), к = 1, ... , l}. Будем называть эту информацию обучающей выборкой или данными D, а число l заданных точек — длиной выборки. Xk 2 Rn, yk 2 R (yk может быть не определено для части элементов выборки; для пропущенных значений будет использованться обозначение A); !k = 1, если выборочная точка удовлетворяет ограничениям, и !k = 0 — если она ограничениям не удовлетворяет. Обозначим De = {Xk : !k = 1}; |D®| = 1ф — число допустимых решений, представленных в начальной информации; De = {Xk : !k = 0}; |De| = le — число точек, не являющихся допустимыми решениями.
Множество допустимых решений модели (2) будет обозначаться йв = {X : AXT 6 B}.
Синтезированная модель (2) является аппроксимацией модели (1), которая полагается существующей и представленной неполной начальной информацией D.
Впервые постановка подобных задач была сделана В. Д. Мазуровым в работах [10] и [11]. Для их решения использовались итерационные методы, основанные на фейеровских отображениях [12].
Синтетический подход к решению линейных оптимизационных задач по частичной (прецедентной) информации был предложен и разрабатывался в работах [8, 6, 18, 15, 2] и был, в основном, основан на эвристиках. Исследования последних
(2)
лет в области теории колмогоровской сложности и её применения в машинном обучении [1, 7, 19] определили интерес к дальнейшему исследованию проблем синтеза оптимизационных моделей по прецедентной информации.
1. Синтез линейной модели как машинное обучение
Применяя методы машинного обучения по прецедентной информации D, возможно использовать линейные итерационные модели, основанные на процедуре Розенблатта-Новикова, которые позволяют построить набор из m линейных гиперплоскостей, определяющих область допустимых решений Пd в виде Lq (X) 6 bq, q = 1 ,... , m, где Lq — линейные функции, а bq, q = 1 ,... , m , — пороговые вещественные значения. Коэффициенты этих функций и числа bq , q = 1 ,... , m , будут определять параметры A и B синтезированной модели (2). А число m полученных неравенств (вместе с заданным n) определит размерность матрицы A и вектора B. Синтез целевой функции может быть осуществлён, например, по методу наименьших квадратов.
Такой подход был предложен в [8]. Интуитивно заложенный в алгоритм синтеза ограничений, описанного в этой работе, принцип «бритвы Оккама» (Occam's Razor), как будет показано ниже, может быть достаточно строго обоснован на базе понятия колмогоровской алгоритмической сложности.
Нужно подчеркнуть, что излагаемые в настоящей статье методы и алгоритмы рассчитаны на компьютерную реализацию. Это еще не раз будет подчёркиваться по ходу изложения материала.
2. Согласованная модель-гипотеза
Модель (1) с фиксированными значениями (параметрами) п, т, f, А, В является индивидуальным представителем класса ^ моделей линейного программирования. Синтезированная модель (2), как правило, не совпадает с истинной неизвестной моделью (1) и является её аппроксимацией.
Определение 1. Синтезированная модель (2) называется согласованной (согласованной гипотезой), если при подстановке точек из обучающей выборки Д в целевую функцию и линейные неравенства модели (2) выполняются условия: f(Xk) = у к и [АХк 6 В] $ !к для всех к = 1,..,/, соответствующих полностью заданным (определенным) тройкам значений из Д.
Согласованная линейная модель будет далее обозначаться Мд.
Нужно заметить, что в широком семействе моделей ^ существует более узкий подкласс согласованных моделей ^Ъ • Выбор согласованной модели из ^ъ — сложная, некорректная по Адамару задача, требующая серьёзного обоснования.
Учитывая, что все излагаемые в статье методы и алгоритмы рассчитаны на компьютерную реализацию, можно и нужно сузить рассматриваемые семейства согласованных моделей до конечных, ограничив представления чисел рациональными значениями, лежащими в отрезке, который определяется разрядной сеткой применяемого компьютера .
3. КолмогоровскАя сложность МОДЕЛИ ЛИНЕЙНОЙ ОПТИМИЗАЦИИ
Комогоровская сложность может определяться как в терминах класса машин Тьюринга (МТ), так и в терминах класса частично рекурсивных функций Ррг, поскольку эти два класса эквивалентны. Поэтому, если не возникает недоразумений, в дальнейшем один и тот же объект и может быть назван МТ и или функцией и 2 Ррг. Тьюринговская интерпретация предпочтительнее, когда рассуждения проводятся в терминах строк и алфавитных отображений. Частично рекурсивная — когда необходимо использовать свойства алгоритмов как функций при доказательстве теорем.
Если А = {«1,..., а^} — конечный алфавит, то А * — множество любых строк любой конечной длины над алфавитом А. Будем обозначать р 2 {0,1}* — двоичные строки. Обозначаемые другими буквами строки могут состоять из символов иных, отличных от {0,1}* алфавитов. Длина произвольной строки в (число символов в ней) обозначается |в|. Символом Л будет обозначаться пустая строка; |Л| = 0.
(Префиксная) колмогоровская сложность произвольной строки в при заданной МТ и определяется как Ки(в) = тт{|р| : и(р) = в}, где р — бинарная строка, которую назвают наименьшей длиной программы, вычисляющей в (или описания, кодирующего в). Поскольку универсальная МТ может моделировать любую другую МТ, выбор и в формуле К и (в) может изменить колмогоровскую сложность не более чем на константу, зависящую только от и [9]. Поэтому и в обозначении Ки(в) часто опускается, и используется обозначение К(в) .
Нужно отметить, что существует МТ из такая, которая, получая вход в виде пустой строки, генерирует заданную строку в. Чтобы это понять, достаточно указать последовательность команд, определяющую из, в которой соответствующая последовательность символов вывода в правых частях идущих строго друг за другом команд, завершающихся командой остановки, в точности совпадает с в. Можно сказать, что в этом случае в «вмонтирована» в тело программы машины из. Но тогда получается, что в определении Ки (в) = min{|p| : и (р) = в} машина и не может быть любой,
поскольку для пустой входной строки Л машина Us выдаст s, и тогда Kjs (s) = 0 для любой строки s. Будем называть МТ Us генератором строки s, если эта машина для любой входной строки выдаёт строку s, и обозначать Us — множество генераторов для всевозможных строк s.
Определение 2. Точной Колмогоровской сложностью произвольной строки s называется
KC(s) = min(min{|p| : U(p) = s}),
J 2us
если равенство U (p) = s выполняется для хотя бы одной МТ, не являющейся генератором, иначе полагается что KC(s) = 1.
Введение определения точной колмогоровской сложности объясняется необходимостью избавиться от константы, связанной с переходом от одной оптимальной машины U к другой. Эта константа фигурирует в классическом определении и усложняет получение оценок неслучайности выбора моделей в задачах машинного обучения, основанных на принципе минимальной длины описания (MDL).
Определение 3. Колмогоровской сложностью согласованной модели при заданной МТ U называется
KCj(Md) = min {|p| : U(p) = sC * sA * sB} ,
где s^ * s^ * sbb — строка, являющаяся конкатенацией трёх строк, определяющих такие элементы модели MD, что
f (Xk) = yk) Л ([AXfc 6 B] $ шк), (Xk,yk,!k) 2 D, k = 1,...,/,
а f с — целевая функция, определяемая набором коэффициентов C.
Определение 4. Колмогоровской сложностью согласованной системы линейных ограничений при заданной МТ U называется
KCj(Пd) = min{|p| : U(p) = s^ * s^} ,
где s^ * sв — строка, являющаяся конкатенацией двух строк, определяющих такие элементы модели il d , что
([AXk 6 в] $ !k), (Xk, A,!k) 2 D, k = 1,...,/.
Определение 5. Точной колмогоровской сложностью семейства MD согласованных моделей называется
KC(Md) = min max KCj (Md).
j2us Md 2MD
Важно заметить, что в определении точной колмогоровской сложности семейства моделей берётся «оптимальная» по сжатию самой сложной модели в классе Мд машина Тьюринга. Если существует более одной такой МТ (тогда для всех из них значение KC(Md) одинаково), то берется одна любая «оптимальная» по сжатию МТ.
Определение 6. Точной колмогоровской сложностью семейства ПD согласованных систем линейных ограничений называется
KC(ЙD) = min max KCu ( ПD).
U2Us nDenD
Точная колмогоровская сложность не является вычислимой функцией. Для использования этого понятия будут применяться оценки сложности сверху. С техникой получения подобных оценок можно ознакомиться в [5].
4. Обоснование согласованных моделей на основе колмогоровской сложности
Описанием числовых векторов и матриц являются последовательности подходящим образом закодированных чисел. Если значительная часть коэффициентов матрицы (векторов) согласованной модели — нулевые, то описание (сложность) модели может оказаться существенно короче.
Лемма 1. Согласованные модели из семейства ND, имеющего точную колмогоров-скую сложность d, могут быть извлеченыпутёмприменения«оптимальной» по сжатию машиной UD не более чем 2d способами.
Доказательство. Пусть для решения поставленной задачи синтеза применяется произвольное согласованное семейство ND С MD такое, что KC(ND) = d, и зафиксирована некоторая «оптимальная» по сжатию МТ Ud . Применение этой машины к двоичной строке p : |p| = d обеспечивает получение линейной модели MD (p), представленной в форме конечной строки-описания Sp = UD(p), где Sp = s^*sa*sb. Поскольку Ud является функцией (Ud 2 Ppr), каждому значению p соответствует единственная строка Sp = Ud (p). Тогда 2d различных возможных значений строки p длины d исчерпывают все порождаемые строки вида Sp = s^ * s^ * Sß и, возможно, строки, не имеющие смысла как, например, код согласованной модели Sp = Ud(11...11). □
Следствие 1. Пусть KC(ND) < h, где h —верхняя оценка сложности семейства Nd . Тогда покодам (программам) длины h можно получить не более 2h согласованных моделей, и |ND | 6 2h.
Напомним, что изучаемая задача синтеза будет решаться на вычислительной машине, в которой число бит, используемое для представления одного числа, равно Ь; именного столько бит будет использоваться для записи одного числа и в обучающих данных Б, ив описании кода модели = в с * в а * в в. Тогда в семействе Мд будет конечное число моделей. И программирование верхних оценок сложности [5] будет связано с конструированием строк, длина которых будет определяться, в числе прочего, константой Ь.
Обозначим сопг'(Дф) выпуклую оболочку множества допустимых точек из обучающей выборки.
Лемма 2. При условии Бе \ сопу(Бф) = 0, мощность семейства |Пд| удовлетворяет неравенству
21од{\р/&е-2)1в 6 д |,
где р —наименьшее повсем точкам обучающегомножества Бе, лежащимвне множества допустимых решений, евклидово расстояние до выпуклой оболочки точек из Бф, которые являются допустимымирешениями, а 5 — модуль наименьшего рационального числа в используемом машинном формате.
Доказательство. Пусть р = шт р(Хк, сопу(Бф)) — кратчайшее расстояние по всем
Хк
точкам множества Бе до выпуклой оболочки точек множества Бф. Отрезок прямой, длина которой равна р , соединяющий точку из Бе с точкой оболочки, можно отделить от соп^(Бф) не менее чем |~р /5] — 2 перпендикулярными ему гиперплоскостями. Поэтому каждая точка из Бе линейно отделима не менее чем |~р /5] — 2 гиперплоскостями, и из них можно выбрать одну любую для отделения каждой точки. Тогда число линейных моделей, отделяющих все точки множества Бе, не менее
(|-р/5] — 2)1© = 2г°д(\ р/&е-2)1в. □
Решение задачи поиска модели, «объясняющей» выборочные данные, происходит как машинное обучение, приводящее к извлечению гипотезы — закономерности в данных. Важно оценить неслучайность выбора гипотезы.
В теории статистических решений предполагается существование вероятностных распределений в пространстве выбора гипотез. В данной работе рассматривается нестатистическая постановка задачи: выборочные данные отражают регулярные модели. Поэтому применяется подход к выбору модели в условиях неопределенности, предполагающий возможность равновероятного извлечения любой согласованной модели. Но синтез согласованной модели, как процесс машинного обучения, должен приводить не к случайной гипотезе, а к закономерности.
Для понимания доказательства следующих утверждений нужно обратить внимание на то, что сложность линейной согласованной модели всегда не меньше сложности входящей в неё системы ограничений.
Теорема 1. Пусть модели согласованного семейства МЪ распределены в нем равно -вероятно. Тогда вероятность случайного извлечения согласованной модели из класса Ж.Ъ С , имеющего оценкуточнойколмогоровской сложности KC(NЪ) < Н, не превысит
2Ь-1од(\р/&е-2)1в
Доказательство. Напомним, что семейство мъ является конечным в силу условия сужения моделей до реализуемых на компьютере с ограничением рационального промежутка представления чисел. Оцениваемая вероятность случайного выбора есть |/|МЪ|. Согласно условию теоремы, KC(NЪ) < Н, и | 6 2Н по следствию 1. Согласно лемме 2,
|мъ | > 2г°д(\^1-2)ге,
поскольку модели класса мъ включают в себя все модели линейных ограничений семейства Пъ . Поэтому
N|/|МЪ| 6 2^/|МЪ| 6 2Н/21од(\Р/ге-2)1® = 2н-1од(\р/ге-2)1е
□
Замечание. Полученная в теореме 1 оценка справедлива для расширения компьютерных моделей до бесконечного класса вещественных.
Следствие 2. Для того, чтобы построенная модель МЪ, имеющая верхнюю оценку точной колмогоровской сложности Н, с вероятностью не меньшей 1 — е была неслучайной, т. е. была закономерностью, необходимо, чтобы число примеров в выборке удовлетворяло неравенству
¡е > (Н + log(1/е))/log(\р/6^—2). (3)
Доказательство. Основываясь на колмогоровском представлении о достоверности как неслучайности, из неравенства
2Ь-1в1од(\р/&'1-2) 6 е
легко вывести эквивалентное неравенство (3). □
Например, ^(е = 0.01, р =1, 6 = 10-4, Н = 3000) и 230.
Согласно полученным результатам, необходимая величина объема ^ подвыбор-ки определяется, главным образом, колмогоровской сложностью модели (оценкой
сложности) и кратчайшим расстоянием р , взятым по всем точкам множества , до выпуклой оболочки точек множества Дф. Невхождение длины 1ф подвыборки в явном виде в оценку (3) объясняется тем, что от нее в значительной степени зависит оценка кратчайшего расстояния р , которая в эту оценку входит явно. Рост числа «положительных» примеров 1ф в обучающей информации влечет всё более равномерное заполнение области допустимых решений и уменьшение р .
УС-размерность Вапника-Червоненкиса [4] Ну с (М) некоторого семейства моделей М связана с его колмогоровской сложностью КС(М) соотношением
Нус(М) 6 КС(М) < Нус(М)^,
где l — длина обучающей выборки [17]. Это показывает, что нестатистическая оценка качества моделей — закономерностей хорошо согласуется со статистической теорией В. Н. Вапника и А. Я Червоненкиса.
5. Рекомендации к построению согласованных моделей
1. Необходимо стремиться к получению модели с минимальной колмогоровской сложностью. Достигнуть снижение сложности синтезированной модели можно за счет:
- минимизации числа неравенств в Пъ ;
- минимизации ненулевых членов оценочных матриц и векторов, поскольку рУСБ оценка [5] сжатия строки описания модели уменьшается при этом на число нулевых элементов, умноженное на константу Ь.
При построении неравенств согласованной линейной оптимизационной модели каждая точка выборочных данных из должна линейно отделяться ото всех допустимых точек из Дф. Поэтому всегда можно синтезировать 1ф гиперплоскостей. Затем следует произвести переобучение для каждой из них, включив в выборку для каждой плоскости уже все отделённые ею точки. И только затем решать задачу о кратчайшем наборе гиперплоскостей, как задачу минимизации [8].
2. Алгоритмы построения линейных отделителей необходимо усовершенствовать введением выполняемого в ходе синтеза «сброса» в ноль коэффициентов, значение которых ниже некоторого порогового значения. Такая модификация может позволить понизить сложность линейных функций, для синтеза которых представляется полезным применение алгоритмов БУМ [14].
3. Необходимо тщательно разработать структуру слова р, являющееся сжатым описанием модели. Уменьшение его длины может быть достигнуто, например, за счет экономного кодирования идущих «подряд» нулей в описании модели. Это позволит уменьшить значение верхней оценки сложности модели Л.
4. Если в п-мерном пространстве задано /ф точек то при п > 6 число граней выпуклой оболочки имеет порядок 0(/®К2]) [13]. Следовательно, построение выпуклой оболочки точек множества Бф трудоёмко. Указанная в работе [3] процедура строит описание граней всех размерностей оболочки и нормальных конусов к ним. Подобные процедуры слишком сложны в случае большой размерности. Для оценивания кратчайшего расстояния до выпуклой оболочки её построение в явном виде не требуется.
Заключение
В статье предложен колмогоровский подход к определению сложности линейных согласованных моделей оптимизации. На основе оценивания колмогоровской сложности моделей даны рекомендации к обоснованию методов синтеза таких моделей по прецедентной начальной информации.
Вопросы формирования обучающей прецедентной информации в статье не затронуты. Но растущая большими темпами компьютеризация объектов и большие объемы доступной для хранения информации памяти на сегодняшний день позволяют извлекать из хранилищ данных выборки, имеющие длину свыше десятков тысяч наблюдений.
Направление дальнейшей работы связано с усовершенствованием алгоритмов синтеза линейных согласованных моделей с учетом данных выше рекомендаций.
Список литературы
1. АнафиевА. С. М-Модели алгоритмов. Ёмкость и колмогоровская сложность класса М-поли-номов / А. С. Анафиев // Таврический вестник информатики и математики. - 2010. - № 1. — С. 51-57.
2. БлыщикВ. Ф. Интеллектуализированная программная система 1п1;тап поддержки принятия решений в задачах планирования и управления / В. Ф. Блыщик, В. И. Донской, Г. А. Махина // Искусственный интеллект. — 2002. — С. 406—415.
3. БуровскийП. А. Алгоритм Моцкина-Бургера и вычисление выпуклых оболочек точек п -мерного пространства / П. А. Буровский // Вестник КрасГУ. Сер. физ.-мат. науки. — Красноярск, 2005. — Вып.1. — С. 48—53.
4. ВапникВ. Н. Теория распознавания образов / В. Н. Вапник, А. Я. Червоненкис. — М.: Наука, 1974. — 416 с.
5. Донской В. И. Оценки емкости основных классов алгоритмов эмпирического обобщения, полученные pVCD методом / В. И. Донской // Ученые записки ТНУ им. В. И. Вернадского. Серия «Физико-математические науки», 2010. — Т.23 (62). — №2. — С. 56-65.
6. Донской В. И. Слабоопределенные задачи линейного булева программирования с частично заданным множеством допустимых решений / В. И. Донской // ЖВМ и МФ, 1988. — Т. 28. — №9. — С. 1379-1385.
7. Донской В. И. Сложность семейств алгоритмов обучения и оценивание неслучайности извлечения эмпирических закономерностей / В. И. Донской // Кибернетика и системный анализ. — 2012. — №2. — С. 86-96.
8. Донской В. И. Частично определенные задачи оптимизации: подход к решению на основе теории распознавания образов / В.И. Донской // Динамические системы. — К.: Вища школа, 1989. — Вып. 8. — С. 71-77.
9. Колмогоров А. Н. Теория информации и теория алгоритмов / А. Н. Колмогоров — М.: Наука, 1987. —- 304 c.
10. Мазуров Вл. Д. Применение методов теории распознавания образов в оптимальном планировании и управлении Вл. Д. Мазуров // Труды I Всесоюзной конференции по оптимальному планированию и управлению народным хозяйством. — М., ЦЭМИ, 1971. — С. 49.
11. Мазуров Вл. Д. Нестационарные процессы математического программирования. — М.: Наука, 1979. — 288 с.
12. Мазуров Вл. Д. Распознавание образов как средство автоматического выбора процедуры в вычислительных методах / Вл. Д. Мазуров // ЖВМ и МФ, 1970. — Т. 10. — №6. — С. 1520—1525.
13. ПрепаратаФ. Вычислительная геометрия. Введение / Ф. Препарата, М. Шеймос. — М.:Мир, 1989. — 478 с.
14. ТаратыноваН. Ю. Задача линейной оптимизации с частично заданной информацией / Н. Ю. Таратынова // Таврический вестник математики и информатики, 2005. — №1. — С. 8293.
15. Таратынова Н. Ю. Построение оптимизационной модели по прецедентной начальной информации как задача нелинейной регрессии / Н. Ю. Таратынова // Искусственный интеллект, 2006. — №2. — С. 82-93.
16. ChanT.M. Output-Sensitive Construction of Convex Hulls / T.M. Chan / Ph.D. thesis. — Department of Computer Science, University of British Columbia. — 1995. — 104 p.
17. DonskoyV.I. The Estimations Based on the Kolmogorov Complexity and Machine Learning from Examples / V.I.Donskoy // Proceedings of the Fifth International Conference „Neural Networks and Artificial Intelligence" (ICNNAI'2008). — Minsk: INNS. — 2008. — Р. 292-297.
18. DonskoyV.I. Pseudo-Boolean Scalar Optimization Models with Incomplete Information / V.I.Donskoy. — GMOOR Newsletters, 1996. — № 1-2. — P. 20-26.
19. Li Ling. Data Complexity in Machine Learning and Novel Classification Algorithms /Ling Li // Thesis for the Degree of PhD. — California Institute of Technology, 2006. — 103 p.
Статья поступила в редакцию 27.05.2012
УДК 519.8
МАТЕМАТИЧНА МОДЕЛЬ РЕГ1ОНУ: ЕКОЛОГО-ЕКОНОМ1ЧНИЙ
АСПЕКТ © О. О. бмець, О. О. Черненко
ПоЛТАВСЬКИй УШВЕРСИТЕТ ЕКОНОМ1КИ I ТОРГ1ВЛ1
вул. Коваля, 3, м. Полтава, 36014, Украша e-mail: [email protected], [email protected]
Abstract. The problem of the ecological safety of production on regional level is considered in the article. The model of functioning of a region is built taking into account the technogenic loading on an environment and the rational use of natural resources.
Вступ
Постановка задачг в загальному виглясЯ. Проблема запоб!гання природно-техногенним надзвичайним ситуащям, зменшення 1х впливу на населення, природу й економжу мае прюритетне загальнодержавне значення.
Аналлз остантх досллджень i публгкацгй. Велика юльюсть публжацш, особливо в останш роки, присвячена проблем! збалансування економжи та еколои! (див., на-приклад, [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]). Зокрема, в [4] розглядаеться проблема забезпечення екологiчноi' безпеки в умовах трансформацп економжи Укра'ши, а та-кож удосконалення державного регулювання регюнально! еколоично! безпеки; в [5] розкрито еколого-економ!чне регулювання природокористування в систем! глобаль-них стратегш розвитку.
Невиршет ратше задачi загальног проблеми. Дана проблема е предметом вив-чення низки науковщв, однак при цьому задача моделювання функцюнування регю-ну, що мшм!зуе техногенне навантаження на довюлля, в л!тератур! не розглядалася.
Отже, актуальним е питання про таку модель розвитку галузей промисловост та сшьського господарства, яка б забезпечувала економ!чне зростання i водночас враховувала потенщал навколишнього середовища з точки зору можливостей його використання.
1. Постановка задач1
Розглянемо функцюнування регюну протягом року для оцшки його еколоично! безпеки та побудуемо модель.
Система критер!1в оцшки еколоично! безпеки промислового виробництва регюну ор!ентована на оцшку еколопчно! безпеки окремих промислових об'ектав. Шд про-мисловим об'ектом розум!еться окремо розташований проммайданчик шдприемства,
промислове п1дприемство або група промислових шдприемств, яю можуть розгля-датися, як едине джерело техногенного впливу [4].
Вважаемо, що в регюш зосереджеш промислов1 п^приемства (заводи, фабрики), розвинутий прничо-металургшний комплекс (добування корисних копалин), а також сшьське господарство, зокрема, рослинництво та тваринництво.
В результат д1яльност промислових агломерацш, в1дбуваеться забруднення л1то-сфери, г1дросфери, атмосфери та наноситься шкода бюсферь Кр1м того, функщону-вання рег ону в ц лому потребуе використання природних та добутих ресурс в. В робот забруднення визначаеться як використання, зокрема, якщо забруднено один куб. метр пов 1 тря, то в 1 н рахуеться як використаний.
Для анал1 зу функщонування промислового рег юну введемо таю позначення: хг — обсяг виготовлено!' г-о!' продукщ 1 в рег 1 он 1 (тонн), X — множина виготовлено!' продук-ц1 1; уг — к 1 льк 1 сть добуто'1 г-о!' корисно!' копалини (тонн), У — множина уа х копалин; 2 — обсяг г-о!' вирощено'1 культури (тонн), Z — множина вс1х культур; V — обсяг вигодуваного г-ого виду худоби (тонн), V — множина вс1х тварин. 7* — множина забруднюючих речовин, що дае промисловий сектор (п 1 дприемства та г 1 рничодобув-ний комплекс); — множина забруднюючих речовин, що дае с/г виробництво; I* — к льк сть промислових шдприемств; 12 — к льксть майданчикв добування корисних копалин.
В робот вважаеться, що одне тдприемство може спещал1зуватися на випуску р 1 зно!' продукцп, а одна 1 та ж продукщя випускаеться р 1 зними п1дприемствами.
Аналог 1чне припущення мае м 1 сце 1 для с1 льського господарства, зокрема, для тваринництва. Для рослинництва вважаемо, що на одному пол1 може бути пос1яна одна культура одна та ж культура може бути пос яна на р зних полях.
2. Математична модель задач1
Оцгнка дгяльностг промислових пгдприемств по використанню (забрудненню) природних ресурсгв.
1) Забруднення пов 1 тря. Концентращ я Спк забруднюючо!' речовини ] в пов 1 тр 1 за напрямом в 1 тру (швидк 1 сть в 1 тру и, м/с) на в 1 ддал 1 Ь в 1 д к-о!' промислово!' агломеращ!' розраховуеться за формулою [8]:
а:
П _ ___/1\
]к — г / т \ . . .. 1 , (1)
+ ь) (5,5и-0>4) + Нпк
ни