УДК 519.7
ОПТИМИЗАЦИОННЫЕ МОДЕЛИ С ПРЕЦЕДЕНТНОЙ НАЧАЛЬНОЙ ИНФОРМАЦИЕЙ
© Анафиев А. С., Блыщик В. Ф.
Таврический национальный университет им. В.И. Вернадского
факультет математики и информатики
пр-т Вернадского, 4, г. Симферополь, 95007, Украина e-mail: anafiyevegrnail.com, vebeiand.ru
Abstract. The main methods for solving optimization problème with incomplète (precedent) initial information are considered. Highlighted the problem of synthesis of optimization models with precedent initial information.
Введение
«В экономике как неформализованной науке важна опора на прецеденты, на эмпирические закономерности. Поэтому в ней большое значение имеют методы обучения диагностике и выбору на основе опыта, на материале наблюдений. » [7]
В общем случае задачу оптимизации можно сформулировать следующим образом
extr f (x) /x e Q Ç X, (1)
где f : X ^ Y — целевая функция, оптимальное (близкое к оптимальному) значение x* которой требуется отыскать в ходе решения задачи, X — множество объектов,
Y — множество значений (ответов) и Q — множество (область) допустимых решений,
x*
Согласно постановке (1) задачу оптимизации можно рассматривать как четверку (X,Y,f, Q ).
Чаще всего множество допустимых решений задается в виде системы ограничении неравенств. Неравенства и целевая функция могут быть линейными и/или нелинейными, в связи с чем выделяют классы задач линейного и нелинейного программирования, некоторые случаи из которых достаточно хорошо изучены, но при условии, что и целевая функция, и ограничения заданы полностью. Однако в реальных практических задачах, в частности экономических, когда мы имеем дело с моделированием нестационарных и плохо определенных процессов, тяжело точно выписать все ограничения и целевую функцию. В следствии чего имеет место неполнота начальных
данных. В этом случае трудна даже сама постановка (формализация) задачи, не говоря уже о выборе адекватной поставленной задаче модели и непосредственно поиска оптимального решения.
Если в оптимизационной задаче функция / и/или область допустимых решений П заданы не полностью, а имеется лишь некоторая частичная информация I(/, П) о них, то говорят о задаче оптимизации с неполными (частичными) данными.
1. Типы задач оптимизации с неполными данными
В работе В. И. Донского [1] выделяются следующие типы задач оптимизации в зависимости от начальной информации I(/, П) о целевой функции и ограничениях.
А1. Целевая функция / задана точно, а множество П задано частично перечислением точек из двух конечных множеств и Ш2, для которых заведомо изветсно, что С Пи Ш2 С X \ П; I (/, П) = {/, Шг,Ш2}.
А2. Дополнительно к А1 может быть задано множество Пд э П (часть ограничений, заданная явно); I(/, П) = {/, Ш2, Пд}.
В1. Задачи с заданной системой ограничений, но с частичной заданной целевой функцией. Информация о целевой функции представляет собой набор прецедентов {(х.1,/.I = /(яг))^=1}, который обозначим /д; I(/, П) = {/д, П}.
В2. Задачи, отличающиеся от случая В1 / задана
частичным бинарным отношением рд С р = \^(х,х') : /(х) < /(х')|, иначе говоря, конечным набором рд пар векторов (х,х') Е П х П таких, что имеет место хрх'-, I(/, П) = {рд, П}.
ВЗ. Задачи, отличающиеся от случая В2 тем, что существует эксперт, который для х, х
с' Е П дает ответ на вопрос о принадлежности пары (х, х') отношению р; I(/, П) = {р, П}.
Комбинируя различные варианты неполной начальной информации о целевой функции и ограничениях из задач А и В, можно сформулировать следующие типы задач оптимизации с частичными данными:
СИ. I (/, П) = {/д,ШгШ}. С12. I (/, П) = {рд,Шг,Ш2}. С13. I (/, П) = {р,Шг,Ш2}. С21. I (/, П) = {/д,Шг,Ш2, Пд}.
С22. I(/, П) = {рд, Шг,Ш2, Пд}.
С23. I(/, П) = {р,ШъШ2, Пд}.
Задачи можно разделить на подклассы и в зависимости от некоторой дополнительной информации о множествах X и У, о модели неизвестной целевой зависимости / и о форме области допустимых решений П:
Б1. Вид пространства X и У. Например, X = Еп и У = Е, X = Вп = {0,1}п и У = Е.
D2. Предполагаемая (или явная для точно известных компонент) линейность задачи.
БЗ. Предполагаемая (или явная) выпуклость.
D4. Предположения о непрерывности, гладкости.
Б5. Предположение о существовании вероятностной меры на X.
Б6. В каком смысле понимается оптимальное решение.
2. Обзор методов решения задач оптимизации
с неполными данными
Первые работы, в которых рассматриваются задачи математического программирования с неполной информацией, появились в начале 70-х годах прошлого века и принадлежат Владимиру Даниловичу Мазурову [5, 6]. В них описан подход основанный на методах теории распознавания образов в оптимальном планировании и управлении, который в дальнейшем развивался в более широком направлении синтеза итерационных методов оптимизации, порождаемых итерационными операторами с нестационарной системой параметров, и алгоритмов доопределения плохо формализуемых элементов моделей [4, 6].
Были разработаны итерационные процедуры основанные на использовании фейе-ровских отображений, представляющие собой реализацию методов недифференциру-емой оптимизации в рамках предположения выпуклости.
Существенное место в развитии теории решения слабо формализованных задач занимает теория комитетных моделей оптимизации и классификации [4].
Определение. [4]. Комитетом системы линейных неравенств
(су,х) = ау1 хх + ... + аупхп ^ Ъу, ] = !,... ,т,
где х,Сз Е Мп, Ъу Е М, называется множество К = {х1,... ,хя} С Мп такое, что для любого ] неравенство (су ,хг) ^ Ъу выполняется более чем для половины элементов хг К
Рассмотрим пример противоречивой и неформализованной задачи г = (Мп, М,/,1 (П)), где информация I(П) представляет собой набор ограничении двух видов!
1) ограничения с^ ] Е J, модель и параметры модели которых известны;
2) ограничения в Е Ь, модель и/или параметры модели которых неизвестны;
!
а. < с. (хг,... ,хп) < Ь., ] Е J;
1 {а) = < ' < 1 ) < в \ч (2)
а« < 1з(хг,... ,хП) < Рз, в Е Ь.
Если система (2) совместна, — найдены, то имеем множество допустимых реше-П/ система несовместна, то ей ставится в соответствие комитетное решение, определяющее «размытое» решение — некоторое «облако» элементов, обладающее основными свойствами решения, сосредоточенного в одном элементе.
В общем случае система (2) может быть как несовместной, так и неформализованной. Тогда необходимо применить алгоритмы классификации ДЛЯ восстшюв-ления неизвестных ограничений в Е Ь, а затем использовать понятие комитета системы (2) как конструкцию для неоднозначной интерпретации противоречивых данных. В этом и заключается основная идея метода комитета для решения плохо формализуемых и противоречивых задач оптимизации [8].
Отсюда можно сделать вывод, что основная направленность метода комитетов в задачах оптимизации — это преодоление проблемы противоречивости системы ограничений основанное на идеи консилиума — выработки результирующего коллективного решения на основе группы решающих правил, позволяющего ослабить «жесткие» противоречивые ограничения и осуществлять поиск решений для несобственных задач оптимизации.
Хочется отметить тот факт, что при неполноте начальных данных и восстановлении недостающих параметров модели важным является согласованность восстанавливаемой модели исходной задаче. Если не учитывать этого, а навязывать какую-ту «удобную» для решения модель и восстанавливать ее параметры (например, с помощью методов распознавания образов), то можно получить сколь угодно неточное решение исходной задачи.
В работе [1] детально изучаются задачи (Вп, М, /, П ) псевдобулевой оптимизации
с частичной информацией; разработан алгоритм решения задач оптимизации для
/
и алгоритм направленного перебора на основе линеаризующей схемы ветвления для решения задач безусловной оптимизации псевдобулевой функции.
Синтетический метод [1] решения задачи оптимизации слабоопределенной линейной псевдобулевой функции с дизъюнктивным ограничением, основан на нахождении при помощи прецедентной информации системы образующих C = {C1,... ,Cq} выпуклого многогранного конуса K(C) С которому принадлежит неизвестный вектор C0 коэффициентов линейной целевой функции. Доказано, что при выполнении условий Co Е K(С), Co = 0 УС Е conv(C) (C,x*) = max(C,x) выполняется
х€П
(C0,x*) = max(C0, x) / x Е П,
где П — множество допустимых решений, определяемое дизъюнктивным ограничением. На основе представления П его покрытием П U ... U Qj U ... U Пт таким, что (x Е Qj) ^ (Kj (x) = 1) j = 1, m, осуществляется решение m задач на выпуклой
CC
q
max (AC + ... + Xq Cq ,x) / Kj (x) = 1; ^ Ak = 1; Ak ^ 0.
k=i
Использование дополнительной информации о знаках неизвестного вектора C0 коэффициентов целевой функции позволяет получить простое правило вычисления булевых векторов aj Е Qj таких, что
yC е conv(C yx Е П (C, aj) ^ (C, x),
получить оценки
yC Е conv(C) Aj ^ max(C, x) = (C, aj) ^ Bj
и условие:
^Aj* : Aj» ^ Bj, j * = j, j Е 1,m. Показано, что при выполнении этого условия исходная задача решается точно:
(C0,aj*) = max (C0,x) / x Е П;
в противном случае применяется теоретико-игровой подход к выбору решения, приводящий к решению матричной игры.
В случае, когда целевая функция известна точно, а ограничения заданы в виде набора прецедентов и известно, что они линейны, то при условии, что характеристическая функция принадлежности произвольного объекта x Е X области допустимых П
ния обеспечивает существование точного решения исходной задачи.
Вывод
Несмотря на рассмотренные выше методы и подходы к решению задач оптимизации с неполными данными, на сегодняшний день проблема выбора адекватной оптимизационной модели и решения задач оптимизации с прецедентной начальной информацией является слабо изученной. Еще далеко не все методы и подходы к решению задач распознавания образов, восстановления регрессии, прогнозирования и кластеризации, в которых основной исходной информацией является набор пре-цедентов^ применяются для решения слабоопределенных задач оптимизации с пре-цедентнои нэ/чэльнои информацией о целевой функции и/или ограничениях. Задачи оптимизации подобного рода, конечно же, можно решать в два этапа: восстановление неизвестных элементов задачи и последующего решения полученной оптимизационной задачи. Но такой подход, на наш взгляд, не совсем корректен. Например, согласно [2, 3] имеются существенные различия в подходах к решению задач при неполноте информации о целевой функции по сравнению с задачами с точно заданной целевой функции и частично заданной области допустимых решений. Это лишний раз доказывает, что рассматривать задачу оптимизации с частичной информацией просто как объединение задач распознавания и оптимизации с полностью определенными данными не всегда уместно и может приводить к не адекватным решениям. Кроме того, некоторые алгоритмы машинного обучения необходимо адаптировать для решения задач оптимизации.
До сих пор не ясно, какие методы машинного обучения и как применять для решения конкретной задачи оптимизации с прецедентной начальной информацией для получения адекватных реальным, практическим задачам, моделей, для получения решений близким к истинным, а, иногда и точно совпадающих с ними, для получения оценок надежности таких решений. Таким образом,, актуальной является, проблема синтеза алгоритмов машинного обучения (алгоритмов обучения по прецедентам,) и методов оптимизации.
Используя особенности подходов, методов и алгоритмов машинного обучения, таких как метрические алгоритмы классификации, байесовский подход к классификации, алгоритмы кластеризации и различные методы восстановления регрессии, можно получать большое количество оптимизационных моделей с прецедентной начальной информацией, изучать их свойства и анализировать полученные решения. По мнению авторов статьи данное направление является одним из актуальных и перспективных в современной информатики и кибернетики.
список литературы
1. Донской В. И. Дискретные модели принятия решений при неполной информации на основе синтетического подхода: дис. доктора физ.-мат. наук : 05.13.17 / Донской Владимир Иосифович. — Симферополь, 1993. — 267 с.
2. Донской В. И. Логическое управление плохо формализованными системами / Донской Владимир Иосифович // Динамические системы. — К.: Вища школа, 1985. — Вып. 4. — С. 90-96.
3. Донской В. И. Слабоопределенные задачи линейного булева программирования с частично заданным множеством допустимых решений / Донской Владимир Иосифович // Журнал вычисл. математики и матем. физики, 1988. — т. 28, №9. — С. 1379-1385.
4. Мазуров В.Д. Метод комитетов в задачах оптимизации и классификации / Мазуров Владимир Данилович. — М.: Наука, 1990. — 248 с.
5. Мазуров В.Д. Об одном итерационном методе планирования, использующем распознавание образов для учета плохо формализуемых факторов / Мазуров Владимир Данилович // Изв. АН СССР. Техн. кибернетика. - 1973. - №3. - С. 205-207.
6. Мазуров В.Д. Применение методов теории распознавания образов в оптимальном планировании и управлении / Мазуров Владимир Данилович // Метод комитетов в распознавании образов. — Свердловск: УНЦ АН СССР, 1974. - С. 10-40.
7. Математические методы в экономике / [ЕреминИ. И., МазуровВл.Д., СкаринВ.Д., Ха-чай М. Ю.]. — Под ред. Еремина И.И. и Мазурова Вл.Д. — Екатеринбург: Изд-во «У-Фактория», 2000. - 280 с.
8. Мазуров В. Д. Модели интерпретации противоречивых данных и метод комитетов / Мазуров В. Д. // Сборник научных трудов, Тр. ИММ УрО РАН. - 1992. - №1. - С. 193-203.
Статья поступила в редакцию 11.12.2011