Научная статья на тему 'Некоторые стандартные схемы параметрической оптимизации'

Некоторые стандартные схемы параметрической оптимизации Текст научной статьи по специальности «Математика»

CC BY
190
43
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПАРАМЕТРИЧЕСКАЯ ОПТИМИЗАЦИЯ / МИНИМАКСНЫЕ ЗАДАЧИ / СИСТЕМЫ НЕРАВЕНСТВ / ГЛАДКИЕ КРИТЕРИИ ОПТИМАЛЬНОСТИ

Аннотация научной статьи по математике, автор научной работы — Черноруцкий Игорь Георгиевич

Изложена техника построения гладких критериев оптимальности в минимаксных задачах аппроксимации и в задачах решения систем неравенств, часто используемых для формализации технических требований к оптимизируемым объектам. Обсуждаемые в статье гладкие аппроксимации критериев позволяют для решения широкого класса задач параметрической оптимизации ограничиваться простейшими реализациями стандартных алгоритмов нелинейного программирования.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The methods of smooth criteria constructing for minimax optimization problems and the problems of systems of inequalities solutions are presented. Discussed in the article smooth approximations of criteria allow to use the simplest implementations of the standard algorithms for nonlinear programming.

Текст научной работы на тему «Некоторые стандартные схемы параметрической оптимизации»

УДК 681.3.06(075.8)

И.Г. Черноруцкий

НЕКОТОРЫЕ СТАНДАРТНЫЕ СХЕМЫ ПАРАМЕТРИЧЕСКОЙ ОПТИМИЗАЦИИ

Известны методы, позволяющие формально свести общую задачу параметрической оптимизации с ограничениями, возмущениями и векторным критерием оптимальности к последовательности концептуально более простых однокритериаль-ных оптимизационных задач без ограничений -назовем их для определенности каноническими оптимизационными задачами. Мы здесь предполагаем, что такое сведение выполнено.

Возникающие при таком сведении канонические задачи обладают рядом особенностей, выделяющих их среди общих задач безусловной нелинейной оптимизации. Основные с точки зрения приложений особенности заключаются в следующем.

Особенности оптимизационных задач

1. Критерии оптимальности часто имеют характерную структуру, позволяющую строить специальные методы оптимизации второго порядка, использующие упрощенные выражения для производных.

2. Однократное вычисление функционалов задачи связано со сложным и трудоемким решением соответствующей задачи анализа. Поэтому наиболее эффективными целесообразно считать алгоритмы, которые в процессе оптимизации наименьшее число раз обращаются к вычислению значений минимизируемых функционалов и функционалов ограничений для получения решений с требуемой точностью.

3. Если оптимизируется сложная многопараметрическая система, то ее обычно можно представить как некоторую совокупность связанных подсистем меньшей размерности. Учет подобной структуры системы обычно позволяет строить более рациональные методы по сравнению с традиционными универсальными алгоритмами нелинейного программирования.

4. Невыпуклая структура минимизируемых функционалов существенно понижает эффективность стандартных методов нелинейной оптимизации, особенно если такой структуре сопутству-

ет указываемая в п. 5 овражная ситуация.

5. Как свидетельствует практика решения реальных задач параметрической оптимизации, возникающие канонические оптимизационные задачи являются, как правило, плохо обусловленными (жесткими). Это определяет характерную овражную структуру поверхностей уровня минимизируемых функционалов и вызывает резкое замедление сходимости стандартных методов оптимизации [1].

Указанные характерные черты канонических оптимизационных задач определяют конкретные требования к методам параметрической оптимизации. С позиций традиционных методов нелинейной оптимизации наиболее существенными оказываются особенности, отмеченные в пунктах 4, 5. Основная трудность состоит в том, что с математической точки зрения проблема невыпуклости оказывается неразрешимой в силу сложности класса невыпуклых оптимизационных задач. Согласно результатам, представленным, например, в [2], основной вывод, сформулированный в интуитивных терминах, заключается в том, что даже для гладких одноэкстремальных функционалов в задачах с не очень малой размерностью пространства управляемых параметров скорость сходимости любого метода (равномерно по всем задачам) безнадежно мала, и попытка построить общий метод, эффективный для всех гладких невыпуклых задач, заранее обречена на неудачу.

С точки зрения практики представляют интерес методы оптимизации, вырабатывающие эффективные направления поиска в точках пространства, где стандартные процедуры оказываются неработоспособными либо неэффективными. Необходимы методы, которые как в выпуклой, так и в невыпуклой и одновременно овражной ситуации локально (с точки зрения квадратичной модели) дают существенно более удовлетворительные по скорости убывания функционала результаты по сравнению с традиционными методами. Соответствующие методы будут рассмотрены в последующих публикациях.

В зависимости от реальных ситуаций, примеры которых рассмотрены в работах [3, 4], могут формироваться различные алгоритмические схемы параметрической оптимизации. В данной статье предложена единая стратегия решения задач параметрической оптимизации на основе средне-степенных целевых функционалов.

По сути речь идет о методах построения целевых функционалов, обладающих определенным набором желательных свойств с позиций последующего эффективного применения специальных методов нелинейной оптимизации.

Задачи аппроксимации

Задачи аппроксимации наиболее часто возникают в практике параметрической оптимизации. К таким задачам, в частности, приводят:

• алгоритмы идентификации нелинейных детерминированных объектов по схеме с настраиваемой моделью;

• алгоритмы идентификации стохастических объектов, основанные на процедурах сглаживания;

• корреляционные алгоритмы идентификации линейных стохастических объектов;

• алгоритмы адаптации систем автоматического управления, основанные на методе обучающейся модели;

• алгоритмы оптимального проектирования устройств с заданными, например, амплитудно-частотными характеристиками;

• корреляционные алгоритмы синтеза статистически оптимальных систем автоматического управления.

Критерии оптимальности в задачах аппроксимации чаще всего формируются одним из следующих способов:

N

J1(x) = £a,2[W(x,) - w*(s,)]2 — min; (1)

xeD

i=1

J2( x) = max a, W (x, s\) - W * (s\) — min, (2)

i=1,N 1 ' 1 1 ' xed

где D — множество допустимых значений x; a, - весовые коэффициенты, определяющие необходимую точность аппроксимации в отдельных точках диапазона изменения независимой переменной s; s, i e [1:N] - дискретная сетка значений s, при которых происходит сравнение заданной W*(s) и расчетной W(x, s) характеристик.

Каждый из приведенных критериев имеет свои достоинства и недостатки. Функционал J1 прост и

обладает свойством «гладкости». Если функция Щ(х, s) является дважды непрерывно дифференцируемой функцией х, то этим же свойством будет обладать зависимость Jl(x), что существенно облегчает последующую процедуру оптимизации. Недостаток J1 заключается в возможности выбросов по точности для отдельных слагаемых. Иначе говоря, плохая точность аппроксимации в некоторых точках s. при больших значениях N может компенсироваться хорошей точностью в других точках. Этот недостаток устранен в критерии (2), однако он не сохраняет характеристики гладкости функции Щ(х, s), что требует привлечения специальных методов оптимизации.

Как показывает практика, простой и надежный способ решения задач аппроксимации заключается в использовании гладких среднесте-пенных аппроксимаций минимаксного критерия J2. Согласно этому подходу вместо решения задачи (2) ищется минимум функционала со средне-степенной структурой [4]:

J3(x) = ^ф" (x) — min, v = 2,3,...

(3)

где ф, (х) = а Щ (х, s¡) - Щ * ^ 1 )|.

При достаточно больших значениях V решения задач (2), (3) будут практически совпадать. Действительно, справедливо предельное соотношение

^v

— max ф,, v —^ с

где ф. > 0, - произвольные числа. Кроме

этого, можно показать, что операция извлечения корня v-й степени не влияет на локализацию точки минимума.

Функционал J3 совмещает в себе достоинства J1 и J2. Являясь гладким подобно J1, он не допускает значительных отличий по точности аппроксимации в отдельных точках.

При решении практических задач на основе критерия J3 целесообразно пошаговое увеличение параметра V, начиная с V = 2. Таким способом обычно удается избежать переполнения разрядной сетки компьютера при возведении первоначально больших значений локальных ошибок аппроксимации ф. в высокую степень V. Кроме того, проводя в интерактивном режиме оценку получаемых в процессе увеличения V решений, мы можем вовремя прервать процесс, если получены удовлетворительные результаты. Апри-

i=1

орное задание оптимального значения V обычно оказывается затруднительным. Как правило, при практических расчетах значение V не превышает 10-15. Учет ограничений хеО производится специальными методами снятия ограничений, например, методами замены переменных, методами штрафных функций, а в более сложных случаях - методами модифицированных функций Лагранжа (точных штрафных функций).

Рассмотренный подход очевидным образом обобщается на случай векторных функций Щ. При этом в качестве функций ф,(х) могут использоваться зависимости ф, (х) = а, Щ (х, ) - Щ * (х, )||.

Системы неравенств

Далее показывается, что изложенный выше метод построения гладких целевых функционалов можно обобщить и на задачи решения систем неравенств.

Наиболее часто задачи с неравенствами возникают при формализации основных спецификаций (требований) к оптимизируемому объекту, имеющих смысл «не хуже», «не меньше», «не больше» и т. п. В ряде случаев аппроксимацион-ные по смыслу задачи (содержащие требования в виде равенств) также целесообразно формулировать и решать как системы неравенств. Например, если ставится задача аппроксимации заданной характеристики Щ(х) с помощью расчетной зависимости Щ(х, 5) в точках s¡, ¡е[1:Ж], и если при этом заданы допустимые значения 8, > 0 точности аппроксимации в различных точках диапазона Щ(х, х)е [Щ(х) - 8¡, Щ(х) + 8,], ¡е [1:^], то требование Щ(х, х) = очевидно эквивалентно двум неравенствам:

Щ(х, 5,) > ) -Щ(х, х) < Щ(5 ) + 8,.

В общем случае имеем

у,(х) < Хр , е [1:т]. (4)

С помощью задания системы (4) могут учитываться все виды ограничений на объект оптимизации: прямые, функциональные и критериальные.

Особенность рассматриваемого класса задач заключается в том, что обычно нельзя считать, что «чем меньше у(х), тем лучше». Напротив, на одну и ту же выходную характеристику, как правило, накладываются двусторонние ограничения фкн < фк(х) < фкв, что приводит к двум неравенствам вида (4):

y,(x) - ф*(x) < ti - Фкв;

yj (x) - -Ф* (x) < tj --Фкн.

Поэтому трактовка задачи (4) как многокритериальной вида yi(x) ^ min с применением соответствующих процедур свертки, обычно нецелесообразна. Как правило, необходимо обеспечить безусловное выполнение всех неравенств (4), не допуская больших значений yi(x) (превышающих соответствующие t ), за счет очень малых значений yj(x) других выходных параметров.

Рациональный подход связан с применением критериев вида

J(x) = min у-1 (t - y (x)) ^ max (5)

i xeR"

или

J (x) = max у-1 (t t - y (x)) ^ min.

i xeR"

При этом параметры у. должны задавать «единицы измерения» разностей t . - y. для различных i. Эти разности характеризуют запас, с которым выполняются неравенства (4). Согласно (5) максимизируется минимальный из запасов.

Функционал (5) так же как и (2) не является гладким, что существенно усложняет ситуацию и требует применения специальных оптимизирующих процедур [7].

Ниже излагается альтернативный подход, основанный на процедуре сглаживания исходного функционала с последующим обращением к методам гладкой оптимизации.

Пусть Zi(x) - ti - y.(x).

Тогда, очевидно, min z (x) = max[exp(- z (x))]. / i

Поэтому задача (5) эквивалентна задаче

max[exp(-(x))] ^ min. (6)

ix

Для задачи (6) применима средне-степенная свертка (3), если положить

Ф,-(x) - exP[-Z(x)], i e [1: m].

В результате приходим к следующему критерию оптимальности: ... .

m

J(x) = ^exp[-vzi(x)] ^ min, v = 1,2,... . (7) i=1 x

Точно так же могут решаться и многокритериальные задачи вида

f(x) ^ min, i e [1: l]; x e D с R";

D = {x e R"\gt (x) < tj, j e [l +1: s]},

где функции g.(x) задают функциональные ограничения. Сформулированная задача может быть

представлена в виде системы неравенств

f(х) < f, gj (x) < tj; i e [1: l]; j e [l +1: s],

где f - некоторые предельные значения для критериальных выходных параметров f..

Полагая

Z (х) = а.[f - f(х)]/у.; i e[1: l];

Zj(x) = a j [tj - gj(х)]/ y j; j e[l +1: sl приходим к следующему целевому функционалу, аналогичному (7):

s

J (х) = ^ exp[-vzi (х)] ^ min.

i=1 х

Весовые коэффициенты a., a должны выбираться из условия a. << a. (i e [1:l]; j e [l + 1:s]). В этом случае (при достаточно больших v) критерий J^) эквивалентен минимаксному критерию (6), что в свою очередь эквивалентно задаче min zt ^ max .

i х

Очевидно, в силу больших значений a, (je [l + 1:s]) вес соответствующих слагаемых в выражении для J^) резко возрастает при нарушении хотя бы одного из условий g^) < t (т. к. тогда z^r) < 0). Если указанные условия выполнены, то, по существу, производится выбор х исходя из максимальности минимального запаса по критериальным неравенствам. В данном случае параметры a,, (j e [1:s]) играют роль штрафных коэффициентов при учете функциональных ограничений. Параметры a, (i e [1:l]) могут использоваться для построения на основе максиминной свертки аппроксимации множества Парето в допустимом множестве D, либо отражать интуитивные представления об относительной значимости отдельных критериальных выходных параметров.

В ряде случаев рассмотренный подход в силу своего единообразия и простоты оказывается наиболее предпочтительным при решении реальных задач параметрической оптимизации.

Как показывает вычислительная практика, трудности оптимального синтеза параметров по критериям типа максимума минимального запаса (5) в некоторых случаях вызываются исключительно негладкостью критериев, приводящей к преждевременной остановке поисковой процедуры. Целесообразно поэтому сразу обращаться к модифицированным критериям (7) с применением на первом этапе простейших алгоритмов оптимизации типа метода простого покоординатного спуска.

Использование среднестепенных критериев оптимальности в задачах параметрической оптимизации, где, по существу, необходим минимаксный подход, оправданно также с позиций явления жесткости или плохой обусловленности. Развитая в настоящее время техника решения негладких оптимизационных задач достаточно сложна, и в невыпуклой овражной ситуации многие алгоритмы теряют эффективность. В то же время могут быть развиты методы, позволяющие получить удовлетворительные результаты для невыпуклых жестких (овражных) функционалов при условии их гладкости. При этом обычно удается использовать структурные особенности функционалов (3), (7) для увеличения эффективности соответствующих вычислительных процедур.

Решение систем неравенств в условиях неопределенности

В данном разделе рассматривается специальный случай неопределенности обстановки. Предполагается, что вектор Е, входящий в левые части решаемых неравенств

у(х, О < X, у = (ур ..., Ут), X = (X, ..., Г), (8)

имеет случайный характер. Подобные постановки задач возникают, например, при алгоритмизации процедур управления технологическими процессами в условиях серийного производства продукции.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В качестве критерия, глубоко отражающего конечную цель решения указанной задачи, как правило, можно выбрать вероятность Р выполнения условий (8):

О(х) = Р[у(х, Е) < X] ^ тах. (9)

В данном случае все возможные ограничения на компоненты вектора х считаются учтенными за счет расширения системы неравенств (8). Процедура однократного вычисления функционала О(х) основывается на проведении статистических испытаний по методу Монте-Карло в соответствии с заданной плотностью распределения Т(х, Е) случайного вектора Е. Одновременно с расчетом значения целевого функционала можно практически без дополнительных вычислительных затрат рассчитать составляющие вектора градиента О (х) и матрицы Гессе ./'(х). Данное обстоятельство положено в основу построения некоторых реализаций методов параметрической оптимизации.

Альтернативный подход к решению задачи (9)

рассмотрен в [6, 7]. Он заключается в следующем. Потребуем, чтобы каждое неравенство (8) выполнялось с некоторым запасом:

Я (х, О + 8, < ^, 8, > 0, (10)

где 8, характеризует величину рассеяния ,-го выходного параметра за счет статистических вариаций компонент вектора Е относительно своих средних (как правило, нулевых) значений Е,. Требования (10) эквивалентны неравенствам

"(', - Я,)

Z(x) =

-1

> 0.

(11)

Величина z . имеет смысл запаса работоспособности по i-му выходному параметру.

В вычислительной практике используется максиминная форма целевого функционала

J(x) = min z (x) ^ max, (12)

i xeR"

аналогичная (5).

От представления (12) предлагается, как уже было показано выше, перейти к выражению (7), более удобному для практических расчетов. В [6, 7] и в других работах такой переход не делается, что приводит к существенным вычислительным трудностям и необходимости разработки специальных, достаточно громоздких вычислительных процедур. В наших экспериментах показано, что после перехода к гладким аппроксимациям (12) по излагаемой в данной статье методике никаких вычислительных проблем для задач из [7] не возникало. Все эти задачи были решены простейшим методом циклического покоординатного спуска и не потребовали разработки новых методов оптимизации.

В ряде случаев в выражение (12) вводятся дополнительные весовые коэффициенты а позволяющие регулировать степень «перевыполнения» требований (10) по отдельным выходным параметрам.

Для определения 5. проводится статистический анализ в окрестности текущей точки x. Значения 5. обычно имеют смысл трехсигмовых допусков, которые периодически уточняются в процессе оптимизации, Весьма часто величины 5. задаются как исходные данные на основе априорной информации, что значительно сокращает трудоемкость процедуры оптимизации, особенно при решении идентичных задач.

Сигномиальная оптимизация

В целом ряде практических ситуаций, связанных, например, с задачами оптимального проектирования, целевые функционалы или их аппроксимации имеют стандартную сигномиальную структуру:

J (x) = Z (^

(13)

где s 1 (х) = с ха2... ха-; а.. е Л1; хJ > 0; ] е [1: и].

В частном случае с. > 0 выражение (13) называется позиномом, а соответствующая задача параметрической оптимизации - задачей геометрического программирования [8].

Могут быть развиты общие стандартные процедуры сигномиальной оптимизации, основанные на простоте вычисления первых и вторых производных функционалов (13). При этом предполагается, что возможные дополнительные ограничения на параметры х также имеют вид сигномов и учитываются методами штрафных функций или модифицированных функций Лагранжа без нарушения сигномиальной структуры расширенного целевого функционала. Методы сигномиальной оптимизации также относятся к стандартным схемам выбора параметров технических систем и устройств.

Таким образом, в статье представлена техника построения гладких критериев оптимальности, в т. ч. в задачах аппроксимации и в задачах, приводящих к системам неравенств, часто используемым для формализации технических и иных требований к оптимизируемому объекту. Традиционные минимаксные стратегии вызывают известные трудности в использовании «библиотечных» методов нелинейного программирования из-за негладкости целевых функционалов, особенно при решении систем неравенств. Эти трудности проиллюстрированы, например, в [7]. Обсуждаемые в статье гладкие аппроксимации минимаксных критериев позволяют для решения широкого класса задач (в т. ч. и представленных в [7]) ограничиваться простейшими реализациями стандартных алгоритмов нелинейного программирования.

СПИСОК ЛИТЕРАТУРЫ

1. Ракитский, Ю.В. Численные методы решения нов, И.Г. Черноруцкий. -М.: Наука, 1979.

жестких систем [Текст] / Ю.В. Ракитский, С.М. Усти-

2. Немировский, А.С. Сложность задач и эффек-

i=1

тивность методов оптимизации [Текст] / А.С. Немиро-вский, Д.Б. Юдин. -М.: Наука, 1979.

3. Черноруцкий, И.Г. Методы параметрической оптимизации в задачах идентификации [Текст] / И.Г. Черноруцкий //Научно-технические ведомости СПбГПУ -2009. -№ 2. -С. 150-155.

4. Черноруцкий, И.Г. Параметрические методы синтеза систем управления [Текст] / И.Г Черноруцкий //Научно-технические ведомости СПбГПУ -2009. -№ 2. -С. 111-115.

5. Растригин, Л.А. Введение в идентифика-

цию объектов управления [Текст] / Л.А. Растригин, Н.Е. Маджаров. -М.: Энергия, 1977.

6. Норенков И.П. Введение в автоматизированное проектирование технических устройств и систем [Текст] / И.П. Норенков. -М.: Высш. шк., 1986.

7. Норенков, И.П., Экстремальные задачи при схемотехническом проектировании в электронике [Текст] / И.П. Норенков, С.Г. Мулярчик, С.Р. Иванов. -Минск: Изд-во БГУ, 1976.

8. Таха, Х. Введение в исследование операций: Кн. 1, 2 [Текст] / Х. Таха. -М.: Мир, 1985.

УДК 62.50+517.11+519.92

М.А. Марценюк, В.Б. Поляков, И.П. Селетков

МАТРИЧНАЯ РЕАЛИЗАЦИЯ АЛГОРИТМОВ НЕЧЕТКОГО ВЫВОДА

Нечеткая логика и ее методы нашли многочисленное применение в задачах моделирования и управления [1]. Предполагается, что нечеткие логические переменные x, y могут принимать промежуточные значения между нулем и единицей. В большинстве случаев для реализации нечетких логических операций над переменными используются предложенные Л. Заде нечеткая конъюнкция хлу = min(x, y) и дизъюнкция xvy = тах(х, у) [2]. Такое определение хорошо работает при вычислениях по заданным логическим формулам, что и используется в подавляющем числе задач моделирования и управления (подробный обзор представлен в книге А. Пегата [1]).

Однако на практике большое значение имеют задачи нечеткого логического вывода. В этом случае неизвестная переменная фигурирует под знаком логической операции и требуется ее найти. Например, для правила вывода modus ponens x^ y = z предполагается, что нам известны нечеткие переменные х, z и требуется найти нечеткость переменной y. Эту задачу затруднительно решить с помощью операций Л. Заде.

В работе [3] предложено использовать для проведения вывода матричный аппарат. В нем применяются модели логических операций, естественным образом обобщающие их «четкие» аналоги на область нечетких переменных и предикатов. Этот аппарат позволяет свести задачи нечеткого логического вывода к решению

системы линейных алгебраических уравнений с известными условиями существования и единственности решений. Цель данной статьи состоит в том, чтобы показать применимость этого подхода для решения разнообразных задач нечеткого логического вывода.

Матричное представление нечетких высказываний

Под высказыванием А в обычной (четкой) логике понимают такое предложение, которое либо истинно, либо ложно [4]. На совокупности всех высказываний можно определить функцию ц(А), принимающую значения в двухэлементном множестве {0, 1}, по следующему правилу:

,. ч |1, если высказывание А истинно,

Ц(А)= п А (!)

[ 0, если высказывание А ложно.

Функция ц(А) называется функцией истинности, а ее значение - логическим значением или значением истинности высказывания А.

Однако не обо всех высказываниях можно однозначно утверждать истинные они или ложные. Под высказыванием в нечеткой логике понимается такое предложение, которое может принимать истинное значение с какой-то степенью уверенности. На совокупности нечетких высказываний можно определить функцию истинности ц(А), принимающую значения на отрезке [0, 1], равную степени уверенности в справедливости соответ-

i Надоели баннеры? Вы всегда можете отключить рекламу.