Научная статья на тему 'Об одном методе анализа решений оптимизационных задач для систем математических моделей'

Об одном методе анализа решений оптимизационных задач для систем математических моделей Текст научной статьи по специальности «Математика»

CC BY
51
11
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
КОМПЛЕКСЫ МАТЕМАТИЧЕСКИХ МОДЕЛЕЙ / МЕТОД ГЛАДКИХ ШТРАФНЫХ ФУНКЦИЙ / ОПТИМИЗАЦИОННЫЕ ЗАДАЧИ / ДЕКОМПОЗИЦИОННАЯ СХЕМА / ЧУВСТВИТЕЛЬНОСТЬ РЕШЕНИЙ / МАТРИЦА ЧУВСТВИТЕЛЬНОСТИ

Аннотация научной статьи по математике, автор научной работы — Бирюкова П. А., Умнов А. Е.

Целью данной работы является построение оптимизационной задачи для системы математических моделей (ММ), состоящей из нескольких отдельных объектов. Предложенная ММ была приведена к параметрической форме, допускающей двухуровневый метод ее решения. На основе метода гладких штрафных функций предложены метод решения задачи и метод определения параметров чувствительности полученных решений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Об одном методе анализа решений оптимизационных задач для систем математических моделей»

УДК 519.855

П. А. Бирюкова, А. Е. Умнов

Московский физико-технический институт (государственный университет)

Об одном методе анализа решений оптимизационных задач для систем математических моделей

Целью данной работы является построение оптимизационной задачи для системы математических моделей (ММ), состоящей из нескольких отдельных объектов. Предложенная ММ была приведена к параметрической форме, допускающей двухуровневый метод ее решения. На основе метода гладких штрафных функций предложены метод решения задачи и метод определения параметров чувствительности полученных решений.

Ключевые слова: комплексы математических моделей, метод гладких штрафных функций, оптимизационные задачи, декомпозиционная схема, чувствительность решений, матрица чувствительности.

P.A. Biryukova, A.E. Umnov

Moscow Institute of Physics and Technology (State University)

On one method of analysis of solutions of optimization problems for systems of mathematical models

The aim of this paper is to present the optimization problem for the system of mathematical models of several objects. This mathematical model is created in parametrical form, which has a two-steps method of its solution. We show the method of problem solution and the method of decision sensitivity parameters of solutions using the penalty method.

Key words: systems of mathematical models, penalty function method, decomposition, optimization problems, sensitivity of decision, matrix of sensitivity.

В настоящей работе рассматривается метод решения конечномерных оптимизационных задач, формулируемых для комплексов математических моделей (ММ), описывающих функционирование отдельных подсистем этого комплекса1. В прикладной математике задачи данного класса применяются при моделировании экономических, социальных, технических и других систем. Постановка задачи, рассматриваемая в нашей работе, заключается в следующем. Предположим, что необходимо связать в единый комплекс N ММ, для каждой из которых формулируется задача математического программирования (МП): минимизировать по х3 € М™8 функцию £3(х3) при условиях

рЦх3) < 0, г = Т/т3, 8 = Т^Я, (1)

где М™8 - евклидово п^-мерное пространство2.

В более краткой записи задача (1) имеет вид

fs(xs) ^ min , s = 1 ,N, (2)

xseGa

где С3 = {х3 € Мга : р3(х3) < 0, г = 1, т3}.

Система ММ (СММ) представляет собой объединение N ММ (1), (2), связанных логически для всех моделей условиями (ограничениями) и функцией цели, представляющей

ХВ специальной научной литературе для комплексов ММ используется термин distributed modeling, [1].

2Ограничения типа равенства также могут быть включены в условие задачи (1), но это не приводит к

существенному усложнению задачи.

собой линейную комбинацию их целевых функций. Математические формулировки СММ могут иметь различный вид [6].

Рассмотрим СММ в виде минимизировать по всем х8 € С8, 8 = 1, N,

N

Е8(х8) (3)

8=1

при условиях

N

х8 € в8, в = тж, Е Щ^8) ^ уз, з = ; °-8 > о,8 = =1

В задаче (3) числа Vj, j = 1,М, при других постановках могут быть параметрами. Весовые коэффициенты as в (3) назначаются экспертами; часто as = 1, s = 1,N. Введем вектор х = {х1 ,х2, ...,xN} размерности п = m1 + m2 + ... + mN и множества Gj = {х е Мга : N=1 hj(xs) ^ Vj}, j = 1, М, тогда задачу (3) можно записать в виде

N

y^asfs(xs) ^ min_ _. (4)

~1 xseGs,xe&, s=i,N,j=i,M

Для решения оптимизационной задачи (3) модифицируем ее и задачи (1). Задачи (1) будем рассматривать в виде

минимизировать по xs е R""s функцию fs(xs) при условиях

vt(xs) < 0, i = 1, ms, и hsj(xs) < V.f, j = 1,м, s = 1, N, (5)

где Vf - параметры, удовлетворяющие условию

N

4 j ^

J2vf < Vj,j = 1,M. (6)

S=1

Обозначим

Gs = {xs е Rra : v!(%s) < 0, г = 1, ms; hsj(xs) < Vf, j = 1,M, s = 1, N}. (7)

Тогда задача (5) будет иметь вид

fs(xs) ^ ^min_. (8)

xseGs, s=1,N

Учитывая (6) и (7), модифицированную задачу (4) представим в виде

N

s(xs) ^ min (9)

=1

при условиях

N

xa е G~s, s = Rj(V) = E Vf - Vj < 0, j =

=1

Условия Rj(V) в (9) - это условия (6). Максимальная размерность вектора параметров V равна (N + 1)М. Как отмечалось ранее, не все Vj могут быть параметрами, некоторые из них могут быть фиксированными числами, и наоборот, в ограничения задачи (1) могут быть также быть введены параметры. Кроме того, возможны и ограничения на Vj. Поэтому будем считать, что размерность вектора V равна некоторому числу L : V е RL,

а размерность вектора R(V) равна числу М, не обязательно совпадающему с (6). Таким образом, задача (9) будет иметь вид

N

Vo:7 s(xs) ^ min , (10)

f хешп, уeRL

s=1

где ж5 € С3, 8 = 1,И, ^(V) ^ 0,2 = 1,М.

Переменными задачи (10) являются векторы х и V; ее размерность п + Ь может оказаться большой. Рассмотрим метод ее решения, учитывающий структуру этой задачи.

Предположим, что задача (10) имеет локальное изолированное решение (х*3, в = ; V*), а также имеют решения задачи (8) для всех параметров V, т.е. можно рассматривать их решения как функции х*3(V). Подставив х*3(V) в (10), получим

N

(1

=1

при условии

minj] asfs(х*s(V)) по V е R

tps(x*s(V)) < 0, г = 1, ms; Щ(х*s(V)) < Vjs,Rj(V) < 0, j = 1, M. (11)

Так как функции х*s(V), s = 1,N, удовлетворяют ограничениям задачи (11), то из (11) получаем задачу

N

min ^ asfs(х*s(V)), V е ML и Rj(V) < 0, j = (12)

=1

т.е. получили задачу (12) значительно меньшей размерности, чем задача (10), особенностью которой является то, что неизвестны вектор-функции х*s(^), s = 1,N.

Функции x*s(V), s = 1,N, являются негладкими, что затрудняет построение методов решения задачи (12).

Идея предлагаемого метода состоит в замене функций х*s(V) другими, которые:

а) достаточно гладкие;

б) достаточно близкие к х*s (V);

в) определены V V е ML.

Указанным требованиям удовлетворяют решения задач (8), полученные методом гладких штрафных функций (ШФ), [2]. Ограничения задач математического программирования (2) в задаче (5) или (8) обозначим:

, s m f Pi(%s), i = 1,m

hs(xs) — Vj, i = ms + 1, ms + j, j = 1, M.

Таким образом, получаем ограничения <рi(xs,V) ^ 0, i = 1,ms, где ms = ms + M, и задача (8) имеет теперь вид

f (xs) ^ min, (13)

xsecs

где С3 = {х3 € Мга : у3(х3, V) < 0, г = 1, т3}.

Более краткая по форме запись (13) задачи (8) нужна далее для удобной формулировки метода ее решения.

Метод ШФ для задачи (13) заключается в последовательной безусловной минимизации вспомогательной функции

т

Es (xs ,V) = fs (xs) + ^ P (T,V3 (xs,V)), (14)

где штрафная функция Р(Т, X) определена для всех Л и удовлетворяет условию из [3]:

"m Р(Т,Х) = { °'Л<°, 0

т^+о \ Л > 0,

причем при некоторых условиях на fs, <ßi, Р имеет место равенство

lim arg min Es(xs,V)= x*s(V). (15)

т^+о xx

Можно показать, что xs(T, V) = arg min Es(T,xs, V) обладает всеми указанными выше

xs

свойствами [2].

Рассмотрим задачу (10) в следующей форме: найти

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

N

min Е «7 s(xs) по ж е Мга, V е Rl (16)

=1

при условиях ^8(х8, V) ^ 0, г = 1, т8, К^(V) ^ 0, j = 1, М. Вспомогательная функция Е(х, V) для нее имеет вид

N М N т

8

е {х, V ) = е as fs (vi+Е р (Т, Ri (у ))+Е Е р (т, v)), (17)

8=1 j=1 s=1 г=1

которую можно переписать также в виде

N М N т

Е(Х, v ) = е « 7 s ) + Е р (Т, Rj (у )) + ЕЕ р (т, vt(xS,v ))■ (18)

S = 1 j=1 8=1 i=l

Множитель as > 0, введенный в третье слагаемое, не изменит свойств ШФ. Напомним, что вектор х в Е(x,V) равен х = {х1 ,x2,...,xN}. Используя (14), из (18) получим более краткую форму представления Е(х, V):

N

s T7<S f mS

Е (x,V) = W (T,V )^E aSES (xS,V), (19)

,a =1

где W (T,V)= ZM= i P (T,Rj (V)).

Приближенные значения оптимального решения х*, V* задачи (10) можно найти, решив задачу безусловной минимизации (БМ):

min Е(x,V), х е Rra,F е Rl, (20)

однако мы предложим другой метод ее решения.

При решении N задач БМ: найти min Es(xs, V) получаем решения xs(T, V), s = 1, N.

xsew,nS

Подставляя xs(T, V) в (19), получим функцию от переменной V:

N

Е(х, V) = W(Т, V) + Е oSES(xS(T, V), V), (21)

=1

где х = (х^(Т, V),~х2(Т, V),...,хN(Т, V)).

Решение задачи БМ: найти min Е(x,V) при некоторых условиях, накладываемых на fs, Р, [3] обладает следующим свойством: ^lim arg mi^ Е(x,V) = V*,

где V* - компонента оптимального решения (x*,V*) задачи (10). Итерационная схема решения задачи (10) методом ШФ.

1) Пусть задан начальный вектор Vo £ RL.

2) Для к = 0,1, 2,... находим приближение Vk :

Vk+l = Vk + tkWk, где Wk - вектор направления убывания функции Е(x(V),V) в точке Vk; tk - шаг по направлению Wk.

3) Проверка условия окончания метода для функции Е(x(V), V) в точке V = Vk. Если условие выполнено - stop, не выполнено - к ^ к + 1 и переходим к пункту 2.

Замечание

1) Условие остановки метода ШФ для решения задач minE3(xs, V), Xs £ R"s, и задачи (20) следующие:

а) выбирается достаточно малое значение коэффициента штрафа Tmjn;

б) значения градиентов на к-м шаге целевых функций должны быть достаточно малы:

dEs

dxs

< £, s = 1,N;

Xs =Щ

дЕ

dV

< е.

V=vk

2) В качестве штрафной функции Р(Т, а) могут быть взяты, например, функции Тет или . Помимо бесконечной дифференцируемости по а и Т > 0, эти функции,

как показано в [3], обеспечивают погрешность решения задач порядка малости Т. Причем вторая из них, как показывает опыт решения тестовых задач, более удобна, поскольку сходимость численных методов может нарушаться из-за ограниченности области допустимых значений аргумента экспоненты.

Как указывалось выше, функция Р(Т, Л) - гладкая, поэтому для применения метода ШФ необходимо знать значения ^га.&уЕ(х(У),У) = —Е и матрицу вторых производных {дУдУ^ , г,3 = Дифференцируя сложную функцию (х(У),У) по У, получим

дЕ дЕ дх дЕ дЕ А дх3 дЕ , Л

-=--1----=--Ъ>---, (22)

дУ дУ дУ дх дУ ^ дУ дх3' у 7

3=1

дх 3 „ _ 1 ЛТ „„„,„,„„, „„„т., ^3 „„ ТГ М„т,Л„„п 'Х

где ~дх , в = 1,^ - матрицы чувствительности вектора х3 по параметру У. Матрица —Х

ддх3. Компоненты вектора —Е

составлена из N матриц JvS. Компоненты вектора Ш равны

дЕ = дЕ дЕ дХХ! =ТЪ (23)

dVr = dVr + ^^ дх3 ^ dVr, r=,. ()

s=lг=1 1

Так как gradXsEs(T,xs,V) = j^S\X=Xs = 0, то из (22) (или (23)) получим

гШ = dE

dV dV у '

т.е. для вычисления первых производных от вспомогательной функции (Т,х3(У),У) не

Iйха

_ IV ■

йЕ

требуются значения матриц чувствительности ^V, s = 1, N.

Продифференцируем ^т по Vj, r,j = 1,L :

д2Е = д2Е + STN V"8 д2Е JXS + ^N ^ns дЕ J2X\ +

dVrdVj = OVrOVj + ^s=l2^,i=1 dVTdx\ • dVj + l^s=1 l^i=1 dxs • OVrOVj + (25)

+ ^N Vns dXl ( д2Е ns д2Е дх?\ (25)

+ 2^,S=1 l^i=1 JVt \дх^г + 2^j= 1 дх^дх8 • дVj

Так как — 0, з — 1, N, то третье слагаемое в (24) равно нулю. Продифференцируем

4Щ = 0, s = 1,N, по Vj, получим

d2Es Ъ d2Es Щ

+ Е ' ^ =0,^ = W = 1,S. (26)

dVjdxs- ' дх^дх3- dVj J 1 j=1 1 j

Таким образом, и четвертое слагаемое в (26) равно нулю. Из (25) в итоге получим

д2Ё д 2Е + ^ (27)

дУг дУ, дУг дУ, ^ ^ дУг дх3 дК' -1 8=1 ¿=1 1

где для вычисления дд оу. надо знать N матриц чувствительности оуН, значения которых определяются из системы уравнений (26). Итак, имея в своем распоряжении формулы (24) и (27), можно для решения задач БМ найти:

minEs(xs,V),xs e Rn , s = 1,N; (28)

minE(x,V), V e ML, (29)

применять численные методы 1-го и 2-го порядков и тем самым находить приближенные значения согласующих параметров Vj, j = 1,L и соответствующие им значения xs, s = 1,N, и fs(xs) и asfs(xs).

Отметим также одну важную специфику решения задачи (29). Дело в том, что процедура поиска минимума состоит из поиска направления Wk движения к минимуму в пространстве RL и выбора величины шага tk по этому направлению. Использование стандартных алгоритмов оценки величины шага может потребовать затрат больших вычислительных ресурсов, поскольку для каждой пробной точки в R L потребуется решать N задач (28). Это следует обязательно учитывать, т.к. процедуры выбора шага tk и построения направления Wk могут быть зависимыми. Одним из способов решения указанной проблемы является выбор такого метода решения задачи БМ (29), в котором число пробных шагов для выбора tk невелико. К таким методам относится метод Ньютона, у которого в его области сходимости tk = 1.

Чувствительность оптимальных решений для систем ММ

Под чувствительностью решений ММ обычно понимают скорость измерения исследуемой функции в зависимости от значения параметров модели [4]. В нашем случае - это

дха(У) ■ 1—с д/"(хв(У)) д£ 1^=1ав/ в{хв{У)) . -т-^

производные ду, ', 8 — 1, И, ] — 1,6, и 1 \дуу ", а также ду, —, ] — 1,6.

Для определения матрицы чувствительности дх^У;у), в — 1, К, ] — 1,6, необходимо решить систему линейных уравнений ЛУ (26). Очевидно, значение

дГ (х3(У)) — ^ дГ (х3) дхЦУ)

гЩ — ^ дхг ^ дУ3 ,] — 1,Ь. (30)

=1

В (23) значение д/д£. ) находится прямым дифференцированием, а значения дх^У(У) бег 3

рутся из решения систем ЛУ (26).

Значение производной (чувствительности) целевой функции составной ММ очевидно равно линейной комбинации производных N функций / 3(х3):

дЦs=1 dsfs(xs(V)) ^^ dfs(xs) dx3(V)

dVj ¿-f ^ dxi dVj

J s=1 г=1 J

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Наше определение чувствительности решений (ЧР) является частным случаем ЧР, рассматриваемой в [5].

Для иллюстрации практического использования описанного подхода приведем пример. Необходимо связать в одну систему следующие ММ.

Модель 1. Минимизировать (—Зх1 — х2) при условиях:

0 < х1 < 2; 0 < х2 < 4,

2х1 +х\ < У1, (32)

х1 +х2 < У2.

Модель 2. Минимизировать (2х2 — х2) при условиях:

0 < х2 < 3; 0 < х2 < 3,

х\ + 1х2 < Уз, (33)

х1 +х2 ^ У4.

Модель 3. Минимизировать (—2х33 — Зх2) при условиях:

0 < х3 < 5; 0 < х2 < 3,

Зх\ +х3 < У5, (34)

х3 + х3 ^ У6.

Модель 4. Минимизировать (х\ — 2х'4,) при условиях:

0 < 4; 0 < х2 < 5,

2х4 + Зх2 < У7, (35)

х4+х2 < Ув.

Модели 1, 2, 3, 4 сформулированы в виде задачи (5).

Составная модель имеет вид

шт(—3х\ —х2 + 2х2 — х2 — 2х33 — Зх33 + х\ — 2х\) при условиях на х\, 5 = 1, 4, 1 = 1, 2, удовлетворяющих (30) - (34) и условию

8

ЕУ ^ 19. (36)

=1

Штрафная функция Р(Т, а) = и Тт1п = 0, 01.

Для решения задач БМ был применен метод Ньютона. Решение было получено на 9-й итерации. Согласно оценкам из [2], погрешность решения составила 2%. Приведем решение задачи (36) в табл. 1.

Итоговое решение

Общее число выполненных итераций: 9. Общая вспомогательная функция: -19,10. Норма вектора направления: 2,10 е-6. Величина шага по направлению: 0.

Т аб л и ц а 1

Модель 1 2 3 4

Значения пере- 1,00 0 0 0

менных х\ 0 0,30 1,83 0,5

Целевая функция 3 0,30 5,50 1,00

Вспомогательная -3,01 -0,33 -5,55 -1,03

функция

Согласующие па- 2,00 1,20 1,83 1,50

раметры V) 1,00 1,00 1,83 1,00

Вектор направле- 0,23 0,03 0,23 0,14

ния 0,12 0 0,23 0

Заключение

В данной работе рассмотрен один из вариантов построения комплекса ММ сложной системы, состоящей из N отдельных объектов. Предложенная оптимизационная ММ была приведена к параметрической форме, допускающей построение декомпозиционной схемы ее решения. Для решения оптимизационных задач был применен метод гладких штрафных функций. Отмечена специфика декомпозиционной схемы решения этих задач и сформулирован алгоритм их решения. Декомпозиционная схема решения задач позволяет получить приближенные значения параметров чувствительности их решений. Как нам представляется, приведенная методика построения комплексы ММ и их решения применимы для построения широкого класса ММ экономических, социальных, технических и других систем.

Литература

1. Umnov A.E., Albegov M.M. An Approach to Distributed Modeling. IIASA, RR-82-3, Laxenburg, Austria, Feb. 1982.

2. Умнов А.Е. Метод штрафных функций в задачах большой размерности //Ж. вычисл. матем. и матем. физ. 1975. Т. 15, № 6. C. 1399-1411.

3. Марковцев Д.А., Умнов А.Е., Умнов Е.А. Параметрическая оптимизация для систем математических моделей // Сб. Тр. ИСА РАН. 2007. Т. 31(1). C. 42-50.

4. Розенвассер Е.М., Юсупов Р.М. Чувствительность систем автоматического управления. Л.: Энергия, 1969.

5. Измайлов А.Ф. Чувствительность в оптимизации. М.: Физматлит, 2006.

6. Умнов А.Е., Умнов Е.А. Параметрический анализ решений задачи быстродействия для дискретных линейных моделей оптимального управления // Сб. Тр. ИСА РАН. 2007. Т. 31(1). C. 81-86.

References

1. Umnov A.E., Albegov M.M. An Approach to Distributed Modeling. IIASA, RR-82-3, Laxenburg, Austria, Feb.1982.

2. Umnov A.E. The method of penalty in problems of high dimensionality. J. Computational Mathematics and Mathematical Physics. 1975. V. 15, N 6. P. 1399-1411. (in Russian).

3. Markovtsev D.A., Umnov A.E., Umnov E.A. Parametric optimization for the systems of mathematical models. Proceedings of Institute for Systems Analysis RAS. 2007. V. 31(1). P. 42-50. (in Russian).

4. Rosenwasser E.M., Yusupov R.M. The sensitivity of the automatic control systems. Leningrad: Energy, 1969. (in Russian).

5. Izmailov A.F. The sensitivity of the optimization. Moscow: Fizmatlit, 2006. (in Russian).

6. Umnov A.E., Umnov E.A. Parametric analysis of the solutions optimal control problem for discrete linear optimal control models. Proceedings of Institute for Systems Analysis RAS. 2007. V. 31(1). P. 81-86. (in Russian).

Поступила в 'редакцию 13.12.2016

i Надоели баннеры? Вы всегда можете отключить рекламу.