УДК 614.838.44:536.3 й01: 10.37657/уппро.аурЬ.2021.93.59.004
В. Г. ШАМОНИН, вед. науч. сотр., канд. физ.-мат. наук; С. А. ЗУЕВ, вед. науч. сотр., канд. техн. наук; П.А. ЛЕОНЧУК, нач. сектора; С.Ю. ХАТУНЦЕВА, ст. науч. сотр.; Е.Н. БАРАНОВСКАЯ, науч. сотр. (ФГБУ ВНИИПО МЧС России)
ПРИМЕНЕНИЕ МЕТОДА ЛОКАЛЬНЫХ ВАРИАЦИЙ В РЕШЕНИИ ЗАДАЧ ПОЖАРНОЙ БЕЗОПАСНОСТИ
ОБЪЕКТОВ ЗАЩИТЫ
Применение метода локальных вариаций для решения прикладных задач, в том числе пожарной охраны, может быть сопряжено с преодолением возможных трудностей (как аналитического характера, так и численной реализации). Для последующего использования этого метода проведено его тестирование на так называемых «жестких» примерах, позаимствованных из литературы. Хотя результаты тестирования следует признать не более чем удовлетворительными, применимость метода при решении конкретных прикладных задач можно считать оптимистичной.
Ключевые слова: метод локальных вариаций, условная и безусловная оптимизация, число обусловленности, регуляризация
В<
[
Введение
I статье рассматривается возможность применения метода локальных 'вариаций (МЛВ) для решения некоторых задач пожарной безопасности, допускающих вариационную формулировку (континуальную или конечномерную).
Выбор МЛВ как метода прямого поиска задачи условной оптимизации (при наличии ограничений) связан с отсутствием необходимости вычисления производных целевой функции (градиента и матрицы Гессе). Это избавляет пользователя от проведения утомительной процедуры получения аналитических или конечно-разностных выражений для указанных производных. Этот выбор, очевидно, также предусмотрен для решения задач недифференцируемой оптимизации.
В п. 1 дано краткое обоснование выбора МЛВ среди других методов прямого поиска; в п. 2 - сложности, которые могут возникнуть при реализации этого алгоритма, а в п. 3 приведены тестирования на примерах с «плохой обусловленностью», взятых из литературы.
1. О выборе метода численной реализации В работах [1-3] упомянут метод Хука-Дживса, являющегося одним из методов покоординатного спуска и разработанного для задач безусловной оптимизации. В брошюре [1] отмечено: «Поиск состоит из последовательности шагов вокруг базисной точки, за которой в случае успеха следует поиск по образцу». В обобщении метода на случай наличия ограничений [1] «проверяется, каждая ли точка в процессе поиска принадлежит области ограничений. Если нет, то целевой функции присваивается искусственно очень большое значение («штраф»). Т. е. поиск, далее, будет происходить снова в допустимой области в направлении к минимальной точке внутри этой области».
Метод прямого поиска по деформируемому многограннику (метод Нелдера -Мида [1, 2]) является одним из самых эффективных, если число переменных не превышает 6 [1]. Однако он принадлежит к семейству алгоритмов безусловной
минимизации и не обобщен на случай наличия ограничений.
В обширной монографии [2] прямому поиску при наличии ограничений посвящена лишь гл. 8, где представлен метод скользящего допуска. Однако его изложение (на с. 25) весьма трудоемко и теоретизировано, блок-схема громоздка, приведен лишь один простой малоразмерный (n = 2) пример реализации. В гл. 4 (Ограничения типа равенств и неравенств) монографии [4] представлены методы штрафных функций, центров и возможных направлений в описаниях теорем существования, алгоритмов реализации фигурируют градиенты, и, по-видимому, их нельзя отнести к методам прямого поиска.
Отнюдь не претендуя на полноту ознакомления публикаций по прямому поиску алгоритмов оптимизации при наличии ограничений, наш выбор был остановлен на МЛВ как одного из методов покоординатного спуска, разработанного авторами [5] для задач теплопроводности, управления и т. д.
Для решения задач минимизации функции нескольких переменных была позаимствована из книги [5] процедура MLV2 (на языке АЛГОЛ-бО). Ее «ядро» (с «убранными» операторами и размерами ячеек dx и dy) было использовано как процедура VaryF на языке ТурбоПаскаль-7 для минимизации flxv x2, ... xn). Результаты тестирования VaryF представлены в п. 3.
В учебнике [б] дается пессимистический прогноз: «Методы прямого поиска в большинстве случаев очень неэффективны. Обращаться к ним, по-видимому, имеет смысл только тогда, когда есть уверенность, что никакие другие подходы к решению задачи минимизации невозможны».
2. Обусловленность задачи
Следующий вопрос связан с числом обусловленности COND( Xфункции fix) в окрестности точки минимума X ^ [7, 8]. В книгах [7, 8] отмечено, что методы решения задачи минимизации, использующие только значенияf не могут, вообще говоря, гарантировать получение приближенного решения X ^ с приемлемой точностью: неизбежна потеря примерно половины из того числа верных значащих цифр, которые содержались в приближенных значениях fx). Это касается так называемых плохо обусловленных алгоритмов минимизации, где COND >> 1. Число обусловленности точки минимума автором [7] определено как
д = liml sup X - X
«II
infll X - X w
8^0
(1)
4 =X : f (X)= f (XW)+8}
Всегда COND > 1, если COND велико, то поверхности уровня fx) = Const сильно вытянуты в одних направлениях; f(x) слабо меняется по одним направлениям (дно оврага) и резко - по другим (склоны оврага); принято называть такие f(x) овражными функциями [б—11 и др.]. В этом случае итерационный процесс замедляется и может «застрять» в неоптимальной точке. Для решения таких задач был разработан очень сложный так называемый овражный метод [12].
Минимизация квадратичных функций эквивалентна решению линейной системы Ax = b и обусловленность матрицы определяется формулой [7, 13] COND(4) = ||A ..........
Малые пог
A
где | - норма матрицы; А'1 - обратная к А матрица. "эешности матричных элементов слабо сказываются на решении Ах = Ь, если А хорошо обусловлена. Принято считать, что А плохо обусловлена, если СОЫй(А) >> 102-103.
Как указано в [7], «для неквадратичной функции обусловленность задачи ее минимизации равна числу обусловленности ее матрицы Гессе (СОЫР(Я)) в точ-
2
2
ке минимума X(,t)», т. е. отношению максимального к минимальному собственных значений этой матрицы. В общем случае квадратичная аппроксимация целевой функции в окрестности предполагаемого минимума не является простой процедурой, а для негладких целевых функций вообще невозможна.
Плохая обусловленность целевой функции приводит к замедлению любого итерационного процесса или к его расходимости. Для практической реализации поиска минимума можно использовать метод регуляризации [7, 14], заключающийся в «присоединении» к целевой функции стабилизатора: /(1^)=™ п(/(х)+р||х-я||2), (2)
где X, a - векторы Rn ( а - опорный вектор), р > 0 - малый параметр регуляризации.
Наилучший выбор - это а = X (*\ но точное решение неизвестно (исключая тестовые примеры). Автором [7] предложен прокс-стабилизатор: ProxZ = argmin (/(!) +р||Х-а||2), (3)
то гда итера ционный процесс принимает вид:
X(*+1) = ProxX(*}, (4)
где к - номер итерации.
Однако применение прокс-метода вкупе с МЛВ является дискуссионным, поскольку в теореме 5 [7] для сходимости требуется выпуклость f(x). Далее, автором [7] предложена рекомендация: брать очень малые значения р нецелесообразно, из-за влияния погрешностей при вычислении f(x). Возникает вопрос о точности решения, даваемого методом регуляризации. Наконец, в пар. 2 гл. 6 [7] не указана возможность применения регуляризации для задач условной оптимизации.
3. Локальные вариации на тестовых примерах
В этой серии расчетов МЛВ был опробован на нескольких известных тестовых примерах, представляющих плохо обусловленные «функционалы» f (X), Xe Rn(N - мерное евклидово вхщественное пространство) малой размерности N х 2*8. Обозначим: f(п) = f (X(п)) - значение «функционала» на n-й итерации, X(0) = (Xj(0),X20),...xN0))T - начальное приближение оптимальной точки; X(t) - известное точное решение; X(fn) - значение аргумента на последней итерации.
Скорость сходимости, а точнее, динамика спускх в пространстве конфигураций RN зависит от выбора начального положения X(0) и начального шага варьирования h0. Как правило, X(0) задавалось в соответствии с литературными рекомендациями и полагалось h0 = 0,1, в противном случае делалась оговорка.
3.1. Минимизация без хегуляризации
1. Квадратичный «функционал» f (X) = 1 + 2 (X,hX ) с положительно определенной матрицей Гильберта . Последняя пло-
хо обусловлена даже при небольших значениях N; оценка числа обусловленности провод ила сь с помощью подпрограммы DEKOMP [15]. Точное решение очевидно: X е) = 0, f (X (*}) = 1. N = 4, тогда COND(H) = 104. Приводим значения «функционала» на итерациях (номер которых, как и ранее, обозначается буквой n) в зависимости от выбора начального приближения:
1а. 0,0; 0,0; 0,0; 0,0
1б. То же самое, но X,(0) = 10,0; Х(0) = 1,0; г = 2,3,4.
1 9 5 г " 5 > >
/(0) = 62,79; /(1) = 1,034; /(2) = 1,01; /(3) = 1,002; /(4) = 1,0008; /(5) = 1,00026; /(6) = 1,00015.../(13) = 1,0000006.
X{/г"} = (0,00144;-0,015137; 0,03535;-0,02258). 1в. То же самое, Хг (0)=10; г = 1,4.
/(0)= 254,0;/(1)= 1,0;X {/1П]= (0,0; 0,0; 0,0; 0,0)". 1 г. То же самое, X(0) = 20,0; Х(0> = 1,0; г = 2,3,4.
/(0) = 223 ,6; /(1) = 1,0359; /(2) = 1,009 .../(11) = 1,0000016; /(12) = 1,0000004; /(13) = 1,0000001.
Обращает на себя внимание сходимость за один шаг, если начальная точка находится на диагонали гиперкуба. Малость по сравнению
с |(х*) - (х^) как раз и является следствием плохой обусловленности матрицы Гильберта, т. е. неравенства СОЫй»!
2. Функция Розенброка (параболический овраг) [7], N = 2:
/(х) = (1 - х)2 + 100 (х2 - хУ + 1,0; ц г 2500
= /(?«)= 1,0. 2а. X(0)=(-1,2; 1).
/(0) = 25,2; /(1) - /(2) - /(3) - /(4) = 5,0; /(5) = 1,214; /(6) = 1,129;
/(7) = 1,0535 ,... /(11) - 1,00073 .../(15) = 1,00000 .../(18) = 1,0;
X{/т) = (0,9999533; 0,999965)г. 2б. То же самое, но И0 = 1,0.
/(0) = 25,2;/(1)-/(2) - /(3) - /(4) = 6,2; /(5) - /(6) - /(7) = 5,84.../(12) - 1,013...
/(16) = 1,000052 .../(20) = 1,0000001;
X{/т) = (0,9996727; 0,9993458)г. 2в. X(0) = (- 6; 10,0 )т; И0 = 1,0.
/(0) = 67650; /(1) - /(9) - 17,0;/(10) = 16,75; /(11) = 1,0385;
/(12) = 1,012 .../(15) = 1,00027 .../(18) = 1,0000038 .../(20) = 1,0000002.
3. Функция Б.Т. Поляка (искривленный овраг, очень плохая обусловленность) [7]; N = 4.
х
/ (X )=а -21 [а ехР (- 0,2])+ 2а ехр (- 0,4])- X!
]4 4 4
х ехр (- 0,2 jX2)- X3 ехр (- 0,2 jXА )]2.
3а. 1,0; 2,0; 2,0 0; 2,5; 3,0
/(0) = 0,544; /(1) = 0,384; /(2) = 0,182;/(3) = 0,0182 ...;/(6) = 0,00225... .../(9) = 0,000135 .../(12) = 0,000022 .../(16) = 0,0000204.
Счет прекращен, поскольку X(т) = X(16) = (0,4652; 0,7426; 2,5196; 1,08029).
ISSN 2686-8075 2021 № 2 (8)
36. а = 1000; X(t) = (lOOO; 1,0; 2000; 2,o)r; f(x(t))= 0; ^ = 10,0;
Х(0) = (500; 0,0; 2500; 3,о)Г; /(0) = 0,544; /(0 = 0,1997; /(2) = 0,19942; у(3) s у(4) s у(5) = 0Д994; f® = 0,072132; /(7) = 0,03635.
Счет прекращен, так как X f) = X(l) = (610,16; 0,4688; 2784,5; 2,531). 4. Функция Вуда [16], N = 4.
f (X )= 100 (х 12 - X2 ) + (l - X1 ) + 90 (х32 - X4 ) + (l - X3 ) +
+ 10 К - X 2 ) + ( - X 4 )]+19,8 (1 - X 2 )(1 - X 4) . fe) = (l,0; 1,0; 1,0; 1,о)Г; /(У«)=0. 4а. -1,0;-3,0;-1,0
f(0) = 19192; f(1) = f(2) = 2592; f(3" = 2417; f(4) = f(5) = 2151,4;
/(6) = 368,6;/(7) = 24,22; /(8) = 8,892 .../(12) = 7,889 .../(18) = 7,87693; /(19) = 7,8769295; /(20) = 7,8769275.
Счет прекращен, -0,9611; 0 так как имеет
место «застре вание» алгоритма в неоптимальной точке. 4б. И0 = 1,0; X(0) - то же, что и в 4а.
/(0) =019192; /(1) = .../(7) = 8,0;/(8) = 7,908; /(9) = 7,9006;
/(10) = 7,87806 .../(14) = 7,876977 .../(17) = 7,8769654; / (18=/(19)= 7,8769653.
Счет прекращен по аналогичной 4а причине:
Х^ = Х(19)(- 0,9698;
4в. И0 = 10,0; X(0} = (- 30,0; - 10,0;-30,0;- 10,0)
/(3) = /(4) = /(5) = 42,0;/(6) = 16,34;/(7) = 5,761;/(8) = 2,3004; /(9) = 0,4929;
f
(10) _
0,0771 ... f(12) = 0,025 ... f(16) = 0,000172 ... f(19) = 0,00006 ... f(22) = 0,000001;
f_(23) = 0,0000003.
X °h) = X(23) = (о,9999732;
4г. А0 = 1,0; X(0^- то же, что и в 4в.
f(0) = 157345766; f(1) = 7510,1; f(2) = 593,402; f(3) = 45,977;
f(4) = 29,5; f(5) = 23,627 ... f(9) = 3,9102 ... f(14) = 0,0027 ... f(18) = 0,0020065; f(19) = 0,0020046; f(20) = 0,002004.
= ^(29) = (0 999752; 0,9995041; 1,000248; 1,00049б)Г. На лицо парадоксальный результат: удаление начальной точки от оптимальной способствовало преодолению «застревания». 5. Спиралевидный желоб [16], N = 3.
f X ) = f!2 + f2 + f32;
/i(X)= 10[y3 -10 e(ii;i2)J/2(i)= io(/*i + x22 - i),/3(x) =x3,
e(x15x2)=
1
arctg Z
2n
1
arctg 2
2 71
,i,>o
1
+ -,x,<0,
ХП = (ijO; 0,0; 0,0/(K>)= 0.
ISSN 2686-8075 2021 № 2 (8)
5а. Л0 = 1,0; X(о) = (- 1,0; 0,0; 0,0)Г.
/0) = 2500; = 24,407; /2) = 7,3037; /3) = 1,557. /6) = 0,2785... /10) = 0,04726. /04) = 0,000205 . /9) = 0,0000002; /20) = 0,0000001. X С/г") = X(20) = (1,0; 0,0001411; 0,0002232)г 5б. X(0) = (-10,0; 0,0; 0,0)г; И0 - то же, что и в п. 5а. /0) = 10600; У(1) = 26,0./4) = 25,0; /5) = 23,83; /6) = 11,43; /7) = 2,1187; /0 = 0,47(0 /9) = 0,1358. /14) = 0,000205.../19) = 0,0000002; /20) = 0,0000001. X(/г") = X(20) = (1,0; 0,0001411; 0,0002232)г
Итак, работоспособность МЛВ на примерах 3 и 4 (п. 3.1) нельзя признать удовлетворительной. Разумеется, проведенное тестирование на известных примерах нельзя считать исчерпывающим. Заслуживает особого внимания сходимость к искомому минимуму или отсутствие таковой в зависимости от выбора начального приближения. В целом результаты тестирования можно оценить не более, чем удовлетворительными.
3.2. Минимизация с регуляризацией Здесь нумерация примеров будет сопровождаться припиской буквы р (регуляризация).
1р. Функция Б.Т. Поляка, см. пример 3 (п. 3.1).
1 ар. Входные данные - пример 3б, стабилизатор - по формуле (2) с а = 0.
в =10-6: /0) = 7,044; У(1) = /(2) = /3) = 3,495; /4) = 2,968; /5) = /6) = /7) = 2,259; /8) = 2,224. /14) = 2,2217994. /17) = /18) = /19) = /20) = 2,2217981. З/цикливание в неоптимальной точке. X(/п) = (823,744; 0,84335; 823,741; 0,84334)г в = 10-7: /0) =1,194; = /2) = /3) = /4) =1,1786 - счет прекращен; X(/п) = (460,0; 0,0; 2677,5; 3,0)Т.
в = 0,5 • 10-6: /0) = 3,794; ^ = 2,733; /2) = /3) = 2,7327; /4) = 1,7525; /5) = 1,6168; /6) = /7) = 1,422. /12) = 1,40046;/13) =.= /20) = 1,40045.
Застревание в неоптимальной точке. X(/п) = (1003,37; 1,0376; 1003,37; 1,0376)г - близки к правильным только первые две компоненты. В диапазоне в = 10-2^10"5 и при п = 20 счет шел быстро, но также
тах (*,
заканчивался в точках, далеких от точного ми/имума X . Таким образом, стабилизатор простейшего вида (формула (2) с а = 0) в данном примере оказался неэффективным.
1 бр. Исходные да/ны/ те же, что и выше (пример 1ар), но стабилизатор иной -по формуле (2) с а = X
в =10-3: /0) = 500,6; У(1) = 2,978; /2) = 2,958; /3) = 1,788; /4) =.= /8) = 0,005527./п) = 0,0000463./15) = 0,0000002; ) =./20) = 0,0. X(/п) = (1000,0; 1,000023; 2000,0; 1,999977)г Дл я в =10-4 за 20 итераций было получено: X(/п) = (1000,00002; 1,000023; 1999,99998; 1,999977)г уАп) = 0,0.
Следовательно, стабилизатор (формула (2) с а = X п), использующий точное решение, в данном примере оказался весьма эффективным. 1вр. Данные идентичны примеру 1ар, стабилизатор - по формулам (3) и (4).
в= 1,05 • 10-2: /0) = 0,544. /20) = 0,02176;
X(/4 = (499,999; 0,7498; 2499,999; 1,833)г - конечное состояние близко к исходному X(0).
в = 1,05 • 10-3: /0) = 0,544. /20) = 0,0347;
ISSN 2686-8075 2021 № 2 (8)
X(/п) = (499,826; 0,7505; 2499,826; 1,833)Т. в= 1,05 • 10-1: /0) = 0,544. /20) = 0,216; X(/п) = (499,999; 0,75; 2499,999; 1,833)Т.
Во всех этих трех вариантах «функционал» / на последних пяти итерациях не изменялся. Его регуляризация с помощью «укороченного» прокс-стабилизатора оказалась неудачной.
1 гр. Исходные данные - пример 3а, стабилизатор - по формуле (2) с а = Xп.
в = 10-3: /■0) = 0,5465; = 0,3888; /2) = 0,1862; /3) = 0,0193. . /6) = 0,002975. //0) = 0,000631;У(11) = 0,000617. Счет прекращен, X(/п) = (499,32; 0,7539; 2,496, 1,8193)Т. в = 10-2: /0) = 0,569; = 0,429; /2) = 0,2199; /3) = 0,0294;
// = 0,0232. /8) = 0,005191. /12) = 0,0000086.../15) = 0,0000002; /16) =. = /20) = 0,0. X(/п) = (0,9999352; 0,99999; 2,0000534; 1,99995)Т.
Для функции Б.Т. Поляка наиболее эффективным стабилизатором является вышеприведенный, использующий точное решение. 2р. Функция Е.М.Ь. Веа1 [17], N = 2.
/ (X)= [С 1 - X, (1 - X 2)]2 + ^ - X, (1 - X О]' + [С 3 - X! (1 - X 23)] 2; С = 1,5; С/ = 2,25; С3 = 2,625; X« = (3,0; 0,5)Т,/X(0)) = 0,0. к0 = 1,0; X(0) = (5,0; 10,0)Т; стабилизатор - формула (2) с а = Xе). Без регуляризации, в = 0,0: /0) = 25225675,453; у(1) =.= у<6) = 14,203; Р = 5,1886;У(8) = /9) ^у^10) = 5,1885;У(11) = 0,60568;/2) = 0,559. Счет прекращен, X(/п) = (-13,8984; 1,06738)Т. в = 10-3: у(0) = 25225675,453; у(1) = у(2) = 0,7044; /3) = 0,1767; У(4) = 0,1626; /5) = 0,0392. у(9) = 0,000596../12) = 0,0000236. ,.4У(1 6) =. = у(20) = 0,0000185. X(/п) = (2,999979; 0,4999943)Т.
Этот пример показателен своей малой размерностью. 3р. Квадратичный «функционал» с матрицей Гильберта, см. пример 1 (п. 3.1). 3ар. Выбираем прокс-стабилизатор (формулы (3) и (4)) и начальные данные примера 1б N = 4).
в = 10-3: /0) = 62,79; у(1) = 1,277; р") = 1,1106; У3 = 1,1031; /4) = 1,10097; /5) = 1,10037; /6) = 1,10018...У(12) = 1,100118; //3) = 1,100116.
X(/п) = (0,0244; -0,27385; 0,6578; -0,4271)Т.
Опять парадоксальный результат: сравнение с примером 1б показывает, что регуляризация идет во вред; конечная (после 13 итераций) точка (по всем координатам) значительно дальше от оптимальной X (4)= 0, чем таковая в примере 1б (в = 0). Кроме того, видно, что регуляризация приводит к «застреванию» алгоритма.
3бр. N = 6; X(0) = (0,1; 0,9; 1,0; 1,0; -2,0; -0,25)Т; стабилизатор по формулам (3) и (4).
Без регуляризации (в = 0): /0) = 1,2904; у(1) = 1,014; /2) = 1,0034; /3) = 1,00126; /4) = 1,00452. /8) = 1,0000166../12) = 0,0000006.../15) = 1,0000002;
) = у(17) = 1,0000001.
X(/п) = (-0,00074; 0,003423; -0,28523; 0,83727; -1,000803; 0,417389)Т.
На лицо фантастический результат: на 17-й итерации значение функционала совпадает с минимальным с точностью 10-7, а только две первые компонента аргумента близки к соответствующим нулевым значениям. Все объясняется катастрофическим ухудшением обусловленности матрицы Гильберта с ростом ее
ISSN 2686-8075 2021 № 2 (8)
размерности; для N = 6 COND = 0,2 • 107.
Варьирование параметра регуляризации в широких пределах 10-6 < ß <10-2 с тем же количеством итераций (nmax = 17) дало следующие результаты:
ß_== 10-6: ffin) = 1,000016;
X(fn) = (-0,000665; 0,03296; -0,2809; 0,8335; -1,003; 0,42017)г ß_== 10-5: fn) = 1,0000146;
X(fn) = (-0,00021; 0,025885; -0,2594; 0,826915; -1,03673; 0,4461)г ß_== 10-4: fn) = 1,0001397;
X(fn) = (0,001016; 0,006651; -0,19965; 0,801247; -1,11538; 0,50983)г ß_== Ю-3: fn) = 1,0012637;
X(fn) = (0,00445; -0,01461; -0,2071; 0,8836; -1,1342; 0,46702)г ß_== 10-2: ffin) = 1,0082034;
X(fn) = (0,03618; -0,29437; 0,20939; 1,03766; -1,4734; 0,459)г
4. Заключительные замечания Таким образом, использование укороченного прокс-стабилизатора в широком диапазоне изменения ß ничего не дало (на этом примере). Подводя итоги регуляризации МЛВ на этих примерах, можно отметить следующее.
Во-первых, регуляризация, способствует сходимости МЛВ. Во-вторых, наи бол ее эффективным, по-видимому, является стабилизатор (формула (2) с a = X(i)), использующий точное решение. Однако при решении конкретных задач последнее, естественно, неизвестно, поэтому это ничего не дает. В-третьих, несмотря на некоторое преобладание отрицательных тестовых результатов по использованию регуляризации, категорический вывод о непригодности МЛВ для каких-то прикладных задач (краевых, например) делать преждевременно по следующим причинам:
• тестовые примеры, как очень плохо обусловленные, специально подобраны для выявления поведения алгоритма в окрестности известного минимума, обусловленность рассматриваемой задачи может оказаться не такой уж плохой;
• в случае необходимости вовсе необязательно ограничиваться вышеприведенными стабилизаторами, можно попытаться для оптимизации сформулированной задачи сконструировать какой-то новый тип.
Список литературы
1. Банди Б. Методы оптимизации. Вводный курс. М.: Радио и связь, 1988. 128 с.
2. Химмельблау Д. Прикладное нелинейное программирование. М.: Мир, 1975. 536 с.
3. Базара М. и др. Нелинейное программирование. Теория и алгоритмы. М.: Мир, 1982. 583 с.
4. Полак Э. Численные методы оптимизации. Единый подход. М.: Мир, 1974. 376 с.
5. Черноусько Ф.Л. и др. Вариационные задачи механики и управления (Численные методы). М.: Наука, 1973. 238 с.
6. Амосов А.А. и др. Вычислительные методы для инженеров: учеб. пособие. М.: Высш. шк., 1994. 544 с.
7. Поляк Б.Т. Введение в оптимизацию. М.: Наука, 1983. 384 с.
8. Петров И.В. и др. Лекции по вычислительной математике: учеб. пособие. М.: Инернет-Университет Информационных Технологий; БИ-НОМ. Лаборатория знаний, 2010. 523 с.
9. Васильев Ф.П. Численные методы решения экстремальных задач. М.: Наука, 1988. 552 с.
10. Бахвалов Н.С. и др. Численные методы: учеб. пособие. М.: Наука, 1987. 600 с.
11. Калиткин Н.Н. Численные методы. М.: Наука, 1978. 512 с.
12. Ларичев О.И. и др. Методы поиска экстремума овражных функций. М.: Наука, 1989. 95 с.
13. Аоки М. Введение в методы оптимизации. М.: Наука, 1977. 344 с.
14. Тихонов А.Н. и др. Методы решения некорректных задач. М.: Наука, 1986. 288 с.
15. Форсайт Дж., Малькольм М., Моулер К. Машинные методы математических вычислений. М.: Мир, 1980. 280 с.
16. Дэннис Дж., Шнабель Р. Численные методы безусловной оптимизации и решения нелинейных уравнений. М.: Мир, 1988. 440 с.
17. BrentR.P. Algoritms minimization without derivatives. N.Y.: Prentice Hall, 1973. 195 с.
Материал поступил в редакцию 21.04.2021 г.
Шамонин Валерий Геннадьевич - ведущий научный сотрудник, кандидат физико-математических наук. Тел. (495) 524-81-74. E-mail: [email protected]; Зуев Станислав Анатольевич - ведущий научный сотрудник, кандидат технических наук. Тел. (495) 524-81-74. E-mail: [email protected]; Леончук Петр Алексеевич -начальник сектора. Тел. (495) 524-82-09. E-mail: [email protected]; Хатунцева Светлана Юрьевна - старший научный сотрудник. Тел. (495) 524-81-74. E-mail: [email protected]; Барановская Елена Николаевна - научный сотрудник. Тел. (495) 524-82-53. E-mail: [email protected] (Всероссийский ордена "Знак Почета" научно-исследовательский институт противопожарной обороны Министерства Российской Федерации по делам гражданской обороны, чрезвычайным ситуациям и ликвидации последствий стихийных бедствий (ФГБУ ВНИИПО МЧС России)), г. Балашиха, Московская область, Россия.
V.G. Shamonin, S.A. Zuev, P.A. Leonchuk, S.Yu. Khatuntseva, E.N. Baranovskaya
APPLICATION OF THE LOCAL VARIATION METHOD FOR SOLVING FIRE SAFETY PROBLEMS OF OBJECTS OF PROTECTION
Application of the local variations method for solving applied problems, including fire protection ones, can be associated with overcoming possible difficulties (both of an analytical nature and of a numerical implementation). For the following use of this method it was tested on the so-called "hard" examples taken from the literature. Although the test results should be considered like satisfactory, the applicability of the method for solving specific applied problems can be considered as optimistic.
Keywords: local variation method, constrained minimization and unconstrained optimization, condition number, regularization
Valery G. Shamonin - Leading Researcher, Candidate of Physical and Mathematical Sciences. Phone (495) 524-81-74. E-mail: [email protected]; Stanislav A. Zuev -Leading Researcher, Candidate of Technical Sciences. Phone (495) 524-81-74. E-mail: [email protected]; Petr A. Leonchuk - Chief of Sector. Phone (495) 524-82-09. E-mail: [email protected]; Svetlana Yu. Khatuntseva - Senior Researcher. Phone (495) 524-81-74. E-mail: [email protected]; Elena N. Baranovskaya - Researcher. Phone (495) 524-82-53. E-mail: [email protected].
All-Russian Research Institute for Fire Protection (VNIIPO), the Ministry of the Russian Federation for Civil Defence, Emergencies and Elimination of Consequences of Natural Disasters (EMERCOM of Russia), Balashikha, Moscow region, Russia.