Вычислительные технологии
Том 7, № 6, 2002
ОПТИМАЛЬНОЕ ВНЕШНЕЕ ОЦЕНИВАНИЕ МНОЖЕСТВ РЕШЕНИЙ ИНТЕРВАЛЬНЫХ СИСТЕМ УРАВНЕНИЙ
Часть 1
С. П. ШАРЫй Институт вычислительных технологий СО РАН Новосибирск, Россия e-mail: [email protected]
A new class of adaptive and sequentially guaranteeing parameter partitioning methods (PPS-methods) for computing optimal (exact) component-wise bounds of the solution sets to interval linear systems of equations is presented. A possible generalization of the new technique to the general nonlinear case is considered. The results of numerical calculations and the comparison to other known approaches for solving the given problem are presented.
Введение
Предмет представляемой работы — задачи оценивания множеств решений интервальных уравнений, главным образом интервальных систем линейных алгебраических уравнений (ИСЛАУ), имеющих вид
апхг + ai2X + a2lXi + a22X2 +
am1X1 + am2X2 +
с интервалами aj и b или в краткой форме
+ a1nxn — Ь1)
+ a 2„x„ — b2,
(1)
+ amnxn
bm
Ax — b
(2)
с интервальной т х п-матрицей А = (а^) и интервальным т-вектором правой части
Ь = ( Ьг).
Напомним, что для интервальных систем уравнений существуют различные определения решений и множеств решений, для которых, в свою очередь, существуют те или иные различные способы оценивания. Все это обусловливает огромное разнообразие постановок интервальных задач. Дадим, следуя работам [1-6], формальные определения.
© С. П. Шарый, 2002.
Определение 0.1. Обобщенными множествами решений интервальной системы уравнений
Ах = Ь
будем называть множества вида
Iх € Еп 1 (^1 ¿л € Ъпг ¿П € г^) ■ ■ ■ {Ятп+т2птп+т € 2щ+т)(Ах = Ь ) }, (3)
где Q1, Q2,... , Qmn+m — логические кванторы V или 3; ( г1)г2)... , ¿тп+т) := (а1,... , атп, Ь1, . . . , Ьт) € Мтп+т — агрегированный (составной) вектор параметров рассматриваемой системы уравнений; (ъ1, ъ2,... , ътп+т) := (а1;... , атп, Ь1;... , Ьт) € !Дтп+т — агрегированный вектор интервалов возможных значений этих параметров; (п1;п2,... , птп+т) — некоторая перестановка натуральных чисел 1, 2,... , тп + т.
Определение 0.2. Логическая формула, выписанная после вертикальной черты в определении обобщенного множества решений (3) и задающая характеристическое свойство его точек, будет называться выделяющим предикатом соответствующего множества решений.
Мы будем говорить, что в интервальной системе уравнений (1), (2) параметр имеет интервальную А-неопределенность, если в выделяющем предикате рассматриваемого множества решений к нему применяется квантор всеобщности V, и что параметр имеет интервальную Е-неопределенность, если к нему применяется квантор существования 3.
Определение 0.3. Множествами АЕ-решений (или АЕ-множествами решений) называются обобщенные множества решений интервальных систем уравнений, для которых выделяющий предикат имеет АЕ-форму, т. е. в котором все вхождения квантора всеобщности предшествуют вхождениям квантора существования.
В частности, множеством ЛЕ-решений является обычное объединенное множество решений интервальной линейной системы Ах = Ь, т. е. множество
~«т(А, Ь) := { х € Еп | (ЗА € А)(3Ь € Ь)( Ах = Ь) },
образованное всеми решениями точечных систем Ах = Ь с А € А и Ь € Ь.
Коль скоро для множеств ЛЕ-решений порядок кванторов в выделяющем предикате зафиксирован, простейший способ описания типов неопределенности в интервальной системе заключается в прямом указании того, какие логические кванторы соответствуют тем или иным элементам. Именно, если ввести т х п-матрицу а = (а^) и т-вектор в = (вг), составленные из логических кванторов и такие, что
V, если а^ имеет А-неопределенность, 3, если а^ имеет Е-неопределенность,
в :=
V, если Ь имеет А-неопределенность, 3, если Ь имеет Е-неопределенность,
то указание а и в полностью определяет конкретное АЕ-множество решений ИСЛАУ.
Еще один удобный способ описывать распределения типов неопределенности по интервальным элементам системы уравнений (1), (2) состоит в следующем. Определим интервальные матрицы = (а^-) и А3 = (а-) и интервальные векторы = (Ь^) и Ь3 = (Ь3)
тех же размеров, что А и Ь соответственно, следующим образом:
а7
а3
а
131
если а
13
V,
иначе,
а
13
а
131
если аз = 3, иначе,
При этом
Ьг, если в = V, 0, иначе,
А
Ь
А7 + А3, = Ь7 + Ь3,
Ь3
а7 а3
а13 а13
Ы Ь3:
Ьг, если в = 3, 0, иначе.
0, 0,
т. е. матрицы А7, А3 и векторы Ь7, Ь3 образуют дизъюнктные (взаимнодополнительные) разложения для А и Ь соответственно. В матрице А7 и векторе Ь7 сосредоточены все интервальные элементы системы (1), (2), соответствующие А-неопределенности, а в матрице А3 и векторе Ь3 — все интервальные элементы, соответствующие Е-неопределенности. Ясно, что между кванторными матрицей а и вектором в и дизъюнктными разложениями интервальной матрицы А = А7 + А3 и правой части Ь = Ь7 + Ь3 имеется взаимнооднозначное соответствие, так что мы можем свободно переходить от одного способа описания к другому.
Определение 0.4. Пусть для интервальной т х п-системы линейных алгебраических уравнений Ах = Ь заданы кванторные т х п-матрица а и т-вектор в и ассоциированные с ними дизъюнктные разложения матрицы ИСЛАУ и ее правой части А = А7 + А3 и Ь = Ь7 + Ь3. Назовем ЛЕ-множеством решений типа ав интервальной линейной системы Ах = Ь множество
(А, Ь) := {X е Ега | (V! е А7)(V) е Ь7)(зА е А3)(3Ь е Ь3)((А + А) х = Ь + Ь)}. (4)
При сколько-нибудь значительных размерах интервальной системы уравнений точное описание множеств АЕ-решений становится очень сложным или даже практически невозможным. С другой стороны, оно в таком виде, как правило, и не нужно, так что обычно ограничиваются нахождением для множеств решений каких-либо оценок. Ниже мы рассматриваем задачу внешнего интервального оценивания множеств АЕ-решений интервальных систем уравнений:
Для интервальной линейной системы уравнений Ах = Ь и кванторных матрицы а и вектора в тех же размеров, что А и Ь соответственно, найти внешнюю интервальную оценку множества решений (А, Ь).
Часто встречается и покомпонентная форма задачи (5):
Для интервальной линейной системы уравнений Ах = Ь и кванторных матрицы а и вектора в тех же размеров, что А и Ь соответственно, найти оценки для величин тт{х^ | х е (А, Ь)} снизу и для величин тах{ хи | х е Еав(А, Ь) } сверху, V = 1, 2,... , п.
(5)
0
0
Внешняя интервальная оценка
✓ -
\
\
<
\
\ \
\
/
/
\
ч .......
ч г__-
Х2
Множество решений
Х\
Внешнее интервальное оценивание множества решений.
При этом в постановке (6) можно даже ограничиться требованием вычисления только минимума тт{ хи | х £ Еав(А, Ь) }, поскольку
тах{ х^ | х £ Еа/3(А, Ь) } = - тт{ х„ | х £ Еа/3(А, -Ь) }.
Ниже мы для краткости иногда будем называть задачу (5), (6) внешней задачей для интервальной линейной системы Ах = Ь с описанием неопределенностей, задаваемым кванторами а и в, или, что эквивалентно, дизъюнктными разложениями А = + А3 и Ь = + Ь3. Отметим, что в условиях, когда на ИСЛАУ не накладывается никаких дополнительных условий, ее множества решений могут быть и неограниченными. Тогда обычно ищут внешние оценки пересечения множества решений с некоторым априори заданным интервальным вектором.
Задача (5), (6) — это, по существу, интервальная форма хорошо известной задачи о параметрической чувствительности некоторой системы управления (безынерционной), когда и вариации параметров, и оценки вариаций решения рассматриваются в виде интервалов (см. рисунок). Частный случай этой задачи, требующий внешнего оценивания объединенного множества решений, является одной из старейших и практически наиболее важных задач интервального анализа, а различным аспектам ее решения с начала 60-х годов ушедшего века и по настоящее время посвящены несколько монографий и сотни статей. Обширную, но далеко не исчерпывающую информацию о ней вместе с библиографией читатель может найти в [7-36].
Но часто практику может удовлетворить не всякое решение конкретной интервальной задачи, а лишь оптимальное, т. е. лучшее в том или ином смысле. Требование оптимальности особенно характерно для задач, в которых интервальная неопределенность изначально присутствует во входных данных и которые не являются "интервализациями" каких-то вещественных задач. В настоящее время в интервальном анализе имеются несколько подходов к определению оптимальности решения, но все они, по существу, единообразны: на множестве всех решений интервальной задачи (или на семействе оценочных множеств) вводится некоторый частичный порядок, а минимальные, наименьшие и наибольшие относительно него элементы объявляются соответственно оптимальными, наилучшими и
наихудшими решениями данной задачи. Конкретные способы упорядочения решений могут быть весьма разнообразными (см., например [37, 38]).
Для задачи внешнего интервального оценивания (5), (6) оптимальным решением обычно называют интервальную оболочку множества решений, т. е. наименьший по включению интервальный вектор, гарантированно содержащий оцениваемое множество решений. Цель настоящей статьи — развитие эффективных численных алгоритмов и общей методологии вычисления именно оптимальных решений "внешней задачи" для интервальных систем уравнений, главным образом линейных.
1. Трудоемкость оптимального оценивания
Необходимость и важность разработки алгоритмов, дающих оптимальные и наилучшие решения интервальных задач в 70 - 80-е годы прошлого века настойчиво доказывались многими авторами (см., к примеру, [39]). Для обозначения подобных алгоритмов был даже введен специальный термин bound conserving algorithm (немецкий эквивалент — schrankentreue Algorithm, а буквальный русский перевод — "правильно передающий границы алгоритм"), который, учитывая крайнюю смысловую перегруженность эпитета "оптимальный", следует признать не лишенным смысла.
К. Никель в [40] проводит аналогию между bound conserving алгоритмами и устойчивыми алгоритмами классической вычислительной математики, предсказывая, что "в будущем новое свойство "правильной передачи границ" будет играть столь же важную роль в вычислительном интервальном анализе", как и другие ключевые характеристики алгоритмов. В оптимистичной работе [41] Е. Нудингом приводился уже довольно внушительный список bound conserving алгоритмов, призванный, видимо, продемонстрировать существовавшую тогда, по его мнению, в интервальном анализе мощную тенденцию по непрерывному возникновению эффективных алгоритмов подобного типа. При этом всеми упомянутыми авторами как-то обходился вопрос о той цене, которую приходится платить за оптимальность результатов. Иначе говоря, каково неизбежное увеличение трудоемкости алгоритмов, необходимое для получения оптимальных или хотя бы гарантированно близких к оптимальным решений интервальных задач?
Вопросы такого типа сделались предметом интенсивного исследования лишь недавно, уже в 90-е годы XX века, и серьезные продвижения в этом направлении стали одними из наиболее впечатляющих достижений в интервальной математике ушедшего десятилетия. Большинством из известных к настоящему времени результатов по сложности решения интервальных задач мы обязаны исследованиям A.A. Гаганова [42], В. Крейновича, А. В. Лакеева и И. Рона [43-53], Г. Коксона [54, 55], Х. Янссона [56].
Изложим конспективно основные полученные к настоящему моменту результаты по теории сложности интервальных алгебраических задач:
— задача оценивания с заданной абсолютной или относительной точностью области значений полинома от многих переменных на интервальном векторе является NP-трудной
[42];
— задачи распознавания (проверки непустоты) объединенного множества решений интервальной линейной системы и задачи его внешнего оценивания с заданной абсолютной или относительной точностью являются NP-полными [46-48], причем они остаются NP-полными даже в том случае, если мы накладываем условия на знаки элементов матрицы или ограничиваемся неплотно заполненными матрицами (в частности, NP-полны
задачи распознавания и оценивания объединенного множества решений ИСЛАУ с трех-диагональными и неотрицательными матрицами);
— задачи распознавания и оценивания множеств AE-решений интервальных линейных систем являются NP-полными [57];
— задача нахождения формального (называемого также "алгебраическим") решения интервальной линейной системы является NP-полной [49, 50];
— задача распознавания решения нелинейной системы уравнений в заданном интервальном векторе является NP-трудной [48, 56].
Напомним, что свойство задачи быть NP-трудной или NP-полной означает на современном этапе развития теории сложности вычислений, что, скорее всего, эта задача не может быть решена легче, чем за время, которое является экспонентой от длины кодировки задачи. Хороший обзор теории сложности и теории NP-полноты читатель может найти в книге [58].
Таким образом, вывод, к которому приводят нас недавние результаты теории сложности, малоутешителен и заключается в том, что принятие требования оптимальности решения или же заданной близости получаемого интервального решения к оптимальному в общем случае делает интервальную задачу оценивания труднорешаемой. Тем самым получено теоретическое объяснение того факта, что за последние тридцать-сорок лет (в течение которых интервальный анализ развивался скорее вширь, чем вглубь) достижения в деле создания bound conserving алгоритмов были достаточно скромными. Несмотря на многочисленные плодотворные применения интервальных методов в современном естествознании и внутри самой математики, алгоритмы для оптимального решения многих интервальных задач либо не найдены, либо по трудоемкости они оказываются ненамного лучшими полного перебора.
В частности, что касается задачи внешнего оценивания объединенного множества решений интервальной линейной системы, то все разработанные на данный момент методики позволяют вычислять интервальный вектор, гарантированно содержащий это множество решений, но оптимальность полученного интервального вектора обеспечивают лишь очень немногие методы переборного типа с большой трудоемкостью исполнения (см. обзор в § 7 нашей работы).
Было бы, очевидно, чересчур категоричным выводить из вышесказанного невозможность или бесполезность решать на практике интервальные задачи оценивания в постановках, которые требуют оптимальных или гарантированных по величине точности ответов. Но несомненно и другое: специфическая форма интервальных задач должна быть особо учтена и при выборе алгоритмов, решающих эти "оптимальные" постановки, и при организации вычислений. Мы вернемся к подробному обсуждению этого вопроса в § 4.
2. Предварительные результаты
Теорема 2.1. Точка x принадлежит множеству AE-решений (A, b) интервальной линейной системы Ax = b тогда и только тогда, когда
Av ■ x - bv С b3 - A3 ■ x, (7)
где " ■ " — интервальное матричное умножение.
Доказательство этого результата читатель может найти в работах [1,4]. I
Станем обозначать далее
mid x 1 '= 2
rad x 1 '= 2
wid x '= x
x — x.
Как обычно, к интервальным векторам и матрицам эти операции будут применяться покомпонентно и поэлементно. Аналогичным покомпонентным образом мы будем понимать многомерные неравенства и взятие модуля вектора.
Следующая замечательная характеризация была впервые получена И. Роном, но нигде им не публиковалась а первым ее использовал А. В. Лакеев в работе [57]. Она является переформулировкой Теоремы 2.1 в виде линейных неравенств с модулями, обобщая, таким образом, известный результат Оеттли — Прагера для объединенного множества решений [30]. Мы приводим развернутое доказательство этого факта. Имеет место
Теорема 2.2. (характеризация Рона). Точка x принадлежит множеству AE-решений Еав(A, b) интервальной линейной системы Ax = b тогда и только тогда, когда
| (mid A)-x — mid b | < (rad A3 — rad Av)■ |x| + (rad b3 — rad bv). (8)
Доказательство. Включение p С q для правильных интервальных векторов p и q равносильно, как известно, неравенству
| mid q — mid p | < rad q — rad p
(см., например, [25]). Следовательно, характеризация (7) может быть переписана в следующем виде:
1 mid (b3 — A3-x) — mid(Av■ x — bv) | < rad(b3 — A3■ x) — rad(Av■ x — bv). (9)
Далее,
rad (p ± q) = rad p + rad q, mid (p ± q) = mid p ± mid q. Следовательно, (9) выполняется в том и лишь в том случае, если
| mid b3 — mid(A3■ x) — mid(Av■ x) + mid bv | < rad b3 + rad (A3■ x) — rad(Av■ x) — rad bv, что эквивалентно характеризации (8), так как
mid (A3 ■ x) = (mid A3 )■ x , mid(Av ■ x) = (mid Av) ■ x
и
rad (A3 ■ x) = (rad A3) -|x| , rad(Av ■ x) = (rad Av) - |x| .
■
Частный случай теоремы 2.2 для объединенного множества решений — утверждение того, что
x G Suni(A, b) ^^ |(mid A) ■ x — mid b | < rad A-|x| + rad b (10)
— часто называют характеризацией Оеттли — Прагера (см. [25, 30, 31]).
Определение 2.1. Вершинами интервального вектора x G IRn называются точки множества
vert x := { x G Rn | Xi G { Xi, x»), i = 1, 2,... }.
Аналогичным образом определяются вершины интервальной матрицы.
Теорема 2.3. Пересечение множества AE-решений (A, b) интервальной линейной системы Ax = b с каждым из ортантов пространства Rn является выпуклым полиэдральным множеством, чьи вершины — это решения "угловых" точечных линейных систем Ax = b с A G vert A и b G vert b.
Доказательство. Принадлежность вещественного вектора x какому-либо ортанту определяется указанием знаков его компонент. Далее, для любой интервальной m х n-матрицы C компоненты произведения C • x = ( (C • x)i, (C • x)2,... , (C • x)m)T могут быть представлены в следующем виде:
(C • x)i = ^ c j=i
i3 xj
cij xj, У vc j=1 j=1
ij xj
^ ] cij xj ^ ] cij xj j=1 j=1
(11)
где cij и cij — некоторые числа (они могут совпадать), которые принадлежат множеству концов {Cij, Cj ) и фиксированы для каждого отдельного ортанта, содержащего x. Это следует из определения умножения интервала на число. Переписывая включения (7) покомпонентным образом и заменяя на основе представления (11) каждое из одномерных включений парой неравенств между концами интервалов, мы получим эквивалентную (7) систему 3n линейных неравенств
A'x > b',
A"x < b'', (12)
условие на знаки x», i = 1, 2,... , n,
где A', A'' G vert A и b',b'' G vert b. Ясно, что она определяет выпуклое полиэдральное множество. В
Следствие 1. В общем случае множество AE-решений (A, b) интервальной линейной системы Ax = b может быть представлено как объединение не более 2n (по числу ортантов) выпуклых полиэдральных множеств.
Для объединенного множества решений ИСЛАУ этот простой, но очень важный факт был впервые установлен У. Оеттли [29] и впоследствии передоказан в [12, 18] (а также во многих других работах).
Следствие 2. Для любого индекса v значения min{ xv | x G (A, b) ) и max{ xv | x G (A, b) ) достигаются на решениях "угловых" точечных линейных систем Ax = b с A G vert A и b G vert b.
Для объединенного множества решений ИСЛАУ этот факт, по-видимому, впервые был указан К. Никелем в [27].
Из приведенных выше простых и геометрически наглядных характеризационных результатов следует, что сложность прямого описания множества AE-решений (A, b), при котором мы скрупулезно выписываем уравнения ограничивающих его гиперплоскостей для всех составных частей из каждого ортанта и т. п., может расти экспоненциально с n. Подобное описание делается, следовательно, исключительно трудоемким и практически бесполезным уже для интервальных линейных систем не очень больших размерностей.
n
n
n
n
n
Это затруднение носит принципиальный характер, так как теоретический результат Ла-кеева [57] показывает, что даже задача распознавания того, пусто или непусто множество AE-решений ИСЛАУ, в общем случае (если не накладывать на A и b и распределение кванторов никаких ограничений) является NP-трудной.
3. Пассивный переборный алгоритм
Если, согласно теореме 2.3, для интервальных линейных систем вида (1), (2) пересечение множеств AE-решений (A, b) с каждым из ортантов О пространства Rn является выпуклым полиэдральным множеством (возможно, пустым), то вычисление величин
min{ xv | x G Ea/3 (A, b) ПО), v = 1, 2,...,n, (13)
— это задача линейного программирования, которая может быть эффективно решена, например, известным и хорошо разработанным симплекс-методом. Далее нужно перебрать все ортанты и среди полученных величин (13) выбрать наименьшую. В общем случае этот подход непрактичен из-за катастрофического роста вычислительной сложности, но при небольших размерностях систем и для некоторых специальных постановок (к примеру, когда априори известно, в каких ортантах расположено множество решений ИСЛАУ) его вполне можно применять для решения "внешней" задачи (5). Для частного случая объединенного множества решений ИСЛАУ методы подобного типа рассматривались в [13, 29].
Мы выпишем ниже каноническую форму задачи линейного программирования, которую необходимо при этом решать для каждого из ортантов Rn. Воспользуемся характери-зацией Рона (теорема 2.2): принадлежность x G (A, b) равносильна покомпонентному неравенству
| (mid A) ■ x — mid b | < (rad A3 — rad Av)-1 x | + (rad b3 — rad bv), которое можно расписать в виде системы
{mid A ■ x — mid b < (rad A3 — rad Av) ■ | x | + (rad b3 — rad bv),
(14)
—mid A ■ x + mid b < (rad A3 — rad Av) ■ | x | + (rad b3 — rad bv).
Обозначая через diag{ sgn xi,... , sgn xn) диагональную матрицу с элементами sgn xi, ... , sgn xn по главной диагонали, мы можем записать (14) в эквивалентном виде
mid A ■ diag{ sgn x1,..., sgn xn) ■ | x | — (rad A3 — rad Av) ■ | x | <
< mid b + (rad b3 — rad bv),
<
—mid A ■ diag{ sgn x1,..., sgn xn) ■ | x | — (rad A3 — rad Av) ■ | x | <
< —mid b + (rad b3 — rad bv).
Правые части неравенств могут быть и далее упрощены:
mid b + (rad b3 — rad bv) = b3 + bv, —mid b + (rad b3 — rad bv) = —b3 — bv,
поскольку
mid b + rad b = b, mid b — rad b = b. Пусть y есть вектор абсолютных значений компонент x, т. е. y* = | x*|, i = 1, 2,... , n, и
S := diag{ si,S2,..., Sn), Sn = sgn x* = ±1,
— диагональная матрица, образованная знаками компонент внутренних точек рассматриваемого ортанта O, т. е. x = Sy для x G O. При этом условие
x G (A,b) ПО
выполнено тогда и только тогда, когда существует y G Rn, удовлетворяющий неравенствам
mid A ■ S — (rad A3 — rad Av) \ / b3 + b^
—mid A ■ S — (rad A3 — rad Av) ) У < I — b^ — b^
У > 0.
(15)
Следовательно, значение шт{ хи | х £ (А, Ь) ПО} является решением задачи линейного программирования с ограничениями (15) и минимизируемым функционалом
сту, с =(0,..., 0,^, 0,..., 0) £ Еп. (16)
Каждый ортант пространства Кп однозначно задается последовательностью знаков компонент своих внутренних точек. Нам будет удобно занумеровать все ортанты Кп целыми числами от 0 до 2п — 1, сопоставив, к примеру, каждому из них п-значное двоичное число, которое получается из набора знаков компонент заменой минуса нулем, а плюса — единицей. Итак, искомая оптимальная (точная) оценка значения шт{ хи | х £ (А, Ь) } может быть найдена с помощью алгоритма, псевдокод которого приведен в табл. 1.
Напомним
Определение 3.1. Алгоритм называется пассивным, если при проведении любого своего информационного вычисления (шага) он не использует информацию, полученную на своих предыдущих информационных вычислениях [59].
Алгоритм называется адаптивным (последовательным), если при выполнении любого своего информационного вычисления он в той или иной форме использует информацию о предшествующих информационных вычислениях (шагах).
Итак, пассивные алгоритмы — это алгоритмы с жестко заданной программой вычислений, которая не зависит от индивидуальных особенностей решаемой задачи. Напротив, адаптивные алгоритмы позволяют гибко подстраивать процесс решения под каждую конкретную задачу, а потому при прочих равных условиях они в среднем работают быстрее и, несомненно, более предпочтительны в вычислительной практике. Но, как видим, представленный в этом параграфе простейший метод оптимального внешнего оценивания множеств АЕ-решений ИСЛАУ является пассивным и в этом заключается один из его главных недостатков.
Таблица 1
Пассивный переборный алгоритм оптимального решения внешней задачи для ИСЛАУ
Вход
Интервальная линейная система Ax = b. Номер оцениваемой компоненты v £ { 1, 2,... , n }.
Выход
Оптимальная оценка Z снизу по v-й координате для множества AE-решений (A, b).
Алгоритм
Z :=
DO FOR i = 0 TO 2n - 1
решить задачу линейного программирования (15), (16),
вычисляя Y := min{ xv | x £ Eaß nöj }; IF ( Z > Y ) Z := Y; END DO
4. Последовательно гарантирующие
и финально гарантирующие алгоритмы
Предположим, что нам предъявлена труднорешаемая интервальная задача, требующая, например, внешнего оценивания некоторого множества решений интервальной системы уравнений (сейчас можно даже отвлечься от требования оптимальности ее решения). При сколько-нибудь значительных ее размерах типична ситуация, когда
количество заведомо необходимых для решения задачи машинных операций значительно превосходит наличные ресурсы вычислительной системы.
Это условие столь важно для наших последующих рассуждений, что достойно выделения специальной аббревиатурой CPA — от английского "Complexity Predominance Assumption" — допущение о преобладании сложности задачи над возможностями ЭВМ. В подобной ситуации мы скорей всего столкнемся с необходимостью насильственной остановки вычислений (например, из-за истечения срока аренды ЭВМ либо в силу необходимости получения хоть каких-то результатов в установленный заказчиком срок и т. п.) и будем довольствоваться тем, что уже насчитано к моменту остановки.
Но интервальные задачи характеризуются тем, что накладывают на ответ еще и некоторое качественное требование. В частности, в рассматриваемой нами задаче внешнего оценивания ответ действительно должен оценивать множество решений извне, и если это условие не удовлетворено, то ответ не может считаться полноценным.
Таким образом, главная неприятность при описанном в предыдущем абзаце развитии событий состоит в том, что поспешно выдаваемый результат счета может даже не удовле-
творять нужному способу оценивания, следовательно, он не является решением поставленной интервальной задачи (так как используемый нами алгоритм "до конца" не доработал). В этом случае затраченное нами машинное время и другие ресурсы фактически пропадут впустую. Например, для рассмотренного в предыдущем параграфе пассивного алгоритма до завершения перебора всех 2n ортантов мы не можем гарантировать, что полученный ответ действительно является внешней оценкой множества решений ИСЛАУ.
Целесообразно поэтому разделить все интервальные алгоритмы на "хорошие" и "плохие" в зависимости от того, обеспечивают ли они требуемый задачей способ оценивания интервального ответа лишь в момент своей естественной остановки, когда прорабатывают "до конца", или же этот способ оценивания достигается для последовательного ряда эффективно вычисляемых промежуточных результатов, каждый из которых может быть выдан в качестве правильного ответа задачи при прерывании алгоритма "в любой момент". При сделанном нами допущении CPA, когда сложность решаемой задачи значительно превосходит возможности ЭВМ, именно алгоритмы второго класса более предпочтительны с точки зрения обеспечения "гарантированности" (удовлетворения заданному способу оценивания) результата вычислений. Далее будем называть такие алгоритмы последовательно гарантирующими или алгоритмами с последовательной гарантией (sequentially guaranteeing или with sequential guarantee), в отличие от финально гарантирующих или алгоритмов с финальной гарантией (finally guaranteeing или with final guarantee), которые обеспечивают нужный способ оценивания результата лишь по завершении их работы.
Итак, финально гарантирующие алгоритмы оказываются малопригодными для практического решения больших труднорешаемых задач, ответ на которые должен удовлетворять некоторым качественным требованиям. Естественный выход из создавшегося затруднения состоит в переконструировании алгоритма таким образом, чтобы он выдавал в процессе своего выполнения до своего полного естественного завершения некоторые относительно несложно вычисляемые промежуточные результаты, которые могут служить более или менее точными ответами к решаемой задаче. Именно это подразумевается определением последовательно гарантирующего алгоритма.
Другой возможный выход из создавшегося затруднения — не дожидаясь полного исчерпания ресурсов ЭВМ, остановить трудоемкий алгоритм и попытаться за оставшееся время получить хоть какое-то решение задачи другим, "быстрым", методом. Но мы не будем рассматривать такие вычислительные процессы. Следуя терминологии А.Г. Сухарева [59], можно сказать, что в наших рассмотрениях итоговая операция алгоритма остается неизменной.
При строгом определении понятий последовательно гарантирующего и финально гарантирующего алгоритмов можно исходить из того, что по современным представлениям эффективно вычисляемыми считаются алгоритмы с полиномиальной верхней оценкой сложности. Таким образом, мы принимаем следующее
Определение 4.1. Алгоритм, решающий интервальную задачу оценивания, назовем последовательно гарантирующим, если при своем выполнении он порождает последовательность (конечную или бесконечную) полиномиально вычисляемых ответов решаемой задачи (т. е. приближенных оценок в смысле требуемого способа оценивания).
Алгоритм, решающий интервальную задачу оценивания, назовем финально гарантирующим, если он выдает ответ к решаемой задаче лишь при естественном завершении своей работы.
В частности, алгоритм априори является последовательно гарантирующим, если он сам имеет полиномиальную сложность выполнения. Итоговый результат последовательно
гарантирующего алгоритма может быть пределом бесконечной последовательности промежуточных ответов, или последним членом некоторой конечной последовательности, или же еще чем-то иным.
Естественно, что сфера действия введенного нами разделения интервальных алгоритмов не является строго очерченной, поскольку не вполне строг смысл самого понятия труднорешаемости. Несомненную пользу оно способно принести и при рассмотрении, например, полиномиально сложных алгоритмов, не являющихся "трудными" в традиционном понимании, но которые имеется в виду использовать в ситуации, когда выполнено допущение CPA. Поэтому будет более правильным, хотя и менее строгим, определить последовательно гарантирующие алгоритмы как противоположность к финально гарантирующим, т. е. к таким, которые обеспечивают правильный ответ задачи лишь при своем естественном завершении.
Впервые понятие последовательно гарантирующего алгоритма было введено автором настоящей статьи в работе [35] применительно к алгоритмам для нахождения оптимальных решений "внешней задачи" для интервальных алгебраических систем, но основные его положения и выводы, как нетрудно понять, в равной мере применимы к алгоритмам для любых труднорешаемых интервальных задач оценивания.
Естественно, что признание какого-либо алгоритма последовательно гарантирующим или же финально гарантирующим не должно восприниматься как "окончательный приговор" для него. Лучше рассматривать наличие последовательной гарантии или ее отсутствие лишь как еще одну (дополнительную) характеристику этого алгоритма, которая в некоторых случаях позволит более компетентно решить вопрос о его практической применимости. Несомненно также, что ценность обладания этим качеством различна для различных алгоритмов и наивысшей она является для наиболее трудоемких алгоритмов.
В частности, пассивный переборный алгоритм решения внешней задачи для ИСЛАУ из § 3 является лишь финально гарантирующим, и это его дополнительный большой минус.
5. Методы дробления параметров
для интервальных линейных систем
С этого момента мы далее будем считать, что в рассматриваемой интервальной системе линейных алгебраических уравнений
Ax = b (2)
количество уравнений совпадает с количеством неизвестных, так что A — это квадратная интервальная невырожденная n х n-матрица (т. е. содержащая лишь неособенные вещественные матрицы), b — интервальный n-вектор. Цель этого и следующих параграфов — развитие нового эффективного подхода к нахождению оптимальных внешних покоординатных оценок множеств AE-решений интервальных линейных систем. Как и ранее, мы сосредоточимся на вычислении min{ xv | x G (A, b) ).
Обозначим:
End — какой-нибудь фиксированный метод внешнего оценивания множеств AE-решений ИСЛАУ (мы будем называть его базовым);
End (Q, r) — получаемый с его помощью интервальный вектор внешней оценки для множества AE-решений (Q, r) системы Qx = r, т.е. End (Q, r) G и
End (Q, r) D (Q, r);
T(Q, r) — нижний конец v-й компоненты (для заданного фиксированного номера v G { 1, 2,...,n }) внешней интервальной оценки множества решений (Q, r), получаемой методом End, т. е.
Y(Q, r) := (End (Q, r)) y. (17)
Мы потребуем также от базового метода End удовлетворения следующему условию
Оценка Y(Q,r) монотонна по включению относительно матрицы Q и вектора r ,
т. е. для всех Q', Q'' G IRnxn и r', r" G (C1)
при Q' С Q'' и r' С r'' верно неравенство Y(Q', r') > Y(Q'', r'').
Для представленных в [3, 5, 6] методов внешнего оценивания множеств АЕ-решений ИСЛАУ и большинства популярных алгоритмов внешнего оценивания объединенного множества решений ИСЛАУ (интервальный метод Гаусса [7, 9, 25], интервальный метод Гаусса
— Зейделя [20, 25], интервальные прогонки [9], методы Гея [15], разнообразные модификации метода простой итерации [7], метод Кравчика [25] и др.) выполнимость условия (С1) легко выводится из свойства монотонности интервальных арифметических операций по включению.
В силу результата следствия 2 из теоремы 2.3
шт{ XV | х € Еа/3(А, Ь) } = (А-1Ь)^
для некоторых точечных матрицы А = ( а^) € Жпхп и вектора Ь = ( Ь) € Кга, составленных из концов элементов матрицы А и вектора Ь, причем по самому определению оценки Т:
х(А,Ь) < (А-1 Ь)и.
Предположив, что в матрице А элемент а^ имеет ненулевую ширину, обозначим:
— А' и А" — матрицы, полученные из А заменой элемента а^ на а^- и а^- соответственно;
— А' и А'' — матрицы, полученные из А заменой элемента а^ на а^ и а^ соответственно. Далее, так как
А' С А' С А, А'' С А'' С А
и Ь С Ь, условие (С1) имеет своим следствием неравенства
Т(А, Ь) < Т(А', Ь) < Х(А',Ь)
и
Т(А,Ь) < Т(А'', Ь) < Т(А'',Ь ).
Следовательно, взяв почленный минимум от соответствующих частей неравенств, мы получим
Y(A, b) < min{ T(A', b), T(A", b) } < min{ Y(A', b), Y(A'', b) }.
Кроме того,
min{ Y(A', b), Y(A'', b) } < Y(A, b) < (A-1b)v = min{ xF | x £ Eaß(A, b) }. Сопоставление полученных неравенств приводит к соотношению
Y(A, b) < min{ Y(A', b), Y(A//, b) } < min{ xv | x £ Eaß(A, b) }
и, как следствие, к следующему практическому рецепту:
решив две интервальных "системы-потомка" A'x = b и A''x = b, мы можем прийти, вообще говоря, к более точной оценке снизу для искомого значения min{ xv | x £ Eaß(A, b) } в виде
min{ Y(A', b), Y(A", b) }.
Совершенно аналогичный эффект имеет и распадение в векторе правых частей b какого-нибудь интервального элемента b на концы b и bj. Поэтому впредь для единообразия договоримся обозначать ИСЛАУ-"потомки", получающиеся из Ax = b рассечением на концы одного интервального элемента в матрице A либо в векторе b, через A'x = b' и A"x = b''.
Процедуру улучшения оценки для min{ xv | x £ (A, b) } посредством дробления элементов интервальной системы (2) можно повторить по отношению к системам-"потомкам" A'x = b' и A''x = b'', затем снова разбить потомков от A'x = b' и A''x = b'' и снова улучшить оценку и т. д. Мы оформим подобный процесс последовательного улучшения оценки снизу для min{ xv | x £ (A, b) } совершенно аналогично тому, как это делается в широко известном в комбинаторной оптимизации "методе ветвей и границ" [60] и как это было адаптировано для интервальных методов глобальной оптимизации (см., к примеру, работы [17,20,61-64]):
— во-первых, организуем все интервальные системы Qx = r, которые возникают в процессе дробления исходной ИСЛАУ Ax = b, вместе с их оценками Y(Q, r) в некоторый список L;
— во-вторых, дроблению каждый раз будем подвергать лишь ту интервальную систему Qx = r из списка L, которая обеспечивает рекордную (наихудшую) на данный момент оценку Y(Q, r);
— в-третьих, в подвергаемой дроблению ИСЛАУ мы будем рассекать на концы лишь самый широкий из интервальных элементов.
Итак, в процессе выполнения алгоритма мы будем поддерживать список L, состоящий из записей-троек вида ( )
(Q, r, Y(Q,r) ), (18)
где Q — интервальная n х n-матрица, Q С A; r — интервальный n-вектор, r С b.
Кроме того, образующие L записи будут упорядочены по возрастанию значений оценки Y(Q, r), а первую запись списка, так же как и соответствующие ИСЛАУ Qx = r, и оценку Y(Q,r) (рекордную в списке), мы будем называть ведущими на данном шаге. Полный псевдокод получающегося нового алгоритма, который мы назовем простейшим методом дробления параметров, представлен в табл. 2. Впервые идея методов такого типа была представлена автором в работах [65, 66].
Если T — общее количество интервальных (с ненулевой шириной) элементов в матрице A и векторе b исходной ИСЛАУ (в общем случае T < (n + 1)n ), то алгоритм, приведенный в табл. 2, остановится не более чем через 2T шагов и его результатом явится оценка снизу для min{ xv | x £ (A, b) }. То, насколько близкими окажутся результат работы алгоритма и искомый min{ xv | x £ (A, b) }, зависит, прежде всего, от способа получения оценки Y(Q, r), т. е. от выбранного нами базового метода для решения промежуточных ИСЛАУ. В частности, для оптимальности вычисленного значения (т. е. для того, чтобы оно было в точности равно min{ xv | x £ Saß(A, b) }) необходимым и достаточным является выполнение следующего условия:
Оценка Y(Q, r) является точной на вещественных
линейных алгебраических системах, т. е. (C2)
Y(Q, r) = (Q-1r )v для всех Q £ Rnxn и r £ Rn.
Впрочем, если задача имеет сколько-нибудь значительные размеры и величина T превосходит пару-тройку десятков, то, как правило, на современных ЭВМ среднего класса простейший метод дробления параметров из табл. 2 никогда не будет прорабатывать до конца и потому целесообразней рассматривать его как итерационный.
Весьма популярными в практической оптимизации являются релаксационные методы, обеспечивающие улучшение целевой функции на каждом шаге. Мы, со своей стороны, дословно перенесем это определение и на решатели ИСЛАУ. Особенно привлекательно использование подобных методов в условиях ограниченности вычислительных ресурсов или когда априори известно, что количество шагов алгоритма, которое мы сможем выполнить, невелико, но тем не менее требуется получить от использования этого алгоритма некий ощутимый эффект. Нетрудно видеть, что для релаксационности простейшего метода дробления параметров уже достаточным является выполнение условия монотонности (C1).
Мы подробнейшим образом обсудим различные модификации метода дробления параметров в применении к интервальным линейным системам и результаты практических вычислений во второй части этой статьи [67].
6. Методы дробления параметров в общем случае
Цель настоящего параграфа — набросать вчерне развитие идеи методов дробления параметров для случая общих нелинейных интервальных систем алгебраических уравнений. Наш основной замысел, как и прежде, состоит в том, чтобы представить "внешнюю задачу" как оптимизационную и применить для ее решения интервальные методы глобальной оптимизации, основанные на адаптивном дроблении области определения и стратегии "ветвей и границ" (см., например, [17, 20, 23, 63, 64] и другие работы).
Пусть дана интервальная система алгебраических уравнений вида
Fi( ai,..., аг ,xi,...,xn) = bi, F2( ai,..., аг ,xi,...,xn) = b2,
(19)
^ аь..., аг ,жь...,ж„) = Ът с интервальными параметрами а1? ... , а^, Ъ1? ... , Ът и неизвестными переменными ж1? х2,
Таблица 2
Простейший метод дробления параметров для интервальных линейных систем
Вход
b.
Интервальная линейная система Ax Номер оцениваемой компоненты v. Метод End, формирующий оценку Y по правилу (17).
Выход
Оценка Z снизу для min{ xv | x £ (A, b) }.
Алгоритм Присваиваем Q := A и r := b ; вычисляем оценку и := Y(Q, r); инициализируем список L := j (Q, r,u) }; DO WHILE (система Qx = r — интервальная)
в матрице Q = (qj) и векторе r = (r^) выбираем интервальный
элемент s, имеющий наибольшую ширину; порождаем интервальные системы-потомки Q'x = r' и Q''x = r": если s = q^ для некоторых k, / £ { 1, 2,... , n }, то полагаем
qj := qj := q»j для (i,j) = (k,/)
qki := [qk1 ,qfc,]» qk := [^qfci], r' :=r'' :=r;
если s = rfc для некоторого k £ { 1, 2,... , n }, то полагаем
Q' := Q'' := Q, r'fc :=[rfc, rfc], r£ := [rfc, rfc],
ri := ri' := r для i = k; вычисляем оценки и' := Y(Q', r') и и'' := Y(Q'', r''); удаляем из L бывшую ведущей запись (Q, r,u); заносим записи (Q', r',u') и (Q'', r'',u') в список L,
сохраняя его упорядоченность по возрастанию третьего поля; обозначаем первую запись списка через (Q, r,u); END DO Z := и.
х„, которую мы будем также записывать в краткой форме
Е (а, ж) = Ь,
где
( Е\(а,х) ^ Е2(а,х)
\ Ет(а,х)
х
( х1 \
Х2
у хп у
(20)
а
а1 а2
V а1 У
Ь
Ь1 Ь2
V Ьт у
Здесь мы не будем рассматривать обобщенные множества решений и ограничимся только задачей оптимального внешнего оценивания объединенного множества решений интервальной системы (19), (20), т.е. множества
-«„¿(Е, а, Ь) = { х € К | (За € а)(3Ь € Ь)( Е(х,а) = Ь) },
образованного всевозможными решениями вещественных алгебраических систем Е(х, а) = Ь, когда параметры а1, а2, ... , а^ и Ь1, Ь2, ..., Ьт независимо пробегают а1, ... , а^ и Ь1, ... , Ьт соответственно.
Итак, нас интересует следующая постановка:
Найти интервальную оболочку объединенного множества решений а, Ь) интервальной алгебраической системы Е(х, а) = Ь.
При этом, как и прежде, нам будет удобно находить отдельные покомпонентные оценки для множества решений, т. е. переформулировать нашу задачу в таком виде:
Для V € { 1, 2,...,п } найти шт{ хи | х € Е^ДЕ, а, Ь) } либо как можно более точную оценку для этой величины снизу.
Ясно, что эта задача эквивалентна задаче глобальной минимизации величины
шт{ х^ | х е К & Е(а, х) = Ь }
(21)
(22)
как функции параметров а € а и Ь € Ь.
Как могут быть вычислены значения (22) или хотя бы оценки для них снизу? Это может быть сделано с помощью любого интервального метода внешнего оценивания множества всех решений нелинейных систем уравнений, например, популярными методами Кравчика или Хансена — Сенгупты (см. [17, 20, 25]). Эти методики позволяют также оценивать извне объединенное множество решений систем уравнений, параметры которых варьируются в некоторых интервалах, и, следовательно, с ними мы сможем находить интервальные расширения целевой функции (22) по а и Ь.
Таблица 3
Простейший метод дробления параметров для общих интервальных систем уравнений
Вход
Интервальная алгебраическая система F (x, а) = b. Метод End внешнего оценивания объединенного множества
решений интервальной системы уравнений. Заданная точность е > 0.
Выход
Оценка Z c точностью е для min{ xv | x £ Suni(F, a, b) }.
Ал горитм Присваиваем q := а и r := b; инициализируем список L := { (q, r, }; DO WHILE ( wid (End (F, q, r)) > е ),
в агрегированном интервальном векторе параметров (q, r)
выбираем элемент s, который имеет наибольшую ширину; порождаем интервальные системы F(q',x) = r' и F(q'',x) = r'': если s = qk для некоторого k £{ 1, 2,..., / }, то полагаем
qi := qi' := qi для i = k qk := [qk,mid qfc], qk := [mid qfc,qfcL
r' := r'' := r;
если s = rk для некоторого k £{ 1, 2,... , m }, то полагаем q' := q'' := q,
rk := [rfc, mid rfc], r'k := [mid rfc, rfc], ri := ri' := ri для i = k; вычисляем внешние оценки End (F, q', r') и End (F, q'', r''); присваиваем и' := (End (F, q', r'^ v и и'' := (End (F, q'', r''^ ; удаляем запись (q, r,u) из списка L;
помещаем записи (q', r',u') и (q'', r'',u'') в список L в порядке
возрастания третьего поля; обозначаем первую запись списка L через (q, r,u); END DO Z := и.
Итак, зафиксируем какой-нибудь метод End внешнего оценивания объединенного множества решений для интервальной системы уравнений F(a, x) = b, мы будем называть этот метод базовым. Пусть End (F, a, b) — получаемый с его помощью интервальный вектор внешней оценки для множества решений системы F(a,x) = b, т. е. End (F, a, b) £ IRn и
End (F, a, b) D Suni(F, a,b).
Тогда величины
(End (F, a, b)) v
являются нижними концами интервальных расширений целевой функции (22). В этих условиях для решения задачи глобальной минимизации (22) применимы соответствующим образом адаптированные методы из [17, 20, 23, 61-64]. Псевдокод получающегося при этом нового алгоритма приведен в табл. 3. Его главное отличие от соответствующего алгоритма из § 5 для интервальных линейных систем состоит в том, что результатом дробления интервала параметров теперь являются подынтервалы ненулевой ширины, а не точки-концы.
Алгоритм табл. 3 и другие, ему подобные, предназначенные для решения "внешней задачи" для интервальных систем алгебраических уравнений и имеющие в своей основе адаптивное дробление интервалов параметров рассматриваемой системы уравнений, мы будем называть методами дробления параметров. Каковы условия на систему F(x, a) = 0 и метод End, при которых порождаемая этим алгоритмом последовательность ведущих оценок сходится к оптимальным (точным) покоординатным оценкам В настоящей
работе мы уже не будем исследовать этот интересный вопрос.
Список литературы
[1] Шарый С. П. Алгебраический подход к анализу линейных статических систем с интервальной неопределенностью // Изв. РАН. Теория и системы управления. 1997. №3. С. 51-61.
[2] Шарый С. П. Новый подход к анализу статических систем с интервальной неопределенностью в данных // Вычисл. технологии. 1997. Т. 2, №1. C. 84-102.
[3] Шарый С.П. Внешнее оценивание обобщенных множеств решений интервальных линейных систем // Вычисл. технологии. 1999. Т. 4, №4. С. 82-110.
[4] SHARY S. P. Algebraic solutions to interval linear equations and their applications // Numerical Methods and Error Bounds / G. Alefeld, J. Herzberger (Eds). Berlin: Akad. Verlag, 1996. P. 224-233.
[5] Shary S. P. Interval Gauss-Seidel method for generalized solution sets to interval linear systems // MISC'99 — Workshop on Applications of Interval Analysis to Systems and Control, Girona, Spain, Feb. 24-26, 1999. Girona: Univ. de Girona, 1999. P. 51-65.
[6] SHARY S. P. Outer estimation of generalized solution sets to interval linear systems // Reliable Computing. 1999. Vol. 5. P. 323-335.
[7] Алефельд Г., Херцбергер Ю. Введение в интервальные вычисления. М.: Мир, 1987.
[8] Добронец Б. С., Шайдуров В. В. Двусторонние численные методы. Новосибирск: Наука, 1990.
[9] Калмыков С. А., Шокин Ю. И., Юлдашев З. Х. Методы интервального анализа. Новосибирск: Наука, 1986.
[10] Шарый С. П. Алгебраический подход во "внешней задаче" для интервальных линейных систем // Вычисл. технологии. 1998. Т. 3, №2. С. 67-114.
[11] BARTH W., Nuding E. Optimale Lösung von Intervallgleichungssystemen // Computing. 1974. Vol. 12. P. 117-125.
[12] Beeck H. Uber die Struktur und Abschötzungen der Lösungsmenge von linearen Gleichungssystemen mit Intervallkoeffizienten // Computing. 1972. Vol. 10. P. 231-244.
[13] Cope J., Rust B. Bounds on solutions of linear systems with inaccurate data // SIAM J. Numer. Analysis. 1979. Vol. 16, №6. P. 950-963.
[14] Garloff J. Block methods for the solution of linear equations // SIAM J. Matrix Analysis Appl. 1990. Vol. 11. P. 89-106.
[15] Gay D. M. Solving interval linear equations // SIAM J. Numer. Analysis. 1982. Vol. 19, №4. P. 858-870.
[16] Hansen E. Bounding the solution of interval linear equations // SIAM J. Numer. Analysis. 1992. Vol. 29, №5. P. 1493-1503.
[17] Hansen E. Global Optimization Using Interval Analysis. N. Y.: Marcel Dekker, 1992.
[18] HARTFIEL D.J. Concerning the solution set of Ax = b where P < A < Q and p < b < q // Numer. Mathematik. 1980. Vol. 35, №3. P. 355-359.
[19] Jansson C. Calculation of exact bounds for the solution sets of linear interval systems // Linear Algebra Appl. 1997. Vol. 251. P. 321-340.
[20] KEARFOTT R. B. Rigorous Global Search: Continuous Problems. Dordrecht: Kluwer, 1996.
[21] KOLEv L. V. Interval Methods for Circuit Analysis. Singapore: World Sci. 1993.
[22] Madsen K., TOFT O. A parallel method for linear interval equations // Interval Computations. 1994. №3. P. 81-105.
[23] Moore R. E. Methods and Applications of Interval Analysis. SIAM, Philadelphia, 1979.
[24] NEUMAIER A. Linear interval equations // Interval Mathematics 1985/ K. Nickel (Ed.) N. Y.: Springer Verlag, 1986. P. 109-120. (Lecture Notes in Computer Science; Vol. 212).
[25] Neumaier A. Interval Methods for Systems of Equations. Cambridge: Cambridge Univ. Press, 1990.
[26] NEUMAIER A. A simple derivation of Hansen-Bliek-Rohn-Ning-Kearfott enclosure for linear interval equations // Reliable Computing. 1999. Vol. 5, №2. P. 131-136.
[27] Nickel K. Die Uberschatzung des Wertebereiches einer Funktion in der Intervallrechnung mit Anwendungen auf lineare Gleichungssysteme // Computing. 1977. Vol. 18. P. 15-36.
[28] Ning S., KEARFOTT R. B. A comparison of some methods for solving linear interval equations // SIAM J. Numer. Analysis. 1997. Vol. 34, №4. P. 1289-1305.
[29] ÜETTLI W. On the solution set of a linear system with inaccurate coefficients // SIAM J. Numer. Analysis. 1965. Vol. 2, №1. P. 115-118.
[30] Oettli W., PRAGER W. Compatibility of approximate solution of linear equations with given error bounds for coefficients and right-hand sides // Numer. Mathematik. 1964. Vol. 6. P. 405-409.
[31] Röhn J. Systems of linear interval equations // Linear Algebra Appl. 1989. Vol. 126. P. 39-78.
[32] Röhn J. Cheap and tight bounds: the recent result by E. Hansen can be made more efficient // Interval Computations. 1993. №4. P. 13-21.
[33] RUMP S. M. Solution of linear and nonlinear algebraic problems with sharp guaranteed bounds // Computing Suppl. 1984. Vol. 5. P. 147-168.
[34] RUMP S. M. Verification methods for dense and sparce systems of equations // Topics in Validated Numerics / J. Herzberger (Ed.). Amsterdam: Elsevier, 1994. P. 63-135.
[35] Shary S. P. On optimal solution of interval linear equations // SIAM J. Numer. Analysis. 1995. Vol. 32, №2. P. 610-630.
[36] Shary S. P. Algebraic approach in the "outer problem" for interval linear equations // Reliable Computing. 1997. Vol. 3, №2. P. 103-135.
[37] KOLACZ H. On the optimality of inclusion algorithms // Interval Mathematics 1985 / K. Nickel (Ed.) N. Y.: Springer Verlag, 1986. P. 67-80. (Lecture Notes in Computer Science; Vol. 212).
[38] RATSCHEK H. Optimal approximations in interval analysis // Interval Mathematics 1980/ K. Nickel (Ed.). - N. Y.: Acad. Press, 1980. P. 181-202.
[39] NUDING E. Intervallrechnung und Wirklichkeit // Interval Mathematics / K. Nickel (Ed.) Berlin: Springer Verlag, 1975. P. 263-269. (Lecture Notes in Computer Science; vol. 29).
[40] NICKEL K. Interval-Analysis // The state of the art in numerical analysis: Proc. of the Conf. on the State of Art in Numerical Analysis, Univ. of York, April 12th-15th, 1976 / D. Jacobs (Ed.). York: Univ. of York, 1977. P. 193-225.
[41] NUDING E. Schrankentreue Algorithmen // Beiträge zur Numer. Mathematik. 1983. Vol. 11. P. 115-137.
[42] ГАГАНОВ А. А. О сложности вычисления интервала значений полинома от многих переменных // Кибернетика. 1985. №4. С. 6-8.
[43] ЛАКЕЕВ А. В., Носков С. И. Описание множества решений линейного уравнения с интервально заданными оператором и правой частью // Докл. РАН. 1993. Т. 330, №4. С. 430-433.
[44] ЛАКЕЕВ А. В., Носков С. И. О множестве решений линейного уравнения с интервально заданными оператором и правой частью // Сиб. мат. журнал. 1994. Т. 35, №5. С. 1074-1084.
[45] Heindl G., KreinoviCH v., Lakeyev A. Solving linear interval systems is NP-hard even if we exclude overflow and underflow // Reliable Computing. 1998. Vol. 4. P. 383388.
[46] KREINOVICH v., Lakeyev A. V., Noskov S. I. Optimal solution of interval linear systems is intractable (NP-hard) // Interval Computations. 1993. №1. P. 6-14.
[47] KreinoviCH v., Lakeyev A. V., Noskov S. I. Approximate linear algebra is intractable // Linear Algebra Appl. 1996. Vol. 232. P. 45-54.
[48] KreinoviCH v., Lakeyev A., Rohn J., Kahl P. Computational Complexity and Feasibility of Data Processing and Interval Computations. Dordrecht: Kluwer, 1997.
[49] Lakeyev A. V. Linear algebraic equations in Kaucher arithmetic // Reliable Computing, 1995, Supplement (Extended Abstracts of APIC'95: International Workshop on Applications of Interval Computations, El Paso, TX, Febr. 23-25, 1995). P. 130-133.
[50] Lakeyev A. V. On the computational complexity of the solution of linear systems with moduli // Reliable Computing. 1996. Vol. 2, №2. P. 125-131.
[51] POLJAK S., Rohn J. Checking robust nonsingularity is NP-hard // Math. of Control, Signals & Systems. 1993. Vol. 6. P. 99-105.
[52] ROHN J. NP-hardness results for linear algebraic problems with interval data // Topics in Validated Numerics / J. Herzberger (Ed.). Amsterdam: North-Holland, 1994. P. 463-471.
[53] ROHN J., KreinoviCH V. Computing exact componentwise bounds on solutions of linear system is NP-hard // SIAM J. Matrix Analysis Appl. 1995. Vol. 16. P. 415-420.
[54] COXSON G., DE MARCO C. The computational complexity of approximating the minimal perturbation scaling to achieve instability in an interval matrix // Math. of Control, Signals and Systems. 1995. Vol. 7. P. 279-291.
[55] COXSON G. E. Computing exact bounds on elements of an inverse interval matrix is NP-hard // Reliable Computing. 1999. Vol. 5. P. 137-142.
[56] JANSSON C. An NP-hardness result for nonlinear systems // Reliable Computing. 1998. Vol. 4. P. 345-350.
[57] ЛАКЕЕВ А. В. Вычислительная сложность оценивания обобщенных множеств решений интервальных линейных систем // Методы оптимизации и их приложения: Тр. XI Междунар. Байкальской школы-семинара. Иркутск, Байкал, 5-12 июля 1998 г. Cекция 4. Иркутск: ИСЭМ, 1998. С. 115-118.
[58] ГЭРИ М., Джонсон Д. Вычислительные машины и труднорешаемые задачи. М.: Мир, 1982.
[59] СУХАРЕВ А. Г. Минимаксные алгоритмы в задачах численного анализа. М.: Наука, 1989.
[60] ПАПАДИМИТРИУ Х., СтАйГЛИЦ К. Комбинаторная оптимизация. Алгоритмы и сложность. М.: Мир, 1985.
[61] Панков П. С. Алгоритм доказательного поиска экстремума с использованием миноранты по области // Изв. АН Киргиз. ССР. 1979. №6. C. 12, 13.
[62] Панков П. С. Алгоритмы доказательства устойчивых утверждений и глобальной оптимизации в ограниченной области. Фрунзе, 1984. 13 с. Деп. в ВИНИТИ, №5250-84Деп.
[63] Asaithambi N. S., Shen Zuhe, Moore R. E. On computing the range of values // Computing. 1982. Vol. 28, №3. P. 225-237.
[64] Ratschek H., Rokne J. New Computer Methods for Global Optimization. Chichester, N. Y.: Ellis Horwood, Halsted Press, 1988.
[65] Шарый С. П. Новый класс алгоритмов для оптимального решения интервальных линейных систем // Актуальные проблемы прикладной математики: Тр. конф. Саратов, 20-22 мая 1991. Саратов, 1991. С. 113-119.
[66] SHARY S. P. A new class of algorithms for optimal solution of interval linear systems // Interval Computations. 1992. №2(4). P. 18-29.
[67] Шарый С.П. Оптимальное внешнее оценивание множеств решений интервальных систем уравнений. Часть 2 // Вычисл. технологии. 2003. (В печати).
[68] Apostolatos N., Kulisch U. Grundzuge einer Intervallrechnung fur Matrizen und einige Anwendungen // Electron. Rechenanl. 1968. B. 10. S. 73-83.
[69] Gay D. M. Computing perturbation bounds for nonlinear algebraic equations // SIAM J. Numer. Analysis. 1983. Vol. 20. P. 638-651.
[70] Gregory R.T, Karney D.L. A Collection of Matrices for Testing Computational Algorithms. N. Y.: Wiley Interscience, John Wiley, 1969.
[71] Neumaier A. Rigorous sensitivity analysis for parameter-dependent systems of equations //J. Math. Analysis Appl. 1989. Vol. 144. P. 16-25.
[72] Rump S. M., KAUCHER E. Small bounds for the solution of systems of linear equations // Computing Suppl. 1980. Vol. 2. P. 157-164.
[73] SCHWANDT H. Iterative methods for systems of equations with interval coefficients and linear form // Computing. 1987. Vol. 38, №2. P. 143-161.
[74] SCHWANDT H. Cyclic reduction for tridiagonal systems of equations with interval coefficients on vector computer // SIAM J. Numer. Analysis. 1989. Vol. 26, №3. P. 661680.
[75] SHARY S. P. Optimal solution of interval linear algebraic systems. Pt I // Interval Computations. 1991. Vol. 1, №2. P. 7-30.
Поступила в редакцию 7 июля 2001 г., в переработанном виде —17 июля 2002 г.