ISSN 1814-1196 Научный вестник НГТУ том 56, № 3, 2014, с. 67-78
http://journals. nstu. ru/vestnik Scientific Bulletin of NSTU Vol. 56, No. 3, 2014, pp. 67-78
ОБРАБОТКА ИНФОРМАЦИИ INFORMATION PROCESSING
УДК 519.24
Об одном выпуклом критерии оптимальности планов эксперимента
ю.д. григорьев1, Вн. лаптев2
1197376, РФ, г. Санкт-Петербург, ул. проф. Попова, 5, Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова, д. т. н., профессор, e-mail: yuri_grigoriev@mail. ru
2 630087, РФ, г. Новосибирск, пр. К. Маркса, 26, Сибирский университет потребительской кооперации, к. т. н., доцент
В качестве критериев оптимальности планов эксперимента обычно используют различные выпуклые функционалы от информационной матрицы плана. Как правило, это функционалы типа матричных средних. К числу таких функционалов, в частности, относятся такие хорошо известные функционалы, как критерии Д-, А- и Е-оптимальности.
В данной работе в качестве критерия оптимальности планов регрессионных экспериментов предлагается X -функционал типа матричной дисперсии. Доказывается выпуклость этого функционала и устанавливаются необходимые и достаточные условия оптимальности соответствующих планов. При доказательстве выпуклости X -функционала существенно используется понятие выпуклости по Шуру.
Для иллюстрации полученных результатов в работе рассмотрены два примера. В обоих случаях в качестве функции регрессии выбирается квадратичная парабола, заданная на отрезке [—1, 1]. В первом примере получена аналитическая зависимость целевого функционала от весов точек плана, подтверждающая его выпуклость. Во втором примере планы эксперимента для квадратичной параболы, оптимальные по различным критериям, сравниваются с аналитически найденным X -планом.
В заключении предлагается еще один критерий оптимальности, который не входит в класс матричных средних и представляет собой коэффициент обусловленности информационной матрицы плана. Высказывается предположение о его выпуклости. Для данного критерия также построен соответствующий план, удовлетворяющий необходимому условию оптимальности. Однако достаточные условия оптимальности данного плана пока остаются неизвестными.
Ключевые слова: план эксперимента, выпуклый функционал, информационная функция, класс матричных средних, матричная дисперсия, X -функционал, порядок Левнера, выпуклость по Шуру, квадратичная регрессия, неравенство Беллмана, условия оптимальности
ВВЕДЕНИЕ
В задачах планирования эксперимента (Федоров [8]) важную роль играют критерии оптимальности, определяющие выбор того или иного непрерывного плана е. Одним из основных требований, предъявляемых к критериям оптимальности планов эксперимента,
является их выпуклость. Функционал ф : M ^ R1, заданный на выпуклом замкнутом конусе
M с Rmxm информационных матриц M(е), называется выпуклым, если для любых A, B е M имеет место неравенство
ф[аА + (1 -a)B] <аф(А) + (1 -а)ф(B), 0 <а< 1. (1)
* Статья получена 09 марта 2013 г. Повторно после исправлений 18 июля 2014 г.
Работа выполнена в СПбГЭТУ при финансовой поддержке Министерства образования и науки Российской Федерации в рамках договора Я°02&25.31.0058 от 12.02.2013 г.
Хорошо известен класс матричных средних Кифера Ф = {фp}p=_OT (Кифер [10]; Пукельсхайм [13]), элементами которого
m
ф p (M) = [m"V (Mp (б))]17 p = (m"1 £Xf [M (e)])17 p (2)
i=1
являются так называемые информационные функции. Они обладают многими положительными свойствами, которые позволяют использовать их в качестве критериев оптимальности Фp [M(e)] ^ max планов эксперимента e. В (2) величины Xi [M(e)] - это собственные числа
матрицы M (e), при этом в результате предельного перехода полагают
(M) = lim Фp (M) = Xmin [M].
Эти функции являются не только вогнутыми (при необходимости их приводят к выпуклым), но и изотонными, т. е. сохраняющими в диапазоне их значений порядок Левнера. Последнее означает, что если A, B е М, то
A > B ^фp (A) >фp (B).
Три наиболее важных для приложений элемента фо, ф_1 и ф_м класса Ф представляют критерии D-, А- и Е-оптимальности соответственно. Изотонность этих критериев означает, что имеют место импликации: A, B е М и A > B , то
|A| > IB , trA > trB, Xmin |A| > Xmin Bl.
Однако наряду с изотонными критериями, образующими класс матричных средних Ф, встречаются и другие критерии оптимальности, которые также бывают востребованы на практике. К их числу относятся, например, критерии отрогональности, роттатабельности, экстраполяции в точку и многие другие. В предлагаемой работе исследуется X -критерий оптимальности типа матричной дисперсии, для которого доказывается, что он является выпуклым на конусе М.
1. ПОСТАНОВКА ЗАДАЧИ
Согласно определению M (e) е М, где M (e) - информационная матрица любого непрерывного плана e (Федоров [8]). Если A е М, то записываем A > 0 . В частности, если A _ B е М , то записываем A > B . Аналогично, если К с Rm - выпуклый замкнутый конус неотрицательных векторов x, то записываем x > 0, при этом если x _ y е К, то записываем
x > y .
Пусть М0 - открытый выпуклый конус положительно определенных информационных матриц, Мо с М, S - множество всех непрерывных планов. В работе исследуется критерий X -оптимальности ф: Мэ ^ (0,, представляющий, в отличие от матричных средних, «дисперсию» собственных чисел Xi = Xi [M_1(e)] дисперсионной матрицы D(e) = M_1(e):
def m _ _ m
фЩ(e)] = _X)2 ^ min, X = m"1^-■ (3)
i=1 Ее3 i=1
Критерий (2) не входит в класс Ф , но, как будет показано, является выпуклым, что в порядке гипотезы было высказано в (Лаптев [6]).
Целью работы является доказательство выпуклости критерия (3). Оно необходимо для
*
обоснования предложенных в (Лаптев [6]) достаточных условий оптимальности X -планов e .
Кроме доказательства выпуклости в работе рассмотрены два примера. Первый из них имеет чисто иллюстративное значение. Он демонстрирует выпуклость X -функционала для двумерной линейной регрессии. В качестве второго примера рассмотрена одномерная квадратичная регрессия, для которой проведено сравнение X -оптимального плана с планами, оптимальными по другим критериям, в том числе не входящими в класс матричных средних.
2. ВСПОМОГАТЕЛЬНЫЕ РЕЗУЛЬТАТЫ
Для доказательства основного результата, т. е. выпуклости X -функционала (3), нам понадобится несколько вспомогательных утверждений.
1. Прежде всего отметим, что возможна другая форма записи функционала (3)
т _
£(Хг -X)2 = т"1 X (X, -Xу )2, (4)
,=1 1<, < ]<т
которая следует из тождества Лагранжа (Беллман [3], с. 74)
(I*2 )(1у2 ) - (ЕхУ )2 = 2 Ц(х,У] - ХуУ, )2, X, у 6 . (5)
, , , , У
Для этого в тождестве (5) нужно положить у = т_11т, 1т = (1,...,1) 6 ^ . Однако в большей степени нам нужна другая эквивалентная форма записи функционала (3).
Обозначим /Нт - множество всех симметричных матриц А 6 Rmxm. Определим на нем ковариацию матриц
с!е/
(С, Б) = ^СБ - т"1 (^С)(^Б), С, В 6 Нт . (6)
Тогда
ВС = Ъ-С2 - т'Чг2С (7)
- дисперсия матрицы С. Эта терминология оправдана в том смысле, что согласно неравенству Беллмана
Ъ-С2 > т_1/т 2С, (8)
которое справледливо для любых симметричных матриц (Беллман [3, с. 168], имеем ВС > 0 .
Аналогично введем дисперсию вектора X в евклидовом пространстве Rm , отождествив ее с X -функционалом (3).
Будем говорить, что множества векторов 'т с ^ и всех симметричных матриц Нт однотипны, если между их элементами установлено соответствие - каждой матрице С 6 Нт сопоставляется вектор X = (X!,..., Xm) 6 'т ее собственных значений, т. е. X, = Xi [С], , = 1,..., т. Отметим, что данное соотношение не является биективным.
Лемма 1. Пусть X, = X, [А] - собственные числа матрицы А 6 Нт с Rmxm, т. е. множества 'т и Нт однотипны. Тогда
В X = ВА. (9)
Доказательство. Утверждение (9) следует из равенств
т т
1гА = IX,, ^А2 = IX2.
,=1 ,=1
т
Первое равенство очевидно. Представим А в виде и Л и , где и - ортогональная матрица, Л = diag{Я1,...,Ят}. Исходя из такого представления матрицы А определим функцию g(А)
формулой g(А) = иЛёи , где Лё = diag{g(Я^,...,g(кт)} . Отсюда следует, что собственные
числа матрицы g(А) получаются из собственных чисел матрицы А в результате «воздействия»
на них функции g. В нашем случае g : х ^ х . Отсюда следует второе равенство. □
2. Для однотипных множеств 'т и /Нт введем общий термин. Именно, будем рассматривать их как гильбертово пространство L случайных величин (св.) со скалярным произведением (£,л) = М. Тогда cov(£,л) = (£,л)-М^М" - ковариация (св.) £ и л, Щ = cov(£,£) - дисперсия св. £ .
2
Лемма 2. Дисперсия ф : £ ^ В £ - выпуклая функция, т. е. если л е Ь , то
ф[а£ + (1 -а)"] <аф(£) + (1 -а)ф(л), 0< а <1. (10)
Доказательство. Используя свойства дисперсии и определение ковариации, последовательно получаем
22 ф[а£ + (1 -а)"] = а ф(£) + 2а(1 -а)cov(£,л) + (1 -а) ф(")
= аф(£) + (1 -а)ф(л)-а(1 -а)ф(£-")
< аф(£) + (1 -а)ф(л),
что совпадает с (10). □
3. Следующая лемма устанавливает взаимосвязь между векторным упорядочением, индуцируемым выпуклым конусом К с Rm собственных чисел симметричных матриц Нт, и
матричным упорядочением, индуцируемым выпуклым конусом М с Нт с Rmxm этих матриц. Это упорядочение, необходимое для определения монотонности матричнозначных функций от матриц, является частичным порядком и называется порядком Левнера. Соответствующая запись А < В, как уже отмечалось, означает, что В - А является неотрицательно определенной матрицей.
Лемма 3. (Маршалл, Олкин [7], с. 480). Пусть выполнены следующие условия:
(1) А, В е М;
(2) Я = (Яi [А])™}, | = (|| [В])Г=1 е К - векторы собственных чисел матриц А и В;
(3) координаты векторов Я и | упорядочены по невозрастанию
т -1: Яг ^+ь | +1. Тогда А < В ^ Я < (11)
В (Беккенбах, Беллман [2], с. 109) отмечается, что это утверждение непосредственно следует из минимаксной теоремы Куранта - Фишера (Беллман [3], с. 143). Доказательство
леммы 3 содержится в (Левнер [11]). □
4. Пусть ф: R1 ^ R1 - некоторая функция. Продолжим ф до функции вида у : Нт ^ Н™ способом, описанным выше при доказательстве леммы 1, а именно: для всякой
Т т
А — иЛи1
е Нт полагаем у(А) — иЛфи . Произвольные матричнозначные функции у от
матриц вводятся естественным образом с помощью стандартных матричных операций (Маршалл, Олкин [7], с. 466).
Пусть М с Нт . Функция ф: М ^ Нт называется матричновозрастающей на М, если отношение А < В имплицирует неравенство ф(А) < ф(В) всякий раз, когда А, В 6 М. В контексте нашей задачи конус М - это множество всех неотрицательных определенных матриц, ф дисперсия матрицы А 6 М, неубывание которой можно доказать. Функция g : М ^ Нт называется матрично выпуклой, если
УА, В 6М : g[aA + (1 -а)В] <ag (А) + (1 -а)g (В), 0 <а< 1. (12)
Если неравенство (12) строгое, 0< а <1 и матрица В - А имеет полный ранг, то функция g называется матрично строго выпуклой. Нас будет интересовать функция
g(А) = А-1, заданная на открытом конусе Мо положительно определенных матриц.
Очевидно, Мо ^ М ^ Нт .
Лемма 4. (Маршалл, Олкин [7], с. 474). На конусе Мо функция g(А) = А-1 является матрично строго выпуклой, т. е. если А, В 6 Мо, то
[аА + (1 -а)В]-1< аА"1 + (1 -а)В_1, 0< а <1, (13)
причем знак равенства имеет место, если только А = В .
Утверждение (13) можно найти в (Федоров [8], с. 24). Доказательство леммы приводится
в (Олкин, Пратт [12]; Уиттл [14]). □
3. ВЫПУКЛОСТЬ X -ФУНКЦИОНАЛА
Прежде чем приступить к доказательству выпуклости X -функционала (3), введем необходимое в дальнейшем понятие выпуклости по Шуру (Маршалл, Олекин [7]). Пусть < -
упорядочение Левнера на некотором множестве Л с ^ . Вещественная функция ф: Л ^ R1
называется выпуклой в смысле Шура, или изотонной, если для всех х, у 6 Л
X < у ^ ф(х) < ф(у).
Выпуклость по Шуру, очевидно, отличается от выпуклости по Йенсену (1).
Как уже отмечалось выше, выпуклость по Шуру является желательным свойством критериев оптимальности планов эксперимента. Теперь мы можем приступить к доказательству основного результата - выпуклости X -функционала (4).
Теорема 1. Пусть выполнены следующие условия:
(1) М, = М (е,) 6 Мо - информационные матрицы невырожденных планов е,, , = 1,2 ;
(2) ф: Мэ ^ (0,- X -функционал (4).
Тогда ф{[аМ1 + (1 -а)М2]-1} <аф(М-1) + (1 -а)ф(М-1), 0< а <1, (14)
т. е. функционал ф - выпуклый.
Доказательство. Положим А = М(е^ , В = М(е2). Обозначим
С = [аА + (1 -а)В]-1, В = аА"1 + (1 -а)В_1.
Согласно (13) имеем С < В . Пусть X = (X, [С])^ и ц = (ц, [В])^ - векторы монотонно упорядоченных собственных чисел матриц С и В. Тогда согласно лемме 3 получаем X < ц. Поскольку дисперсия ф:'т ^ [0, да) является выпуклой по Шуру (Маршалл, Олкин [7], с. 417), то отсюда следует, что ф^) < ф(ц).
С другой стороны, согласно (9) заключаем,что
фМ = ф(С), (15)
где Я е 'т - вектор собственных значений матрицы С е Н™ .Тем самым равенство (15) означает, что дисперсия ф: Нт ^ [0, <») также является выпуклой функцией. Отсюда, возвращаясь к определению матриц С и D, получаем
ф{[аА + (1 -а) В]-1} <ф[аА_1 + (1 -а)В_1].
(16)
Положим £ = А 1, л = В 1 и будем рассматривать правую часть неравенства (16) как
дисперсию св. т — а£ + (1 -а)"е Нт, где Н™ рассматриваем как гильбертово пространст-
2
во Ь . Поскольку дисперсия В т согласно лемме 2 выпукла, т. е. удовлетворяет неравенству
(10), то отсюда следует требуемый результат (14). □
Пример 1. Пусть л(х, 6) = 60 +61X1 +62Х2 - функция регрессии, заданная на квадрате
X = [-1,1]2. Обозначим А(1,1), В(-1,1), С(-1,-1) вершины квадрата X, 0(0,0) - его
3
центр. Для оценивания параметра 6 е R выберем два плана эксперимента
Е1 = |£(А) = £(В) = £(С) = 31, ^2 = |£(А) = £(В) = £(С) = £(0) = 4
Э-1
с матрицами Якоби
Fl =
[1 1 1 ^ 1 -1
,1 -1 -1, V V
F^
[1 1 1 ^ 1 -1 1 1 -1 -1
V1 0
1 т 1 т
Вычислим М1 = М(е1) = -, М2 = М(е2) = — Е2 Е2 и М = аМ1 + (1 -а)М2. Затем
найдем Di = М-1 и D = М-1, i = 1,2. Зная матрицы Di и D, найдем их собственные значения, причем для матрицы D эти значения будут функциями а . После этого определим хорду б(а) = аф^) + (1 -а)ф^2), ае[0,1] и функцию Ь(а) = ф^), где ф(D) - Я -функционал. В результате проведенных вычислений получаем
Ь(а)-18(5а2 +'4" + ?>, «а)-1 [10 +а
(а + 3)2(а- 9)2 9 V 8
ае [0,1].
Легко проверить, что Ь (а) > 0. Поэтому функция Ь : а ^ R1 выпукла. Отсюда следует G(a) > Ь(а), ае[0,1]. Значения функций Ь и G протабулированы и представлены в табл. 1. Минимум Ь(а) достигается в точке
( __Л
1
а0 = 5
2^484 + 20ТшТ -
128
^484 + 20л/Т241
- 7
= 0.4203,
10 9
при этом Ь(0.4203) = 1.082073 , в то время как ¿(0) = — = 1.1111, ¿(1) = - = 1.1250 . Таким
9 8
образом, результаты вычислений не противоречат справедливости теоремы 1 о выпуклости Я -функционала (3). □
Таблица 1
X -критерий: табулированные значения функций L и G
а = 0.1(0.1)0.9
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
L(а) 1.0984 1.0895 1.0842 1.0821 1.0830 1.0865 1.0927 1.1012 1.1120
О(а) 1.1125 1.1139 1.1153 1.1167 1.1181 1.1194 1.1208 1.1222 1.1236
4. УСЛОВИЯ ОПТИМАЛЬНОСТИ X -ПЛАНОВ
Поскольку Х-функционал является выпуклым, то к нему применима теорема Федорова о выпуклых функционалах.
Теорема 2 (Федоров [9]). Положим М - конус информационных матриц М (е), Т : М ^ Я1 - критерий оптимальности. Пусть выполнены следующие условия:
(1) х, 9) = /Т (х)9 - функция регрессии, х е X с Як , 9 е © с Ят ;
(2) / е С1 (X), X - компакт, © - открытое множество;
(3) Т е С1(М) - выпуклый функционал, т. е.
Т[аМ(е1) + (1 -а)М(е2)] < аТ[М(е1)] + (1 -а)Т[М(е2)], 0 <а< 1;
Т дТ
(4) x, е) = / ( х) —( х)М = М (е).
*
Тогда план е оптимален, если и только если
, *ч ,,дТ тту(х, е ) = Ш ——
хеХ дМ
, (17)
М =М (е )
причем в узлах плана (за исключением, быть может, множества точек меры нуль) функция
*
у(х, е ) достигает своей нижней грани.
Опираясь на теорему 2, можно сформулировать необходимые и достаточные условия
*
оптимальности для непрерывных X -планов е . Именно, имеет место Теорема 3 (Лаптев [6]). Пусть выполнены условия:
(1) х,9) = /Т(х)9 - функция регрессии, хеX сЯк , 9е©сЯт ;
(2) / е С1 (X), X - компакт, © - открытое множество;
(3) V = т_1^(е), G(е) = В(е) - у1т .
Тогда следующие утверждения эквивалентны:
* 2 —1 2
(1) е (е) — т 1г D(е)] - X -оптимальный план;
ееН
(2) имеет место равенство
Т * * * о *
тах/Т (х)D(е ^(е ^(е )/(х) = НС2(е ). (18)
xеX
Доказательство. Необходимость. (1) ^ (2). В силу теоремы 1 функционал (3) является выпуклым. Поэтому согласно теореме 2 для Т-оптимального плана выполняется равенство (17):
Т дТ дТ
т/ (х)^т/(х) = »М—. (19)
xеX дМ дМ
Поскольку D = M 1 и dtrD = -D2 , то
dM
= -2D3, ^ = -2(trD) D2.
dM dM
Отсюда находим
ST = cfr^OO - ^У 2 D(s)] = -2D(e)G(s)D(s),
dM dM
dT 2 it
trM (s)-= -2[trD2(s) - w_1tr 2 D(s)].
dM
Теперь с учетом равенства trG2 = trD2 - w_1tr2D , перемены в двух последних равенствах знака минус на плюс и изменения в (19) операции min на max, приходим к (18).
Достаточность. (2) ^ (1). Доказательство этой части теоремы никак не зависит от конкретного вида выпуклого функционала T. Поэтому здесь применим ход доказательства
теоремы 2, изложенный в (Федоров [9]), а именно: доказательство от противного импликации
*
—1(1) ^ —1(2) (если план s неоптимален, то для него не выполнено условие (19). □
5. КВАДРАТИЧНАЯ РЕГРЕССИЯ
Для наглядной характеризации различных критериев оптимальности, включая Я -критерий, рассмотрим одномерную квадратичную регрессию
x,е) = е0 +e1x+е2x2, x е х = [-1,1].
(20)
Для регрессии (20) построим оптимальные по различным критериям планы эксперимента в классе симметричных планов Н0 . Последнее означает, что предполагаемые оптимальные планы должны иметь вид
s = {£(+!) = p, £(0) = 1 - 2 p},
(21)
где £(х) - вероятностная мера, или вес, точки х е £(е), £(е) - известный спектр плана е. Таким образом, требуется определить величину р, которая для различных критериев должна быть разной.
В общем случае оптимальность планов е е Н0 для различных критериев оптимальности проверяется с помощью соответствующих теорем эквивалентности. Однако для критериев из класса матричных средних эти теоремы являются следствием общего решения полярного уравнения (Пукельсхайм [13]). С помощью этого уравнения доказана оптимальность планов е е Н0 по критериям из класса матричных средних Ф для полиномиальной регрессии любой степени г > 1 на X = [-1,1].
1. Информационная матрица плана М(е) и обратная к ней D(е) = М _1(е) имеют вид
M (s) =
( 1 0 2 ps
0 2p 0
2 p 0 2 p
V /
D(s) =
1
1
Л
1 - 2 p
0 — 2 p
1 - 2 p 0
1
1 - 2 p
2 p(1 - 2 p)
0
1
0
Вычисляем собственные числа Хг = Хг [В(е)], полагая Х1 > Х2 > Х3 :
Х1 = 1 + 2 р + 43, Х2=^, Х3 = 1 + 2 Р — 4Б, D = ¿0 р2 — 4 р +1. 1 4 р(1 — 2 р) 2 2 р 4 р(1 — 2 р) ^
Отсюда
В-критерий: D(е) |= Х1Х2Х3 = -—^—
А-критерий: trD(е) = Х1 + Х2 +Х3 =
4 р* (1 — 2 р) 1
р(1 — 2 р)
Т7 - 1 т/- м 1 1 + 2р +
Е-критерий: Хтах[В(е)] = Х1= ■ . ч ;
4 р(1 — 2 р)
- НПМ1 V« 24р2 — 6 р +1 Х -критерий: Х[В(е)] = ^(Хг — - ^Х-) = 2-;
г =1 3 у =1 6р (1 — 2р)
,ГП, Ч1 Хтах[В(е)] Х1 1 + 2р + л/б
С-критерий: со^[В(е)] = л = -± =-^ _ ;
Р Р Хт1П[В(е)] Х3 1 + 2 р — 4В
1
G-критерий: G[D(е)] = тах d(х, е ) =
—1< х<1
х = 0,
1 — 2 р ■1, х = 1.
Отметим, что
1*1
0[В(е)] = [ d(х, е)dx
1 8 = /__1[В11 + (2В13 + В22) х2 + В33 x4]dx =
15 р(1 — 2 р)
т. е. А- и 0-оптимальные планы для квадратичной регрессии (20) совпадают. Оптимальные по
*
различным критериям планы е представлены в табл. 2, а значения соответствующих им функционалов - в табл. 3.
Таблица 2
Непрерывные оптимальные планы е* = {^(±1) = р, ^(0) = 1 — 2р} для квадратичной регрессии (20)
Критерий оптимальности
|В(е)| йВ(е) Х тах е3=1(х—3 ^3-=1Х у )2 Х тах Хтт
р ^ = 0.3334 3 ^ = 0.2500 4 1 = 0.2000 5 0.1823 ^ = 0.1667 6
Таблица 3
Характеристики планов s* = {£(±1) = p, £(0) = 1 - 2p} для квадратичной регрессии (20),
Xmax = Xj[D(s)] , X„in = ^[D(s)] , COnd[D(s)] = Xj / X3
Функционалы * Оптимальные планы s .
D-оптим. А-оптим. Е-оптим. X-оптим. cond-оптим.
|D(s*)| 6.7500 8.0 10.417 11.316 13.500
trD(s ) 9.0 8.0 8.3334 8.5201 9.0
Xmax[D(s*)] 6.8423 5.2361 5.0 5.0142 5.1213
X[D(s*)] 22.500 10.667 8.7963 8.7227 9.0
cond[D(s )] 10.404 6.8541 6.0 5.9019 5.8284
G[D(s*)] 3.0 4.0 5.0 5.3125 6.0
Анализ табл. 3 позволяет формулировать различные предпочтения на множестве функционалов от М(е) . По существу, мы имеем дело с многокритериальной задачей (задачей с векторным критерием), и выбор соответствующих предпочтений определяется конкретными требованиями, предъявляемыми к решению. В частности, заметим, что критерии в табл. 2
перечислены в порядке убывания веса крайних точек.
*
Поскольку оптимальному плану е соответствует минимальное значение выбранного критерия, то минимальный элемент каждой строки табл. 3 находится на главной диагонали квадратной табл. 3, в которой, для краткости, опущен шестой столбец, соответствующий
критерию G-оптимальности. Это объясняется тем, что согласно теореме эквивалентности
*
Кифера - Вольфовица (Федоров [8], с. 77) непрерывные D- и G-оптимальные планы е совпадают.
ЗАКЛЮЧЕНИЕ
Критерий Я -оптимальности аналогичен принципу дисперсии назначения премий в страховании, в то время как критерий А-оптимальности соответствует принципу математического ожидания [5]. Эти принципы различны в том отношении, что первый из них инвариантен к сдвигу Я ^ Я + с, а второй, как, впрочем, и все остальные рассмотренные
критерии - нет. Это означает, что Я -критерий занимает в этом отношении особое место и, возможно, более предпочтителен с точки зрения помехоустойчивости вычислений, чем Е-критерий и, тем более, А-критерий. Именно это свойство Е- и мажорирующих его критериев отмечалось в (Берсенев, Саблин [4]), см. по этому поводу также (Батасова, Гаврилов [1]).
Что касается С-критерия, то он представляет собой число обусловленности матрицы D(е) и также не относится к числу матричных средних. Следуя логике табл. 2 и статьи (Берсенев, Саблин [4]), можем заключить, что с точки зрения вычислительной устойчивости он представляет еще больший интерес, чем Я -критерий. Однако вопрос о выпуклости С-кри-терия и способах построения соответствующих планов остается открытым.
СПИСОК ЛИТЕРАТУРЫ
1. Батасова В.С., Гаврилов В.А. Оптимальное расширение локальных сейсмотелеметрических сетей Камчатки // Вулканология и сейсмология. - 1990. - Вып. 1. - С. 91-103.
2. Беккенбах Э., Беллман Р. Неравенства. - М.: Мир, 1965. - 276 с.
3. Беллман Р. Введение в теорию матриц. - М.: Наука, 1969. - 368 с.
4. Берсенев С.М., Саблин Н.И. Планирование помехоустойчивых регрессионных экспериментов // Заводская лаборатория. - 1976. - Т. 42, вып. 3. - С. 314-316.
5. Современная актуарная теория риска / Р. Каас, М. Гувертс, Ж. Дэнэ, М. Денут. - М.: Янус-К, 2008. - 376 с.
6. Лаптев В.Н. Некоторые вопросы синтеза оптимальных планов регрессионных экспериментов с помощью ЭВМ: дис. ... канд. техн. наук; Новосиб. электротехн. ин-т. - Новосибирск, 1974. - 129 с.
7. Маршалл А., Олкин И. Неравенства: теория мажоризации и ее приложения. - М.: Мир, 1983. - 576 с.
8. Федоров В.В. Теория оптимального эксперимента. - М.: Наука, 1971. - 312 с.
9. Федоров В.В. Численные методы построения оптимальных планов для регрессионных экспериментов // Кибернетика. 1975. - Вып. 1. - C. 124-130.
10. Kiefer J.C. General equivalence theory for optimum designs (approximate theory) // The Annals of Statistics. -1974. - Vol. 2, № 5. - P. 849-879.
11. Loevner C. Über monotone Matrixfunctionen // Mathematische Zeitschrift. - 1934. - Vol. 38. - P. 177-216.
12. Olkin I., Pratt J. A multivariate Tschbychev's inequality // Annals of Mathematical Statistics. - 1958. -Vol. 29. - P. 226-234.
13. Pukelsheim F. Optimal Design of Experiments. - Philadelphia, USA: SIAM, 2006. - 453 p. - (Classics in Applied Mathematics; vol. 50).
14. Whittle P. A multivariate generalization of Tschbychev's inequality // The Quarterly Journal of Mathematics. -1958. - Vol. 9, no. 1. - P. 232-240.
Григорьев Юрий Дмитриевич, доктор технических наук, профессор кафедры математического обеспечения и применения ЭВМ Санкт-Петербургского государственного электротехнического университета («ЛЭТИ»), зав. лабораторией планирования эксперимента, теории риска и информатики. Основные направления научных исследований - планирование эксперимента, теория нелинейной регрессии, математическая теория гармонии. Имеет более 120 публикаций. E-mail: [email protected]
Лаптев Валерий Николаевич, кандидат технических наук, доцент. Основные направления научных исследований - планирование эксперимента, теория автоматического регулирования. Имеет более 20 публикаций.
On some convex optimal criterion of an experimental designs'
Yu.D. GRIGOR 'EV, \V.N. LAPTEV
1 Saint-Petersburg state electrotechnical University, 5, Professor Popov street, St. Petersburg, 197376, Russian Federation, D.St, professor, e-mail: [email protected]
2 Siberian University of consumer cooperation20 prospect Karla Marksa, Novosibirsk, 197376, Russian Federation, C.tS, associate professor
As an optimality criteria of experimental designs various convex functionals an information matrix dependent usually are used. As a rule, this functionals to a matrix averages type are related. Such well-known functionals as criteria of D-, A- and E-optimality pertain to the case of such functionals.
In the given work as criterion of an optimality criterion for the regression experiments designs X -functional of a matrix covariance type is suggested. The convexity of this functional is proved and the necessary and sufficient optimality conditions for this designs are established. At the proof of X -functional the concept of Schur's convexity essentially is used.
In order to more clearly explain the obtained results two examples are considered. In a both cases the quadratic parabolas given on a segment [-1, 1] as a regression function are choosed. In the first example the analytical expression of a target functional as a function of a design knots weights is obtained. This example confirm the convexity of suggested X -functional. In the second example the experimental designs for a quadratic parabola optimal by various criteria with analytically computed X -design are compared.
In summary, one more optimality criterion which does not belong to a matrix averages class is suggested. This functional is a conditionality coefficient of the information matrix. The supposition about its convexity is stated. For the given criterion the corresponding design, satisfying to a necessary condition of an optimality also is constructed. However sufficient optimality conditions for the designs of this type at present are unknown.
Keywords: experimental design, convex functional, information function, class of matrix means, matrix variance, X -functional, Loevner's ordering, Schur's convexity, quadratic regression, Bellman's inequality, optimality conditions
REFERENCES
1. Batasova V.S., Gavrilov V.A. Optimal'noe rasshirenie lokal'nykh seismotelemetricheskikh setei Kamchatki [Optimum expansion of local seismotelemetric networks of Kamchatka]. Vulkanologiya i seismologiya — Journal of Volcanology and Seismology, 1990, iss. 1, pp. 91-103.
2. Beckenbach E.F., Bellman R. Inequalities. Berlin, Göttingen, Heidelberg, Springer-Verlag, 1961. xii+198 p. (Russ. ed.: Bekkenbakh E., Bellman R. Neravenstva. Moscow, Mir Publ., 1965. 276 p.).
3. Bellman R.E. Introdaction to Matrix Analysis. New York, Toronto, London, McGraw-Hill Book Co. Inc., 1960. 348 p. (Russ. ed.: Bellman R.E. Vvedenie v teoriyu matrits. - M.: Nauka, 1969. 368 p.).
* Received 09 March 2014. Repeatedly 18 July 2014.
Work is performed in Saint-Petersburg state electrotechnical University with financial support of the Ministry of Education and Science of the Russian Federation within the contract № 02.G25.31.0058 of12.02.2013.
4. Bersenev S.M., Sablin N.I. Planirovanie pomekhoustoichivykh regressionnykh eksperimentov [Planning of noiseproof regression experiments]. Zavodskaya laboratoriya — Factory laboratory, 1976, vol. 42, iss. 3, pp. 314-316.
5. Kaas R., Goovaerts M., Dhaene J., Denuit M. Modern Actuarial Risk Theory. Boston, Kluwer Academic Publishers, 2001. 309 p. ISBN 0-7923-7636-6 (Russ. ed.: Kaas R., Guverts M., Dene Zh., Denut M. Sovremennaya aktuarnaya teoriya riska. Moscow, Yanus-K Publ., 2008. 376 p.).
6. Laptev V.N. Nekotorye voprosy sinteza optimal'nykh planov regressionnykh eksperimentov s pomoshch'yu EVM. Diss. kand. tekhn. nauk [Some questions of synthesis of optimum plans of regression experiments by means of the computer. Cand. eng. sci. diss.]. Novosibirsk, 1974. 129 p.
7. Marshall A.W., Olkin I. Inequalities: Theory of Majorization and its Applications. New York, Academic Press, 1979. (Russ. ed.: Marshall A., Olkin I. Neravenstva: teoriya mazhorizatsii i eeprilozheniya. M., Mir Publ., 1983. 576 p.).
8. Fedorov V.V. Teoriya optimal'nogo eksperimenta [Theory of optimum experiment]. - Moscow, Nauka Publ., 1971.
312 p.
9. Fedorov V.V. Chislennye metody postroeniya optimal'nykh planov dlya regressionnykh eksperimentov [Numerical methods of creation of optimum plans for regression experiments]. Kibernetika — Cybernetics, 1975, iss. 1, pp. 124-130.
10. Kiefer J.C. General equivalence theory for optimum designs (approximate theory). The Annals of Statistics, 1974, vol. 2, no. 5, pp. 849-879.
11. Loevner C. Über monotone Matrixfunctionen. Mathematische Zeitschrift. 1934, vol. 38, pp. 177-216.
12. Olkin I., Pratt J. A multivariate Tschbychev's inequality. Annals of Mathematical Statistics, 1958, vol. 29, pp. 226234.
13. Pukelsheim F. Optimal Design of Experiments. Philadelphia, USA, SIAM, 2006. 453 p. Classics in Applied Mathematics; vol. 50.
14. Whittle P. A multivariate generalization of Tschbychev's inequality. The Quarterly Journal of Mathematics. - 1958, vol. 9, no. 1, pp. 232-240.
ISSN 1814-1196, http://journals.nstu.ru/vestnik Scientific Bulletin of NSTU Vol. 56, No .3, 2014, pp. 67-78