Научная статья на тему 'Математическое моделирование феноменов случайности и нечеткости в научных исследованиях. 2. Приложения'

Математическое моделирование феноменов случайности и нечеткости в научных исследованиях. 2. Приложения Текст научной статьи по специальности «Математика»

CC BY
94
35
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ВЕРОЯТНОСТЬ / НЕЧЕТКОСТЬ / ВОЗМОЖНОСТЬ / НЕОБХОДИМОСТЬ / ОПТИМИЗАЦИЯ / ИДЕНТИФИКАЦИЯ / ОЦЕНИВАНИЕ / ОПТИМАЛЬНЫЕ РЕШЕНИЯ / PROBABILITY / FUZZINESS / POSSIBILITY / NECESSITY / OPTIMIZATION / IDENTIFICATION / ESTIMATION / OPTIMAL DECISIONS

Аннотация научной статьи по математике, автор научной работы — Пытьев Юрий Петрович

В статье рассмотрены элементы теории оптимальных нечетких решений, аналогичной теории оптимальных статистических решений, в частности оптимальной нечеткой идентификации и оптимальной нечеткой проверки гипотез, подобной статистической проверке гипотез Неймана--Пирсона, и оптимального нечеткого оценивания, рассмотрен последовательный алгоритм нечеткой идентификации, подобный последовательному статистическому критерию Вальда. Даны элементы теории нечетких измерительно-вычислительных преобразователей и ее приложений в задачах анализа и интерпретации данных измерительного эксперимента.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Пытьев Юрий Петрович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Mathematical modeling of randomness and fuzziness phenomena in scientific studies. II. Applications

This paper considers some elements of the optimal fuzzy decision theory that are similar to the optimal statistical decision theory, in particular, the theory of optimal fuzzy identification and optimal fuzzy hypothesis testing, such as Neyman--Pearson statistical hypothesis testing and optimal fuzzy estimation along with a sequential fuzzy identification algorithm similar to the Wald sequential statistical criterion. Some elements of the fuzzy measuring and computing transducer theory and its applications in the problems of the analysis and interpretation of measurement experiment data are given.

Текст научной работы на тему «Математическое моделирование феноменов случайности и нечеткости в научных исследованиях. 2. Приложения»

Математическое моделирование феноменов случайности и нечеткости в научных исследованиях. 2. Приложения

Ю. П. Пытьев

Московский государственный университет имени М. В. Ломоносова, физический факультет, кафедра математического моделирования и информатики.

Россия, 119991, Москва, Ленинские горы, д. 1, стр. 2.

E-mail: yuri.pytyev@physics.msu.ru, yuri.pytyev@gmail.com

Статья поступила 22.06.2016, подписана в печать 13.07.2016.

В статье рассмотрены элементы теории оптимальных нечетких решений, аналогичной теории оптимальных статистических решений, в частности оптимальной нечеткой идентификации и оптимальной нечеткой проверки гипотез, подобной статистической проверке гипотез Неймана-Пирсона, и оптимального нечеткого оценивания, рассмотрен последовательный алгоритм нечеткой идентификации, подобный последовательному статистическому критерию Вальда. Даны элементы теории нечетких измерительно-вычислительных преобразователей и ее приложений в задачах анализа и интерпретации данных измерительного эксперимента.

Ключевые слова: вероятность, нечеткость, возможность, необходимость, оптимизация, идентификация, оценивание, оптимальные решения.

УДК: 517.977.14. PACS: 02.50.Le.

Введение

В работе рассмотрены приложения методов математического моделирования случайности и нечеткости, представленных в [79]. В п. 1.1-1.3 исследованы задачи оптимизации идентификации состояний неопределенного нечеткого объекта1 (НО.НЧ.О.), основанной на значениях неопределенного нечеткого элемента (но.нч.э.), регистрируемых при наблюдении за НО.НЧ.О. Сравнению качеств нечеткой и вероятностной идентификаций посвящено окончание п. 1.2. В п. 1.4-1.6 исследованы задачи оптимизации оценивания характеристик нечеткого объекта (НЧ. О.) исследования по данным наблюдений за ним. В п. 1.7 исследованы нечеткие задачи различения гипотез, в п. 1.8 рассмотрен алгоритм последовательной идентификации состояний НО.НЧ.О., основанной на данных наблюдений за НО.НЧ.О. «с разных сторон». В разд. 2, посвященном задачам анализа и интерпретации данных измерительного эксперимента, рассмотрены элементы теории нечетких измерительно-вычислительных преобразователей как средств измерения и методы редукции данных измерений к виду, свойственному измерениям на идеальном измерительном приборе.

В работе отмечены отличия рассмотренных приложений теории возможностей [79] от известных аналогов. Далее использованы обозначения, принятые в [79].

1. Оптимальные решения

В качестве примера задач оптимизации решений рассмотрим задачи идентификации состояния НО.НЧ.О., который может находиться в одном

из q состояний, определяющих распределения возможностей и необходимостей значений но.нч.э. регистрируемых при наблюдении за НО. НЧ. О. и составляющих эмпирическую основу для принятия решения о его состоянии.

1.1. Модели НО.НЧ.О. и правил идентификации

В задаче идентификации модель НО.НЧ.О. задана как нечеткое пространство (см. [79]) M(k) = = (X, V(X), (•, и), (•, и)), зависящее от неизвестного значения и нечеткого элемента к, определяющего состояние НО.НЧ.О.

Обозначим К множество состояний НО.НЧ.О., В — множество решений о его состоянии, Л — нечеткое множество (нч.м.) на (У, V(У), Рп, Ып) со значениями в V(К х В), = Рп((и, й) е Лп), п/Лй = №((и, й) е Лп), (и, й) е К х В, — его индикаторные функции одноточечного покрытия (и.ф.о.п.), значения которых будем интерпретировать как возможность и как необходимость потерь, сопутствующих решению «й» о состоянии НО.НЧ.О., в то время как он находится в состоянии «и», (и, й) е К х В. Пространство (У, V(У), Рп, Ып), отображение Л • : У — Р(К х В) и и. ф. о. п. р/Л: К х В — С, п/Л: К х В — С, определены субъектом, принимающим решения (с. п. р.) и осознающим возможные последствия принимаемых решений. Тройку , , Л) назовем моделью идентификации.

В задаче идентификации состояние к НО. НЧ. О. и наблюдение £ за ним определены как пара к нч.э., первый из которых наблюдаем, а второй — нет, и заданы распределения

1 Неопределенным нечетким назовем объект (элемент), моделью которого является нечеткое пространство (см. замечание 1.1 в [79]), зависящее от неизвестного параметра.

8 ВМУ. Физика. Астрономия. № 2

их значений g«,K(•, •) : X х K — С и ??«,к(•, •) : X х K — С, определяющие нечеткую модель НО.НЧ.О. и характеризующие нечеткую связь между его состояниями и результатами наблюдений за ним. Значения g«,K(x, k) = P«,K ((«, к) = (x, k)) и (x, k) = N«,K ((«, к) = (x, k)), (x, k) G X х K.

Решение о состоянии НО.НЧ.О. определим как нч. э. 5 со значениями в D, ^'^(-Ю : D х X — С и 7г5'^|0 : D х X — С обозначим распределения переходных возможности П(-|-) : P(D) хX — С и необходимости П: P(D) хX — С,

n(A|x) =f sup п5'«(d|x), П(A|x) = inf П5'«(dix), deA deD\A

A gP (D), x G X (см. определение 4.4 в [79]); п5'« и 7?5'« назовем нечеткими правилами решения 5 о состоянии объекта, основанного на наблюдении «, или нечеткими правилами идентификации; n5'«(dix) = П(5 = d|x) — возможность решения 5 = d, n5'«(dix) = П(5 = d|x) — необходимость его отрицания, « = x — результат наблюдения за НО.НЧ.О. Пара нч.э. 5,к и нч.м. Л независимы [79, п. 4.3.1] в смысле одноточечного покрытия.

Замечание 1.1. Модель НО.НЧ.О. естественно задавать априорными распределениями возможностей gK(•) : K — С и необходимостей (•) : K — С его состояний и распределениями переходных возможности g«'K(-|k) : X — С и необходимости g«'KG|k) : X — С, k G K. В этом случае согласно лемме 4.1 в [79]

g«K(x, k) = min{g«'K(x|k),gK(k)}, (x, k) = max{?«'K(x|k),?«(k)},

где распределения g«K(-|-) и g«K(-|-) можно интерпретировать и как распределения условных возможности и необходимости [79, п. 4.3.2], ибо в данном случае равенства (1) при заданных левых частях определяют распределения условных возможностей равенств « = x и небходимостей неравенств « = x, при условии к = k, как решения уравнений (1) относительно g«'K (x|k) и ??«'K (x|k), где в таком случае gK(k) = supg«,K(x, k), (k) = inf ??«,K(x, k),

x X , k K.

xeX

xeX

1.2. Минимизация возможности (риска) потерь

Согласно лемме 4.1. в [79], g6,£,K(d, x, k) = = min{^6£(d|x),(x, k)} — возможность того, что (6, к) = (d, x, k), т.е. что НО.НЧ.О. в состоянии к = k G K, £ = x G X — результат наблюдения за ним и принято решение 6 = d G D о его состоянии. Соответственно gK,6(k, d) = supg6-£-K(d, x, k) —

xeX

возможность того, что НО.НЧ.О. в состоянии к = k и принято решение 6 = d о его состоянии,

а так как нч.м. Л и нч.э. (к, 6) независимы, то minjpl^, gK,6(k, d)} — возможность такой ситуации и свойственных ей потерь. Поэтому возможность потерь, характеризующая качество правила решения п6£,

plV£) =

= sup max minjplk^, n6|£(d|x), g£,K (x, k)} =

xeX keK, deD

= Ps(n5« (2)

где skd(n5'«) = supmin^n5'«(d|x),g«-K(x, k)} . Опти

s(n

xeX

мально, естественно, такое правило п*6£, которое минимизирует возможность потерь (2):

РЬл(г^) = ттРЬл(п<^). (3)

п61£

Значение РЬл(п*6£) определяет минимальный риск потерь, а правило п*6£ при наблюдении £ = x определяет возможность п*6£(k|x) решения в пользу k -го состояния НО. НЧ. О., k с K = {1,..., q}.

Заметим, что для принятия решения по правилу п*6£ можно использовать рандомизацию [79, п. 2], позволяющую нечеткое решение принимать как случайное. Если при £ = x

1 = п*6£(к^к) ^ п*6^^^) ^ ... ^ п^Щ^к) ^ 0,

о el e2 eq-l eq

(4)

где двоичное число e = e(x) = 0.e1 ... eq определяет упорядоченность в (4) так, что ei = 1 означает «>», а ei = 0 означает «=», i = 1,..., q (см. п. 2.2 в [79]), и

1 ^ pr5 (k1 |x) ^ ... ^ pr5 (k?|x) ^ 0

(5)

x G X, k G K, (1) —

распределение вероятностей значений случайной величины 6', рг6' (k|x) = Рг6 (6' = k|x), k = 1,..., q, где Рг6'е Рг^)), то 3 е Г(Рг6'(•|x))

V I = 1,..., q п*6£ (^ = 7e(x)(pг6' (к |x)). Поэтому для принятия решения по правилу п*6£ при £ = x можно «разыграть» случайную величину 6', распределенную согласно (5), и если «выпадет» 6' = ^, принять решение 6 = ^.

Характерно, что в то время как согласно правилу п*6£ оптимальное решение «принимается однократно», рандомизация обеспечивает оптимальность случайных решений лишь в среднем, когда они принимаются многократно и взаимно независимо. Если vk"'x) — частота выпадения 6' = k, где п — число принятий решений, и Ye(*)(v^x)) Ye(x)(рг6'№)) = п*^) рав-

номерно по x е X, k = 1,..., q, то Р LЛ(Ye(.)(v(."''))) =

п. н.

->

= sup min{pl£d, 7e(x)(vk"'x)), g«,K (x, k)}

xeX, keK, deD

PLл(п*6l£).

Далее будет показано, что на самом деле в любом случае, в том числе и тогда, когда неизвестно1

1 В подобной ситуации в статистической задаче идентификации оптимальное правило принятия решений обычно оказывается рандомизированным (см., напр., [52]).

априорное распределение gK (k), k = 1,..., q, состояний объекта, правило п*5\£ можно выбрать «четким», согласно которому n*5\£(k\x) = 1, k = k(x), n*5\£(k\x) = 0, k = k(x), k = 1,..., q, x £ X (см. замечание 1.2).

Однако если НЧ.О. активен и «конфликтует» с с. п. р., т.е. выступает как «игрок», интересы которого противоположны интересам с. п. р., выраженным в (3), то в такой (игровой) ситуации среди оптимальных стратегий, заданных распределениями возможностей принятия решений «игроками», как правило, нет четких, и рандомизация принятия решений «игроками» неизбежна [48, 49, 52].

Рассмотрим задачу (2), (3). Обозначим

рЛ(x) = max min{pl£d,g£,K(x, k)} (6)

1 ^k^q

возможность потерь, сопутствующих решению 5 = d и наблюдению £ = x, x £ X, d £{ 1,..., q}, и согласно (2), (3), (6) определим оптимальное правило п*5\£ как решение задачи

P LA(n5|£) = sup max min{n5\£(d\x), РЛ(x)} - min .

xex Kd<q 1 d J n5li(4^)

(7)

Теорема 1.1. Пусть K = D = {1,..., q}. Для

каждого x £ X упорядочим значения Pf (x), d = 1,..., q, в (6) согласно условию

min

1<d<q

PA(x) = min РЛ(x) = P% (x) = ... = PKdt (x) <

£ = x в качестве решения можно использовать значение d*(x) любой функции d*(-): X ^ D, удовлетворяющей условию d*(x) £ D*(x), x £ X. Найти четкое правило d*(-) можно непосредственно, решив задачу

Р%ф) = ттРЛ (x), x £ X. (13)

Замечание 1.3. Если K = D = {1,..., q} и

plkd = 0, k = d, = 1, k = d, k, d = 1.....q,

(14)

то правая часть (2) определяет возможность ошибочной идентификации PEA(^£), а в (6)

рл (x)=max g£K (x, k), d = 1,..., q, x £ X. Поэто-

k=d

му в (11) минимум P^ (x) достигается на тех d £ {1,..., q}, на которых g£,K (x, d) достигает максимума, ибо если g£,K(x, d*(x)) ^ g£,K(x, k), k = 1,..., q, то PKdt(x)(x) < РЛ (x), k = 1,..., q, x £ X. В данном случае в (11) для каждого x £ X D*(x) D D*(x) = {k £ {1,..., q}, g£-K(x, k) = g£(x) = = max g£,K(x, k')\, где g£(x) — возможность на-

1 ^k'^q

блюдения £ = x, x £ X. Условимся считать, что в случае (14) при каждом x £ X максимум n*sl£(-\x): {1,...,q} ^ [0,1], равный единице, достигается на множестве D* (x) тех d £ D, на которых достигается максимум g£,K (x, ■): {1,..., q} ^ [0, g£(x)], и определим n*6l£(d\x) = 0, d £{1,..., q}\D*(x). Каж-

< PA+1 (x) < ... < PA (x), (8)

где функция d ■: {1,..., q}^{1,..., q} и значение t зависят от x. Тогда всякое правило n*sl£, удовлетворяющее условиям

max n*6l£(ds \x) = 1, max п*г£{ds \x) = 0, x £ X,

1<s<t t<s^q

(9)

есть решение задачи (7), причем для любого правила принятия решения п^

P ЬЛ(п*й'£) = sup PA(x) = sup min (x) < PLV^).

xeX x EX 1<d<?

(10)

Действительно, равенство и неравенство в (10) суть следствия (6-9).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Замечание 1.2. Обозначим D*(x) = [ d £{1,..., q},

PЛ (x) = Pti(x) = mmPd> (x)}, x £ X. (11) Тогда условия (8), (9) эквивалентны условиям max п*г£(d\x) = 1, max n*&l£(d\x) = 0,

de_D*(x) deD\D*(x)

d £{1,..., q}\D*(x), x £ X. (12) Поскольку согласно (12) можно выбрать n*6l£(d\x) = ( 1, если d = d* £ D* (x),

дое такое правило n

*5\£

минимизирующее возмож-

ность ошибки идентификации PEvV(ni'£), называется правилом максимальной возможности [28]; согласно (10) PEvV(n*i'£) = sup max g£,K (x, k), где

xeX k=d, (x)

d*(x) £ D*(x) = {d £ {1,..., q}, g£'K(x, d) =

= maxg£K(x, k)}, x £ X. (15)

keD

Сравнение качеств возможностной и вероятностной оптимизации

В вероятностной постановке аналогом задачи (2), (3) является задача на минимум вероятности потерь, сопутствующих рандомизированному правилу решения п^ [52]

Pr L(n5|£) =

n(dx)

£

keK, deD

pr lk4n5\£(d\x)pr£,K(x, k)-

— min,

n5l£

(16)

0, если d £{1,..., q} \ {d*},

x £ X, то при

где рг /кй — вероятность потерь, сопутствующих решению й о состоянии НО. СТ. О., когда он в состоянии и, п61£(й\х) — рандомизированное правило решения, определенное как переходная вероятность решения 5 = й, если наблюдается £ = х, рг£,к(х, &), х е X, — плотность вероятности Рг£,к(•; &) при каждом к = и е К = В. Подобно тому как в задаче (2), (3) среди оптимальных нечетких решений всегда можно выбрать четкое, так и среди оптимальных рандомизированных решений задачи (16) всегда можно выбрать решение, определенное

решающей функцией d(•): X ^ В, которую можно найти, решив для каждого х € X задачу, ср. с (15),

Sd(х) = Рг 1к4(х, к) = Е0хХ(рг 1.4)

keD

d,X i-,d ) ~ m'R •

deD

(17)

Сравним вероятностное и возможностное решения, когда подобно (14)

рг /м = 0, к = d, рг 1к4 = 1, к = d, к, d € В, (18)

соответственно Sd(х) = ^ рг£,к(х, к) - рг£,К(х, d) =

кек

= рг£(х) - рг£,К(х, d) и подобно (15) любое оптимальное решение dф(x) € В^ (х) = ^ € {1,..., ц}, Sd (х) = гшп Sk(x)} = ^ € {1,..., ц}, рг«-К (х, d) =

= тахрг£,К (х, к)} . Пусть X = {х1,..., хт} и для

каждого £ = х € X возможность (х, •) максимально согласована с вероятностью рг£,к(х, •), т. е. упорядоченные по убыванию значения

1 = (х, к1) ^ (х, к2) ^ ... ^ (х, кц) ^ 0

0 «1 е2 вч-1 вч

распределения Р£,К(х, •) определяют е = е(х) = = 0,е1 ... ец, вероятность рг£,К (х, кг), г = 1,..., ц, содержится в классе Рг(е)(х) и g£'ж(х, кг )= ◦ рг£,к (х, кг), г = 1,..., ц, для некоторой, зависящей от х, функции (•) € ]Т(рг£'к(х, •)), х € X. Эта же функция определяет взаимно однозначное соответствие между классом Е(е),х нечетко эквивалентных математических ожиданий £Дх (рг 1,й), А с В (см. (17)), где рг/к 11, к, d €{1,... ,ц} определены в (18), и классом P(e)x взаимно эквивалентных р -интегралов рДх(р/Л^), А с В, где р/^, к, d €{1,..., ц} определены в (14), а именно' подобно (18) в [79] V А с В рД,х (р/^ ) =

эЛ (х) = + (р/Л V (х к)) = ^ (Ед (рг / d

p%d (x) = + (P^d x (x, k))= Ye (Ea,x (pr l.d)) =

keA

= YeŒ pr lk,d • Pri,K(x, k)), где PlA,d(x)

keA

A=D

= Р1Л(х)

тельно такого типа ошибок в вероятностной модели оптимизации и в таких случаях могут оказаться лучше вероятностных.

1.3. Минимизация необходимости потерь

Согласно лемме 4.1 в [79], (d, x, k) =

= max{gS|£(d\x), (x, k)} — необходимость неравенства (S, к) = (d, x, k), (d, x, k) G В x X x K, и в силу независимости нч.э. (S, к) и нч.м. Л необходимость потерь, сопутствующих нечеткому правилу решения 7rS|£,

NLA(gSii) = inf minmax{n/£d, i?S|i(d|x), gÎK(x, k)} =

x^X keB

= inf mm max{gS|£(d\x), NA(x)} = n^^nl*),

xeX1ndnq v '

(19)

где nlkd = N((k, d) G Л), gS|£(d\x) = N(S = = d\x), (x, k) = N((£, к) = (x, k)), sk4(gS|i) =

= inf max{gS|£(d\x), (x, k)} и

xeX

NA(x) = m^max^,(x, k)},

x G X, d G {1,..., q}. (20)

Решение задачи NL^g^) = min NLA(gS|£) определения оптимального нечеткого правила идентификации приведено в следующей теореме.

Теорема 1.2. Для каждого £ = x G X упорядочим значения N1A(x),...,NA(x) (20) так, чтобы NA(x) = 1min NA(x) = N¡1 (x) = ... = NA(x) <

< NA+1 < ... < NA(x), и выберем любое правило идентификации g*£, удовлетворяющее условию

min g^(is |х) = 0.

1<s<i

(21)

определено в (6). Следовательно, согласно (15) D(x) = {d G {k1,..., kq}, Ye ◦ (x, d) = max Ye ◦

pr«'K (x, k)} d BJx), где В Ф(х) = {d G {ki,... . . . , k }, pr^,K(x, d) = max pr^,K(x, k)} — область оптимальных вероятностных решений, т. е. вероятностное решение d_t_ оптимально и как возможностное, но среди оптимальных возможностных могут быть и неоптимальные как вероятностные (в случае (14), (18) оптимальные решения совпадают). Однако если класс P(e)(x) восстановлен эмпирически, то в Pr(e)(x) содержатся нечетко-эквивалентные вероятности, причем неизвестно, какая из них контролировала каждый результат наблюдения. В такой ситуации оптимальность вероятностного решения гарантирована лишь при совпадении вероятностей: контролировавшей результат наблюдения £ = xj и определившей множество B^(xj), j = 1,..., m, что, как правило, не выполнено. Оптимальные возможностные решения робастны относи-

Тогда для любого правила идентификации ^

NLA(g6' 1) = inf Na(x) < NLA(n6 I f), где равенство

xeX

и неравенство следуют из (19), (20), (21).

Замечание 1.4. Пусть

D*(x) = {d G {1,..., q},

NA(x) = NA(x) = niin N£, (x)}, x G X, (22)

тогда условие min ni1 f(d\x) = 0, xeX, эк-

de_D,(x)

вивалентно (21), а четкое правило идентификации определяется любой функцией d*(-): X ^ {1,..., q} = D, удовлетворяющей условию d*(x) G D*(x), x G X, которую можно определить и непосредственно как решение задачи N LA(d(-)) = inf min max(nlkd(x), gfK(x, k)) =

xeX1<k<?

= inf N4( )(x^ min , решив для каждого х gX

xeX d(x) d( ): X^D

задачу nA (x)(x) = mjnN^(x).

de D

Дуальная возможности потерь PL(n^'£) (2) необходимость потерь ЖЛ(п51£) = в( sup max min {в-1 о

xeX

1 <k<q 1<d<q

= inf min max (в о

xeX1<d<q x

nl^d, n5\£(d\x),g£'K(x,

п5\£(d\x), (x)), где в(-) £ ©, 0 - класс непрерывных, строго монотонных функций в(-): [0,1] ^ [0, 1], в(0) = 1, в(1) = 0 (см. замечание 1.1 в [79]), и, в отличие от (20),

NA(x) = minq max [nlA4, в о g£,K(x, k)},

x £ X, d £{1,..., q}. (23)

Решение п5*£ задачи NL"^^) — min^(,\) дано в следующей теореме.

Теорема 1.3. Для каждого x £ X упорядочим значения NA(x),..., NA(x) (23) так, чтобы NA(x) = rnjn Na(x) = N¡1 (x) = ... = NA(x) <

< Na+1 (x) < ... < Na(x), где t = t(x), и выберем любое правило идентификации п5*£, удовлетворяющее условию max п**£(is \x) = 1. Тогда для

1nsnt

любого правила идентификации п5 £ NL (п5* £) = = inf NA(x) < NLA(n5 \ £). Любое четкое решение

xe X

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

можно задать функцией d(-): X i(x)}

или найти непосредственно, решив задачу

NA (x) — min. dd

Замечание 1.5. Пусть K = D = {1,..., q},

но, в отличие от (14), nlk,d = 0, d = k, nlkd >0, d = k, k, d = 1,..., q. Тогда, согласно (23), NA(x)= min NA(x)= min в о g£K(x, d) =

1ndnq 1ndnq

в о g£(x), x £ X, d = 1,..., q. В этом случае в (22) D*(x) = [d £ {1,..., q}, g£K (x, d) =

= max g£,K(x, k) == g£(x)}, x £ X, и правило

1 ^k^q

п*£ (максимальной возможности) минимизирует необходимость ошибки идентификации, ибо

N L^V* £) =f N ЕЛ(п5*' £) = inf NA-(x) = inf eog£(x) = 0.

xeX

xe X

и п5'£(ф): D x X ^ L переходной необходимости ПG\0: P(D) x X ^ L для пространств (X,P(X)) и (D, P(D)), моделирующие нечеткие правила оценивания значения нч.э. к значением нч.э. 5, и индикаторные функции plA(k, d) = Pn((k, d) £ An), nlЛ(k, d) = Nn((k, d) £ An), (k, d) £ K x D, нч. м. Л, определенного на (Y, P(Y), Pn, Nn) и принимающего значения в P(K x D). Их значения pfi(k, d) и nl (k, d) суть возможность и соответственно необходимость потерь, сопутствующих использованию d £ D как характеристики k £ K НЧ.О.; нч. м. Л и нч. э. (£, к, 5) независимы в смысле одноточечного покрытия. Далее K и D суть компактные множества в евклидовом пространстве, причем K = D.

1.5. Правило оценивания, минимизирующее возможность потерь

Возможность потерь при оценивании к согласно нечеткому правилу п5'£

PL^^5 ' £) =

= sup min{plЛ(k, d), п5'£(d\x), g£K(x, k)} =

xeX, deD keK

= sup min{п5\£(d\x), PA(d, x)}, (24)

xeX, deD

где

1.4. Модели НЧ.О. и правил решения в задачах оценивания

В задачах оценивания рассматривается НЧ.О., нечеткая модель которого (X х К, V(X х К), Р£,к, Ы£,к) задана распределениями возможностей g£'к(•, •): X х К — С и необходимостей ¡?£,к (•, •): X х К — С значений пары нч.э. £, к: g£'к(х, и) и g¡£'к(х, и) суть возможность и соответственно необходимость событий (£, к) = (х, и) и (£, к) = (х, и); нч.э. £ — наблюдаем, а нч.э. к моделирует интересующую м.-и. характеристику НЧ.О. и ненаблюдаем. Как и в задачах идентификации, заданы распределения п51 £(-|-): В х X — С переходной возможности П(-|-): V(В) х X — С

PA(d, x) = supkeK min{plA(k, d),g£K(x, k)} (25)

- возможность потерь при 5 = d и £ = x, x £ X, d £ D.

Рассмотрим задачу оценивания как задачу на минимум для возможности потерь (24), PL'V*5 \ £) = min^ PL'V5 \ £), решение п*5\£ которой определит оптимальное нечеткое правило оценивания.

Теорема 1.4. Пусть функция PA(-,x): D ^ L

полунепрерывна снизу при каждом x £ X,

PA(x) = min PA(d, x) и deD

D* (x) = {d £ D, PA(d, x) = PA(x)}, x £ X. (26)

Определим нечеткое правило п*5\£ оценивания к так, чтобы для каждого x £ X

max п*5\£(d\x) = 1, max п*5\£(d\x) = 0. (27)

de_D*(x) deD\D* (x)

Тогда для любого правила п5 £ и любого правила п*5\£, удовлетворяющего условиям (27),

sup min[PA(d, x), п*5 \ £(d\x)} = deD

= sup min[PA(d,x),п*5\£(d\x)} = PA(x) <

deD*(x)

< sup min[PA(d, x), п5\£(d\x)}, x £ X, (28)

de D

следовательно, PL^V*5 \£) = supPA(x) < PLA(п5 \£),

xeX

т. е. любое нечеткое правило п*5 £ оптимально, а согласно (27) среди них непременно есть четкие.

Доказательство. Так как функция Рл(-; x): D ^ L при каждом x £ X полунепрерывна снизу на (компактном) D, то D*(x) = 0, x £ X. Согласно условиям (26) и (27) выполнены оба равенства в (28). Правая часть в (28) равна

maxj sup min{P^x),(d\x)},

'•deD* (x)

sup тт{РЛ (d, x), ^(dlx)}). (29)

deD\D*(x) 1

Так как max nöl£(d\x) = 1, то значение (29) рав-

deD*(x)

но max-^ Pл(x), sup min{P(d, x),

^ deD\D*(x)

PV), x £ X, и выполнено неравенство в (28), согласно которому PL^g*^) = sup PV) < PL^g^).

xeX

Замечание 1.6. Поскольку согласно теореме 1.4 оптимальное правило n*sl£ всегда можно выбрать четким, т. е. так, чтобы при любом x £ X для некоторого d* £ D*(x) n*öl^(d*\x) = 1, а для остальных d £ D, d = d* n*s^(d\x) = 0, то фазификация правила оценивания не позволяет улучшить его качество.

Согласно замечанию 1.6 определим четкое правило оценивания к как функцию d(-): X ^ D, ставящую в соответствие результату наблюдения £ = x значение d(x) в качестве оценки к, а сопутствующую возможность потерь определим выражением

PLV(-))= sup min{p^(k,d(x)), g£'K(x,k)}.

xeX, keK

(30)

Оптимальное правило определим как решение d*(-) задачи на минимум

P LЛ(d*(•)) = min PLVO) (31)

d( ): X^D

для возможности потерь (30), которое можно получить, решив для каждого x £ X задачу

PV,x) = sup min{p/Л(k, d),g£-K(x, k)} - min . (32)

keK deD

Всякое семейство решений d* = d*(x), x £ X, задачи (32) есть решение задачи (31).

Теорема 1.4*. 1. Пусть выполнены условия теоремы 1.4, d*(x), x £ X, — некоторое семейство решений задачи (32), т. е. пусть d*(x) £ D*(x), x £ X, (см. (26)). Тогда d*(-): X ^ ^ D — четкое правило оценивания, для которого PLA^(d*(-)) = min PLA^(d(-)) = supPV). 2. Пусть

d(): X^D xeX

d(x), x £ X, — любое семейство решений задачи PЛ(d\x) = sup min Ь1Л(k, d), gKl£(k\x)} - min,

keK deD

x £ X, где gK|£(k\x), k £ K, — произвольный вариант условного при условии £ = x распределения к. Тогда PL^d(x),x) = PL^d*(x),x) = P^x),

x £ X, и, следовательно, PL^d(-)) = supP^x) =

xeX

= PL-k( d*(-)).

Доказательство. Первое утверждение следует из теоремы 1.4. Для доказательства второго утверждения заметим, что, согласно определению функций d*(-) и d(-),

PЛ(d*(x), x) = min Pл(d, x) < P^d(x), x), x £ X,

deD

(33)

и

P^d(x)\x) = minPV\x) < Pл(d*(x)\x), x £ X. (34)

deD

Так как g£-K(x, k) = min {gK|£(k\x), g£(x)}, k £ K, x £ X, где g£(x) = supg£,K(x, k),

keK

x £ X, то соответственно неравенству (34) P^d(x), x) = min{P^d(x)\x), g£ (x)} < min{PЛ(d*(x)\x),g£(x)} = Pл(d*(x),x), x £ X. Отсюда и из неравенства (33) следуют утверждения в 2. □

Замечание 1.7. Если K = В и p/A(k, d) =

= p/0A(k, d) = < 0' d = k k G K, d G В, то в (25) [1, d = k,

PA(d, x) = supg£,K(x, k), d G B, x G X, а в качестве

keK, k=d

d* = d*(x) можно выбрать любое значение d* G {d G

G B, g£,K(x, d) = g£(x) = maxg£K(x, k')} с B*(x),

k'eK

x G X. В этом случае правило d*(-), минимизирующее возможность ошибки оценивания PEA(d(-)), назовем правилом максимальной возможности.

1.6. Правило оценивания, минимизирующее необходимость потерь

Подобно (19), необходимость потерь, сопутствующая правилу оценивания g^,

NLa (^l£) =

= inf max{n/A(k, d), g^(d|x),g£,K(x, k)} =

xeX, keK, deD

= inf max{gS|£(d\x), NA(d, x)}, (35)

xeX, deB

где

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

NA(d, x) = inf max{nlA(k, d),g£-K(x, k)}, keK L '

x G X, d G В. (36) Задача определения оптимального нечеткого правила gSJ£ оценивания, минимизирующего необходимость потерь, N LA(g* £) = min N LA(gS|£), будет

îSi£

решена, если для каждого x G X известно решение задачи inf max{gS | £(dix), NA(d,x)) ~ min.

deD

î^is

Теорема 1.5. Пусть при каждом х € X функция ЫЛ(-, х): В ^ С полунепрерывна снизу на

В, ЫЛ(х) = ттЫЛ^, х) и В(х) = Ы € В,

dеВ

NЛ(d, х) = ЫЛ(х)}, х € X.

Определим нечеткое правило оценивания

к, удовлетворяющее условию min Tt&}£(d\x) = 0

deD,(x)

для каждого x е X. Тогда для любого правила П5\£ NLA(^lli)= infN Л(х) < N L т.е. irf —

xeX

оптимальное нечеткое правило оценивания к.

Любая функция d*(-): X ^ D, удовлетворяющая условию d*(x) е D*(x), x е X, определяет оптимальное четкое правило =

= d.t_(£) оценивания к: NLA(d*(■)) = infNA(x) <

xe X

WLA(d(■)) = infmax {nlA(k, d(x)), g£K(x, k)}, где

keK

d(^): X ^ D — любое четкое правило 5 = d(£) оценивания к.

Доказательство. Согласно (35), (36) для любого

нечеткого правила оценивания п'

5\£

N La(пд*\£) = infmin{ inf max{n*£(d\x), NA(d, x)}

xeX

deD„(x)

inf max{п5\£(d\x), NA(d,x)H =

deD\Dt (x) 1 J J

= inf inf max\t5£(d\x), NA(d, x)| =

xeXde_D,(x) 1 '

= inf NA(x) < NLa п\£);

xe X

для любого четкого правила оценивания d(-): X — D NLA(d*(-)) = inf max{nlA (k, d* (x)), g£K (x, k)} =

xeX, keK

-Л .

= т!ЫЛ(йДх),х) = т!ЫЛ(х) < НГ(й(-)) =

xeX xeX

= ЫПЛ(й(х), х). □

х^

Замечание 1.8. Первые публикации по п. 1.11.6 — [24, 73, 73-75]. Этой теме посвящен цикл публикаций [26-28, 30, 32-34, 36, 39, 42, 52, 57, 78, 80]. Рассмотренные в п. 1.2, 1.3 критерии аналогичны приведенным в [20, 25], но, в отличие от последних, допускают и нечеткие решающие правила, которые можно принимать как случайные (см. п. 1.2). Заметим, что в [20, 25] от с. п. р. дополнительно требуется указать функцию, связывающую возможности элементарных потерь и элементарных событий. В [28, 52] рассмотрены другие модели идентификации, оптимальные решения в задачах оценивания, интерпретации данных измерительного эксперимента, в матричных и биматричных играх [48, 49] и др.

1.7. Задача идентификации как задача различения гипотез

Рассмотрим задачу идентификации состояния НО. НЧ.О., в модели М(к) = (X, V (X),

P£(-; k), N£(■; k)) которого параметр k может быть равен одному из двух равнозначимых значений, k £ {k1, k2} С K. В задаче различения таких гипотез нас будут интересовать области в X, попадания в которые наблюдения £ = x должны повлечь либо решение об истинности/ложности одного из значений k = ki, i = 1, 2, параметра модели M(k), контролировавшей наблюдения, либо отказ от принятия решения о значении k £ {k1, k2}. Рассмотрим инвариантное относительно выбора шкалы значений возможностей P£(■; ki), i = 1,2, семейство P£ -критических для альтернативы k = ki областей1

Фа = {x £ X, g£(x; kj) > min{Л, g£(x; ki)}},

Л £ (0,1), i, j £{1,2}, i = j, (37)

где g£G; ki): X ^L — распределение нч.э. £, канонического для M(ki), i = 1,2. Попадание в Ф^ значения £ = x при каждом Л £ (0,1) должно либо повлечь решение «отклонить значение k = ki», либо отказаться от принятия решения. Понятно, что следует отказаться от принятия решения, если наблюдение £ = x попадет в область

Фл = Ф;,л П ФЛл, i = j, (38)

и отклонить альтернативу k = ki , если £ = x попадет в область

Ф;,л\Фл = Ф;,л\Ф/,л = X\Флл =

= {x £ X, g£(x, ki) < min^,g£(x; kj)}}, (39) которая является областью принятия2 альтернативы

Определим возможность p^ ошибочного решения «принять альтернативу k = ki» как возможность

pa = P£(£ £ Ф/.Л \ Фл; kj) =

= sup jg£(x; kj) \ x £X, g£(x; kj) < min{Л, g£(x; ki)}},

j = i, (40)

включения £ в область X \ Ф1>л принятия альтернативы k = ki, когда значения нч.э. £ контролируются возможностью P£(-; kj), и возможность p+-K верного решения «принять альтернативу k = ki»

p+л = P£(£ £ X \ Фа; ki) =

= sup{g£(x; ki) \ x £ X, g£(x; kj) < min{Л, g£(x; ki)} j,

(41)

Л £ (0, 1), i, j £ {1,2}, i = j. Следующая лемма подобно «фундаментальной лемме Неймана-Пирсона» характеризует оптимальные свойства P£'' -критических областей (37).

1 Далее для простоты рассмотрены модели М(к) = (X, V(X), Р£(-; к), Ы£(-; к)), к £ К, в которых Р£(-; к) и Ы£(-; к) при любом к £ К дуально согласованы. Это означает, что V в(-) £ © семейство Ы£-критических для альтернативы к = к областей {х £ X, в оg£(х; ку) < тах{0(Х), в оg£(x; к1)}} , Л £ (0,1), совпадает с семейством Фг-д , Л £ (0,1), в (37).

2 0 £ £

2 Так как X= {х £ X, g£(x; к) = 0} П {х £ X, g£(х; ку) = 0} — область принятия любой альтернативы с нулевой

0 £ £

возможностью, далее считаем, что X = X\ X = {х £ X, g£(x; к¡) > 0} и {х £ X, g£(х; ку) > 0}.

Лемма 1.1. Для любых i, j G {1,2}, i = j, и X G (0, 1) таких, что множество {x G X, g£(x; kj) < X < g£(x; ki)} = 0, область X \ фд = = {x G X, g£(x; kj) < min{X,g£(x; ki)}} принятия альтернативы k = ki обладает следующими свойствами [52]:

• p+л = P£(£ G X \ Фа; ki) > P£(£ g X \ Фа; kj) = pa (несмещенность);

• для любой области Фл с X принятия альтернативы ki, удовлетворяющей условию P£(£ g Фл; +) < л, P£(£ g Фл; ki) < < P£(£ g X \ фл; ki) = p+л (оптимальность);

• если же множество {x G X, g£(x; kj) < л < g£(x; ki)} = 0, то pa < p+л < л.

Заметим, что в (38) Фл = |x G X, min{g£(x; k1), g£(x; k2)} > л|, и если g(x) = mmg£(x; k,), x G X, A = maxg£(x), то P£(g(£) > л) = A, л < A, 0, л ^ л,

xeX

л g (0,1), ав (40), (41) p^ = л, p^ = 1, i = 1,2.

1.8. Алгоритм последовательной идентификации

Пусть £s = xs G Xs, s = 1,..., n, — результаты n взаимно независимых наблюдений за НО.НЧ.О. «с разных сторон», модель которых (X1, PX), P£1 (•; ki)) х... х (Xn, P (Xn), P£n (•; ki)), g£S (xs; ki) = g£ (xs), s = 1,..., n, — их возможности, i = 1,2, n = 1,2,... Рассмотрим алгоритм последовательной идентификации состояния НО.НЧ.О., согласно которому, подобно последовательному критерию отношения вероятностей А. Вальда:

• испытания продолжаются все время, пока наблюдения

£s G Флх) = { x1 G X1,..., xs G Xs, min{g£1 (x1),...,

..., g£s (xs)} > л}, s = 1,2,..., (42)

где g£' (xt) = min{ gf (xt), gf {)}, t = 1,..., s,

Ф^ = Ф(1^,л n Ф2;,л , ф8 = {xt g Xt, gf (xt) >

> min{Л' g£ (xt)}, t = 1,..., s} , i = j, i, j G{1,2};

• испытания заканчиваются на n -м наблюдении, если первый раз, при s = n, нарушается условие (42), т.е. первый раз g£ (xn) < л, и отклоняется гипотеза

£n { £n }

t = tj, если при этом1 gj (xn) < min{л, gf (xn)j. Возможность отклонить гипотезу t = tj ошибочно

sup ^ min g£ (xs) \xt £Xt, t = 1,..., n,

1 1<s<n'

min g£t (xt) > A, gf(xn) < miniA, gf(x")}| =

1 ' J

= min ( sup Г min g£(xt) |xteXt, t = 1,..., n— 1,

L L1<t<n-1 *

min f g£t (xt) > A] sup [gf (xn) \ xn £ Xn,

1<t<n — 1 J U) L '

g£ (xn) < min{A, gf (xn)}](2)} < A,

ибо sup Г...1,,, = min ( sup{g£ (xt) \ xt £ L J (1) 1<}n — 1 I *

£ Xt, g£t (xt) > A}\ = min Atj > A,

> 1

где At,j = sup {gf (xt) \ xt £ Xt, min{gf (xt),

gf (xt)} > A} > A, t = 1,..., n - 1, j = 1,2, и sup [...] (2) < A.

При этом возможность на n-м испытании отклонить гипотезу k = kj безошибочно, т. е. безошибочно принять k = ki,

pg+=sup{gf(x") \ xn £ Xn,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

g£(xn) < min{A, gf(xn)}} > A,

а если A = A = max{g£n(xn) \ xn £ Xn}, то p¡(n))+ = 1.

Модель наблюдений за НО.НЧ.О. «с разных сторон» назовем эффективной, если V A >0 3 sA = = min {s £ {1,2,...}, Ф^ =0} = min {s £{1,2,...}, P£S(£s £ ^As); ki) = 0, i = 1, 2}, ибо при этом условии (в любой шкале значений возможностей P£1, P£2, . . . ) алгоритм будет завершен на основе данных конечного числа sA наблюдений. При наблюдениях за НО.НЧ.О. «с одной стороны» нч.э. £s, s = 2, 3,..., суть взаимно независимые копии нч. э. £1, поэтому sup [... ] (1) = A1 > A. Следовательно, повторение наблюдений «с одной стороны» не добавляет информации о НО.НЧ.О., и последовательный алгоритм либо заканчивается на первом испытании, либо не заканчивается вообще. Этот факт обусловлен отсутствием ЗБЧ в рассматриваемом варианте теории возможностей.

2. Анализ и интерпретация данных измерительного эксперимента

2.1. Редукция измерения при априори произвольном измеряемом сигнале

Пусть £ — результат, полученный в измерительном эксперименте по схеме

£ = Ag + v, (43)

согласно которой £ — искаженный шумом v £ X выходной сигнал Ag измерительного преобразователя (И. П.) A, на вход которого поступил априори произвольный сигнал g £G от измеряемого объекта. Обозначим u = Ug £U — характеристики исследуемого объекта, A: G ^ X, U: G ^ U — заданные операторы, первый моделирует И. П. A, второй моделирует связь между измеряемым в (43) сигналом g и характеристиками исследуемого объекта, не возмущенного измерением, X, G и U — конечномерные евклидовы пространства. В задаче интерпретации результата измерения (43) требу-

1 Заметим, что {xn £ Xn, g£"(xn) < A} = jx£ e Xn, g£(x£) < min{A,gf (xn)}j u{xn £ Xn, gf (xn) < min{A,g£(xn)}|

ется определить правило оценивания й(^): X—и, при котором нч. э. (1(£) можно считать оптимальной версией значения Ug. Оператор и моделирует то, что в экспериментальных исследованиях называется идеальным И. П. и. Идеальный ИП взаимодействует с измеряемым объектом как ИП А, поэтому на его входе, как и на входе ИП А, сигнал g, но на его выходе исследователь получает значения Ug характеристик исследуемого объекта. В такой постановке задача интерпретации называется задачей редукции измерения (43) на И. П. А к виду, свойственному измерению на идеальном И. П. и, или задачей редукции И. П. А к И. П. и [61]. Эта задача решается вычислительным преобразователем (В. П.), выходной сигнал Я£ = (1(£) которого является наиболее точной оценкой выходного сигнала Ug идеального И. П. и. Теория измерительно-вычислительных преобразователей как средств измерений рассмотрена в [52, 61].

Пусть в (43) А: Я — Х — линейный оператор, V — нч. э. со значениями в X, /V(•): Х — С — распределение возможностей значений V. Тогда £ также нч. э. со значениями в X, /£(х, g) = /V(х —Ag), х € X, — распределение £, зависящее от g €Я. Обозначим [А,/V(•)] модель схемы измерения (43), [А, /V, и] обозначим модель интерпретации измерения. Под анализом данных измерения будем понимать исследование адекватности модели [А, /"(•), и] цели исследования.

Заметим, что произвольный сигнал g € Я в (43) можно моделировать и как нч.э. 7, принимающий любые значения в Я с возможностью единица, /1 (¿) = 1, g €Я, причем независимо от V .В таком случае /^(х, g) ^п!/(х-А^), Г&)} = /(х^), х € X, g €Я, т. е. получаем определенное выше распределение g£(х, g), х € X, характеризующее модель [А,/V(•)] схемы измерения (43).

Зададим и. ф. о. п. п1(•, •) = п1л(-, •): и хЫ —» С нч. м. Л со значениями в V(и х и), значение п1(^, и) которой есть необходимость потерь, сопутствующих выбору значения и € и в качестве характеристик Ug исследуемого объекта. Охарактеризуем качество правила й(^): X — и оценивания значения функции Ug параметра g € Я распределения /£(х, g) = /(х — Ag), х € X, величиной необходимости потерь

N^0)= ¡п iпfmax{в о /V(х — Ag), п1(^, й(х))},

(44)

сопутствующих использованию й(£) вместо Ug, где в(^) € © (см. теорему 1.3). Оптимальное пра-

вило d* (■) определим из условия NL(d*(-)) = = min NL(d(-)), функцию d*(x), x £X, найдем,

d(-): X—>U

решив для каждого x £ X задачу

Nd(x) = inf max[e о fv(x - Ag), nl(Ug, d)} — min .

d geG 1 J deu

(45)

Рассмотрим класс задач (45), в которых

nl(v, u) > 0, если u = v, nl(v, u) = 0, если u = v,

(46)

определяет необходимость потерь при оценивании

v £ U значением u £U. Так как minnl(Ug, d) =

deu

= 0 достигается при единственном d = Ug, то

min inf max{ во fv (x - Ag), nl(Ug, d)\ = inf max{ в о

deu geG 1 ь ' geG 1

о f v(x - Ag), minnl(Ug, d)\ = sup fv(x - Ag). Следо-

deu geG

вательно, d*(x) = Ug(x) — оптимальная в смысле (44), (45) оценка выходного сигнала идеального И. П. U, где g(x) — оценка g максимальной

возможности: fv(x - Ag(x)) = max fv(x - Ag), если

geG

max fv(x - Ag) > 0, если же max fv(x - Ag) = 0,

geG geG

то наблюдаемое значение £ = x свидетельствует о неадекватности модели [A, fv], а следовательно, и модели [A, f "(■), U], цели исследования.

Пусть fv(■) = r(\\S-1/2 ■ \\), где S: X — X — положительно определенный оператор (аналог корреляционного оператора1 ошибки измерения в вероятностной модели [A, S] схемы измерения (43) [61]), II ■ у — евклидова норма, r(^): [0, ж) — L непрерывная строго монотонно убывающая функция, задающая вариант распределения нч. э. v £ X, r(0) = 1. При таких предположениях задача (45) эквивалентна задаче отыскания оценки g £ G максимальной возможности при £ = x как решения задачи на минимум

||S-1/2(x - Ag)|| — min (47)

geG

и последующего определения d*(x) = Ug(x), где g(x) — значение g, на котором минимум в (47) достигается; решение d*(■) не зависит от функций r(0 и в(0. Обозначим S-1/2x = y, S-1/2A = B. При любом g £ G

||S-1/2(x - Ag)f = IIy - Bgf =

= UB(B-y -g)||2 + H(I - BB-)yH2 ^ H(I - BB-)yH2,

(48)

причем равенство в (48) достигается при g = = B-y + b, где b — любой вектор из ядра N(B) = {g £ G, Bg = 0} оператора B 2 Поэтому минимум в задаче (47) достигается при

1 При таком определении распределения f "(■) можно сравнивать результаты редукции для вероятностной [A, s] и возможностной [A, fv(■)] моделей, поскольку в обеих моделях распределения плотности вероятностей и возможностей ошибки измерения убывают с увеличением ||£-1/2x||, x £ X, и сохраняют постоянные значения на эллипсоидах {x £ X, ||£-1/2x|| = const} (рисунок) и субъективную согласованность классов эквивалентных правдоподобий и доверий с классом субъективно эквивалентных вероятностей в [60].

2 B- и B* — псевдообратный к B и сопряженный с B операторы,

B- = lim B*(BB* + aI)-1 = lim(B*B + aI)-1B* [65].

a—0 a—0

ё = ё(х) = (X 1/2А) £ 1/2х + Ь(х) и, следовательно, для линейного и

й* = й*(х) = иё(х) = и (£-1/2А)-£-1/2х + иЬ(х),

х е X. (49)

Если N (В) с N (и), то иЬ = 0 для любого Ь еN (В) = N (А) и равенство (49) определяет единственное оптимальное правило, согласно которому оптимальной оценкой й* (£) значения иё выходного сигнала идеального И. П. и является нч.э.

й*(£) = и (£-1/2А)-£-1/2£. (50)

Заметим, что это же равенство определяет наилучшую в среднем квадратичном линейную минимаксную оценку иё, если в (43) шум V является случайным элементом с нулевым математическим ожиданием и корреляционным оператором X [61]. Если равенство ВЬ = 0 не влечет иЬ = 0, то оптимальное правило

й*(£) = и (£-1/2А)-£-1/2£ + иа(£), (51)

где а(-): X — N (А) — произвольная функция, принимающая значения в N (А): Аа(х) = 0, х е X. Вероятностный аналог оценки (51) при таких условиях не существует [61].

При правилах (50), (51) необходимость потерь ЫЦй*(-)) = ¡п в о г(||(/ - £-1/2А(£-1/2А)-) х хеХ

х £-1/2х||) = 0. Точная нижняя грань здесь равна нулю и достигается на любом х е 'Я-(А).

Замечание 2.1. Если г(■): [0, то] — [0,1] строго монотонно убывает на [0, 6], причем г (г) = 0, г е [6, то], т. е. если ошибка V в (43) не может быть сколь угодно велика, то можно оценить непротиворечивость модели [А, /V(■)] схемы измерения (43). В частности, если для £ = х и в (48) ||(/ - ВВ-)уЦ = ||£-1/2 (I - А(£-1/2А)-£-1/2) хЦ ^ 6, то модель [А, /V(■)] противоречит этому результату измерения.

2.2. Редукция измерения при нечеткой априорной информации об измеряемом сигнале

Рассмотрим задачу редукции, в которой не только шум V, но и измеряемый в (43) сигнал ё моделируется как нч. э. Обозначим его 7 и запишем схему измерения (43) в виде

£ = А7 + V.

(52)

В задаче редукции измерения (52) к виду, свойственному измерению на идеальном И. П., следует определить правило й(-): X— Ы оценивания и 7 так, чтобы нч. э. й(£) можно было считать оптимальной оценкой нч.э. и7. Качество правила й(-) охарактеризуем величиной необходимости потерь (см. теорему 1.3)

ЫЦй(-)) =

= ^пг^ тах{в о /V(х - Аё), в о /7(ё), оЦ^, й(х))}.

(53)

Здесь, в отличие от п. 2.1, /V(х - Аё) = /£1"'(х|ё), х е X, ё е Я, — распределение переходной возможности, и

/£-7(х,ё) = ш1п{/£|7(х|ё),/^(ё)}, х еХ, ё еЯ,

(54)

— совместное распределение входного сигнала 7 и измерения £, а в (53) ЫЦй(-)) = = тё ^ тах{в о/£'7(х,ё), п1(иё, й(х))}, ибо, согласно (54), во/£"'(х,ё) = тах{во/£|т(х|ё), вор(ё)} .

Заметим, что если /7(ё) = 1, ё еЯ, т. е. если все значения сигнала 7 в (52) равновозможны, то в (53) ЫЦй(-)) = хетётах{в о /"(х - Аё), п1(иё, й(х))}

и совпадает с ЫЦй(-)) (44) для произвольного ё еЯ в (43).

Оптимальное правило й*(-) определим условием ЫЦй*(-)) = т!п Ж(й(-)), (55)

й(-): X—>Ы

согласно которому необходимость потерь, сопутствующих оцениванию и7 посредством й*(£), минимальна.

Для решения задачи (55) достаточно при каждом х е X решить более простую задачу

Ы(й, х) = ¡п ! тах{в о /£-7(х, ё), пи, й)} - т!п,

ёе£ йеи

(55*)

так как семейство решений й* = й*(х), х е X, задачи (55 *) является решением задачи (55). Речь идет о семействе задач на минимум

тах в /£'7(х,ё), п 1(иё, й)} — тт , х еX. (56)

ёе04еи

Далее будем считать, что п 1(-, ■) в (56) удовлетворяет условию (46). А так как

т1 п тах{в о /£'7(х, ё), п 1(иё, й)} =

йеи

Пусть в (52) А: Я — X — линейный оператор, 7 и V суть независимые нч.э., принимающие значения в Я и X, р (■): Я —С и /V (■): X — С — их распределения. Обозначим [А, /т(■), /V(■)] модель схемы измерения (52), и7 обозначим нч.э., моделирующий характеристики исследуемого объекта, где и: Я —^ Ы — линейный оператор, определяющий модель идеального И. П., наконец, [А, /7(■), /7(■), и] обозначим модель интерпретации измерения (52).

= тах{в о /£"!(х, ё), т1 пп 1(иё, й)} =

1 йеи '

= в о / £,7(х, ё), х е X, ё еЯ,

где минимум по й достигается при (единственном) й = иё, то задача (56) эквивалентна задаче

/£(х, ё) — тах, х е X,

ёед

(57)

ибо й* = й*(х) = иё(х) в точке ё = ё(х) минимума в (57).

Методы редукции измерений: вероятностные и нечеткие модели: а, а' — измеренные в (43) и (52) сигналы g и y ; б, б' — матричные элементы a(i, j), i, j = 1,..., 192, матрицы оператора A как функции разности i — j

192

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

при j = 96; (Ag)(i) = a(i, j)g(j), i = 1,..., 192; в, в' — результаты измерения в (43) и (52) $(i) = (Ag)(i) +

j=i

+ v(i) = (AY)(i) + v(i), i = 1,..., 192, при матрицах A б и б'; г — вероятностная редукция измерения (43)

7 = g0 +GA*(AGA* + £)-1(f — Ag0), £ = a2I, G = ф21, минимизирующая ошибку E||g—g||2 = min E||Rf+

R X^G, reG

+ r — g||2, = 2, ф2 = 2.62; g и v независимы и гауссовы; д — нечеткая редукция измерения (52) 7 = = g0 + GA*(AGA* + ш(£)£)-1($ — Ag0), минимизирующая необходимость ошибки, £ = a2I, G = ф21, а2 = 2, ф2 = 2.62; г', д' — полученные при матрице A б' аналоги результатов редукции г, д, полученных при матрице A б, для независимых y и v, равномерно распределенных на [—\/3а, \/3о]ш и соответственно на [—\/3ф, \/3ф]192 при а2 = 2, ф2 = 2.62; е, е' — графики левых и правых частей второго равенства в (60) для матриц A б, б' как функций а2ß; отмечены значения а2ш(£)

Пусть /(х — Ag) = 6(ЦХ-1/2(х — А§)||2), /у(£) = = 6(||О-1/2(§—§с)|2) , § €Я, х € X, где <*(•) — строго монотонно убывающая, непрерывно дифференцируемая на [0, то) функция, принимающая значения в [0,1], 6(0) = 1, X: X — X и О: Я — Я — положительно определенные операторы, играющие роль, аналогичную роли ковариационных операторов шума и входного сигнала в модели вероятностного аналога схемы измерений (52) [61]. Рассмотрим подробнее задачу (57) в этом случае:

min{6(||Х-1/2(х — А§)||2), ¿(||О-1/2(§ — Ы1|2)} ~ тax,

х €X. (58)

Введем обозначения: г =

О-1/2(§ — Ы, В = = Х-1/2АО1/2: Я — X, у = Х-1/2х — Х-1/2А§о, в которых задача (58) имеет вид

max{||y — ВгЦ2, ||г||2} ~ m¡п . (59)

геО

Для ее решения вычислим градиенты Цу — ВгЦ2 и ||г||2 по г € Я: УЦу — ВгЦ2 = 2В* (Вг — у), У||г||2 = 2г. В точке г = г* минимума (59) должны выполняться условия [66]:

► либо для некоторого а € [0, 1]

аЩу —Вг*||2 + (1— а)Щг*Ц2 = 0, Цу —Вг*||2 = ||г*||2;

(60)

► либо

v\\y—Bz*\\ = о, \\y—Bz*\\2> Hz^n2;

(61)

► либо, наконец, Щг*Ц2 = 0, Цу — Вг*||2||г*||2.

Согласно первому условию (60) аВ* (Вг* — у) + + (1 — а)г* = 0, поэтому при а € [0, 1 ]

z* = z(ß) = (B*B + ßI )-1B*y

(62)

где ß = (1 — а)/а и соответственно а е (0, 1) определяется из второго условия (60). Так как с учетом (62) \y — Bz*\\2 = ß2\\(BB* + ßI)-1y\\2 = = t(ß) — монотонно возрастает по ß е (0, ж), причем lim t(ß) = \\(I — BB-)y\\2, lim t(ß) = \\y\\2,

ß^+0 ß^x

а \\z*\\2 = \\B*(BB* + ßI)-1y\\2 = s(ß) — монотонно

убывает по ß е (0, ж), причем lim s(ß) = \\B-y\\2

ß^+0

и lim s(ß) = 0, то условие (60) выполняется для

некоторого ß е (0, ж), если \\(I — BB-)y\\ < \\B-y\\. В этом случае существует единственный корень ß = ß(y) е (0, ж) второго уравнения (60) и

z* = z(ß(y)) = (B*B + ß(y)I )-1B*y (63)

определяет стационарную точку (59) (см. рисунок). А так как max(\\y—Bz\\2, \\z\\2) — выпуклая функция z еХ, то z* (63) — искомая точка ее минимума. Если \\(I — BB-)y\\ = \\B-y\\, то ß = ß(y) = 0

(а = 1) и z* = B-y = lim (B*B + ßI)-1B*y.

ß^+0

Рассмотрим второй случай. Всякое решение z* уравнения V\\(y — Bz)\\2 = 0 имеет вид [65]

z* = B-y + b, b еЯ(B).

(64)

Так как Ц(у — Вг*)Ц2 = ||(/ — ВВ-)уЦ2 и ||г*||2 = = ||В у|2 + ||Ь||2, то г* (64) удовлетворяет условиям (61), если и только если 0 < ||Ь||2 < Ц(1 — ВВ-)уЦ2 — — ЦВ-уЦ2, Ь €Я(В).

Третий случай, очевидно, невозможен.

Заметим, что во всех случаях необходимость потерь (53), (55) (•)) = Ы N(^(х),х) = 0.

хех

На рисунке приведены результаты численного моделирования, полученные для возможностной модели [А, /7(•), /V(•)] схемы измерения (52) и для вероятностной модели [А, О, §0, X] схемы измерения (43) [61]. Характерно, что для возможностной модели оценка 7 = §0+ОА*(АОА* +ш(х)Х)-1 (х — А§0) нелинейная и аналогична оценке Джеймса-Стейна (см., например, [61]).

Замечание 2.2. Аналоги подобных приложений известных вариантов теории возможностей автору неизвестны.

Заключение

В работе поставлены и исследованы задачи минимизации возможности и необходимости потерь, сопутствующих решению о состоянии НО.НЧ.О. по данным наблюдений за ним. Показано, что 1) среди оптимальных нечетких решений всегда есть четкое, заданное решающей функцией данных наблюдения за НО. НЧ. О.; 2) для вероятностной модели и максимально согласованной с ней нечеткой модели НО. НЧ. О. оптимальное вероятностное решение, минимизирующее вероятность ошибки идентификации, оптимально и как нечеткое, минимизирующее возможность ошибки идентификации, но среди оптимальных нечетких решений могут быть и неоптимальные как вероятностные. Однако если вероятностная модель известна приближенно, то основанное на ней оптимальное решение, как правило, неоптимально для вероятностной модели, фактически контролировавшей данные наблюдений, и нечеткое решение в этой (типичной!) ситуации может оказаться лучше вероятностного. Аналогичные результаты получены при исследовании задач оптимального оценивания представляющих интерес характеристик НЧ. О.

Рассмотрена задача нечеткой идентификации состояния НО.НЧ.О., пребывающего в одном из двух состояний, как задача различения равнозначимых гипотез, в которой по данным наблюдения за объектом требуется либо принять решение о его состоянии, либо отказаться от принятия решения. Оптимальное нечеткое решение этой задачи дано в лемме, подобной «фундаментальной лемме Неймана-Пирсона» в статистике.

Этот результат обобщен в предложенном алгоритме последовательной нечеткой идентификации, в котором наблюдения за объектом продолжаются, пока алгоритм отказывается от принятия решения в пользу одного из двух состояний объекта. Поскольку

в рассматриваемом варианте теории возможностей нет аналога закона больших чисел в теории вероятностей, повторение наблюдений за объектом лишено смысла: либо алгоритм остановится после первого наблюдения и будет принято решение в пользу одного из двух возможных состояний объекта, либо не остановится вообще. Поэтому в последовательном алгоритме предложена схема наблюдений за объектом «с разных сторон».

В последнем разделе статьи рассмотрены элементы теории нечетких измерительно-вычислительных преобразователей как средств измерения, нечеткие модели редукции измерений [52, 61], их приложения в задачах анализа и интерпретации данных измерительного эксперимента и приведены результаты вычислительного эксперимента, в котором сравнивались результаты интерпретации данных измерений вероятностными и нечеткими методами редукции измерений (см. рисунок).

Автор выражает благодарность Ю. М. Нагорному и Д. А. Балакину за обсуждение статьи и за помощь при подготовке ее электронного варианта.

Работа выполнена при финансовой поддержке РФФИ (гранты 08-07-00133a, 11-07-00722, 14-07-00441).

Список литературы

1. Choquet G. // Ann. Inst. Fourier. 1953/1954. 5. P. 131.

2. Zadeh L.A. // Information and Control. 1965. 8. P. 235.

3. Dempster A.P. // Ann. Math. Statist. 1967. 38. P. 325.

4. Dempster A.P. // J. Roy Statist. Soc. 1968. B 30. P. 205.

5. Savage L.J. The Foundations of Statistics. New York: Dover, 1972.

6. Sugeno M. The theory of fuzzy integrals and its applications: Ph. D. Thesis. Tokyo Institute of Technology. Tokyo, 1974.

7. Shafer G. A mathematical theory of evidence. Princeton, N. J.: Princeton University Press, 1976.

8. Zadeh L.A. // Fuzzy Sets and Systems. 1978. N 1. P. 3.

9. Орловский С.А. Проблемы принятия решения при нечеткой исходной информации. М., Наука, 1981.

10. Fuzzy Sets and Possibility Theory. Recent Developments / Ed. by P. P. Yager. New York; Oxford; Toronto: Perg-amon Press, 1982.

11. Нечеткие множества в моделях управления и ис-куственного интелекта / Под ред. Д. А. Поспелова. М.: Наука, 1986.

12. Dubois D., Prade H. Theorie des Possibilites. Paris; Milano; Barcelona; Mexico: Masson, 1988. (Дюбуа Д., Прад А. Теория возможностей. М.: Радио и связь, 1990.)

13. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 1994. 4, N 2. P. 177.

14. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 1995. 5, N 1. P. 13.

15. de Cooman G., Kerre E.E. // Fuzzy Sets and Systems. 1996. 77, N 2. P. 207.

16. de Cooman G. // International Journal of General Systems. 1997. 25. P. 291.

17. de Cooman G. // International Journal of General Systems. 1997. 25. P. 325.

18. de Cooman G. // International Journal of General Systems. 1997. 25. P. 353.

19. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis: Advances in Mathematical Theory and Applications.

1997. 7, N 3. P. 338.

20. Dubois D., Prade H. Possibility theory: qualitative and quantitative aspects // Quantified Representation of Uncertainty and Imprecision / Ed. by D. M. Gab-bay, P. Smets. Kluwer Academic Publishers, 1998. V. 1 of Handbook of Defeasible Reasoning and Uncertainty Management Systems. P. 169.

21. Wolkenhauer O. Possibility Theory with Applications to Data Analysis. Research Studies Press, 1998.

22. Кнедзи А., Дзюндзо В., Сокукэ И. и др. Прикладные нечеткие системы / Под ред. Т. Тэрано, К. Асаи, М. Сугэно М. М.: Мир, 1993.

23. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis: Advances in Mathematical Theory and Applications.

1998. 8, N 1. P. 1.

24. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 1999. 9, N 3. P. 416.

25. Dubois D., Nguyen H.T., Prade H. Possibility Theory, Probability and Fuzzy Sets: Misunderstandings, Bridges and Gaps // Fundamental of Fuzzy Sets / Ed. by D. Dubois, H. Prade. Boston: Kluwer Academic Publishers, 2000. P. 343.

26. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2000. 10, N 1. P. 43.

27. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2000. 10, N 4. P. 447.

28. Пытьев Ю.П. Возможность. Элементы теории и применения. М.: Эдиториал УРСС, 2000.

29. Dubois D., Prade H., Sandri S. // Proc. of Fourth IF-SA Conference. Kluwer Academic Publ. 1993. P. 103.

30. D'yakonova I.V., Matveeva T.V., Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 11, N 4. 2001. P. 711.

31. Пытьев Ю.П. // Интеллектуальные системы. 2001. 6, № 1-4. С. 25.

32. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 12, N 2. 2002. P. 107.

33. Pyt'ev Yu.P., Zhuchko O.V. // Pattern Recognition and Image Analysis. 2002. 12, N 2. P. 116.

34. Matveeva T.V., Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2002. 12, N 3. P. 316.

35. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2002. 12, N 4. P. 376.

36. Пытьев Ю.П., Мазаева И.В. // Вестн. Моск. ун-та. Физ. Астрон. 2003. № 6. С. 20.

37. Pyt'ev Yu.P., Zhivotnikov G.S. // Pattern Recognition and Image Analysis. 2004. 14, N 1. P. 60.

38. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2004. 14, N 4. P. 529.

39. Пытьев Ю.П. // Интеллектуальные системы. 2004. 8, № 1-4. С. 147.

40. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2004. 14, N 4. P. 541.

41. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2006. 16, N 2.

42. Pyt'ev Yu.P. // Pattern Recognition and Image Analysis. 2006. 16, N 3. P. 1.

43. Dubois D. // Computational Statistics and Data Analysis. 2006. 51. P. 47.

44. De Campos G., Huete J.F. // Int. J. Gen. Syst. 2001. 30, N 3. P. 309.

45. Masson M., Denoeux T. // Fuzzy Sets and Systems. 2006. 157. P. 319.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

46. Пытьев Ю.П. // Интеллектуальные системы. 2007. 11, № 1-4. С. 277.

47. Dubois D., Prade H. // Decision-Making Process / Ed. by D. Bouyssou, D. Dubois, M. Pirlot, H. Prade. London: Wiley-ISTE, 2009.

48. Папилин С.С., Пытьев Ю.П. // Математическое моделирование. 2010. 22, № 12. С. 144.

49. Papilin S.S., Pyt'ev Yu.,P. // Mathematical Models and Computer Simulation. 2011. 3, N 4. P. 528.

50. Yager R.R. // IEEE Transactions on Fuzzy Systems. 2012. February. 20, N 1. P. 46.

51. Yager R.R. // IEEE Transactions on Fuzzy Systems.

2012. June. 20, N 3. P. 526.

52. Пытьев Ю.П. Возможность как альтернатива вероятности. М.: Физматлит, 2007; 2-е изд., перераб. и доп. 2016.

53. Пытьев Ю.П. // Математическое моделирование.

2013. 25, № 4. С. 102.

54. Pyt'ev Yu. // Mathematical Modeling and Computer Simulations. 2013. 5, N 6. P. 538.

55. Кашьяп Р.Л., Рао А.Р. Построение динамических стохастических моделей по экспериментальным данным. М.: Наука, 1983.

56. Розанов Ю.А. Теория вероятностей, случайные процессы и математическая статистика. М.: Физматлит, 1985.

57. Пытьев Ю.П. // Автоматика и телемеханика. 2010. № 3. С. 131.

58. Klir G.J. Uncertainty and Information: Foundations of Generalized Information Theory. Hoboken, NJ: John Wiley, 2006.

59. Hoeffding W. // J. Amer. Statist. Assoc. 1963. 58, N 301. P. 213.

60. Пытьев Ю.П. Математические методы субъективого моделирования в научных исследованиях. Математические и эмпирические основы // Вестн. Моск. ун-та. Физ. Астрон. (в печати).

61. Пытьев Ю.П. Методы математического моделирования измерительно-вычислительных систем. М.: Наука, 2002; изд. 3-е, перераб. и доп. М.: Физматлит, 2011.

62. Хьюбер Дж.П. Робастность в статистике. М.: Мир, 1984.

63. Орлов А.И. Прикладная статистика. М.: Экзамен, 2004.

64. Новые направления в обработке данных. studopedia.ru.

65. Пытьев Ю.П. // Матем. сб. 1983. 118 (160), № 1 (5). С. 19.

66. Демьянов В.Ф., Малозёмов В.Н. Введение в мини-макс. М.: Наука, 1972.

67. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон. 1997. № 3. С. 3. (Pyt'ev Yu. P. // Moscow University Phys. Bull. 1997. N 3. P. 1.)

68. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон. 1997. № 4. С. 3.

69. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон.

1997. № 6. С. 3.

70. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон.

1998. № 1. C. 3. (Pyt'ev Yu.P. // Moscow University Phys. Bull. 1998. N 1. P. 1.)

71. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон.

1998. № 2. С. 3. (Pyt'ev Yu.P. // Moscow University Phys. Bull. 1998. N 2. P. 1.)

72. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон.

1999. № 5. С. 3. (Pyt'ev Yu.P. // Moscow University Phys. Bull. 1999. 54, N 5. P. 1.)

73. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон. 1999. № 6. С. 3. (Pyt'ev Yu.P. // Moscow University Phys. Bull. 1999. 54, N 6. P. 1.)

74. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон.

1998. № 6. С. 3. (Pyt'ev Yu.P. // Moscow University Phys. Bull. 1998. N 6. P. 1.)

75. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон.

1999. № 1. С. 3. (Pyt'ev Yu.P. // Moscow University Phys. Bull. 1999. 54, N 1. P. 1.)

76. De Cooman G., Aeyels D. // IEEE Transactions on Systems, Man and Cybernetics. 2000. 30. P. 124.

77. Nguyen H.T., Bouchon-Meunier B. // Soft Computting. 2003. 8. P. 61.

78. Pyt'ev Yu.P., Mazaeva I.V. // Moscow University Phys. Bull. 2002. 57, N 5. P. 27.

79. Пытьев Ю.П. // Вестн. Моск. ун-та. Физ. Астрон. 2017. № 1. C. 3.

80. Pyt'ev Yu.P. // Automation and Remote Control. 71, N 3. P. 486.

Mathematical modeling of randomness and fuzziness phenomena in scientific studies. II. Applications Yu. P. Pyt'ev

Department of Mathematical Modelling and Informatics, Faculty of Physics, Lomonosov Moscow State University, Moscow 119991, Russia.

E-mail: yuri.pytyev@physics.msu.ru, yuri.pytyev@gmail.com.

This paper considers some elements of the optimal fuzzy decision theory that are similar to the optimal statistical decision theory, in particular, the theory of optimal fuzzy identification and optimal fuzzy hypothesis testing, such as Neyman-Pearson statistical hypothesis testing and optimal fuzzy estimation along with a sequential fuzzy identification algorithm similar to the Wald sequential statistical criterion. Some elements of the fuzzy measuring and computing transducer theory and its applications in the problems of the analysis and interpretation of measurement experiment data are given.

Keywords: probability, fuzziness, possibility, necessity, optimization, identification, estimation, optimal

decisions.

PACS: 02.50.Le.

Received 22 June 2016.

English version: Moscow University Physics Bulletin. 2017. 72, No. 2. Pp. 113-127.

Сведения об авторе

Пытьев Юрий Петрович — доктор физ.-мат. наук, профессор, зав. кафедрой; тел.: (495) 939-13-32, e-mail: yuri.pytyev@physics.msu.ru.

i Надоели баннеры? Вы всегда можете отключить рекламу.