Дедков В.К., Северцев Н.А. ИНФОРМАЦИОННЫЙ ПОДХОД К ОЦЕНИВАНИЮ ПОГРЕШНОСТЕЙ ИЗМЕРЕНИЯ ТЕХНИЧЕСКИХ ХАРАКТЕРИСТИК
Аннотация. В данной статье рассматривается информационный подход к оцениванию погрешностей измерения показателей надежности сложных систем. Показано, в частности, что оценивание погрешностей измерения вероятностных характеристик технических объектов путем снижения неопределенности их значений позволяет оценить результативность измерения искомой величины данным способом
Как известно измеряемая в результате опыта физическая величина является случайной, содержащей погрешности опыта (включая систематические погрешности), а потому ее исчерпывающей характеристикой является закон распределения вероятностей. Различают два вида законов распределения случайной величины: интегральный и дифференциальный. Для практики бывает достаточно указать только отдельные числовые характеристики закона распределения случайной величины, называемые моментами.
В теории информации для характеристики центрированной случайной величины вместо моментов второго и более высоких порядков используется своеобразный момент, выражаемый через плотность распределения случайной величины интегралом следующего вида[1]
Н{х} = — j ф- (х)1пф~ (x}dx , (1)
—да
где Н(х ) - называется энтропией, ф_{х}~ дифференциаль
ныи закон распределения случайной величины х или плотность распределения х .
Энтропия дискретной случайной величины не зависит от того, какие именно значения принимает случайная величина (важно количество этих значений), и равна сумме произведений вероятностей различных значений на логарифм этих вероятностей, взятых с обратным знаком [1]
i=n
Я(^) = _ХЛ108Л ' (2)
i = 1
Если случайная величина является характеристикой состояния системы, то энтропия системы с равновероятными состояниями ( pt = 1/n ) равна логарифму от количества этих состояний:
i=n | |
H(x) = -'^p\ogp=-n-\og- = \ogn (3)
i = 1 1 i П П
Пусть в результате некоторого опыта измеренное значение случайной величины оказалось равным Хп . Поскольку известно, что опыт (или измерительное устройство) обладает погрешностью в пределах ±А, утверждать, что действительной значение измеряемой величины в точности равно Хп было бы неправомочно. Можно только утверждать, что оно находится в диапазоне значений Хп±Д. Следовательно, неопределенность точного значения измеряемой величины сохраняется и после получения ее оценки Хп
, однако после опыта ее неопределенность характеризуется не исходным значением энтропии Н(х ) , а лишь неопределенностью, обусловленной погрешностью эксперимента [1].
Обозначим энтропию измеряемой величины до проведения опыта через Н(х), а энтропию случайной погрешности ее измерения при проведении опыта через Н(Д). Тогда изменение энтропии в результате измерения случайной величины, или количество информации, полученной при проведении опыта, находится по формуле
q = H(x)-H(A), (4)
где q - изменение энтропии за счет измерения или количество информации, полученной при проведении опыта. (Обозначения Н(х ) и Н(А) не являются функциями Н от случайной величины х или Л, а представляют собой обозначения энтропии случайных величин х и Л. ) .
Обычно точность измерения характеризуется числовыми значениями полученных при измерении или предполагаемых погрешностей. Если диапазон измерений измерительного устройства распространяется на область, ограниченную значениями от Xj до Х2 , то любое значение измеряемой величины, находящееся в пределах от Xj до Х2, может быть измерено с погрешностью ±Д, не зависящей от текущего значения измеряемой величины.
Получив результат измерения в виде показания Х , его записывают как Хп ±л и характеризуют относительной приведенной погрешностью
^ А
а = +------- (5)
X 2 — Xi
С позиций теории информации приведенным выше рассуждениям придается вероятностный, статистический смысл. Итог измерения, полученного в опыте, истолковывается как сокращение области возможных значений измеряемой величины. Диапазон измерений прибора, означает, что при использовании данного
прибора (или опыта) могут быть получены показания Х только в пределах от Х1 до Х2 . Вероятность получения отсчетов меньших Xj и больших Х2 равна нулю. Вероятность того, что измеряемая величина окажется в пределах от Xj до Х2 равна единице.
Как известно, показателем надежности (безотказности) невосстанавливаемого технического объекта является случайная величина времени безотказной работы.
При измерении показателя надежности в виде статистической оценки вероятности безотказной работы за заданное время, интервал возможных значений показателя надежности, отсчитываемых в опыте, т.е. весь диапазон шкалы измерений по опытным данным величин вероятностей, изменяется от ^ , равного нулю, до й)2 г равного единице.
Если предположить, что измеряемая в опыте оценка вероятности безотказной работы (Rt (?) = О) ) равномерно распределена в диапазоне от нуля до единицы, то с точки зрения теории информации зна-
чение измеряемой величины (?) до измерения (до опыта) может быть представлено плотностью равномерного распределения ф _(^у) случайной величины вероятности неотказа (б)) вдоль всей шкалы ее
возможных значений [0,1].
Исходя из предположения, что априорное (доопытное) значение случайной величины оценки вероятности безотказной работы равномерно распределено в диапазоне от ^ до Ф2 , то плотность ее вероятности принимает следующий вид
Ф_(ф) =--------- (6)
0)2~0) 1
После проведения эксперимента (опыта), в котором производится измерение величины вероятности безотказной работы, получим оценку СО . Вследствие погрешностей измерения, связанных с ограниченностью числа проведенных опытов и другими случайными факторами, полученную оценку нельзя принимать за точное значение измеряемой величины. Поэтому результат измерения записывается с учетом
погрешности в следующем виде С0±£\. Последнее означает, что действительное значение измеряемой величины показателя надежности (б)) лежит в пределах от СО +Д до СО-Д, т.е. в пределах участка 2Д.
Заметим, что положение интервала 2Д на шкале вероятностей (й?) случайно, а его длина определяется
величиной доверительной вероятности, с которой этот интервал накрывает действительное значение измеряемой величины вероятности.
С позиций теории информации результат измерения показателя надежности состоит в том, что до измерения область неопределенности простиралась от ^ до й)2 и характеризовалась малым значением
плотности вероятности ф Д#?) = 1/(<2?2— й^) • После измерения интервал сократился до величины 2Д, а
плотность вероятности возросла до значения ^Д<5?) = 1/2А .
Получение какой-либо информации об интересующей величине заключается, таким образом, в уменьшении неопределенности ее значения.
Формальный прем, для математической записи приведенного выше логического заключения, состоит в определении количества информации q как уменьшении энтропии от доопытного значения Н(х ) (до проведения измерения), до значения Н(X /Хп ), которое остается после измерения, т.е. после получения оценки Хп . Отсюда количество информации, полученной при измерении величины х найдется как [1] д=Н(х )-К(х /Хп) (7)
Величина Н ( X ) является характеристикой исходной энтропии, а значение Н ( х /Хп ) характеризует ту неопределенность, которая остается после проведения измерения и получения оценки Хп и называется условной энтропией (т.е. при условии, что Хп известно).
Когда закон распределения случайной величины как до измерения, так и после измерения остается равномерным, исходная, или безусловная, энтропия находится как
со X 2
да л 2 | |
Я(*) = - J Фх (*)1оё^р {х)<Ь = - J ——log——Л =
X2 X1 X2 X1 (8)
= log (XT2 — X1)
Условная энтропия результата измерения после получения оценки Хп находится по той же формуле
Хп+А 1 1
Н(х/Хп) = - J — log—& = log2A . (9)
X —А 2А 2А
X п
Из выражений (8) и (9) видно, что неопределенность интересующей случайной величины, выражаемая значением энтропии, равна логарифму длины интервала возможных значений этой величины.
Полученное в результате измерения величины Х количество информации, равное разности исходной и остаточной энтропии, записывается в следующем виде
X — X 2Л
q = H(x)-H(x/Xn) = \og(X2-X1)-log2A = log 2 ^-log—----------— (10)
2 А .X 2 -X1
Сравнивая формулы (5) и (10) видим, что замена относительной погрешности измерения (5) технических характеристик операцией определения величины информации (10), полученной путем измерения
неизвестной величины, позволяет количественно оценить эффект (результативность) измерения искомой величины данным способом.
Литература
1. Новицкий П.В. Основы информационной теории измерительных устройств. - Л.: Энергия, 1968.
2. Дедков В.К. Прогнозирование надежности. // Сборник трудов СИП РИА №6. - 1998. - С 30-36.