Научная статья на тему 'Метод «Некоррелированных максимумов» в задаче преобразования непрерывных случайных функций в дискретные последовательности некоррелированных случайных величин'

Метод «Некоррелированных максимумов» в задаче преобразования непрерывных случайных функций в дискретные последовательности некоррелированных случайных величин Текст научной статьи по специальности «Математика»

CC BY
154
37
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Дедков В. К.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Метод «Некоррелированных максимумов» в задаче преобразования непрерывных случайных функций в дискретные последовательности некоррелированных случайных величин»

Дедков В.К. МЕТОД «НЕКОРРЕЛИРОВАННЫХ МАКСИМУМОВ» В ЗАДАЧЕ ПРЕОБРАЗОВАНИЯ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ФУНКЦИЙ В ДИСКРЕТНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ НЕКОРРЕЛИРОВАННЫХ СЛУЧАЙНЫХ ВЕЛИЧИН

Работа выполнена по гранту 08-08-00086-а

При прогнозировании надежности косвенными методами возникает задача представления непрерывных процессов нагружения технических объектов последовательностью независимых актов нагружения (опытов, испытаний). Существующие модели случайных процессов не приспособлены для таких преобразований. В данной статье рассматривается метод преобразования непрерывных случайных функций в дискретные последовательности некоррелированных случайных величин на основе корреляционного анализа случайных процессов.

При прогнозировании показателей надежности технических объектов косвенными методами нередко возникает задача об установлении независимости «опытов», «нагружений» или, в общем случае, «воздействий», приводящих рассматриваемый объект в неработоспособное состояние [1].

Опыты (или нагружения) можно считать независимыми, если величина воздействия на объект в любом опыте не зависит от того какое значение на принимала в других опытах.. Поскольку между величиной воздействия и переходом объекта в неработоспособное состояние, как правило, не существует функциональной зависимости, то речь может идти только об установлении независимости опытов в стохастическом (т.е. вероятностном) смысле. Вероятностная или стохастическая зависимость, в отличие от функциональной зависимости, возникает тогда, когда зависимость одной величины от другой осложняется наличием ряда случайных факторов. Стохастическая зависимость называется корреляцией.

Большинство технических объектов работают в условиях непрерывного воздействия механических, электрических, тепловых и т.п. нагружений. Причем величины воздействий, как правило, являются случайными функциями времени или случайными процессами.

Если в каждый момент времени t функция u(t) представляет собой случайную величину, то совокупность случайных величин образует случайный процесс [1]. Случайному процессу может быть поставлено в соответствие также такое определение:

Случайным процессом называют совокупность реализаций (траекторий, выборочных функций), образуемых наблюдаемой переменной в некотором пространстве ее возможных значений;

или - случайным процессом называется множество всех выборочных функций, которые могут быть получены при реализации рассматриваемого случайного явления [1,4].

Совокупность т случайных функций Uj(t) называется векторной случайной функцией и обозначается d

и<т>(0= <si(t),s2(t),teT . (1)

В работах по теории случайных процессов показано, что при некоторых условиях случайный процесс может быть представлен случайным многомерным вектором U , компоненты которого соответствуют значе-

ниям случайной функции в некоторые моменты времени [2,3] р _

м(7)—»£/<и> , (2)

_ d d

где U<n> = < u(t^)i...iu(tn) > = < ubu2>...>un > , t G T,[i = l(l)w] , p - правило выбора дискретных точек w(^)

, л - число сечений процесса во времени (на множестве Т).

Функция распределения многомерного, случайного вектора U может быть представлена как

d rt

Fu<n>^<n>) = Fv<niu\^-^unA^-^tn)=P [ГКй(Х-)-м;)] • (3)

<n> <n>

Аналитическое представление многомерной, случайной функции в общем случае может представлять серьезные трудности.

Можно попытаться найти другие формы выражения существенных черт случайного процесса, которые окажутся полезными для решения задачи формирования моделей надежности.

Все случайные процессы делятся на два класса: стационарные случайные процессы и нестационарные

случайные процессы. В дальнейшем будем рассматривать в основном «стационарные» случайные процессы нагружения.

Здесь, под стационарностью понимается независимость от времени t среднего значения процесса и его автокорреляционной функции. Такие процессы называются стационарными в «широком смысле» (стационарными не жестко).

В рамках корреляционной теории рассматриваются следующие характеристики, существенные для анализа случайных процессов (СП):

- среднее значение СП (математическое ожидание) и%(£) ,

- среднее значение квадрата СП (дисперсия) ,

- одномерная плотность или функция распределения,

- автокорреляционная функция или К(т) *

- спектральная плотность Ss(.n) ■

Приведенные характеристики являются характеристиками стационарных процессов.

Большинство процессов взаимодействия технических объектов со средой являются стационарными. Многие нестационарные процессы, стационарность которых обусловлена «трендом» математического ожидания и дисперсии, могут быть приведены к стационарным [2,3].

При косвенном оценивании показателей надежности в качестве критерия безотказной работы объекта часто принимается условие «непревышения».

Если нагрузка u(t) и сопротивляемость являются непрерывными случайными функциями времени, то

условие (критерий) безотказной работы объекта можно выразить следующим соотношением:

P(t >t) ->р[м(/) < £(/)] • (4)

Выражение (4) читается так: «вероятность того, что случайное время t безотказной работы окажется больше заданного отрезка времени t эквивалентна вероятности высказывания, что случайная функция u(t)

характеризующая нагрузку за время работы Ь, ни разу не превысит случайного значения сопротивляемости

, являющегося также функцией времени». Правая часть (4) показывает, что искомая вероятность выражается через случайные функции й(() и являющиеся в общем случае непрерывными функциями време-

ни .

Предикат ( м(?)< ), содержащий высказывание относительно будущих состояний объекта, является

двухместным, в общем случае, дважды неопределенным. Его аргументы - случайные функции.

Таким образом, сценарий прогнозирования надежности должен строиться на результатах прогнозирования случайных процессов нагружения и результатах прогнозирования сопротивляемости объекта.

Чтобы выразить в аналитической форме зависимость между показателем надежности и случайными процессами й{{) и необходимо рассмотреть возможные способы описания случайных функций и разработать методы преобразования случайных функций й(() и к такому виду, который отвечал бы решению

поставленной задачи.

Задача заключается в разработке такого преобразования случайных функций й(() и , чтобы каждую

из них можно было представить в форме последовательности независимых (по крайней мере - некоррелированных) случайных величин. Преобразование случайных функций является одной из задач, решаемых в рамках корреляционного анализа.

Для аналитического представления условия (4) безотказной работы объекта, его можно сформулировать так: «объект на отрезке времени Дt сохраняет работоспособность, если наибольшее значение случайной

функции гу(/) на этом отрезке времени, не превысит сопротивляемости х(^)». Тогда задачу прогнозирования безотказной работы объекта можно сформулировать как задачу определения вероятности безотказной работы объекта на каждом из участков времени Д^ составляющих в совокупности длительность времени прогноза. Задача существенно упрощается, если отрезки времени Дt выбирать такими, чтобы наибольшие значения случайного процесса й({) на смежных участках Дt были бы взаимно некоррелированы.

Чтобы найти приемлемую длину интервала At , обеспечивающего некоррелированность наибольших значений процесса, и обеспечить при этом минимально возможную длину реализации случайного процесса

м(0 , необходимо рассмотреть его временную структуру. В общем случае корреляционный анализ случайных процессов требует рассмотрения представительной совокупности реализаций такого процесса, или получения оценок его характеристик «на множестве реализаций». Отдельная (например, к-ая - ик ) реализация не может служить описанием всего случайного процесса м(£) , которому она принадлежит.

Однако анализ реальных процессов нагружений показывает, что такие процессы в большинстве случаев обладают свойством эргодичности [2,3]. В связи с этим, полная информация о характеристиках процесса, необходимая для проведения корреляционного анализа, может быть получена на основе обработки одной произвольной реализации.

Как известно, характеристикой временной структуры стационарного случайного процесса может служить его автокорреляционная функция, которая определяет тесноту связи между значениями процесса в данный и некоторые другие моменты времени.

Из выражения

т

(5)

1 г

(/,/') = ки(т) = Пт — ик(1)ик(1 + т)ск , Т Т 3

т^ТЬ

являющегося определением автокорреляционной функции случайного процесса й(/) , видно, что ки(т) -

действительная четная функция с максимумом в точке Т = 0 (Т = t—t ), которая может принимать как поло-

жительные, так и отрицательные значения. Для упрощения анализа временной структуры процесса во многих приложениях используется нормированная корреляционная функция

£а(т) = _&!)_.

Для центрированного случайного процесса при Т = 0 имеем

4(0)=М1, (6)

*2(0)

т

1 1- 1

т.к.

. 1т 4(0) = Нт —Гр(О]2Л = сти2(0) . т/ •>

т т

0

Использование нормированной корреляционной функции дает наглядное представление о степени связи

между значением случайного процесса в данный момент и другие моменты времени. Так, 0) = 1 является показателем наибольшей тесноты связи между рассматриваемыми значениями случайного процесса, а

&-(/) = 0 свидетельством отсутствия как корреляционных, так и иных связей.

Для определения уровня дискретизации случайного процесса по времени необходимо исследовать зависимость межу значением, которое принимает случайная переменная в данный момент I и ее значениями в последующие моменты времени. Другими словами, следует выяснить, как долго сохраняет случайный процесс «память» о том, что в момент ^ его значение было равно щ(1) .

Есть несколько способов определения интервала времени, в пределах которого корреляционные связи между значениями процесса «полностью» исчезают (точного значения такого интервала не существует). Такой интервал времени называют интервалом корреляции. Интервал корреляции или интервал «стохастической независимости» (независимости в среднем) между значениями случайного процесса будем обозначать

Т кор .

Одним из возможных путей определения интервала корреляции ^ может служить следующий графический прием: построим прямоугольник, площадь которого равна площади под кривой нормированной корреляционной функции центрированного случайного процесса. Если в качестве высоты этого прямоугольника

принять значение 4(0) = 1, то шириной прямоугольника будет X кор :

й 1 г •

Т'кор=---- . (7)

4(0) о

Этот способ определения интервала корреляции дает грубое приближение величины X* кор (см. рис. 1а) .

Рис. 1. Автокорреляционные функции случайных процессов и возможные значения интервалов корреляции Т кор

Другой путь определения величины Ткор заключается в следующем. В качестве критерия стохастической независимости между значениями случайного процесса, примем такую величину нормированного корреляционного процесса ( ттА'Дг) ), значением которой можно пренебречь. Тогда отрезок времени между значениями нормированной корреляционной функции равными &~(0)=1 и ттА'Дг) будет определять величину интервала корреляции Т кор (см. рис. 1б). В этом случае величина Т' определяется из условия малости

корреляционной связи между значениями случайного процесса.

В случае знакопеременной автокорреляционной функции, такой, например, как показана на рис. 1в,

интервал корреляции находится из условия равенства площади расположенной между кривой &й(г) и осью абсцисс и площади прямоугольника с высотой &-(0) = 1 . Ширина (вдоль оси абсцисс) этого прямоугольника

принимается равной интервалу корреляции Т кор (рис.1в).

Итак, в общем случае, интервал корреляции ( Т кор ) - это такой минимальный интервал времени, кото-

рый определяет в стохастическом смысле, что значения случайной функции, разделенные любым большим интервалом, можно считать практически некоррелированными.

Используя понятие интервала корреляции можно любой случайный стационарный процесс представить в форме последовательности случайных сигналов. Каждый сигнал характеризуется случайной продолжительностью (или «периодом» XКОр ^ ' слУчайной «амплитудой» (или наибольшим значением переменной й ) и случайной фазой.

С этих позиций интервал корреляции может рассматриваться как некоторое среднее значение длительности произвольного случайного сигнала - его «период» в стохастическом смысле.

Если бы имелась возможность «наблюдать» каждый случайный сигнал в отдельности, то весь процесс

можно было бы представить последовательностью отрезков случайной длительности, в каждом из которых

содержится наибольший из максимумов функции й(т) , Г G(/,/ + г) , т.е. амплитуда.

Однако, корреляционные связи, характеризующие длительность сигнала, могут быть определены лишь

статистическим путем. Поэтому интервал корреляции ТКОр представляет собой неслучайную величину, а

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

фаза случайного сигнала, соответствующая началу отсчета интервала корреляции, оказывается случайной. Амплитуда произвольного случайного сигнала должна удовлетворять двум признакам

- амплитуда есть наибольшее значение случайного сигнала;

- амплитуды смежных сигналов некоррелированы.

Если разделить реализацию случайного процесса на отрезки, равные интервалу корреляции (точнее, на отрезки равные 2 ^ ) , то при таком делении наибольшее значение функции й'(т) на отрезке времени

ТЕ (t, t + ?к0р) может занимать произвольное по отношению к границам отрезка положение. Наибольшее значение случайной величины может оказаться на границе некоторого отрезка и потому быть коррелированным с наибольшим значением процесса в смежном интервале.

Чтобы избежать попадания в статистическую выборку, по которой определяется функция распределения величины и= < sup и(г) > , коррелированных величин, необходимо строить выборку так, чтобы любые два

TE(t,t+TKOp )

значения выборки й были бы разделены отрезком времени, не меньшим чем 2 Ткор . Этого можно достичь,

если после разбиения реализации на интервалы равные X кор ' Дела1ГЬ выборку величин Uj не из каждого

интервала разбиения, а только из четных или нечетных интервалов.

После получения выборки можно проверить независимость ее членов, воспользовавшись непараметрическими методами. Одним из наиболее простых и эффективных способов проверки независимости членов выборки может служить метод, изложенный в [3]. Метод называется проверкой гипотез о независимости членов выборки по «критерию серий».

Если на рассматриваемом интервале укладывается достаточно большое число интервалов корреляции, то фазой случайного сигнала можно пренебречь, т.е. не рассматривать вопрос о том, как протекают изменения случайной переменной в пределах одного периода корреляции и в какой момент времени достигается наибольшее значение.

Так как в большинстве случаев интервал наблюдения стационарного случайного нагружения существенно

(в десятки и сотни раз) больше интервала корреляции, то при изучении структуры случайного процесса,

его изменением по фазам можно пренебречь. Более детальная структура случайного сигнала (изменение м(г) по фазам) неразличима и в большинстве приложений интереса не представляет.

В тех случаях, когда установлено, что процесс нагружения является нестационарным, то применяя методы фильтрации детерминированных или регулярных составляющих процесса следует привести его к такому виду, когда становится возможным применение стандартных приемов анализа стационарных, случайных процессов [3].

Метод «некоррелированных максимумов» [3] позволяет представить стационарную, случайную функцию в виде более простой случайной функции («практического белого шума»), сохранив при этом необходимые

вероятностные свойства исходного процесса: р

й'(/)—>< :зирм'(>) > , (8)

+ ткор) V =!(!)«];п

Такое преобразование позволяет перейти от описания непрерывного, случайного процесса к описанию дискретного, случайного процесса типа «практического белого шума», обладающего теми же вероятностными свойствами, что и исходный случайный процесс.

ЛИТЕРАТУРА

1. Дедков В.К. Модели прогнозирования индивидуальных показателей надежности. М.: ВЦ им. Дородницына РАН. 2003. -188 с.

2. Дунин- Барковский И.В., Смирнов Н.В. Теория вероятностей и математическая статистика в технике (общая часть). М.: Гостехиздат. 1955.

3. Бендат Дж., Пирсол А. Измерение и анализ случайных процессов. М.: Мир. 1974.

i Надоели баннеры? Вы всегда можете отключить рекламу.