Научная статья на тему 'Марковская модель случайного процесса'

Марковская модель случайного процесса Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
628
128
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МАРКОВСКАЯ МОДЕЛЬ / СЛУЧАЙНЫЙ ПРОЦЕСС / ПОЛЕЗНЫЙ СИГНАЛ / ПЕРЕХОДНЫЕ ВЕРОЯТНОСТИ / СОСТОЯНИЯ / MARKOV MODEL / CASUAL PROCESS / USEFUL SIGNAL / TRANSITIONAL PROBABILITIES / CONDITIONS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Пантенков Д. Г., Литвиненко В. П.

Анализируется Марковская модель сигнала и случайного процесса, предлагаются алгоритм математического моделирования, его численные результаты и количественные оценки, алгоритм обучения классификации и его математическое моделирование

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Пантенков Д. Г., Литвиненко В. П.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

MARKOVS MODEL OF CASUAL PROCESS

The Markov model of a signal and casual process is analyzed, the algorithm of mathematical modeling, its numerical results and quantitative estimates, algorithm of training of classification and its mathematical modeling is offered

Текст научной работы на тему «Марковская модель случайного процесса»

Радиоэлектроника и системы связи

УДК 621-391

МАРКОВСКАЯ МОДЕЛЬ СЛУЧАЙНОГО ПРОЦЕССА

Д.Г. Пантенков, В.П. Литвиненко

Анализируется Марковская модель сигнала и случайного процесса, предлагаются алгоритм математического моделирования, его численные результаты и количественные оценки, алгоритм обучения классификации и его математическое моделирование

Ключевые слова: Марковская модель, случайный процесс, полезный сигнал, переходные вероятности, состояния

1. Задача классификации сигналов.

Различение случайных сигналов чаще всего производится по какому-либо параметру

(центральной частоте, внутренней структуре, среднему значению, дисперсии и т.д.). Если явные простые признаки различия сигналов отсутствуют или не известны, то можно проводить классификацию наблюдаемых случайных

процессов. В задаче классификации все множество

возможных реализаций случайного процесса разбивается на классы, для которых выбраны характеристики случайных процессов.

Характеристики наблюдаемого случайного процесса сравниваются с характеристиками типичных представителей - определяются «расстояния» между ними. В результате принимается решение о принадлежности наблюдаемого процесса тому классу, для которого полученное «расстояние» минимально [1-3].

2. Марковская модель случайного процесса. В качестве достаточно универсальной модели случайного квантованного по времени и уровню

процесса Хп = х(^п) , tn - моменты квантования,

наиболее целесообразно использовать простую цепь

Маркова [1]. Марковский процесс Хп может

принимать одно из М возможных значений от Хшп до Хтах, соответствующих уровням квантования Хп. Значения Хп меняются с ростом номера

отсчета п , причем переход от одного состояния к другому является случайным и последующая величина Хп+1 зависит только от предыдущей

величины Хп для всех п , как показано на рис. 1.

Рис. 1

Пантенков Дмитрий Геннадьевич - РКК «Энергия им. С.П. Королева», аспирант, тел. 8-926-109-23-95 Литвиненко Владимир Петрович - ВГТУ, канд. техн. наук, доцент, тел. (473) 271-44-57

Моделируемый процесс описывается квадратной матрицей переходных вероятностей

ІР] от значения Хп = І (номер строки) к значению Хп+1 = - (номер столбца),

Р,

Р Р 1 11^ 12•

Р Р

21 22

Р1

М

Р

Р Р Р

М1 М 2

ММ

(1)

размера МхМ, и матрицей-столбцом к ]

вероятностей начальных значений процесса Х0 = / в момент времени 10 ,

Ч1

Ч 2

Ч

М

(2)

Для матрицы (1) для всех І выполняются условия

ІР = 1.

1=1

(3)

Классы сигналов проявляются в различных статистических свойствах наблюдаемого

Марковского процесса Хп и каждому из них

должны соответствовать свои отличающиеся друг

от друга матрицы \р<;) ] и у?) ], к - номер

класса. Они полностью определяют свойства анализируемых классов и фактически представляют собой «отпечатки» классифицируемых состояний [4-8].

В качестве примера рассмотрим сигнал с четырьмя возможными значениями Х0 = 1,2,3 или 4

матрица переходных вероятностей которого имеет вид

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

(4)

В этом случае при случайном выборе одного из

начальных значений Х0 = / следующее значение

может быть только тем же самым (с вероятностью 1). Таким образом матрица (4) порождает постоянный сигнал со случайным начальным значением.

Для матрицы переходных вероятностей вида

0 1 0 0

0 0 1 0

0 0 0 1

1 0 0 0

(5)

при случайном начальном значении х0

следующее значение детерминировано и равно X1 = (i mod 4) +1. При этом в дальнейшем сигнал представляет собой пилообразную функцию времени. Пример программы расчета реализации сигнала показан на рис.2.

Рис. 2

На рис. 3 показана программа расчета

реализации Марковского случайного процесса при Рн < 1. Как видно, в этом случае и форма сигнала становится случайной. Разработайте программы для произвольных значений числа М градаций случайного процесса.

Рис. 3

3. Алгоритм классификации. Наблюдаемый Марковский случайный процесс (сигнал) s(t) может принадлежать одному из Ь классов Ук, к = 1, Ь . в каждом к-ом классе

дискретизированный процесс описывается матрицей переходных вероятностей вида [9-11]

р (k) р(k) р (k) Г11 г12 •"-'ЇМ

р (k) р (k) р (k) 21 22 2 М

P(k)

ij

(k) р (k) р (k)

... Г д

р (k) р М1

М2

ММ

(6)

Пусть получена выборка значений Х1, Х2,..., Хм процесса s(t), содержащая N многоуровневых отсчетов. Тогда апостериорная вероятность принадлежности сигнала к классу Ук определяется выражением

Р(У, / *1, Х2 Х„ ) = ПУк р Р( Х"Х2, - ХN ' >'к > , (7)

Р(^ Х2 ,..., ХN )

где р(Ук ) - априорная вероятность появления сигнала из к-го класса, Р(Х1, Х2,..., Хм^ /Ук)-

вероятность появления заданной выборки отсчетов сигнала при условии его принадлежности классу

Ук , а Р(х1, Х2,..., ХN )- безусловная вероятность а при ^1 = COnst(k) из (12) следует

выборки. Условная вероятность выборки ь — 1

Р(*1, *2,..., ХN / Ук) равна произведению ^ 1 — р

(к)

вероятности Ч Х1 начальных значений Х1 на вероятность перехода от Х1 к Х2 , затем на вероятность перехода от Х2 к Х3 и так далее. Процесс умножения заканчивается на вероятности перехода от Хм_1 к Хм . Т аким образом, получим (проделайте расчет самостоятельно)

_ Ьк (Х1,Х2.....ХЫ )

дов

(8)

І чХк> • Р (V) • 2

_Ьк (Х1,Х2.....ХМ )

где

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

М М

Ьк = Ьк(Х^х2,.. ,х^) = _Ц/- • 1о§Р

і=1 1=1

(к)

(9)

(к)

- вероятность начального значения Х0 выборки в к-ом классе, через I.. обозначено общее число переходов процесса из значения Хп = І в значение Хп+1 = - на следующем шаге для всех значений

(10)

п = 1, (N — 1) . Очевидно, что

м м

I I = (п —1).

,=1 ]=1

Как видно из (8), вероятность состояний определяется значениями Ьк , к=1,...,Ь, которые в свою очередь зависят от выборки отсчетов случайного процесса. Величины Ьк (Х1, Х2,..., ХN )

будем называть решающими статистиками, так

как в них содержится вся необходимая для принятия решения информация о наблюдаемом процессе.

Процедура классификации заключается в следующем. Анализатор по поступающим

выборочным отсчетам определяет числа 1^

переходов процесса от одного значения к другому, которые накапливаются от начальных значений 1^ = 0 по мере появления новых отсчетов.

Затем вычисляются решающие статистики (9)

для всех классов Ук, к = 1, Ь, выбирается

минимальное значение

Ь

к0

и минимальное из

оставшихся значений Ьк1. Разность Ьк0 _ Ьк1

сравнивается с порогом

Ьк1 _ Ьк 0 — ^к 0 , который определяется выражением

ІЧ<? • Р^к) к=1

Ок 0 = 1о§2 7^Т~~-------------;

к0 ё2 чГ • Р^к0) • (1 _Рдов)

(11)

Доверительная вероятность Рд

это

- ДОВ

требуемый уровень условной вероятности выбранного класса для заданной выборки отсчетов сигнала. Она характеризует вероятность правильности принятого решения. Выражение (12) для порога с учетом (8) вытекает из равенства

Р(Ук / Х1, Х2 ,..., ХN ) = РДОВ . (14)

Если неравенство (11) не выполняется, то принимается очередной отсчет и вновь вычисляются решающие статистики. Как только оно выполнится, анализ прекращается и выносится окончательное решение Ук0 с достоверностью не меньше Рдов.

Решающие статистики

определяют «расстояния» наблюдаемой реализации от соответствующих классов. Ее можно представить как точку в Ь-мерном гиперпространстве, координатами которой являются значения Ьк . На

рис. 4 в качестве примера показаны области

решающих статистик, соответствующие возможным различным решениям при Ь=2.

Ьк, к = 1, Ь,

Рис. 4

Порог О определяет зону неопределенности (ограниченную пунктирными линиями на рис.4), внутри которой решения не принимаются ввиду низкой достоверности. Левее расположена область, в которой принимается решение о принадлежности наблюдаемой реализации к первому классу, а правее - ко второму. Жирной линией показано движение точки, отображающей реализацию после поступления отсчетов с номерами 2, 3 и так далее (после шестого отсчета принимается решение V2 ).

В рамках предлагаемой методики классификации можно использовать сложные модели классов, определяемые несколькими марковскими моделями. В этом случае решающие статистики целесообразно записать в виде двумерного массива Ьк т, где к - номер класса, а

т - номер модели внутри класса. Правило формирования решения предполагает определение

к=1

минимального значения Ьк0,т0 и следующего за

ним

Ь

к1 ф к 0,

а затем использование

-к1,»1 при

неравенства (11).

4. Обучение алгоритма классификации.

Модели классов в виде матриц переходных вероятностей могут формироваться их теоретических (физических и математических) представлений о формировании классифицируемых сигналов. Достоверность классификации

существенно зависит от точности используемых моделей.

На практике целесообразней использовать экспериментальные модели, полученные в результате обучения процедуры классификации. Обучение в технических системах может проводиться в режимах обучения с учителем и самообучения.

При обучении с учителем в систему классификации вводятся случайные сигналы с известными классами, по каторым формируются

оценки матриц переходных вероятностей \р^к) ] (1)

и вероятностей начальных значений \к(к) ] (2) для каждого из Ь классов. Для этого в реализациях к -

ого класса определяется число переходов

N(к)

соседних отсчетов от 1-ого значения к ^ому, тогда

Р,

(к)

N

(15)

(к)

І

Ч?1 =

1=1

М

Х

1=1

N

(16)

где N - общее число отсчетов. Матрицы [р^) ] и

\к(к) ] являются полным описанием (образом) к-ого

класса. Возможно использование нескольких образов для описания классов сложной структуры в метрике решающей статистики.

В режиме самообучения (обучения без учителя) используются неклассифицированные реализации случайных процессов. При этом согласно (15) и (16) оцениваются характеристики моделей для каждой реализации, и затем модели группируются по близости друг к другу в метрике решающей статистики (9). Проектирование системы классификации в режиме самообучения является достаточно сложной и неоднозначно решаемой задачей.

5. Результаты моделирования алгоритмов обучения и классификации. Моделирование проведено с помощью пакета МаШСАБ для нормальных марковских процессов с различными дисперсиями В и коэффициентами корреляции р при заданных значениях объема обучающей

реализации Nоб и доверительной вероятности Рдов.

Число циклов моделирования выбиралось от 10000 до 50000.

В программе формируются две обучающие реализации квазислучайных процессов с различными характеристиками длиной Nоб

отсчетов, по которым в соответствии с (15), (16) определяются две марковские модели. Затем формируются К реализаций одного из процессов, и в соответствии с разработанной процедурой определяется их принадлежность к каждому из классов. После этого моделирование циклически повторяется для набора статистического материала. На рис.5 показаны зависимости вероятности

ошибки от объема обучающей выборки N об при

классификации процессов по дисперсии для двух классов, первый характеризуется дисперсией В = 3 и коэффициентом корреляции р = 0,5 , а второй - В = 4 и р= 0,5 . На рис. 6 представлены величины среднего числа отсчетов NСР,

необходимых для принятия решения с требуемой достоверностью.

Рис. 5

Рис. 6

Как видно, при небольшом объеме обучающей выборки вероятность ошибки весьма высока (алгоритм «плохо обучен»). При накоплении информации о разделяемых классах она стремится к заданной величине (1 — РдОВ) . Для обеспечения большей достоверности результата необходимо

увеличивать

N.

об '

Среднее число отсчетов

сравнительно невелико, то есть алгоритм классификации работает достаточно быстро.

На рис. 7 представлена зависимость

вероятности ошибки от объема обучающей выборки при классификации по коэффициенту корреляции. Первый класс имеет В = 4 и Р = 0,5 , а второй -В = 4 и р= 0,8 . На рис.8 показаны аналогичные зависимости при различении близких классов по дисперсии, первый характеризуется В = 4 и р = 0,5 , а второй - В = 4,3 и р = 0,5 .

Рис. 8

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Результаты моделирования свидетельствуют, что процедура классификации уверенно определяет принадлежность наблюдаемой реализации к соответствующему семейству при различных условиях определения различий классов (параметрическое описание сигналов просто не требуется). Чем ближе друг к другу свойства классов, тем больший объем обучающей выборки

необходим для их различения с заданной достоверностью.

Литература

1. Левин Б. Р. Теоретические основы

статистической радиотехники / Б.Р. Левин. - М., Сов. Радио, 1968.

2. Обнаружение радиосигналов. Под ред. А.А. Колосова / М., Радио и связь, 1989.

3. Камке Э. Справочник по обыкновенным дифференциальным уравнениям / Э. Камке - М., Наука, 1974.

4. Основы теории скрытности: учеб. пособие / З.М. Каневский, В.П. Литвиненко, Г.В. Макаров, Д. А. Максимов. - Воронеж, Воронеж гос. техн. ун-т, 2006.

5. Градштейн И.С. Таблицы интегралов, сумм, рядов и произведений / И.С. Градштейн, И.М. Рыжик - М.: Наука, 1971.

6. Галлагер Р. Теория информации и надежная связь / Р. Галагер - М., «Советское радио», 1974.

7. Сикарев А. А.. Оптимальный прием дискретных сообщений / А.А. Сикарев, А.И. Фалько - М., Связь, 1978.

8. Коржик В.И.. Помехоустойчивое

кодирование дискретных сообщений в каналах со случайной структурой / В.И. Коржик, Л.М. Финк -М., Связь, 1975.

9. Передача сообщений с обратной связью. Под ред. З.М. Каневского. - М., Связь, 1976.

10. Каневский З. М., Литвиненко В. П. Классификационная скрытность случайных процессов. «Синтез, передача и прием сигналов управления и связи», межвузовский сборник научных трудов, ВГТУ, Воронеж, 1994.

11. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. М.: Наука, 1970.

Открытое акционерное общество «Ракетно-космическая корпорация «Энергия» имени С.П. Королева», г. Москва Воронежский государственный технический университет

MARKOVS MODEL OF CASUAL PROCESS

D.G. Pantenkov, V.P. Litvinenko

The Markov model of a signal and casual process is analyzed, the algorithm of mathematical modeling, its numerical results and quantitative estimates, algorithm of training of classification and its mathematical modeling is offered

Key words: Markov model, casual process, useful signal, transitional probabilities, conditions

i Надоели баннеры? Вы всегда можете отключить рекламу.