Радиоэлектроника и системы связи
УДК 621-391
МАРКОВСКАЯ МОДЕЛЬ СЛУЧАЙНОГО ПРОЦЕССА
Д.Г. Пантенков, В.П. Литвиненко
Анализируется Марковская модель сигнала и случайного процесса, предлагаются алгоритм математического моделирования, его численные результаты и количественные оценки, алгоритм обучения классификации и его математическое моделирование
Ключевые слова: Марковская модель, случайный процесс, полезный сигнал, переходные вероятности, состояния
1. Задача классификации сигналов.
Различение случайных сигналов чаще всего производится по какому-либо параметру
(центральной частоте, внутренней структуре, среднему значению, дисперсии и т.д.). Если явные простые признаки различия сигналов отсутствуют или не известны, то можно проводить классификацию наблюдаемых случайных
процессов. В задаче классификации все множество
возможных реализаций случайного процесса разбивается на классы, для которых выбраны характеристики случайных процессов.
Характеристики наблюдаемого случайного процесса сравниваются с характеристиками типичных представителей - определяются «расстояния» между ними. В результате принимается решение о принадлежности наблюдаемого процесса тому классу, для которого полученное «расстояние» минимально [1-3].
2. Марковская модель случайного процесса. В качестве достаточно универсальной модели случайного квантованного по времени и уровню
процесса Хп = х(^п) , tn - моменты квантования,
наиболее целесообразно использовать простую цепь
Маркова [1]. Марковский процесс Хп может
принимать одно из М возможных значений от Хшп до Хтах, соответствующих уровням квантования Хп. Значения Хп меняются с ростом номера
отсчета п , причем переход от одного состояния к другому является случайным и последующая величина Хп+1 зависит только от предыдущей
величины Хп для всех п , как показано на рис. 1.
Рис. 1
Пантенков Дмитрий Геннадьевич - РКК «Энергия им. С.П. Королева», аспирант, тел. 8-926-109-23-95 Литвиненко Владимир Петрович - ВГТУ, канд. техн. наук, доцент, тел. (473) 271-44-57
Моделируемый процесс описывается квадратной матрицей переходных вероятностей
ІР] от значения Хп = І (номер строки) к значению Хп+1 = - (номер столбца),
Р,
Р Р 1 11^ 12•
Р Р
21 22
Р1
М
Р
2М
Р Р Р
М1 М 2
ММ
(1)
размера МхМ, и матрицей-столбцом к ]
вероятностей начальных значений процесса Х0 = / в момент времени 10 ,
Ч1
Ч 2
Ч
М
(2)
Для матрицы (1) для всех І выполняются условия
ІР = 1.
1=1
(3)
Классы сигналов проявляются в различных статистических свойствах наблюдаемого
Марковского процесса Хп и каждому из них
должны соответствовать свои отличающиеся друг
от друга матрицы \р<;) ] и у?) ], к - номер
класса. Они полностью определяют свойства анализируемых классов и фактически представляют собой «отпечатки» классифицируемых состояний [4-8].
В качестве примера рассмотрим сигнал с четырьмя возможными значениями Х0 = 1,2,3 или 4
матрица переходных вероятностей которого имеет вид
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
(4)
В этом случае при случайном выборе одного из
начальных значений Х0 = / следующее значение
может быть только тем же самым (с вероятностью 1). Таким образом матрица (4) порождает постоянный сигнал со случайным начальным значением.
Для матрицы переходных вероятностей вида
0 1 0 0
0 0 1 0
0 0 0 1
1 0 0 0
(5)
при случайном начальном значении х0
следующее значение детерминировано и равно X1 = (i mod 4) +1. При этом в дальнейшем сигнал представляет собой пилообразную функцию времени. Пример программы расчета реализации сигнала показан на рис.2.
Рис. 2
На рис. 3 показана программа расчета
реализации Марковского случайного процесса при Рн < 1. Как видно, в этом случае и форма сигнала становится случайной. Разработайте программы для произвольных значений числа М градаций случайного процесса.
Рис. 3
3. Алгоритм классификации. Наблюдаемый Марковский случайный процесс (сигнал) s(t) может принадлежать одному из Ь классов Ук, к = 1, Ь . в каждом к-ом классе
дискретизированный процесс описывается матрицей переходных вероятностей вида [9-11]
р (k) р(k) р (k) Г11 г12 •"-'ЇМ
р (k) р (k) р (k) 21 22 2 М
P(k)
ij
(k) р (k) р (k)
... Г д
р (k) р М1
М2
ММ
(6)
Пусть получена выборка значений Х1, Х2,..., Хм процесса s(t), содержащая N многоуровневых отсчетов. Тогда апостериорная вероятность принадлежности сигнала к классу Ук определяется выражением
Р(У, / *1, Х2 Х„ ) = ПУк р Р( Х"Х2, - ХN ' >'к > , (7)
Р(^ Х2 ,..., ХN )
где р(Ук ) - априорная вероятность появления сигнала из к-го класса, Р(Х1, Х2,..., Хм^ /Ук)-
вероятность появления заданной выборки отсчетов сигнала при условии его принадлежности классу
Ук , а Р(х1, Х2,..., ХN )- безусловная вероятность а при ^1 = COnst(k) из (12) следует
выборки. Условная вероятность выборки ь — 1
Р(*1, *2,..., ХN / Ук) равна произведению ^ 1 — р
(к)
вероятности Ч Х1 начальных значений Х1 на вероятность перехода от Х1 к Х2 , затем на вероятность перехода от Х2 к Х3 и так далее. Процесс умножения заканчивается на вероятности перехода от Хм_1 к Хм . Т аким образом, получим (проделайте расчет самостоятельно)
_ Ьк (Х1,Х2.....ХЫ )
дов
(8)
І чХк> • Р (V) • 2
_Ьк (Х1,Х2.....ХМ )
где
М М
Ьк = Ьк(Х^х2,.. ,х^) = _Ц/- • 1о§Р
і=1 1=1
(к)
(9)
(к)
- вероятность начального значения Х0 выборки в к-ом классе, через I.. обозначено общее число переходов процесса из значения Хп = І в значение Хп+1 = - на следующем шаге для всех значений
(10)
п = 1, (N — 1) . Очевидно, что
м м
I I = (п —1).
,=1 ]=1
Как видно из (8), вероятность состояний определяется значениями Ьк , к=1,...,Ь, которые в свою очередь зависят от выборки отсчетов случайного процесса. Величины Ьк (Х1, Х2,..., ХN )
будем называть решающими статистиками, так
как в них содержится вся необходимая для принятия решения информация о наблюдаемом процессе.
Процедура классификации заключается в следующем. Анализатор по поступающим
выборочным отсчетам определяет числа 1^
переходов процесса от одного значения к другому, которые накапливаются от начальных значений 1^ = 0 по мере появления новых отсчетов.
Затем вычисляются решающие статистики (9)
для всех классов Ук, к = 1, Ь, выбирается
минимальное значение
Ь
к0
и минимальное из
оставшихся значений Ьк1. Разность Ьк0 _ Ьк1
сравнивается с порогом
Ьк1 _ Ьк 0 — ^к 0 , который определяется выражением
ІЧ<? • Р^к) к=1
Ок 0 = 1о§2 7^Т~~-------------;
к0 ё2 чГ • Р^к0) • (1 _Рдов)
(11)
Доверительная вероятность Рд
это
- ДОВ
требуемый уровень условной вероятности выбранного класса для заданной выборки отсчетов сигнала. Она характеризует вероятность правильности принятого решения. Выражение (12) для порога с учетом (8) вытекает из равенства
Р(Ук / Х1, Х2 ,..., ХN ) = РДОВ . (14)
Если неравенство (11) не выполняется, то принимается очередной отсчет и вновь вычисляются решающие статистики. Как только оно выполнится, анализ прекращается и выносится окончательное решение Ук0 с достоверностью не меньше Рдов.
Решающие статистики
определяют «расстояния» наблюдаемой реализации от соответствующих классов. Ее можно представить как точку в Ь-мерном гиперпространстве, координатами которой являются значения Ьк . На
рис. 4 в качестве примера показаны области
решающих статистик, соответствующие возможным различным решениям при Ь=2.
Ьк, к = 1, Ь,
Рис. 4
Порог О определяет зону неопределенности (ограниченную пунктирными линиями на рис.4), внутри которой решения не принимаются ввиду низкой достоверности. Левее расположена область, в которой принимается решение о принадлежности наблюдаемой реализации к первому классу, а правее - ко второму. Жирной линией показано движение точки, отображающей реализацию после поступления отсчетов с номерами 2, 3 и так далее (после шестого отсчета принимается решение V2 ).
В рамках предлагаемой методики классификации можно использовать сложные модели классов, определяемые несколькими марковскими моделями. В этом случае решающие статистики целесообразно записать в виде двумерного массива Ьк т, где к - номер класса, а
т - номер модели внутри класса. Правило формирования решения предполагает определение
к=1
минимального значения Ьк0,т0 и следующего за
ним
Ь
к1 ф к 0,
а затем использование
-к1,»1 при
неравенства (11).
4. Обучение алгоритма классификации.
Модели классов в виде матриц переходных вероятностей могут формироваться их теоретических (физических и математических) представлений о формировании классифицируемых сигналов. Достоверность классификации
существенно зависит от точности используемых моделей.
На практике целесообразней использовать экспериментальные модели, полученные в результате обучения процедуры классификации. Обучение в технических системах может проводиться в режимах обучения с учителем и самообучения.
При обучении с учителем в систему классификации вводятся случайные сигналы с известными классами, по каторым формируются
оценки матриц переходных вероятностей \р^к) ] (1)
и вероятностей начальных значений \к(к) ] (2) для каждого из Ь классов. Для этого в реализациях к -
ого класса определяется число переходов
N(к)
соседних отсчетов от 1-ого значения к ^ому, тогда
Р,
(к)
N
(15)
(к)
І
Ч?1 =
1=1
М
Х
1=1
N
(16)
где N - общее число отсчетов. Матрицы [р^) ] и
\к(к) ] являются полным описанием (образом) к-ого
класса. Возможно использование нескольких образов для описания классов сложной структуры в метрике решающей статистики.
В режиме самообучения (обучения без учителя) используются неклассифицированные реализации случайных процессов. При этом согласно (15) и (16) оцениваются характеристики моделей для каждой реализации, и затем модели группируются по близости друг к другу в метрике решающей статистики (9). Проектирование системы классификации в режиме самообучения является достаточно сложной и неоднозначно решаемой задачей.
5. Результаты моделирования алгоритмов обучения и классификации. Моделирование проведено с помощью пакета МаШСАБ для нормальных марковских процессов с различными дисперсиями В и коэффициентами корреляции р при заданных значениях объема обучающей
реализации Nоб и доверительной вероятности Рдов.
Число циклов моделирования выбиралось от 10000 до 50000.
В программе формируются две обучающие реализации квазислучайных процессов с различными характеристиками длиной Nоб
отсчетов, по которым в соответствии с (15), (16) определяются две марковские модели. Затем формируются К реализаций одного из процессов, и в соответствии с разработанной процедурой определяется их принадлежность к каждому из классов. После этого моделирование циклически повторяется для набора статистического материала. На рис.5 показаны зависимости вероятности
ошибки от объема обучающей выборки N об при
классификации процессов по дисперсии для двух классов, первый характеризуется дисперсией В = 3 и коэффициентом корреляции р = 0,5 , а второй - В = 4 и р= 0,5 . На рис. 6 представлены величины среднего числа отсчетов NСР,
необходимых для принятия решения с требуемой достоверностью.
Рис. 5
Рис. 6
Как видно, при небольшом объеме обучающей выборки вероятность ошибки весьма высока (алгоритм «плохо обучен»). При накоплении информации о разделяемых классах она стремится к заданной величине (1 — РдОВ) . Для обеспечения большей достоверности результата необходимо
увеличивать
N.
об '
Среднее число отсчетов
сравнительно невелико, то есть алгоритм классификации работает достаточно быстро.
На рис. 7 представлена зависимость
вероятности ошибки от объема обучающей выборки при классификации по коэффициенту корреляции. Первый класс имеет В = 4 и Р = 0,5 , а второй -В = 4 и р= 0,8 . На рис.8 показаны аналогичные зависимости при различении близких классов по дисперсии, первый характеризуется В = 4 и р = 0,5 , а второй - В = 4,3 и р = 0,5 .
Рис. 8
Результаты моделирования свидетельствуют, что процедура классификации уверенно определяет принадлежность наблюдаемой реализации к соответствующему семейству при различных условиях определения различий классов (параметрическое описание сигналов просто не требуется). Чем ближе друг к другу свойства классов, тем больший объем обучающей выборки
необходим для их различения с заданной достоверностью.
Литература
1. Левин Б. Р. Теоретические основы
статистической радиотехники / Б.Р. Левин. - М., Сов. Радио, 1968.
2. Обнаружение радиосигналов. Под ред. А.А. Колосова / М., Радио и связь, 1989.
3. Камке Э. Справочник по обыкновенным дифференциальным уравнениям / Э. Камке - М., Наука, 1974.
4. Основы теории скрытности: учеб. пособие / З.М. Каневский, В.П. Литвиненко, Г.В. Макаров, Д. А. Максимов. - Воронеж, Воронеж гос. техн. ун-т, 2006.
5. Градштейн И.С. Таблицы интегралов, сумм, рядов и произведений / И.С. Градштейн, И.М. Рыжик - М.: Наука, 1971.
6. Галлагер Р. Теория информации и надежная связь / Р. Галагер - М., «Советское радио», 1974.
7. Сикарев А. А.. Оптимальный прием дискретных сообщений / А.А. Сикарев, А.И. Фалько - М., Связь, 1978.
8. Коржик В.И.. Помехоустойчивое
кодирование дискретных сообщений в каналах со случайной структурой / В.И. Коржик, Л.М. Финк -М., Связь, 1975.
9. Передача сообщений с обратной связью. Под ред. З.М. Каневского. - М., Связь, 1976.
10. Каневский З. М., Литвиненко В. П. Классификационная скрытность случайных процессов. «Синтез, передача и прием сигналов управления и связи», межвузовский сборник научных трудов, ВГТУ, Воронеж, 1994.
11. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. М.: Наука, 1970.
Открытое акционерное общество «Ракетно-космическая корпорация «Энергия» имени С.П. Королева», г. Москва Воронежский государственный технический университет
MARKOVS MODEL OF CASUAL PROCESS
D.G. Pantenkov, V.P. Litvinenko
The Markov model of a signal and casual process is analyzed, the algorithm of mathematical modeling, its numerical results and quantitative estimates, algorithm of training of classification and its mathematical modeling is offered
Key words: Markov model, casual process, useful signal, transitional probabilities, conditions