Научная статья на тему 'Исследование помехоустойчивости неравномерного двоичного кода по алгоритму Шеннона-Фэно'

Исследование помехоустойчивости неравномерного двоичного кода по алгоритму Шеннона-Фэно Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
222
58
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Кротова Е. И.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Исследование помехоустойчивости неравномерного двоичного кода по алгоритму Шеннона-Фэно»

90

180

Рис. 1. Пространственное представление одиночного синтезированного сигнала

На основе выше изложенного сделаем следующие выводы:

1. Ансамбль сигналов Уолша имеет наихудшие спектральные и корреляционные характеристики, поэтому его использование в современных системах связи нецелесообразно.

2. Синтезированные последовательности по своим характеристикам превосходят известные ансамбли сигналов, следовательно, они могут использоваться в системах помехозащищённой ДКМ радиосвязи с кодовым разделением каналов.

3. С учётом того, что синтезированный ансамбль 83 по своим корреляционным характеристикам имеет преимущество по отношению АДОС Стиффлера, то его целесообразно использовать в перспективной системе помехозащищённой ДКМ радиосвязи.

1. Урядников Ю.Ф., Аджемов С.С. Сверхширокополосная радиосвязь. Теория и применение. - М.: СОЛОН-Пресс, 2005.-368с.

2. Сахтеров В.И. Писарев Р.В., Лобзин В.В., Копейкин В.В., Резников А.Е., Железняков В.И., Швец Д.В. Коротковолновая широкополосная радиостанция «Ангара-5М» - Радиотехника и электроника, 2002, Т. 47, №9. - С.1149-1152.

3. Пестряков В.Б. Шумоподобные сигналы в системах передачи информации //. - М., «Сов. радио». 1973, с. 424.

4. Попенко В.С. Векторный синтез ансамблей ортогональных сигналов. Часть III. -МО РФ, 1993. - 150 с.

ИССЛЕДОВАНИЕ ПОМЕХОУСТОЙЧИВОСТИ НЕРАВНОМЕРНОГО ДВОИЧНОГО КОДА ПО АЛГОРИТМУ ШЕННОНА-ФЭНО

Кодирование и передача информации по каналу связи осуществляется в соответствии со схемой канала [1].

Источник генерирует последовательность сообщений из ансамбля {V, Р(У)}, [2] где V - символ сообщения;

Р(У) - вероятность символа сообщения, рассчитываемая по формуле

БИБЛИОГРАФИЧЕСКИМ СПИСОК

Е.И.Кротова

Россия, г. Ярославль, ЯГУ им. П.Г. Демидова

т + ^О - г)2 ]=1

Рис. 1. Структура передачи информации

где i=1...m;

m, r - заданные величины.

Кодер источника кодирует сообщение Vi в Zi по алгоритму Шеннона-Фэно [3], [7]. Энтропия сообщения H(Z), бит/символ вычисляется по следующей формуле: m

H(Z) =-У P(Zi) • log P(Zi). (2)

i=1 2

Формула для расчета средней длины кода Lср, бит имеет вид m

Lcp = ^L(Zi) • P(Zi), (3)

i=1

где L(Zi) - длина кода, бит;

P(Zi) - вероятность кода.

Максимальная энтропия H(Z)max, бит/символ неравномерного двоичного кода Zi определяется по формуле[8]

H(Z)max = log(m). (4)

2

Зная среднюю длину кода, можно определить коэффициент эффективности Кэф кода Zi по формуле:

Еэф = H®. (5)

Lcp

Для расчета коэффициента избыточности Кизб используется формула:

Иизб = H(Z)max -H(Z) . (6)

H(Z)max

Кодер канала осуществляет простое кодирование повторением n = 3 раз каждого двоичного сигнала сообщения Zi. Таким образом, имеется всего два кода: Х1=(0 0 0) Х2=(1 1 1).

Вероятность каждого из них определяется по формуле

m

nZi

P(Xk)= Етж •P(Zi)’ (7)

где к=0,1;

п^ - количество элементов “к” в коде Zi.

При передаче Хк по каналу связи возможны ошибки с вероятностями, определяемыми следующим образом [6]:

P10=0.2 + 0.02А (8)

P01=0.2 + 0.02B, (9)

где р10 - вероятность принятия нуля при передаче единицы;

р01 - вероятность принятия единицы при передаче нуля;

А, В - заданные величины.

В дальнейшем, для удобства будут использоваться следующие принятые обозначения:

Х - передаваемый код;

Y - принимаемый код.

При построении канальной матрицы P(Y/X) воспользуемся тем, что при передаче может произойти ошибка лишь в одном разряде X! или X2.

Тогда в 1 строке матрицы элементы определятся следующим образом:

<

1 - p01 , i = 1

P(xi,yj) = P01/3 , i = 2,3,4. (10)

0 , i = 5,6,7,8.

Элементы канальной матрицы совместной вероятности P(X,Y) определяются по формуле [4]:

P(xi,yj)=P(xi)P(yj/xi). (11)

Зная матрицу совместной вероятности P(X,Y), можно вычислить элементы матрицы вероятностей P(Y). Они находятся по формуле:

P(yi)=P(x1,yi)+ P(x2,yi). (12)

В свою очередь, формула для расчета элементов матрицы условной вероятности P(X/Y) имеет вид:

P(xi/yj)=P(xi,yj)/P(yj). (13)

Энтропия передаваемого сигнала H(X), бит/символ и принимаемого сигнала H(Y), бит/символ определяется соответственно по формуле:

2

H(X) = - Y P(Xi) • log P(Xi), (14)

i=1 2

8

H(Y) = - YP(Yj) • log P(Yj). (15)

j=1 2

Условные энтропии H(X/Y), бит/символ и H(Y/X), бит/символ рассчитываются соответственно по формулам:

2 8

H(X/Y) = - YYP(Xi/Yj) • logP(Xi/Yj) • P(Yj) , (16)

i=1j=1 2

2 8

H(Y/X) = - YYP(Yj/Xi) • logP(Yj/Xi) • P(Xi) . (17)

i=1j=1 2

Совместная энтропия H(X,Y), бит/символ находится по формуле:

2 8

H(X,Y) = - YY P(Xi,Yj) • logP(Xi, Yj) (18)

i=1j=1 2

Взаимная энтропия I(X,Y), бит/символ определяется по формуле

I(X,Y) = H(X) - H(X/Y). (19)

Передача информации по каналу связи осуществляется со скоростью V, рассчитываемой по формуле

V = 1000(А+1). (20)

Постоянную скорость передачи двоичных символов по каналу связи R, бит/с можно рассчитать по формуле[5]

Я = V • 1(Х,У) / 3. (21)

Производительность источника I , бит/с определяется по следующей формуле

Ї = (Н(Х) • V». (22)

На основе рассмотренных теоретических сведений была разработана математическая модель и компьютерная программа. Ниже представлены алгоритм и результаты моделирования.

Определим характеристики посылаемых символов. Вероятности символов ^(они же - вероятности кода 21), генерируемых источником рассчитываем по формуле (1). Полученные значения вероятностей приведены в табл. 1.

Таблица 1.

________________Вероятности и коды символов___________________

VI Р(^) гі Цй)

1 0.231 11 2

2 0.183 10 2

3 0.1408 011 3

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

4 0.1042 0101 4

5 0.0732 01001 5

6 0.0732 01000 5

7 0.0479 00111 5

8 0.0479 00110 5

9 .0282 00101 5

10 0.0282 00100 5

11 0.0141 00011 5

12 0.0141 00010 5

13 0.0056 000011 6

14 0.0056 000010 6

15 0.0028 000000 6

Сначала вероятности строятся по убыванию. После этого все вероятности делятся на две группы так, чтобы в пределах каждой группы их значения были примерно одинаковыми. В старший разряд кодов, соответствующих первой группе вероятностей, записывается 1, для второй группы кодов - 0. Затем каждая из полученных подгрупп, в свою очередь, делится аналогичным образом. При прохождении цикла деления по одному разряду происходит переход на разряд вправо. Деление продолжается до тех пор, пока в каждой группе не окажется по одному коду.

Вычислим энтропию сообщения И(2),бит/символ по формуле (2):

И(2) = 3.218 бит/символ

Среднюю длину неравномерного кода определим по формуле (3):

Ьср = 3.5652 бит.

Максимальную энтропию неравномерного двоичного кода определяем по формуле (4):

Н(2)тах = 3.218 бит.

По формуле (5) вычислим коэффициент эффективности Кэф неравномерного двоичного кода Ъ(.

Кэф = 0.903.

Для расчета коэффициента избыточности Кизб воспользуемся формулой (6):

Кизб = 0.176.

При простом кодировании повторением п=3 раз каждого двоичного сигнала сообщения Zi имеется два кода: Х1 и Х2, вероятности которых Р(Х1) и Р(Х2) находятся по формуле (7):

Р(Х1) = 0.4113, Р(Х2) = 0.5885.

Вероятности возможных ошибок, при прохождении кода по каналу определяются по формулам (8) и (9) соответственно:

Р10 = 0.3, Р01 = 0.2.

Канальная матрица Р^/Х) со стороны приемника для кода Х0 и Х1, рассчитанная по формуле (10), приведена в табл. 2. Для проверки расчета в последнем столбце таблицы 2 приведена сумма по текущей строке. Значения вероятностей в таблице 2 приводятся в десятитысячных долях единицы.

Таблица 2.

Канальная матрица Р^/Х)_______________________________

X У сумма

000 001 010 100 011 101 110 111

000 8000 0667 0667 0667 0000 0000 0000 0000 10000

111 0000 0000 0000 0000 1000 1000 1000 1000 10000

В табл. 3 приведены значения элементов канальной матрицы совместной вероятности Р(ХД), определенные по формуле (11).

Значения вероятностей в табл. 3 приводятся в десятитысячных долях единицы.

Таблица 3.

Матрица совместных вероятностей Р(Х,У)

Х У

000 001 010 100 011 101 110 111

000 3292 0274 0274 0274 0000 0000 0000 0000

111 0000 0000 0000 0000 0588 0588 0588 4119

Элементы матрицы вероятностей Р^) находятся по формуле (12). Полученные данные приведены в табл. 4 в десятитысячных долях единицы. В последнем

столбце для проверки приведена сумма по строке.

Таблица 4.

________________________________Матрица Р(У)_________________________________

У Сумма

000 001 010 100 011 101 110 111

3292 0274 0274 0274 0588 0588 0588 4119 10000

Рассчитав матрицы Р(Х^) и Р(У), можно вычислить элементы матрицы условной вероятности Р(ХУ) по формуле (13). Матрица Р(Х/У) приведена в табл. 5.

Рассчитываем энтропию передаваемого сигнала Н(Х) и энтропию принимаемого сигнала Н^) по формулам (14) и (15) соответственно:

Н(Х) = 0.9777 бит/символ,

Н^) = 2.2025 бит/символ.

Условные энтропии Н(ХУ) и Н^/Х) рассчитаем, воспользовавшись формулами (16) и (17) соответственно:

Н(Х/У) = 0.0000 бит/символ,

H(Y/X) = 1.2244 бит/символ.

Таблица 5.

______________________Матрица P(X/Y)_________________________

X У Сумма

000 111

000 1 0 1.0000

001 1 0 1.0000

010 1 0 1.0000

100 1 0 1.0000

011 0 1 1.0000

101 0 1 1.0000

110 0 1 1.0000

111 0 1 1.0000

По формуле (18) находим совместную энтропию H(X,Y):

H(X,Y) = 2.2014 бит/символ.

Сделаем проверку полученных значений энтропий:

H(Y/X) + Н(Х) = 2.2025 бит/символ,

H(X/Y) + Щ(У) = 2.2025 бит/символ.

Совпадение полученных значений свидетельствует о правильности найденных значений энтропий.

Определим значение взаимной энтропии 1(Х^), используя формулу (19): 1(ХД) = 0.9777 бит/символ.

Количество ошибок, %

Количество повторений, п Рис. 7. Число ошибок восстановления Для отыскания следующих характеристик канала вычислим скорость передачи двоичных символов по каналу связи с помощью формулы (20):

V = 6000 символов/с.

Информация передается по каналу связи с постоянной скоростью R, вычисляемой с помощью формулы (21):

R = 1956.1 бит/с.

Производительность источника по формуле (22) равна:

I = 5868.3 бит/с.

Результатом работы программы являются графики числа ошибок восстановления информации от параметра п (п,1) - кода и от p01 и p10. При теоретическом расчёте мы предположили, что в канале нет ошибок. Действительно, полученное нулевое значение энтропии H(X/Y) также об этом свидетельствует.

Полученный график говорит о том, что это предположение становится соответствующим действительности, только начиная со значений п, равных 20..25.

Примерный вид полученных графиков приведен на рис. 7 и 8.

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Левин Б.Р. Теоретические основы статистической радиотехники. Кн. 1-я, 2-е. изд.— М.: Сов. радио, 1974. - 182 с.

2. Баричев С.Г. Основы современной криптографии: Учебный курс. - 2-е изд., испр. и доп. - М.: Горячая линия-Телеком, 2002. - 175 с.

3. Масленников М. Е. Практическая криптография.-СПб.: БХВ-Петербург, 2003.- 464 с.

4. Ермаков С.М. Статистическое моделирование. — М.: Наука, 1983. - 296 с.

5. Макконнел С. Совершенный код - М.: Microsoft Press. Русская редакция, 2005.-896 с.

6. ЗюкоА.Г. Помехоустойчивость и эффективность систем связи - М.: Связьиздат, 1963. - 320 с.

7. Шеннон К. Математическая теория связи. - М.: ИИЛ, 1963. - 319 с.

Д.Ф. Хисамов

Россия, г. Краснодар, Кубанский институт информзащиты

ВЕРХНИЕ И НИЖНИЕ ОЦЕНКИ ВЕРОЯТНОСТИ НЕПРИЕМА ПСЕВДОСЛУЧАЙНОЙ ПОСЛЕДОВАТЕЛЬНОСТИ НА КАНАЛАХ НИЗКОГО КАЧЕСТВА

В специальных системах связи при резком возрастании ошибок в канале связи возникает необходимость перехода от дискретных к аналоговым методам приема псевдослучайных последовательностей (ПСП). Оценка вероятности неприема

i Надоели баннеры? Вы всегда можете отключить рекламу.