ПРЕВЫШЕНИЕ ПРОПУСКНОЙ СПОСОБНОСТИ КАНАЛА БЕЗ ПАМЯТИ В ДИСКРЕТНО-НЕПРЕРЫВНОМ ДЕТЕРМИНИРОВАННОМ КАНАЛЕ С ПАМЯТЬЮ И ЗАДАННЫМИ ОГРАНИЧЕНИЯМИ
DOI: 10.36724/2072-8735-2020-14-5-15-26
Сухоруков Александр Сергеевич,
Московский Технический Университет Связи и Информатики, Москва, Россия, [email protected]
Ключевые слова: теорема кодирования, пропускная способность, дискретный канал с памятью, межсимвольная интерференция, вероятность ошибки, помехоустойчивость, кодовая комбинация, разрешенная комбинация, защитный временной интервал, аддитивный шум, энтропия, взаимная информация, оптимальный индикатор
Статья подводит итоги исследований автора, изложенных в работах [7-14]. Основной вывод состоит в том, что пропускная способность канала связи с памятью при определенных ограничениях может превышать пропускную способность канала без памяти. Уменьшение длительности информационных импульсов и периода их следования увеличивает скорость поступления информации на вход канала связи. Однако, канал связи (КС) без памяти превращается в КС с памятью и, возникающая межсимвольная интерференция (МСИ) уменьшает скорость передачи информации через КС. Соответствующие формулы показывают необходимость поиска оптимального соотношения между бодовой скоростью и вероятностью ошибки при заданном уровне аддитивного шума. Рассматривается дискретно-непрерывный детерминированный канал с памятью (ДНДКП), для которого передаваемые сигналы есть дискретные по времени и непрерывные по уровням комбинации. Параметры КС известны на передаче и на приеме. Представляя процессы на входе и выходе ДНДКП в виде L-мерных векторов, в работе доказана теорема кодирования при наложении на передаваемые комбинации ограничений на энергию и энергию разности комбинаций. Показана экспоненциальная зависимость средней вероятности ошибки при приеме 'в целом' L-мерного вектора от длительности комбинации. Ограничения, наложенные на разрешенные комбинации, не изменяют экспоненциальной зависимости вероятности ошибки от длительности комбинации. Доказана теорема кодирования, если для передачи используются только хорошие коды с заданной энергией и энергией разности комбинаций. Это позволяет указать конструктивные пути увеличения пропускной способности КС. Для КС с памятью длительность комбинации следует увеличивать пропорционально количеству символов в кодовой комбинации, но коэффициент пропорциональности меньше 1. Для разных отношений сигнал/шум определен диапазон значений этого коэффициента пропорциональности, которые позволяют получить скорость передачи больше пропускной способности канала без памяти, и при этом вероятность ошибки стремится к нулю при длине комбинации, стремящейся к бесконечности. Этот же результат может быть получен с помощью оптимального индикатора. Оптимальный индикатор устраняет межсимвольные помехи, что позволяет разделить информационные импульсы при интервале следования импульсов больше сколь угодно малой величины. Вероятность ошибки может быть сделана сколь угодно малой для определенной формы частотной характеристики КС. При этом возрастают требования к параметрам КС и существенно усложняется декодер.
Информация об авторе:
Сухоруков Александр Сергеевич, к.т.н., доцент кафедры общей теории связи Московского Технического Университета Связи и Информатики, Москва, Россия
Для цитирования:
Сухоруков А.С. Превышение пропускной способности канала без памяти в дискретно-непрерывном детерминированном канале с памятью и заданными ограничениями // T-Comm: Телекоммуникации и транспорт. 2020. Том 14. №5. С. 15-26.
For citation:
Sukhorukov A.S. (2020) Exceeding the bandwidth of the channel without memory in the discrete-continuous deterministic channel with the memory and set restrictions. T-Comm, vol. 14, no.5, pр. 15-26. (in Russian)
Введение
Данная статья подводит итоги исследований автора, изложенных в [7-14]. В указанных работах исследованы способы увеличения скорости передачи и помехоустойчивости в канале связи (КС) с памятью. Итоговый результат изложен в данной статье: пропускная способность КС с памятью больше пропускной способности КС без памяти. Плата за это - ужесточение требований к КС и усложнение кодека. Данная статья обобщает и уточняет предыдущие работы, на которые даны соответствующие ссылки.
В монографии [1] доказаны теорема кодирования и обращение теоремы кодирования для дискретного, дискретного по времени и непрерывного КС без памяти. Дана оценка пропускной способности таких каналов. В [1] используется методика «ансамбля случайных кодов». Использование этой методики означает, что на КС и используемый случайный код накладываются определенные ограничения, известные и на передаче, и на приеме:
1. Ограничение на начало передачи комбинации (синхронизация кодера и декодера).
2. Ограничение на длительность кодовых символов (иначе невозможно реализовать оптимальный прием).
3. Ограничение на длину комбинаций N и основание кода т.
Эти ограничения позволяют для избранной модели получить экспоненциальную зависимость средней вероятности ошибки от длины N кодовой комбинации. Без этих ограничений оптимальный прием комбинаций декодером невозможен и вероятность ошибки, в среднем, будет равна (т-1)/т.
Если же априори такие ограничения не накладывать, то необходимо передавать декодеру информацию, соответствующую этим пунктам. Однако, этот вариант дискредитирует доказательство теоремы кодирования и ее обращения, так как эти доказательства предполагают отсутствие какого-либо дополнительного КС кроме того, по которому передается кодовая комбинация случайного кода.
Указывая на эти ограничения, предложим новые ограничения для достижения оптимальных способов обмена скорости на помехоустойчивость.
В отличие от работ автора в данной статье рассмотрим в качестве модели дискретно-непрерывный детерминированный канал с памятью (ДНДКП) с ограниченной полосой частот F:
— Источник информации является источником дискретных по времени и непрерывных по уровням кодовых комбинаций v(t) е F' длиной Л' и длительностью Тк, поступающих на вход канала с ограниченной полосой частот F.
— На выходе канала с памятью каждая комбинация v(t) преобразуется в однозначно соответствующую ей непрерывную по времени и уровням комбинацию u(t) eU'\ Длительность комбинации u(t) на выходе КС превышает 7) на величину памяти Т„ канала. При достаточно большом Тк »Т„ этим увеличением можно пренебречь.
— Канал детерминированный, т.е. его параметру известны и на передаче, и на приеме.
В [8] доказано неравенство, практический смысл которого состоит в следующем. Имеем комбинацию длительностью Th-NTi из N символов длительностью Ту. Увеличиваем длину комбинаций до N+n символов, уменьшая длительность символов до 7?. Длительность комбинации
Tk-(N+n)T2= NT/ остается постоянной. Скорость передачи информации увеличивается в (N+n)/N раз. Однако, при этом КС с ограниченной полосой частот F из канала без памяти превращается в КС с памятью, что уменьшает количество принятой информации из-за появления помех в виде межсимвольной интерференции (МСИ).
Поясним это положение простым примером, дополнив рисунки из [13].
На рисунке 1а показана комбинация v/t) длительностью Тк на входе канала из N—3 символов; рисунок 16 - это ui(t), т.е. та же комбинация на выходе канала без памяти при N=3. На рисунке 1г показана комбинация v2(t) той же длительности 7* из (N+n)=11 символов на входе канала. На рисунке 1д показана комбинация u/t) из 11 символов на выходе канала с памятью, пораженная МСИ. Отсчеты сигнала щ(() на рисунке 1д в тактовые моменты времени принимают значения, совпадающие со знаками переданных символов, за исключением отсчетов в тактовые моменты 7 и 11 (эти символы приняты неверно). Таким образом, за интервал времени Тк по каналу без памяти верно передано три символа, а по каналу с памятью верно передано 9 символов, т.е. скорость передачи выросла в три раза.
Г) Д> е)
Рис. 1. Диафаммы комбинаций из 3-х и 11-ти импульсов на входе и выходе КС с шумом
Количество средней взаимной информации 1(0^' " ;1л "), заключенное в принятой комбинации u2(t) о переданной комбинации Ih(t) из (N+n) символов, заключено в пределах:
sup i(lf; Vs) < I(UN "; VN ")< sup !(UN "; И"' "). (1)
Для комбинации из (N+n) импульсов с уменьшенной длительностью импульсов, первые N импульсов поражаются МСИ, и I(lA';UN) для комбинации из N импульсов не совпадают с 1(VN;if) для первых N импульсов комбинации из (N+n) импульсов.
Поэтому из комбинации с (N+n) импульсами выделяем N импульсов разнесенных на интервал ортогональности на передаче. На приеме они также не поражаются МСИ и для них справедливо:
; If)N.
Далее из (1) получим:
I(lf'": Гу")= /(if*"; V")+ Iflf*" : V"\ Vs) =
= l(V"; lf ")+ f(UN " ; V"\ lA)=sup 1(1*; lf)+
+ Iff; U"\lf) )+ ¡(if " ; П Vя).
Левое неравенство следует из того, что второе и третье
слагаемые неотрицательны, правое неравенство очевидно из условий определения sup I(UK (/Л ").
Учтем наличие аддитивной помехи. На вход декодера поступает непрерывный процесс z(t)=u(t)+x(t), zeZ , т.е. сумма u(t) с аддитивной помехой x(t).
Рисунок 1в - это процесс '¡(0, т.е. комбинация U/(t), пораженная шумом на выходе канала без памяти при N- 3. Рисунок 1с — это процесс zrft), т.е. комбинация ib(t) из 11 символов на выходе канала с памятью, пораженная МСИ и шумом. Получим для ДНДКП:
sup [(/.: (J,v) < /(Z; СN+") < sup /(Z; Г/ );
где: I(Z;UN), l(Z;lf ") - среднее количество информации, заключенное в процессе z(t) на выходе КС о переданной комбинации длиной N, либо (N \ п).
Для помехи типа аддитивного гауссова шума взаимная информация l(Z;U' ") может быть выражена через энтропию источника H(U" ") и потери информации в канале Щ1 ' 7Z)=H(X):
I(Z;UN ")=H(lf ")- H(lf "/Z).
Для ДНДКП среднее количество информации на одну комбинацию, поступающее на вход КС, т.е. энтропия источника при основании кода т: Н< log т' и Н< log nf " для длины комбинации N и N+n, соответственно. Скорость подачи информации на вход КС с памятью выросла в [(N I п)/М] раз. Потери информации в КС при средней вероятности ошибки р„ш можно оценить по формуле [4]:
H(ZJ U) = -Рош log^--(1 - Раш) logo - Рош);
in ]
Вывод: скорость передачи и КС с памятью может превышать скорость передачи в КС без памяти. Задача состоит в том, чтобы найти наилучшие способы обмена скорости на помехоустойчивость. В частности в |4] отмечен «любопытный факт»: пропускная способность для двоичного КС с памятью больше, чем для КС без памяти.
Теорема кодирования для ДНДКП с ограничением на полосу частот канала, средишш энергию и энергию разности комбинаций
Источник информации формирует дискретные по времени и непрерывные по уровням кодовые комбинации vm(t) длительностью Tt из А'символов длительностью Т: Тк -NT.
На вход декодера поступает процесс z(t) = um(t)+x(t), равный сумме одной из реализаций сигнала um(t) и реализации помехи x(t). Реализации сигнала um(t) на выходе ДНДКП с ограниченной полосой частот Г равны:
стью Т^ из N символов имеют энергию на выходе канала, удовлетворяющую неравенству:
«,„(0- jvjTjgU T)dr.
(2)
i:-a<v2Ji) </-.'; \<m<Mp,
2. Из общего числа M комбинаций случайного кода некоторое количество Мр реализаций \m(t) е 1мр длительностью 7* из N символов имеют энергию Ер разности реализаций um(t) на выходе ДНДКП удовлетворяющую неравенствам:
ос-
£,-/?< J[^,(r)-^(т)]2rfrS£,;1<mSM,; 1<»<Мр;
—ао
3. Передаваемые комбинации vm(t) разделены защитным временным интервалом '/ ..
4. Длительность 7) реализаций сигнала vm(t), защитный временной интервал Г. между передаваемыми реализациями сигнала и длительность Т„ «памяти» канала удовлетворяют соотношению: Tt, »Tj»T„.
5. При увеличении N длительность комбинации Т^ =ANT при А<1. Таким образом, при увеличении N длительность импульсов Т может уменьшаться и Тк растет медленнее, чем N. Это увеличивает скорость передачи, но приводит к усилению МСИ.
Средняя взаимная информация между процессами z(t) и u(t) обозначим I(ZM;UM).
Пропускной способностью ДНДКП будем называть максимальную скорость передачи в единицу времени при сколь угодно малой вероятности ошибки:
С,
I
, - lim sup-л >' Т +Т
/; лт и
/(Z":UV
где - импульсная реакция ДНДКП, известная на передаче и на приеме, т.е. возможные варианты и„,(0 также известны и на передаче , и на приеме.
Введем ограничения на среднюю энергию комбинаций и энергию разности комбинаций:
1. Из общего числа М комбинаций случайного кода некоторое количество Мг реализаций у„(1)еУ р длительно-
Верхняя грань ищется для всех распределений процессов на входе и выходе КС, для множества возможных способов передачи и приема сигнала. Из вышеприведенного примера видно, что увеличивать скорость передачи в ДНДКП можно не увеличивая пропорционально N длительность комбинации.
Теорема кодирования
Пусть множество / л передаваемых кодером дискретных последовательностей мт(1) длительностью 7* из N символов, разделенных защитным временным интервалом Т, на входе ДНДКП, и множество [/" непрерывных реализаций и,„(У) на выходе ДНДКП (на входе декодера) состоят из однозначно соответствующих друг другу реализаций. Пусть из общего числа М комбинаций случайного кода некоторое количество М„ реализаций удовлетворяют ограничениям 1-4.
Кодер выбирает реализации независимо с вероятностной мерой 0(у,„). Пусть вероятность ошибки в решениях декодера описывается переходными вероятностями Тогда средняя вероятность р ошибочного декодирования кодовой комбинации «в целом» по этому ансамблю реализаций при декодировании по максимуму правдоподобия, ограничена сверху:
p<[ju-'À '"-expi- N[E0-pR]}-,
(3)
I AT M __
Л „_] [_„_]
+</[ÔÛÔ Я,]}]"
-lll+jp)
Доказател ъство
Доказательство теоремы кодирования для ДНДКП аналогично соответствующему доказательству в [1]. Принципиальное отличие состоит в том, что в [1] для канала без памяти доказательство относится к средней вероятности ошибки в последовательности из ¿ символов, а в ДНДКП к средней вероятности неверного приема комбинации «в целом», к вектору. Кроме этого, и отличие от [I] на принимаемые комбинации наложены дополнительные ограничения 2-4.
Пусть реализации случайных процессов и„,(!), Ут(()> и х(() непрерывны в средне квадрат ичес ком смысле. Каждый из них может быть представлен рядом (в среднеквадратиче-ском смысле) [3], коэффициенты которого есть проекции соответствующей реализации на совокупность /. ортонорми-рованных функций <рк(1). Например, для реализации ит(1) получим:
(4)
кодовые комбинации, позволяют рассматривать ДНДКП, как дискретный по времени канал.
Среднюю взаимную информацию между векторами 1ц, ит и процессами г(\) и и(0 обозначим так:
1{гм\1!м) = Нт
¡-к
Пропускная способность ДНДКП может быть записана для векторов в виде:
С - lim sup
1
¿-КО
.LXI > .V > к
Tt+T,
/(Zf;'/;" );
Пусть Qp(v„„u„,) - распределение вероятностей векторов из N символов на входе канала, удовлетворяющих ограничениям. Средняя вероятность ошибки при приеме вектора из множества векторов разрешенных для передачи и множества (У/,"'' разрешенных на приеме имеет вид:
Pi = EZCiJ(vmtMm)p(zn / vffl)um >p(vk,uk /zn);
(5)
k 'k
<h(0 - л ¡B(i,T)tp,(T)dT: B(t,t) - j«,„(ЩМ ( T)dt\
о 0
Соотношения аналогичные (4) могут быть записаны для
vjt), z(t) и x(t):
vJn «[vBl.. .vm; ] = vm; *„ (i) «[*nl..Jtj = ж.; zt (i) «[z„...zk, ] = zh.
Задание реализаций процессов v„/t), um(t), zk(t), x„(t) эквивалентно заданию совокупности коэффициентов или векторов Vm, ит, zk,x„.
Для любого конечного L ограничения приобретают вид:
1а. Е, -а<\2т <£,; 1 <т< Мр,
2а. EpL - р< (um -ип)2 < Epi", 1 < т < М: 1 <п<\1„; т*п;
За. Соотношение между Т<, Т: и ^„сохраняется.
Таким образом, множества содержат А/ наборов ¿-мерных векторов. Для любого из векторов справедливо утверждение, что вектора тождественно равны и„,- и,,, если и,„ (и - u„(t). Реализации vm(l) отличаются одна от другой как минимум в одном символе и, следовательно, образуют счетное множество. Реализации um(t) также образуют счетное множество, так как минимальная энергия разности Ер должна быть конечной величиной. Если она бесконечно мала, то и для любых реализаций величина Ер - бесконечно мала и передача информации через такой КС невозможна.
Если множества счетные множества, то выходное множество реализаций z{t) можно разбить на М непересекающихся подмножеств / <k<M, объединение которых образует все выходное пространство ДНДКП. Каждое из подмножеств Z* соответствует одному из М ¿-мерных векторов множества U/M.
Процесс передачи можно описать как передачу случайно выбираемого из множества ViM вектора vm из ¿ символов, который па выходе ДНДКП преобразуется в однозначно соответствующий ему вектор и„, из ¿ символов, принадлежащих множеству UI1. Декодер анализирует вектор zk=u„, + х„. Если принимаемая реализация zksZm, то декодер принимает решение: «принят вектор и„, передан однозначно соответствующий ему вектор vm». Ограничения, наложенные на КС и
гдер(Рк,и^ - вероятность ошибки, т.е. вероятность приема вектора ик, соответствующего переданному вектору г*, при передаче вектора »',„, которой соответствует вектору ига на входе приемника.
Запишем в виде:
0{\,„ ) - вероятность передачи произвольного вектора \'гп: ,ит) - вероятность передачи вектора \т, если и,
однозначно соответствующий ему вектор ит, удовлетворяют ограничениям; у(хтг\, если удовлетворяется ограничение 1;
- 0, если не удовлетворяется ограничение 1: - 1
- если удовлетворяется ограничение 2; у ("уП1,иП1) = 0 - если не удовлетворяется ограничение 2;
м
^ = ^^ ^ (^т ) -
П1— I
вероятность того, что при независимом выборе вход-пых комбинаций удовлетворяется ограничение I.
м
- вероятность того, что при независимом выборе вход-пых комбинаций удовлетворяется ограничение 2.
Для г,с/> 0 функции Ц)(\'т) и У('\',,,,11т) ограничены сверху по аналогии с [1]:
|;/(ут)<ехр[г( ¥,;-£,+«)];
KVm'Um ) 'S exp{i/[(u1M -ип Г - е., + /?]}; Следовательно, Qp(vm ,um) запишем в виде:
e/vm,Um)<^ Я exp[r(v„ - Е, +а)]х
ш
pi ' Е'1 ff)1><
Выразим
п,)- Анализируя вектор гп, соответствующий процессу г(()= ит(1)+х(1), посту пающий из КС на его вход, декодер принимает решение, соответствующее тах Ошибка Ек произойдет, если при передаче вектора уга будет принят вектор ик, соответствующий переданному вектору Ук, т.е.:
Вероятность ошибки не больше объединения вероятностей которая увеличивается при возведении и степень 0<р<1 [1]:
p(vk,uk/z0) = ;j
U Et
; 0 < /7 < 1;
/)(zn/v1B,uin)<^(z0/vk,ul[).
Вероятность события Ек есть вероятность появления вектора ук или решений и^ при условии:
■Ы 1=1
p(vk,ub/za) = Uk/vm,ura).
I] од ставим p(EjJ в:
p(z„/vk,ut)
Ж'*-» О
при s > 0;
/>(z„/vm>UJ
11осле суммирования по к в правой сумме, под знаком второй суммы имеем (М-1) одинаковых слагаемых. Можно также сказать, что вторая сумма имеет один и тот же вид независимо от к (глухая переменная) [1]:
A,„(vk,uk/vin,uni)<
P(z„/vk,uk)
Подставим это выражение в формулу для средней вероятности ошибки (5):
Pi =ZZö,(vm,uJKzn/Vm,nJ Ж
r?=l т=\
м
(M-l)Xö/vt,uL)
MZ„/Vm.Um)
p-
После преобразований имеем с учетом, что р(1„ Л'„, ,ит) не зависит от к:
(I Ч» .
Р, * ш ■ 0*1 £0„(v.,/ vm,um)
Выбираем s=l/(1 +р), минимизирующееpL [I |:
(6)
Pl < (М - O'jrjr Qp(ym, Ujp( zn / v„ ,u J(1 ■X
n-\ m-l
M
£ß,(vb,nk)p(i>/vh,>tr"
Видим, что есть две одинаковые суммы - одна в первой степени, а вторая в степени р:
р, <(M-ir£
lUp) 1
Up
Так как (М-1)< ехр(ЫК)1<Л/ из []], где I* = 1пД/ Д -скорость блочного кода, то запишем (М-1) в виде экспоненты. Подставим выражение для разрешенных комбинаций ЙЛ*, (М-1):
р, <(М-1Г£
£/' 'Л 1 exp[r(V -Е, +«)]>
xexpii/[(un,-un)i-^ +^]}e(vJp(Zn/vintu,n)" '"'] м
р, < 'Я
£expKv; -Е, )]>
xexp{C/[(uin-uji-T:J№yJp(zJv,ll,UJ, < '> ] ' .
При L—>™j получим:
р= lim р, <[р 'Л V11"^]'''"-expf-A't
I м
Л (1-1
x^ÖIv.WMexpWviiO-fil + flKn.iO-H.iO)1-^]}
' - Т-Х
(llf.)"1
Получили выражение (3). Анализ в [1| показывает, что [Е0 -рК] > 0 если скорость передачи меньше пропускной способности КС при посимвольном приеме комбинации [1]. Совершенно аналогичные выкладки показывают, что при передаче и приеме информации комбинациями «в целом» разность положительна, если скорость передачи меньше пропускной способности КС.
Оценим влияние |д и X на вероятность ошибки. Постоянство энергии комбинаций на входе КС - основной параметр, определяющий вероятность ошибки. Для КС с памятью этот параметр имеет большее значение, чем для канала без памяти. Увеличение N для канала без памяти не меняет усредненный спектр сигнала, так как длительность кодовых символов не меняется. Для канала с памятью увеличение N может происходить при уменьшении длительности кодовых символа, что увеличивает ширину спектра передаваемых комбинаций. Мощность сигнала на выходе КС уменьшается не только за счет затухания в КС. но и за счет уменьшения мощности сигнала, проходящей через КС с фиксированной полосой пропускания. Поэтому фильтр с полосой пропускания равной полосе пропускания КС необходимо включить до входа выходного мощного каскада передатчика.
В этом случае средняя энергия для каждого кодового слова г„, длительностью Тк на выходе КС удовлетворяет неравенству I. Энергия всех комбинаций на входе и выходе КС остается постоянной при данном N и ц I.
При увеличении N и укорочении посылок передаваемый процесс х„,(1) становится все более широкополосным и на выходе узкополосного канала с памятью процесс и,„(1) нормализуется. Дисперсия разности комбинаций равна 2Е. При увеличении N длительность комбинации растет пропорционально АМ, где /1<1(см. ниже). То есть энергия комбинации растет как AN и вероятность выполнения неравенства 2 пропорциональна а/№5. Величина X."1 растет как степень N и не меняет экспоненциальной зависимости вероятности ошибки от N.
Вывод: теорема кодирования справедлива для ДНДКП с памятью при условии приема кодовых комбинаций «в целом» и ограничениях на полосу частот КС, энергию и энергию разности комбинаций.
Теорема кодирования для ДНДКП при полностью известных сигналах с ограничением на среднюю мощность и энергию разности комбинаций
В предыдущем разделе используется методика «ансамбля случайных кодов». Эта методика определяет границу вероятности ошибки, но не указывает конструктивные способы ее достижения.
Для получения в ДНДКП выигрыша по скорости передачи или помехоустойчивости по сравнению с каналом без памяти наложим дополнительное ограничение на ансамбль передаваемых дискретных последовательностей:
Iа. Для передачи используем только те Мр реализаций у„/1) е 1А'Р, энергия которых на выходе канала задана и удовлетворяет неравенству:
Е-а< < Е; 1 <т<МР;
2а. (ля передачи используем только те Мр реализаций ут(1), для которых энергия Ер разности реализаций и„,(Г) на выходе ДНДКП удовлетворяет неравенству:
□с —□С'
Ъа. Множества из Мр разрешенных для передачи кодовых комбинаций Vт(1) и однозначно соответствующих им непрерывных реализаций сигнала ит(() вида (2) на выходе ДНДКП точно известны и на передаче, и на приеме. Таким образом, наложенные ограничения позволяют перейти от случайного выбора кода к алгоритму оптимального приема счетного множества ) ''" полностью известных вариантов передаваемых сигналов в КС с АБ1 Ш. Наложенные ограничения позволяют рассматривать передаваемые и принимаемые комбинации как буквы алфавита дискретного по времени и непрерывного по уровням источника.
Теорема кодирования
Пусть множество 1Л1р передаваемых кодером дискретных последовательностей \'„, длительностью 7) из N символов, разделенных защитным временным интервалом Т, на входе ДНДКП, и множество 1/'!р непрерывных реализаций ит(() на выходе ДНДКП (на входе декодера) состоят из Мр одно-
значно соответствующих друг другу реализаций. Множество разрешенных реализаций Vм'' точно известно и на передаче, и на приеме. Рассмотрим ансамбль кодов, каждый из которых содержит Мр слов vm(t) длительностью Гь которые являются разрешенными, г.е. удовлетворяют ограничениям 1а-3а и 3-4. Кодер передает только разрешенные реализации. Пусть вероятность ошибки в решениях декодера описывается переходными вероятностями p(vk,ui/vimuin). Тогда средняя вероятность р ошибочного декодирования кодовой комбинации «в целом» по этому ансамблю реализаций при декодировании по максимуму правдоподобия, ограничена сверху:
p<exp{Tk[HmJVM )-(/']}.
Доказател ьство
Анализируя процесс ~(t)= um(t)+x(tj. поступающий из КС на его вход, декодер принимает решение, соответствующее тпах p(v„„u„/z0. Поскольку x(t) аддитивный белый гауссов шум (АБГШ) со спектральной плотностью энергии Со, то декодирование по максимуму правдоподобия эквивалентно нахождению um(t), для которого среднеквадратическое отклонение от принятого z(t) - минимально.
Для рассматриваемой детерминированной системы сигналов, удовлетворяющих ограничениям, и помехи в виде аддитивного белого гауссова шума, оптимальный приемник имеет стандартную схему. В этом случае вероятность ошибки p(111I(v,<¡,ui/vm,un,) при передаче vm(t), определяется известным выражением [2], которое при равновероятных vjt). не зависит от т и к и совпадает со средней вероятностью ошибки. При Мр-1 имеем с точностью до коэффициента [2]:
dt.
Средняя вероятность ошибки р для Мр-ичной системы с заданной Е можно ограничить выражением [2]:
< Мре
V)
Установим связь пропускной способности КС с заданной полосой пропускания £ с отношением Ер/Со, Если ЕЦ/) -АЧХ канала связи, то его полоса пропускания Е определяется так:
| K(jf)2 4f ¿_.
}l fí(jf)2 df
■is:
Пропускная способность КС связана с отношением мощности сигнала Р, к мощности белого шума сг в полосе частот Е: }г-Р,/<г; &=С0Е: И2=ЕР /Т,С„Е
Из физических соображений очевидно, что для разумно построенной системы связи пропускная способность С" на единицу времени есть неубывающая функция отношения энергии сигнала к энергии шума Ер/С,,, т.е. С'= у (Е/С!,,)-Например, в соответствии с формулой Шеннона для КС с АЧХ эквивалентной идеальному ФНЧ:
С -Е*1п{] I Е^ТЕСо): Ер/С„=ЕТ[ехр(С'/Е)-1].
I
T-Comm Том 14. #5-2020
В [1] доказано, что верхняя грань С в натах при увеличении числа степеней свободы равна:
Р .-гТкР Е зирС = —; ТкС =-*-*-=——.
Подставляя верхнюю грань в формулу для р, получим:
PvAvk,Uk /vm,Uni)<Me "" = Ме 7'1.
(8)
Пусть максимальная производительность источника, производящего Мр разрешенных реализаций длительностью Т), равна:
Я_(Г') = тах
//(>" ) In Ai
—--1-=mav-i-L =-1_ *
max-
Тк
Для любых конечных /V, Тк, Мр максимальное среднее количество информации па реализацию:
(9)
Из (8) и (9) следует, что вероятность ошибки не более:
/ - ехр[ТкН№{Ум') - Т::С ];
Эта вероятность ошибки не зависит от т и к, т.е. средняя вероятность ошибки равна:
¿> < ex р {Г. [(К ') С']};
(10)
С' = -
1
1
КЛ.ХТ+Т ) Д 2(/1ЛТ-/'.)
log-
ñ=fV-l)
'.v V-l)
'^vi Y-l:
где: Д, , О. - определители корреляционных матриц шума и суммы сигнала и шума ~(1).
В* = х(пАГ)х(тАТ) = a;/íri -функция корреляции отсчетов шума:
В„, _ 7") = сг, R¡:1 - функция корреля ции отсчетов сигнала;
R, =-
" -коэффициент корреляции отсчетов :(!).
ВЛ = :(nAT)z(mAT) = a- функция корреляции отсчетов ~(/).
Результирующее поведение С зависит от вида корреляционных матриц для сигнала и шума. Пренебрегая малой Т, при NAT—>оо получим из (11) [5,9]:
С'= lim -
1
, у 1
-In—- = lim
n^*>2ANT D л 2AT
-In
2AT
In ехр
— Jin
2ж J
С;дй>)
gM
da
C" = -
1
4л AT
f,„
<;:(oA с](соУ
dm = ■
1
4 ж AT
A
vA
Jin
1 +
(JJo) C,(a>)
dcü:
Из (10) следует, что при производительности источника меньше пропускной способности канала вероятность ошибки может быть получена сколь угодно малой.
Из теоремы кодирования вытекает, как очевидное следствие, обращение теоремы кодирования;
«При выполнении условий, сформулированных в теореме кодирования, следует, что если производительность источника больше, чем пропускная способность канала, то нельзя достичь сколь угодно малой вероятности ошибки».
Вывод: теорема кодирования справедлива для ДНДКП с ограниченной полосой частот и памятью при использовании полностью известных кодовых слов с заранее известной энергией и энергией разности комбинаций; вероятность ошибки экспоненциально уменьшается с ростом длительности комбинации Тк.
Пропускная способность ДНДКП с известной корреляционной матрицей
Если описать процессы длительностью 7¿ совокупностью отсчетов в равноотстоящие моменты времени k7", l<k<(N-l) то пропускная способность КС определяется корреляционными матрицами сигнала и шума на входе приемника [3]. Для КС без памяти в [7,9,10] приведены соответствующие формулы. Для ДНДКП длительность комбинация 7¡ -ANT где коэффициент А<1 указывает на уменьшение длительности импульсов в передаваемой комбинации. Поэтому N отсчетов соответствуют моментам времени кАТ. Выражение для С' принимает вид:
где Gu(co), GДш), СДш) преобразования Винера-Хинчина от корреляционных функций сигнала, шума и их суммы, соответственно.
Для КС без памяти T=const 1,4=1) и пропускная способность постоянна. В частности, для КС с идеальной АЧХ из (II) следует стандартная формула Шеннона. Для КС с памятью длительность импульсов Т и длительность комбинации Тк уменьшаются (А< 1), что увеличивает С', но уменьшает помехоустойчивость.
Рассмотрим возможности канала с памятью для обмена скорости на помехоустойчивость.
I. Пусть кодер формирует двоичные комбинации длиной N, общее количество комбинаций М=2 . Известно [2], что для КС без памяти при увеличении N и М можно увеличивать длительность комбинации Тк пропорционально logM : Тк ~TlogM. Вероятность ошибки р для М-ичной системы ортогональных сигналов имеет вид [2], если E¡=PLT¡Í -энергия одиночного импульса:
p*(M-\)-Q
— log М
(12)
В соответствии с (12) 0 при N^1», М если
отношение энергии одночного импульса £/ к Си больше порога Шеннона Е¡/С0>/и2=0,6932 [2]. Однако, скорость передачи информации/'остается постоянной:
/'-1оёМр/Т1\ =1о8Мр/Т1оёМР-ИТ.
1. > (ля ДНДКП при увеличении N и Мр увеличиваем длительность комбинации Тк пропорционально /с^Ц,, но длительность импульсов комбинации уменьшаем как А Т\
С' = -
G„ In 2
и при этом возможно получить сколь угодно малую вероятность ошибки при Мр—ж.
Очевидно, что проблема состоит в нахождении таких кодов, которые содержат достаточно мощное подмножество с требуемой величиной энергии разности комбинаций Ер. В [141 рассмотрен простой способ формирования подмножества комбинаций с заданным значением Е р на основе кодов Баркера. Для небольших N ортогональность комбинаций на выходе КС с памятью нарушается, потому передаваемые комбинации корректируются.
Реализация пропускной способности ДНДКП путем использования оптимального индикатора
Процессы на выходе ДНДКП - непрерывные. Это позволяет использовать на приеме более сложные алгоритмы обработки аналоговых сигналов по сравнению с достаточно простыми алгоритмами обработки дискретных сигналов. Рассмотрим возможности оптимального индикатора [12, 131 для реализацию пропускной способности ДНДКП.
В соответствии со стандартным определением (википе-дия): если Ус^Х - выбранное подмножество произвольного множества X, то функция, определенная следующим образом:
Л-м-
л-е У; х £ Y;
Ш =
\АФ 0, а- е ,S'; [О, x<tS\
Ограничимся рассмотрением функционального нормированного пространства Е2 Для каждого элемента х,$,: из X, Б, 2, для каждого оператора/т(*), для каждого функционала /, (*) определены: норма х |; расстояние г(х,у) = |.т - у : сходимость по норме: хт^х, х„, - х\ \ —>0; непрерывность нормы х I при х,„—хх; фундаментальная последовательность \Хщ}: | |л-„, - л-, | ->0 при т,р-хс.
Пусть функцииАк (э) образуют множество ортонормиро-ванных функций:
\Ms)f„(s)dp-
1 ,к-п: О, к * и;
(16)
Лемма [12, 13]. Пусть заданы не пустые, не пересекающиеся подмножества сигналов и случайных помех Хс±.2, Хг& =0. Тогда для любой реализации случайной помехи хеХ и совокупности ортонормированных операторов
!](*) соответствующий линейный ограниченный оптимальный индикатор сигнала /,(б)=А^0 реализует отношение:
< ь';
(17)
где — сколь угодно малая величина.
Докажем это неравенство в отличие от [12]. используя необходимые и достаточные условия сходимости рядов. Из (16)получим:
Функция fk (х) может быть разложена в ряд по ортопор-мированным функциям ftfs):
А (х) ■ С и, А (s) + Ctl А ..... + С^А (s)+... ;
где
с,, = }Л (*)Л Uyip;
Тогда индикатор Е(х) принимает вид:
',(*) = !; с*;
(18)
называется индикатором множества А, индикаторным функционалом множества Л.
Введем индикаторный функционал множества сигналов Б или оптимальный индикатор (ОИ) в общем виде [12]:
Мм [¿Мм, (.«*//,: 1Ах)= ¡¿ШМхУм; (15>
где Ак(*) ~ некоторые функции, операторы от л- или х; 5 —заданная индикаторная функция (сигнал). Индикаторный функционал множества 5 удовлетворяет условию:
Необходимое условие сходимости ряда (18): СЛЛ- >0 при ко. Так как все функции Ак/х) принадлежат к Е2, то ряды для А (х)> // (х).....А (х) сходятся и, в соответствии с уравнением замкнутости, имеем:
¡Ш2Ым = £Сь
Следовательно, все коэффициенты С'<,у и СХ\ стремятся к 0 при N—>00.
Если для какого-то N это условие не выполняется, то соответствующий ряд — расходится.
Достаточное условие сходимости (18):
С.,
<1;
с;,..,,
Если: Сц< С22 ■■•< Ckt, то ряды для больших N не могут сходиться, что противоречит сходимости (18), т.е. должно выполняться условие С^ <Ck.l k_|.
Более общий вариант доказательства приведен в [12J.
Следовательно, ряд /, (je) сходится и ограничен:
IЛ (х) | = | С,О I С11 +.....+ C.Y.Y
В результате всегда можно указать N, при котором выполняется неравенство (17):
Из этого выражения следует очевидное:
|imAi^= lim -1 = 0;
v Is(s) - N
Следовательно, напряжение помехи на выходе ОИ есть бесконечно малая величина по сравнению с сигналом.
Дополненная по сравнению с [12] структурная схема оптимального индикатора сигнала показана на рис. 5:
I '№)] - генератор сигнала;
- прм — перемножитель;
- с!/ск - дифференцирующее устройство;
- Г[\у(0| - генератор весовой функции;
- инт- интегратор.
ГКО]
т
,и
___
1 1
прм
гио]
СУММАТОР
РУ
прм 11НТ
ф) = ияе-
(19)
1
л/2~7гк\п\
/С-П
лп 1к
: а! " 0.5(1 л/ " <1.5(1 ' ■ ' (// -
(Г (Г
Хк-щ
и /у
/ • V) Г
1
с/ .*(/) d
Л* &
Л
■-IX
1
к\4Ьг Л'
"Л* Л*
Спектр импульса (19) с произвольным запаздыванием имеет вид;
Выражая сигнал и МСИ через их спектры gs (со) и g1l (ш). дифференцируя спектры, получим:
и, =
1
I
427Г * к и сГ
л. •
Л*" .
Рис. 5. Структурная схема оптимальная индикатора
Докажем, что ОИ позволяет компенсировать помехи от МСИ и передавать информацию, при количестве дифференцирующих устройств М—»ж со сколь угодно большой бодо-вой скоростью. Так как операторы/ф) должны представлять совокупность ортонормировап-ных функций, то они могут быть сформированы на базе ортогональных с весом полиномов, например полиномов Эрмита. Пусть принимаемый сигнал имеет вид [12]:
я | ас
| (»* gs(ю)е :'\1со У {(./V)1(..'ИЛ
У. \(М ХАуУ"СЬ
Эта функция является производящей функцией для ортогональных полиномов Эрмита Нф). Гак как ОИ посимвольно обрабатывает принимаемую комбинацию, то для а?-ой посылки условие ортогональности операторов (1-пТ) от сигнального импульса (19) записывается в виде:
Интегрируя по I, получим 6{\'-а)), свертка с которой дает разложение в ряд функции ехр(си'). Результирующее выражение можно записать в виде с точностью до постоянных:
Таким образом, в момент времени 1=0 получим напряжение, соответствующее сигналу. Оптимальный индикатор разделяет сигнальные импульсы при сколь угодно малом интервале их следования.
Рассмотрим помехоустойчивость предложенного способа обработки по отношению к аддитивной нормальной помехе. Процесс г(() на входе приемника есть сумма сигнала н, из (19), помех х(1) от МСИ и гауссова шума п(1). Для такой помехи оптимальный индикатор:
Таким образом, функция ехр(-0.5г) и ее производные удовлетворяют условию ортогональности с весом у>(1)=ехр(0.5г) и взаимной связи. Они ортонормированны образуется
из/¡¡(х) в результате линейной операции. АЧХ канала должна быть также гауссовой, чтобы сигнал на входе приемника имел вид (19). Тогда напряжение на выходе ОИ может быть записано в виде (без учета весовой функции):
/,(*) = /, 00 +Л
есть нормальная случайная величина со средним значением /, (и,) и дисперсией а":
Пусть х(1) — помехи от МСИ со случайным временем запаздывания тм и амплитудой х„:
У*.'"" :
П
Сигнальный импульс, пораженный МСИ, запишем так:
г(0М*) + *(0 -ип.е • V ^ —Л
и
Напряжение ы, на выходе ОИ, соответствующее выделяемой посылке сигнала, равно:
Для случая передачи противоположных двоичных сигналов и,, и -М( индикатор принимает значения Л (ц^) и -/, (а). Вероятность ошибки есть вероятность выполнения неравенства:
I / ,00 I
<0.
Средняя вероятность ошибки, с точностью до коэффициентов, может быть выражена через интеграл вероятности [2]:
п( /МО) Рош = 0 "^Г" '
Так как при Аг—>оо отношение величина <т к стремится к О из (17), то оптимальный индикатор в пределе обеспечивает сколь угодно малую вероятность ошибки при фиксированной мощности информационного сигнала.
Для визуальной иллюстрации процесса выделения информационного сигнала приведены рис. 6:
— на вход КС поступает комбинация у//)='+ - +'; на выходе КС получим соответствующую ей комбинацию и ¡(Г) на рис. 6а (знак импульса искажен); рис. 1г - это УЛ для N = 1 (импульс восстановлен),
— увеличиваем скорость в 5/3 раз; на вход КС поступает комбинация \'2(0='+ + + - +' такой же длительности как и у ¡О)', на выходе КС получим соответствующую ей комбинацию и2(0 на рис. 66 (знак импульса "-" искажен); рис. 1д -это Ь\ для N=2 (импульс "-" восстановлен).
— увеличиваем скорость в 11/3 раз; на вход КС поступает комбинация (/)='+■ + + — + ..+.' такой же длительности, как и V:(!)', на выходе КС получим соответствующую ей комбинацию изО) на рис. 6в (знак 7-го импульса "+" искажен); рис. I д - это ил для N = 3 (импульс "+" восстановлен).
Выводы:
— оптимальный индикатор позволяет при числе дифференциаторов ЛГ—»оо выделить информационный импульс и устраняет мешающее влияние МСИ и помех от аддитивного шума на помехоустойчивость;
— оптимальный индикатор при числе дифференциаторов Л'^да обеспечивает сколь угодно большую скорость передачи импульсов определенной формы по каналу связи с заданной формой АЧХ.
Для КС с гауссовой АЧХ возможны реализации шума с шириной спектра больше, чем у сигнала. В этом случае эффективность ОН падает [12,13].
Заключение
1. Для избранной модели дискретно-непрерывного детерминированного канала с памятью доказана теорема кодирования для приема кодовых комбинаций «в целом» при фиксированной полосе частот канала и ограничениях на энергию и энергию разности комбинаций. Подтверждена экспоненциальная зависимость средней вероятности ошибки при приеме кодовой комбинации «в целом» от длины комбинации.
Литература
1. Галлагер Р. Теория информации и надёжная связь. М.: Сон. радио. 1974 720 с.
2. Прокис Дж. Цифровая связь / Пер. с анг. под ред. Кловского Д.Д, М.: Радио и связь. 2000. 800 с.
3. Левин Б.Р. Теоретические основы статистической радиотехники. М.: Радио и связь, 1989. 656 с.
4. Зюко Л,Г., Кловский Д.Д., Коржик B.Ii-, Назаров М.В. Теория электрической связи: Учебник для вузов; Под ред. Д.Д. Кловского. М.: Радио и связь, 1999.432 с.
5. Гренандер У., Сере Г. Теплицевы формы и их приложения. М.: ИЛ, 1961. 185 с.
6. Вулих Б.З. Краткий курс теории функций вещественной переменной. Введение в теорию интеграла. М.: Наука, 1973. 352 с.
7. Сухорукое A.C. Использование относительных способов для увеличения скорости передачи информации // Радиотехника. 1984. №3. С. 45-48.
8. Сухорукое A.C. Разделение лучей в многолучевом канале при использовании узкополосных сигналов с дифференцированием на приеме// Радиотехника. 1986. №2. С. 55-57.
9. Сухорукое A.C. Максимальная скорость передачи в непрерывном канале с известной корреляционной матрицей // Радиотехника. 1988. №2. С. 10-15.
10. Сухорукое A.C. Теоретические и практические аспекты реализации пропускной способности детерминированного канала с памятью // Труды МТУСИ. 2004. С. 34-44.
11. Сухорукое A.C. Введение в теорию многомерной связи. М.: Медиа 11аблишер, 2011. 274 е.
12. Сухорукое A.C. Оптимальный индикатор двоичных сигналов, пораженных помехами от многолучевости и межсимвольной интерференции // T-Comm: Телекоммуникации и транспорт 2016. Том 10. №2. С. 40-47.
13. Сухорукое A.C. Оптимальный индикатор двоичных сигналов для систем дистанционного обучения и медицинского обслуживания // T-Comm: Телекоммуникации и транспорт. 2016. Том 10. №11. С. 8-15,
14. Сухорукое A.C. Пропускная способность дискретного многомерного канала связи с памятью // T-Comm: Телекоммуникации и транспорт. 2018. Том 12. №3. С. 13-19.
EXCEEDING THE BANDWIDTH OF THE CHANNEL WITHOUT MEMORY IN THE DISCRETE-CONTINUOUS DETERMINISTIC CHANNEL WITH THE MEMORY AND SET RESTRICTIONS
Alexander S. Sukhorukov, Moscow Technical University of Communications and Informatics, Moscow, Russia,
Abstract
The article summarizes the results of the author's research, presented in the works [7-14]. The main conclusion is that the bandwidth of the communication channel with memory under certain restrictions can exceed the bandwidth of the channel without memory. Reducing the duration of information pulses and their period increases the speed of receipt of information at the input of the communication channel. However, a communication channel (CC) without memory turns into a CC with memory, and the resulting intersymbol interference (ISI) reduces the speed of information transmission through the CC. The corresponding formulas show the need to find the optimal ratio between the baud rate and the probability of error for a given level of additive noise. The article considers a discrete-continuous deterministic channel with memory (DCDCM), for which the transmitted signals are discrete in time and continuous in levels combinations. CC parameters are known at the transmission and reception sides. Representing the processes at the input and output of the DCDCM in the form of L-dimensional vectors, the coding theorem is proved in this article when restrictions on the energy and the energy of the difference of combinations are imposed on the transmitted combinations. The exponential dependence of the average error probability on the duration of the combination is shown in case of reception as a whole of the L-dimensional vector. The restrictions imposed on the allowable combinations do not change the exponential dependence of the error probability on the duration of the combination. The coding theorem is proved if only good codes are used for transmission with a given energy and the difference energy of combinations. This enables to specify constructive ways to increase the bandwidth of the CC. For CC with memory, the duration of the combination should be increased in proportion to the number of symbols in the code combination, but the factor should be less than 1. For different signal-to-noise ratios, a range of values of this factor is defined, which allow to obtain a transmission rate greater than the capacity of the channel without memory, and the error probability tends to zero with the length of the combination tending to infinity. The same result can be obtained by using the optimal indicator. The optimal indicator eliminates intersymbol interference, enabling a separation of the information pulses at a pulse repetition interval greater than an arbitrarily small value. The error probability can be made arbitrarily small for a particular form of CC frequency response. At the same time, the requirements for CC parameters increase and the decoder becomes significantly more complicated.
Keywords: coding theorem, bandwidth, discrete memory channel, intersymbol interference, probability of error, immunity, code combination, permitted combination, protective time interval, additive noise, entropy, mutual information, optimal indicator.
References
1. Gallager R.G. (1974). Information Theory and Reliable Communication. Moscow: Sov. Radio. 720 p.
2. Proakis J.G. (2000). Digital Communications. Moscow: Radio i svyaz'. 800 p. (in Russian)
3. Levin B.R. (1989). Theoretical bases of statistical radio engineering. Moscow: Radio i svyaz'. 656 p. (in Russian)
4. Theory of telecommunications: Tutorial for universities (1998). Ed. Klovskiy D.D. Moscow: Radio i svyaz'. 433 p.
5. Grenander U., Szege G. (1958). Toeplitz forms and their applications. Moscow: IL. 185 p.
6. Wulich B. (1973). A short course of theory of functions of a real variable. Introduction to the theory of integral. Moscow: Nauka. 352 p. (in Russian)
7. Sukhorukov A.S. (1984). Using relative ways to increase the speed of information transmission. Radiotekhnika. No3. pp. 45-48. (in Russian)
8. Sukhorukov A.S. ) 1986). Division of rays in the multipath channel using narrowband signals with differentiation at the reception. Radiotekhnika. No. 2, pp 55-57. (in Russian)
9. Sukhorukov A.S. (1988). Maximum transmission speed in a continuous channel with a well-known correlation matrix. Radiotekhnika. No. 2, pp. 10-15.
10. Sukhorukov A.S. (2004). Theoretical and practical aspects of implementing the bandwidth of a deterministic channel with memory. Trudy MTUCI, pp. 34-44.
11. Sukhorukov A.S. (2011). Introduction to the theory of multi-dimensional communication. Moscow: Media Pablisher. 274 p. (in Russian)
12. Sukhorukov A.S. (2016). The optimal indicator of binary signals distorted by multipath and intersymbol interference noise. T-Comm. Vol. 10. No.2, pр. 40-47. (in Russian)
13. Sukhorukov A.S. (2016). Optimum indicator of binary signals for distance learning systems and medical service. T-Comm. Vol. 10. No.11, pр. 9-16. (in Russian)
14. Sukhorukov AS. (2018). Bandwidth multidimensional discrete communication channel with memory. T-Comm. Vol. 12. No.3, pр. 13-21. (in Russian)
Information about author:
Alexander S. Sukhorukov, Cand.tech.Sci., Associate Professor of Faculty of the general theory of the Moscow Technical University of Communications and Informatics, Moscow, Russia
T-Comm ^м 14. #5-2020