Radio Engineering and Communications Радиотехника и связь
DOI: 10.17516/1999-494X-0444 УДК 621.396. 96
A Generalized Technique for Studying the Information Properties of Channels and Recognition Systems
Alexander A. Bliznyuk*, Sergey B. Zhironkin, Alexander V. Makarichev and Anna A. Shoromova
VKO Military Academy named after Marshal of the Soviet Union Georgiy Zhukov Tver, Russian Federation
Received 17.09.2022, received in revised form 05.10.2022, accepted 21.11.2022
Abstract. The paper proposes a generalized methodology for studying the information properties of channels and recognition systems, applicable to the analysis of complex recognition systems. The application of the technique showed that when combining heterogeneous channels for recognition, it is effective to use not only direct, but also indirect information about the object's belonging to classes in the alphabet of final (general) solutions. Combining channels with basic and indirect information increased the amount of information received by 10-40 percent.
Keywords: binary symmetric recognition channel, non-binary asymmetric recognition channel, mutual (pair) information, complex (integrated) recognition system.
Citation: Bliznyuk, A.A., Zhironkin, S.B., Makarichev, A.V., Shoromova, A.A. A generalized technique for studying the information properties of channels and recognition systems. J. Sib. Fed. Univ. Eng. & Technol., 2022, 15(8), 988-999. DOI: 10.17516/1999-494X-0444
© Siberian Federal University. All rights reserved
This work is licensed under a Creative Commons Attribution-Non Commercial 4.0 International License (CC BY-NC 4.0). Corresponding author E-mail address: [email protected]
Обобщённая методика исследования информационных свойств каналов и систем распознавания
А. А. Близнюк, С. Б. Жиронкин, А. В. Макарычев, А. А. Шоромова
Военная академия воздушно-космической обороны имени Маршала Советского Союза Г. К. Жукова Российская Федерация, Тверь
Аннотация. В работе предложена обобщённая методика исследования информационных свойств каналов и систем распознавания, применимая для анализа комплексных систем распознавания. Применение методики показало, что при объединении разнородных каналов для распознавания эффективно использование не только прямой, но и косвенной информации о принадлежности объекта к классам в алфавите окончательных (общих) решений. Объединение каналов с основной и косвенной информацией увеличило количество получаемой информации на 10-40 %.
Ключевые слова: двоичный симметричный канал распознавания, недвоичный несимметричный канал распознавания, взаимная (парная) информация, комплексная (интегрированная) система опознавания.
Цитирование: Близнюк А. А. Обобщённая методика исследования информационных свойств каналов и систем распознавания / А. А. Близнюк, С. Б. Жиронкин, А. В. Макарычев, А. А. Шоромова // Журн. Сиб. федер. ун-та. Техника и технологии, 2022, 15(8). С. 988-999. DOI: 10.17516/1999-494Х-0444
Введение
Исследованию свойств различных дискретных каналов, систем передачи и извлечения информации с позиций теории информации уделяется достаточно большое внимание.
Классическим примером является исследование пропускной способности двоичного симметричного канала передачи информации [1]. При расчёте пропускной способности основным является расчёт среднего количества взаимной (парной) информации.
В [2] среднее количество взаимной (парной) информации использовано в качестве информационного показателя качества функционирования систем распознавания, что позволило осуществлять сравнительный анализ систем, работающих по разнородным признакам и имеющих различные алфавиты распознаваемых классов. На основе такого информационного показателя качества выполнен анализ для частного случая: вероятность правильного распознавания целей различных классов одинакова, канал распознавания симметричный.
Известно, что объединение данных, поступающих от нескольких датчиков, например, объединение данных от нескольких каналов распознавания в комплексной системе, позволяет повысить качество получаемой информации. При этом каждый датчик может иметь своё множество классов [3] - датчики разнородные. Необходимо на основе объединения датчиков принять решение о соответствии наблюдаемого объекта одному из классов заданного алфавита, например: «свой» или «чужой» в комплексной (интегрированной) системе опознавания [4-8].
Цель данной статьи - предложить обобщённую методику использования информационного показателя для оценки качества каналов и систем распознавания, не ограниченных частными случаями, рассмотренными в [1, 2].
Количество взаимной (парной) информации в двоичном несимметричном канале распознавания
Матрица условных вероятностей переходов двоичного канала распознавания представляется в виде
\р{п = У]\П = У Л
Р(л = У\\1 = У\) Р(л = У2\1 = У\) Р(п = У\1п = У2) Р{П = У2\П=У2)
(1)
где п - двоичный символ на входе канала, отображающий принадлежность распознаваемого объекта к одному из классов у\, у 2 двоичного алфавита, // - двоичный символ на выходе канала, отображающий оценку класса распознаваемого объекта.
В отличие от известных методик, в которых двоичный канал предполагается симметричным, рассмотрим несимметричный канал с матрицей переходов
И
п = У j I п =
Ук) I
Р0 + А Ре-А Ре + А Р0- А
(2)
где Р0 - средняя вероятность правильного распознавания, Ре - средняя вероятность ошибочного распознавания; А - параметр несимметричности канала. На введённые переменные накладываются ограничения
(3)
Среднее количество взаимной информации рассчитывается по формуле [1, 9]
,
где #(/7) и 1 п) ~ безусловная и условная энтропии.
,
./=1
2
где Р^ = = = Ук)'р(п = У] I >1 = Ук)}•
к=1
Н (/] \ Г]) = -М\log2 р(п = у] \ Г/ = ук)
2 2
где
р(>1 = У],Л = Ук) = P{t 1 = Ук)-р{п = УJ I V = Ук)- 990 -
Выражение для расчета среднего количества взаимной информации имеет вид
Будем считать, что Р(п = У\) = Р(п = У2) = 0,5. Тогда с учётом (2) и (3) выражение (4) запишется в виде
(5)
Полученное выражение будем анализировать как функцию 1(Д) с параметрами Р0 и Ре. Для нахождения возможного экстремума представленной функции найдём её частную производную по Д.
dl 1 L, (1-2АЛ , 2 g2
"(P0 + A)(Pg + A)' {P0-A){Pe-A)
81 n — = 0o
dA
(\-2A)2(P0 + A)(Pe + A)
= 1.
(1 + 2Д)2 (Р0 - Д)(Ре-А)
После преобразования полученного уравнения найдем
.
Для рассматриваемой функции 1(Д) найденная точка Д = 0 (симметричный канал) является точкой минимума при заданном значении Ре. Следовательно, симметричный канал менее эффективен - по рассматриваемому информационному показателю I - по сравнению с эквивалентным несимметричным каналом (с таким же значением Ре).
Проанализируем более подробно двоичный несимметричный канал.
С учётом Р0 = 1 - Ре выражение (5) принимает вид
(6)
Анализ (6) показывает, что функция 1(Д) является чётной (1(Д) = 1(-Д)), поэтому будем рассматривать только положительные значения переменой Д. А так как реально нас интересуют
только значения вероятности полной ошибки в интервале Ре <
0;-2
, то с учетом ограничении
(3) рассматриваемый интервал для переменной Д примет вид Д е [0; Ре].
- 991 -
Результаты расчётов по (6) представлены в табл. 1.
Анализ табл. 1 позволяет сделать вывод, что при любом фиксированном значении пе-
ременной Ре на интервале Ре
функция /(A, Pe) с увеличением А монотонно возрас-
тает, а при А ^ 0 принимает свое минимальное значение, которое с ростом Ре уменьшается. Свое максимальное значение (равное 1) функция /(А, Ре) принимает в точке (А = 0; Ре = 0), то есть когда матрица условных вероятностей переходов представляет собой единичную матрицу.
Таблица 1. Зависимость среднего количества взаимной информации от средней вероятности ошибки и параметра несимметричности
Table 1. Dependence of the average amount of mutual information on the average error probability and the asymmetry parameter
Pe = 0,005 Pe = 0,10 Pe = 0,20
A /(A < 0,005; Pe = 0,005) A /(A < 0,10; Pe = 0,10) A /(A < 0,20; Pe = 0,20)
0,0000395 0,9545855 0,0009801 0,5310093 0,0019702 0,2780782
0,0005346 0,9546260 0,0108811 0,5316134 0,0217722 0,2788443
0,001030 0,9547371 0,0207821 0,5332423 0,0415742 0,2809178
0,0015247 0,9549211 0,0306831 0,5359429 0,0613761 0,2843835
0,0020197 0,9551821 0,0405841 0,5397981 0,0811781 0,2893932
0,0025148 0,9555270 0,0504851 0,5449405 0,1009801 0,2961910
0,0030098 0,9559659 0,0603860 0,5515769 0,1207821 0,3051641
0,0035049 0,9565156 0,0702870 0,5600424 0,1405841 0,3169480
0,0040000 0,9572056 0,0801880 0,5709304 0,1603860 0,3326875
0,0044950 0,9580990 0,0900890 0,5855237 0,1801880 0,3548977
0,0049900 0,9594745 0,0999900 0,6099121 0,1999900 0,3957405
Pe = 0,30 Pe = 0,40 Pe = 0,495
A /(A < 0,30; Pe = 0,30) A /(A < 0,40; Pe = 0,40) A /(A < 0,495; Pe = 0,495)
0,0029603 0,1187139 0,0039504 0,0290513 0,0048910 0,0000721
0,0326633 0,1192988 0,0435544 0,0292793 0,0539011 0,0000730
0,0623662 0,1208914 0,0831583 0,0299060 0,1029111 0,0000753
0,0920692 0,1235858 0,1227623 0,0309856 0,1519211 0,0000795
0,1217722 0,1275535 0,1623662 0,0326209 0,2009311 0,0000860
0,1514751 0,1330779 0,2019702 0,0349909 0,2499405 0,0000962
0,1811781 0,1406245 0,2415742 0,0384121 0,2989504 0,0001123
0,2108811 0,1509902 0,2811781 0,0434802 0,3479603 0,0001399
0,2405841 0,1656815 0,3207821 0,0514629 0,3969702 0,0001952
0,2702870 0,1881864 0,3603860 0,0657684 0,4459801 0,0003534
0,2999900 0,2363796 0,3999900 0,1079630 0,4949900 0,0049711
Таблица 2. Сравнение симметричного канала и несимметричного канала с максимальной эффективностью Table 2. Comparison of balanced channel and unbalanced channel with maximum efficiency
Pe 0 0,005 0,1 0,2 0,3 0,4 0,45 0,5
/(А ^ Pe) 1 0,959 0,609 0,395 0,236 0,107 0,051 0
/(А = 0) 1 0,954 0,531 0,278 0,118 0,029 0,007 0
Рассмотрим функцию 1(Ре) при значении параметра несимметричности А ^ Ре. Соответствующие значения этой функции в некоторых точках приведены в табл. 2.
Для сравнения эффективности симметричного и несимметричного каналов в эту же таблицу добавим значения функции 1(Ре) при А = Ре.
Анализ табл. 2 позволяет наглядно подтвердить вывод, что при фиксированном значении средней вероятности ошибки среднее количество взаимной информации для несимметричного канала больше, чем для симметричного, то есть информационная эффективность несимметричного канала выше, чем симметричного, при любом значении параметра несимметричности А.
Количество информации, выдаваемой недвоичным несимметричным каналом распознавания потребителю
На основе обобщения двоичного несимметричного канала распознавания рассмотрим количество информации, выдаваемой недвоичным несимметричным каналом распознавания потребителю.
Канал распознавания формирует решение (оценку) 7/ о принадлежности г) наблюдаемого объекта к классам у{ в алфавите объёмом У, у = 1, У. Это решение выдаётся потребителю, формирующему решение о принадлежности £ наблюдаемого объекта одному из классов х заданного алфавита объёмом /, / = 1,1.
В данном случае показателем качества выдаваемой потребителю информации является среднее количество взаимной (парной) информации о принадлежности £ наблюдаемого объекта одному из классов х1 алфавита потребителя объёмом /, содержащейся в решении 7/ канала распознавания
где Н(г}) иН(т}\£)~ безусловная и условная энтропии.
,
7=1
где р{г) = у^) = ^= Х1) • Р[л = .У/1 % = Х1 )}> Р(п = У] I £ = хг) ~ вероятность перехода, опре-/=1
деляемая соотношением
у
.
к=1
Вероятности Р [г) = у^ // = ук) являются элементами матрицы условных вероятностей распознавания, являющейся обобщением (1), - вероятностей правильных (при j = к) и ошибочных (при j ф к) частных решений в канале распознавания.
Вероятности Р(т] = ук \ % = хг) являются вероятностями перехода от заданного алфавита окончательных (общих) решений к алфавиту частных решений системы распознавания. В [3], как и в [4], эти вероятности характеризуют соотношение между объектами различных классов среди «своих» и «чужих» объектов, отмечается, что не представляет большой сложности на основе описаний классов рассчитать их для конкретной тактической ситуации. В [10] рассматриваемые вероятности являются элементами матрицы, названной MAPPING-матрицей.
MAPPING-матрица имеет следующий вид:
\P(r, = yk\Ç = xi)\
Р(л = У\\£ = Х\) Р(П = У2\£ = х\) - P(i = yj \Ç = xi) P(n = y\\Ç = Xi) Р{п = У2\% = х2) - р{п = yj\Ç = xi)
Р{п = У\\£ = х1) Р{п = У\\Ç = xi) - P{n = yj\Ç = xi)
Условная энтропия определяется соотношением
I £) = -¿¿И>7 = yj¿ = xi)bg2 Р{р = yj I £ = *;)},
7=1 i=l
где p(ji = yj,Ç = x¡) = = x¡ j • /'(// = yJ | ç = x¡ j, ¡'(ç = x,) - априорная вероятность принадлежности наблюдаемого объекта к классу x¡ в заданном алфавите окончательных решений потребителя, вероятности P( f¡ = y ¡ Ç = xL j описаны выше.
Рассмотрим случай одинаковых строк в MAPPING-матрице, когда п не несёт никакой информации о с" — количество взаимной информации /(£; //) должно быть равно нулю. Расчёты подтверждают это.
Так как ноль количества взаимной информации достигается при равенстве строк MAPPING-матрицы, то в качестве параметра зависимости среднего количества взаимной информации, получаемой в результате пересчёта решений канала распознавания к алфавиту окончательных решений потребителя, от структуры (вида) MAPPING-матрицы оправдано использовать среднюю разницу d между её строками:
i j 1-1
d= г (тлИИ\р{т1 = Ук\£ = хм)-р{т7 = Ук\£ = ъ)[ J Л1 ) к=\ i=l
График зависимости среднего количества взаимной информации от вероятности правильного распознавания при различных значениях параметра d представлен на графике (рис. 1).
На графике видно, что среднее количество взаимной информации растет при увеличении средней разницы между строками в MAPPING-матрице при одном и том же фиксированном значении средней вероятности правильного распознавания. Максимум I для заданной матрицы распознавания канала стремится к значению среднего количества взаимной информации при отсутствии MAPPING-преобразования (совпадении алфавитов решений канала и потребителя).
0 6 - I без mapping-преобразования —d=0,98 Ро
0,5 04
|
/
/
0,3 -0 2 У
0,1
0 0 5 0,6 0,7 0,8 0,9
Рис. 1. График зависимости среднего количества взаимной информации от вероятности правильного распознавания при различных значениях параметра d
Fig. 1. Graph of the dependence of the average amount of mutual information on the probability of correct recognition for various values of the parameter d
Количество взаимной (парной) информации в комплексной системе распознавания
Рассмотрим комплексную систему распознавания, объединяющую N разнородных несимметричных каналов распознавания.
Объединяемые каналы распознавания формируют частные решения (оценки) fjn, n = \,N, о принадлежности rjn одного и того же наблюдаемого объекта к классам ynj- в своих алфавитах объёмом Jm jn = 1, Jn. После объединения частных решений rjn необходимо сформировать окончательное (общее) решение о принадлежности £ наблюдаемого объекта одному из классов xt заданного алфавита объёмом /, i = 1,/.
Для такой комплексной системы распознавания информационным показателем её качества является среднее количество взаимной (парной) информации о принадлежности £ наблюдаемого объекта одному из классов x, заданного алфавита объёмом I, содержащейся в совокупности частных решений fjw п = l,N. В данном случае среднее количество взаимной (парной) информации определяется следующим образом
,
где H(fh,?12,---,h[?i\->vi->■■■■>Vn I <э) ~~ безусловная и условная энтропии совокупности частных решений.
Безусловная энтропия равна
.
Совместную вероятность частных решений каналов распознавания можно представить в виде
I
.
i=1
При заданном £ = х^ частные решения каналов распознавания можно считать статистически независимыми (условно независимыми), поэтому
.
В результате формула для расчёта безусловной энтропии приобретает вид
j л ./о
Л=1>:2=1 ЛУ=1
n
iLp(Z = xi)f[p{4n=y«in\$ = Xi)
i=1 и=1
1=1 /7=1
Л П = Уп
Условные вероятности частных решений рассчитываются по формуле:
Jn
.
к„=1
Вероятности = | = ) являются элементами матрицы условных вероятностей распознавания: вероятностей правильных (при_/„ = ки) и ошибочных (при_/„ ф кп) частных решений в объединяемых каналах распознавания. Условная энтропия равна
Рассмотрим применение методики для исследования информационных свойств комплексной системы распознавания на конкретных примерах.
Пример 1. В комплексной системе объединяются три несимметричных канала, задаваемых следующими матрицами условных вероятностей переходов, характеризующими достоверность распознавания:
0,87 0,01 0,06 0,04 0,02
0,02 0,91 0,01 0,03 0,03
0,06 0,03 0,75 0,11 0,05
0,01 0,05 0,04 0,89 0,01
0,08 0,07 0,01 0,01 0,83
0,58 0,19 0,10 0,13
0,10 0,65 0,11 0,14
0,12 0,31 0,54 0,03
0,09 0,13 0,15 0,63
0,98 0,02 0,12 0,88
В соответствии с этими матрицами средние вероятности правильного распознавания имеют следующие значения: Р01 = 0,85, Р02 = 0,60, Р03 = 0,93.
После объединения должно быть сформировано окончательное (общее) решение о принадлежности наблюдаемого объекта в алфавите объёмом I = 4. Причём алфавит второго канала совпадает с алфавитом окончательных решений.
Связь между алфавитом окончательных решений и алфавитами частных решений каналов задаётся МАРРШО-матрицами:
0,31 0,15 0,18 0,25 0,11
0,29 0,17 0,21 0,23 0,10
0,33 0,15 0,20 0,22 0,10
0,34 0,19 0,23 0,19 0,05
10 0 0 0 10 0 0 0 10 0 0 0 1
0,95 0,05
0,3 0,7 0,84 0,16 0,09 0,91
MAPPШG-матрицы 1 и 3 каналов характеризуются следующими средними разницами между строками: d1 = 0,02267, d3 = 0,6467.
Значения информационного показателя качества различных вариантов комплексной системы распознавания, объединяющей заданные несимметричные каналы распознавания, представлены в табл. 3. Для сравнения представлено среднее количество взаимной информации, содержащейся в частных решениях каналов о принадлежности объектов к классам в заданном алфавите окончательных (общих) решений.
Пример 2. По сравнению с примером 1 изменены матрицы условных вероятностей распознавания 1 и 3 каналов:
0,93 0,01 0,02 0,03 0,01
0,02 0,87 0,03 0,02 0,06
0,01 0,01 0,96 0,01 0,01
0,01 0,05 0,02 0,91 0,01
0,04 0,07 0,03 0,03 0,83
0,58 0,19 0,10 0,13
0,10 0,65 0,11 0,14
0,12 0,31 0,54 0,03
0.09 0.13 0.15 0.63
0,75 0,25 0,35 0,65
Poi = 0,9, P02 = 0,6, Роз = 0,7.
Результаты вычислений занесены в табл. 4.
Из сравнения табл. 3 и 4 следует - несмотря на то, что в примере 2 (табл. 4) распознавание в третьем канале менее достоверно, чем в первом, третий канал более информативен, чем
Таблица 3. Значения информационного показателя качества комплексной системы распознавания (пример 1)
Table 3. The values of the information indicator of the quality of the complex recognition system (example 1)
№ канала пш M Щ'АЯгАз)
1 0,005
2 0,491 0,496 0,283 0,697 0,700
3 0,278
Таблица 4. Значения информационного показателя качества комплексной системы распознавания (пример 2)
Table 4. The values of the information indicator of the quality of the complex recognition system (example 2)
№ канала пш
1 0,006
2 0,491 0,496 0,068 0,536 0,541
3 0,062
первый, как и в примере 1 (табл. 3), где соотношение между достоверностями распознавания в этих каналах обратное. Это объясняется структурами MAPPING-матриц, используемых для пересчёта алфавита частных решений каналов к алфавиту окончательных (общих) решений комплексной системы: строки в MAPPING-матрице третьего канала больше отличаются друг от друга (d3 = 0,6467), чем строки в MAPPING-матрице первого канала (d3 = 0,02267). Второй канал более информативен по сравнению с двумя другими каналами, несмотря на самую низкую достоверность распознавания в нём. Это объясняется тем, что алфавит частных решений второго канала совпадает с алфавитом окончательных (общих) решений комплексной системы: MAPPING-матрица единичная.
Таким образом, структура MAPPING-матриц, используемых для пересчёта алфавитов каналов к алфавиту комплексной системы, оказывает большее влияние на количество информации, получаемой на выходе комплексной системы, чем средняя вероятность правильного распознавания в каналах.
Данный вывод, сделанный на основе применения обобщённой методики исследования информационных свойств, согласуется с выводом, сделанным в [3] на основе статистического анализа задачи комплексного опознавания: изменение соотношения своих и чужих объектов среди представителей одного класса всегда оказывало большее влияние на достоверность опознавания, чем собственно вероятность правильного распознавания классов объектов.
Применение обобщённой методики исследования информационных свойств также позволяет сделать вывод об эффективности использования косвенной информации (каналы 1, 3) о принадлежности объекта к классам в алфавите окончательных (общих) решений. В представленных выше примерах объединение основного канала 2 (канала, алфавит которого совпадает с алфавитом системы) с каналами 1, 3 с косвенной информацией (каналами, алфавиты которых не совпадают с алфавитом системы) увеличило количество получаемой информации на 10-40 %.
Заключение
Таким образом, в работе на основе последовательного анализа количества информации на выходе двоичного несимметричного канала распознавания, затем количества информации, выдаваемой недвоичным несимметричным каналом распознавания потребителю с отличающимся алфавитом классов, предложена обобщённая методика исследования информационных свойств каналов и систем распознавания, применимая для анализа комплексных систем распознавания.
Применение методики показало, что при объединении разнородных каналов для распознавания эффективно использование не только прямой, но и косвенной информации.
Список литературы / References
[1] Горяинов В. Т., Журавлев А. Г., Тихонов В. И. Статистическая радиотехника: Примеры и задачи. Учеб. пособие для вузов: под ред. В. И. Тихонова, изд. 2-е, перераб. и доп. М.: Сов. Радио, 1980, 544. [Goryainov V. T., Guravlev A. G., Tikhonov V. I. Statistical radio engineering: Examples and tasks. Proc. manual for universities: ed. V. I. Tikhonov, ed. 2nd, revised. and additional. Moscow, Sov. Radio, 1980, 544 (in Rus.)]
[2] Лещенко С. П. Информационный показатель качества систем радиолокационного распознавания. Зарубежная радиоэлектроника. Успехи современной радиоэлектроники, 1996, 11, 64-66 [Lechenko S. P. Information indicator of the quality of radar recognition systems. Foresight radio electronics. Advances in modem radio electronics, 1996, 11, 64-66 (in Rus.)]
[3] Чулюк С. Г. Некоторые аспекты практического применения в радиоэлектронных комплексах вероятностных алгоритмов объединения информации. Радиотехника, 2017, 8, 95-99 [Chulyuk S. G. Some aspects of practical application in radio-electronic complexes of probabilistic algorithms for combining information. Radio engineering, 2017, 8, 95-99 (in Rus.)]
[4] Жиронкин С. Б., Аврамов А. В., Быстраков С. Г. Построение интегрированных систем опознавания на основе координатно-связного метода. Зарубежная радиоэлектроника, 1997, 5, 75-84 [Zhironkin S. В., Avramov A. V., Bystrakov S. G. Construction of integrated identification systems based on the coordinate-connected method. Foresight radio electronics. 1997, 5, 75-84 (in Rus.)]
[5] Аврамов А. В., Жиронкин С. Б., Черваков В. О. Интегрированные системы опознавания: направления разработки на основе методов координатно-связного и комплексного опознавания. Успехи современной радиоэлектроники, 2017, 1, 35-41 [Avramov A. V., Zhironkin S. В., Chervakov V. O. Integrated identification systems: directions of development based on coordinate-connected and complex identification methods. Advances in modem radio electronics, 2017, 1, 35-41 (in Rus.)]
[6] Интегрированное устройство опознавания воздушных целей: патент 2452975, Российская Федерация, 2012, № 16. 10 [Integrated air target identification device: patent 2452975, Russian Federation, no. 16. 10 (in Rus.)]
[7] Жиронкин С. Б., Близнюк А. А., Кучин А. А. Помехоустойчивость запросного канала опознавания с широкополосными сигналами и корректирующими кодами в условиях импульсных шумовых и внутрисистемных помех. Журнал Сибирского федерального университета. Техника и технологии, 2019, 12(6), 673-682 [Zhironkin S. B., Bliznuk A. A., Kuchin A. A. A noise stability of the request channel of an identification with broadband signals and correcting codes in the conditions of pulse noise and intersystem hindrances, Journal of Siberian Federal University. Engineering and technologies, 2019, 12(6), 673-682 (in Rus.)]
[8] Жиронкин С. Б., Пшеницын А. А., Близнюк А. А. Характеристики бесстробового отождествления траекторий воздушных объектов при координатно-связном и радиолокационном опознавании. Журнал Сибирского федерального университета. Техника и технологии, 2022, 15(3), 294-307 [Zhironkin S. B., Pshenitsyn A. A., Bliznuk A. A. Characteristics of Strobeless Identification of Trajectories of Air Objects in Positioning and Radar Identification. Journal of Siberian Federal University. Engineering and technologies, 2022, 15(3), 294-307 (in Rus.)]
[9] Стратонович Р. Л. Теория информации. М.: Сов. радио, 1975 [Stratanovich R. L. Information theory. Moscow, Sov. Radio, 1975 (in Rus.)]
[10] STANAG 4162 (Edition 2) Identification data combining process. NATO Military Agency for Standardization, 2009, 57.