DOI 10.25987/VSTU.2019.15.2.018 УДК 621.3.049.77
ИСПОЛЬЗОВАНИЕ НЕЙРОННЫХ СЕТЕЙ ДЛЯ ОПТИМИЗАЦИИ ДЕКОДИРОВАНИЯ LDPC-КОДОВ ДЛЯ 5G БЕСПРОВОДНОЙ СЕТИ
И.В. Свиридова, М.В. Хорошайлова
Воронежский государственный технический университет, г. Воронеж, Россия
Аннотация: предложен обобщенный алгоритм декодирования min-sum, использующий линейное приближение (от англ. a Linear Approximation Min-Sum, LAMS) для кодов низкой плотности проверки на четность с квазициклическими структурами (от англ. Quasi-Cyclic Low-Density Parity-Check, QC-LDPC). Линейное приближение вводит некоторые факторы на каждой итерации декодирования, которые линейно корректируют обновление проверочного узла и выходные данные канала. Эти факторы итеративно оптимизируются с использованием нейронного обучения, где оптимизация может быть эффективно решена с помощью небольшой и неглубокой нейронной сети с обучающими данными, полученными с помощью декодера LAMS. Нейронная сеть построена в соответствии с матрицей проверки четности кода QC-LDPC со структурой контроля четности, которая может значительно уменьшить размер нейронной сети. Поскольку мы оптимизируем коэффициенты один раз за итерацию декодирования, оптимизация не ограничивается количеством итераций. Затем задаем оптимизированные результаты коэффициентов в декодере LAMS и выполняем моделирование декодирования для QC-LDPC кодов в мобильных сетях пятого поколения (5G). При моделировании алгоритм LAMS показывает заметное улучшение по сравнению с алгоритмами нормализованной и минимальной суммы смещения и даже лучшую производительность, чем алгоритм распространения доверия (the belief propagation algorithm) в некоторых областях с высоким отношением сигнал/шум
Ключевые слова: квази-циклические низкоплотностные коды, алгоритм декодирования min-sum, нейронные сети, оптимизация декодирования
Введение
За последние десятилетия большое внимание уделялось кодам низкой плотности проверки на четность (LDPC). Коды LDPC (QC-LDPC) с квазициклическими структурами постепенно становятся технологией кодирования основного потока для различных систем связи. Важным событием является то, что вариант расширенной мобильной широкополосной связи (от англ. the enhanced mobile broadband, EMBB) в мобильных сетях 5-го поколения (5G) принимает два набора кодов QC-LDPC, определенных матрицами проверки на четность BG1 и BG2. Матрицы BG1 и BG2 построены из протографов [1] с квазициклическими (QC) масштабируемыми структурами, которые могут поддерживать скорость совместимого кодирования от десятков до тысяч ГГц передачи информации.
Хотя алгоритм распространения доверия (BP) может достигать почти оптимальной производительности для LDPC-кодов 5G технологии, упрощенные версии алгоритма BP, такие как минимальная сумма (MS), нормализованная MS (NMS) и MS со смещением (OMS) алгоритма, широко используются в практических приложениях благодаря их легкой аппаратной реализации [1 - 3].
Здесь алгоритмы NMS и OMS могут достичь заметного улучшения производительности при декодировании MS с нормализованным и смещенным коэффициентами соответственно. Поскольку функции tanh заменяются операциями сравнения в вычислениях обновления проверочного узла, существуют значительные потери производительности для упрощенных алгоритмов по сравнению с алгоритмом BP, особенно для условий низкой скорости, средней и короткой длины и конечных итераций.
В последнее время использование нейронных сетей предоставляет новую перспективу для оптимизации декодирования. В [4 - 6] декодеры BP и MS для коротких длин с высокой плотностью контроля четности (HDPC) оптимизированы глубоко рекуррентными нейронными сетями. Стандартные декодеры значительно улучшены за счет оптимизации различных факторов для вывода каждого переменного узла и проверки узла на каждой итерации.
Однако размер сети увеличивается с длиной кода и максимальным количеством итераций. Для большей длины кода и большего количества итераций сеть может быть слишком сложной для ее дальнейшей оптимизации. В [7] рассматривается идея использования глубоких нейронных сетей для декодирования случайных и полярных кодов.
В этой статье мы предлагаем метод, основанный на машинном обучении для оптимиза-
© Свиридова И.В., Хорошайлова М.В., 2019
ции упрощенных алгоритмов на основе BP. Во-первых, мы предлагаем обобщенный алгоритм MS с использованием линейного приближения (LAMS), в котором величины выходного сигнала проверочного узла модифицируются не только с помощью нормализованного или смещенного коэффициента, такого как алгоритм NMS или OMS, но и с помощью линейной функции, содержащей оба фактора. Кроме того, алгоритм LAMS также модифицирует выходной сигнал канала с помощью аналогичной линейной функции. Затем мы строим нейронную сеть через граф QC-LDPC-кода и настраиваем параметры алгоритма LAMS для оптимизации соответствующей сети.
Наша нейронная сеть не глубокая, потому что она выполняет только один итерационный процесс декодирования и получает соответствующие оптимизированные факторы. Когда текущая итерация завершена, оптимизированные коэффициенты сохраняются для расчета входных данных сети для следующей итерации. Оптимизация следующей итерации начинается, когда нейронная сеть переинициализируется и входные данные отправляются обратно. Мы используем локальное оптимальное решение каждой итерации вместо глобального оптимального решения всех итераций, чтобы уменьшить глубину сети и сложность вычислений. С помощью структур контроля качества LDPC-кодов стандарта 5G сложность нашей нейронной сети существенно не увеличится с длиной кода, где несколько битов могут обрабатываться параллельно. Количество операционных единиц в каждом слое нейронной сети также прямо пропорционально масштабу протографа, который намного меньше, чем у матрицы контроля четности.
Поскольку нейронная сеть не слишком сложна, мы можем оптимизировать декодер LAMS для LDPC-кодов с длиной кода в тысячами бит и десятками номеров итераций. Мы используем алгоритм LAMS на матрице 5G BG2 и выполняем моделирование для различных длин кода, скоростей кода и числа итераций. Результаты моделирования показывают, что алгоритм LAMS имеет очевидные преимущества перед алгоритмами NMS и OMS. По мере того как отношение сигнал / шум (от англ. the signal-to-noise ratio, SNR) увеличивается, а частота ошибок блока (от англ. block error rate, BLER) уменьшается, разрыв между алгоритмами LAMS и BP постепенно уменьшается. Для некоторых условий с высоким SNR производительность BLER алгоритма LAMS превышает производительность алгоритма BP.
Оптимизация декодирования
с использованием нейронных сетей
Коэффициенты а , В ,ach и Bch каждой
i
итерации i=0, 1, ..., I-1 в алгоритме LAMS можно оптимизировать итеративно с использованием машинного обучения, как показано на рис. 1 (а). Здесь а - нормированный коэффициент для минимизации ошибки аппроксимации упрощения минимальной суммы, в -коэффициент смещения, коэффициенты
ch ch
а. ,р. используются для линейной регулировки величины накала LLR.
Полный LAMS алгоритм показан в алгоритме 1, где выходные данные канала rn обрабатываются для получения окончательных кодированных битов w = w1. Поскольку четыре коэффициента очень трудно оптимизировать для каждой итерации с помощью традиционных методов анализа и моделирования, мы используем машинное обучение для оптимизации.
Ниже приведены некоторые формулы, необходимые при вычислении алгоритма декодирования LSMS.
Матрица может быть представлена двудольным графом, который образован N переменными узлами vn, n е N = {0,1,..., N -1} , М проверочными узлами ст, m е M = {0,1,...,M -1} и J ребер ej, j е J = {0,1,..., J -1}.
В начале BP-декодирования, 0-й итерации, LLR отправляется с переменного узла vn, n е N к соседнему проверочному узлу ст, m е A(n) обозначается следующим образом
Г = lch. (1)
n ^m n V J
Для каждой итерации i=0,1,..., I-1, проверочный узел ст, m е M получает Г от своих соседних vn, n е B(m) и передает обратно LLR соответствующим переменным узлам.
Для следующей итерации i + 1 обновленное LLR должно быть отправлено с переменного узла vn, n е N к проверочному узлу ст, m е A(n) снова, что отличается от начала декодирования в уравнении (1). Это можно представить следующим образом:
Iм = Г - Г ,
n—>n n m—n '
(2)
где 1'п^т и Гп являются выходами проверочных узлов и переменных узлов в предыдущей итерации, соответственно. Затем итеративное декодирование продолжается до тех пор, пока декодирование не закончится.
Аппроксимация для каждой итерации определяется уравнением
L.„ =
п *
у n'eB(m)\n
)] ^^¿4+ Р,о), (3)
где коэффициенты а,, 5. имеют только линейное
влияние на величину LLR и не меняют ее знак.
Кроме того, коэффициенты асСп и ¡сСп
также используются для линейной регулировки величины канала LLR следующим образом
11я = )тах^С) + ¡? ,о)+ £ . (4)
теЛ(и)
Машинное обучение использует нейронную сеть только с тремя слоями на рис. 1 (б), которая снабжается базой данных LLR для обучения.
Алгоритм 1. Алгоритм декодирования LAMS
1 Инициализация.
2 for all n e N do
3 for all m e A(n) do
4 Установить l0 = lch = r n^m n n
5 end for
6 end for
7 Установить i=0
8 repeat
9 Обновление проверочного узла:
1° for all m e M do
11 for all n e B(m) do
12 Получить l'm^n, используя выражение (3)
13 end for
14 end for
15 Расчет выхода:
16 for all n e N do
17 Получить l'n, используя выражение (4)
18: Получить w'n = (i - sign(l'n)) /2
19 end for
2°: Получить wi = [w°, w\,..., wlN-1 f
21 Обновление проверочных узлов для следующих
итераций:
22 for all n e N do
23 for all m e A(n) do
24 Получить , используя уравнение (2)
25 end for
26 end for
27 Получить i=i+1
28 until i = I или Hw1 = 0
29 return W
На первом уровне, называемом входным уровнем, принятые LLR нейронной сети назначаются следующему уровню, подобно сообщению, проходящему от переменных узлов г проверочным узлам. На втором уровне, называемом скрытым уровнем, LLR вычисляются и передаются на последний уровень, где процедура аналогична обновлению проверочного узла уравнением (3) в алгоритме LAMS. На последнем уровне, называемом выходным уровнем, LLR
окончательно обновляются в соответствии с уравнением (4). Подобно одной итерации LDPC-декодирования, нейронная сеть управляет потоком LLR и оптимизирует четыре коэффициента на внутреннем и последнем уровнях. При больших объемах LLR данных нейронная сеть может обучать коэффициенты в i-й итера-
ch ch /—
ции, а,, р. ,а. и р. , чтобы минимизировать
разрыв между выходными и целевыми кодами посредством стохастического градиентного показателя. Когда оптимизация коэффициентов завершена, четыре оптимизированных коэффициента сохраняются и используются для вычисления LLR для следующей итерации с помощью LAMS декодера, описанного в алгоритме 1. Затем LLR отправляются обратно в качестве обучающих данных, чтобы начать оптимизацию для следующей итерации, где нейронная сеть должна была быть инициализирована.
а)
Входной у •
/л
..'И
»-►» Споятанный Уа_,я
Выходной У'"'
6)
Рис. 1. Процедура оптимизации с использованием нейронной сети и итеративного LAMS декодера (а); нейронная сеть для оптимизации с входным, скрытым и выходным слоями, которые имеют операционные блоки, подключенные в соответствии с протографом (б)
Поскольку LDPC-коды в 5G новой радиосвязи принадлежат к семейству LDPC-кодов со структурами QC, операционный блок нейронной сети на рис. 1 (б) может работать с набором Z битов одновременно, где Z является коэффициентом подъема матрицы контроля четности. Это делает количество рабочих единиц равным количеству ребер или узлов в протографе.
Результаты моделирования
При моделировании использовали нейронную сеть с частотой обучения 0,1, количеством
n
тренировок 500, размером партии 500. Начальные значения четырех коэффициентов
а ,ß ,ach и ßch установлены 0,7, 0, 1 и 0 со-i i i i
ответственно. Чтобы сделать коэффициенты более практичными для реализации, мы устанавливаем точность четырех коэффициентов на 0,1, что означает округление значения после обучения. Нейронная сеть построена в соответствии с матрицей проверки четности скорости BG2 [8] с размером подъема Z = 52 и информационной длинной K =520. Начальные обучающие данные LLR собираются путем приема модулированных сигналов двоичной фазовой манипуляции (от англ. binary phase-shift keying, BPSK) из битов с нулевым кодированием через канал с аддитивным белым гауссовским шумом (AWGN) с отношением сигнал/шум (от англ. signal-to-noise ratio, SNR) Es/N0 = -4,0 (дБ), где первые 2Z=104 биты кодового слова пробиты. Если у большого количества промежуточных переменных недостаточно места для хранения, мы будем использовать двоичный файл для чтения и записи переменных на жесткий диск. Результаты обучения приведены в таблице, где четыре переменных перечислены в соответствии с итерацией i = 0, 1, ..., 29.
Таблица нормированных и смещенных
коэффициентов, оптимизированных нейронной сетью для каждой итерации
i а. i А ach i А i а i А ach i А
0 0.8 0 1.5 0.1 15 0.9 -0.2 1.3 0.2
1 0.7 -0.2 1.5 0.1 16 0.8 -0.2 1.3 0.2
2 0.7 -0.2 1.5 0.1 17 0.9 -0.2 1.3 0.2
3 0.8 -0.2 1.5 0.1 18 0.8 -0.2 1.3 0.2
4 0.8 -0.2 1.5 0.1 19 0.8 -0.2 1.3 0.2
5 0.8 -0.2 1.5 0.1 20 0.8 -0.2 1.3 0.2
6 0.8 -0.2 1.4 0.1 21 0.8 -0.2 1.2 0.2
7 0.9 -0.2 1.4 0.1 22 0.8 -0.2 1.2 0.2
8 0.9 -0.2 1.4 0.1 23 0.8 -0.2 1.2 0.1
9 0.9 -0.2 1.4 0.1 24 0.9 -0.2 1.2 0.1
10 0.9 -0.3 1.4 0.2 25 0.8 -0.2 1.2 0.1
11 0.9 -0.3 1.4 0.2 26 0.8 -0.1 1.2 0.1
12 0.9 -0.3 1.4 0.2 27 0.8 -0.2 1.2 0.1
13 0.9 -0.3 1.3 0.2 28 0.8 -0.1 1.2 0.1
14 0.9 -0.3 1.3 0.2 29 0.8 -0.1 1.2 0.1
Мы используем BG2 [10] 3GPP в качестве матрицы проверки четности декодера. Мы сравниваем различные декодеры, BP, NMS и OMS-декодеры, чтобы проиллюстрировать преимущества нашего оптимизированного LAMS-декодера. Алгоритмы NMS и OMS устанавливают нормализованные коэффициенты и коэффициенты смещения равными 0,7 и -0,2 соответственно, которые оптимизируются путем моделирования в пределах диапазона точности 0,1, как коэффициенты алгоритма LAMS.
Кодированные биты модулируются посредством BPSK и передаются по каналу AWGN.
На рис. 2 показаны четыре схемы декодирования, алгоритмы BP, LAMS, OMS и NMS при моделировании на различных итерациях 1= 10,15, 30. Разрывы производительности декодирования между алгоритмом LAMS и алгоритмом BP с большим количеством итераций меньше, чем с меньшим количеством итераций.
Рис. 2. BLER производительность 5G кодов с информационной длиной K = 520, кодовая скорость R = 1 / 3 и разные итерации I =10, 15,30
Когда число итераций равно I = 10, производительность алгоритма LAMS аналогична производительности алгоритма OMS и не показывает существенных преимуществ. Однако для итерации I = 15 наш LAMS-декодер явно лучше, чем алгоритмы OMS и NMS. Когда SNR больше чем -2,5 (дБ), алгоритм LAMS даже показывает лучшую производительность, чем алгоритм BP, что может быть результатом лучшего минимального уровня ошибки алгоритма LAMS. Аналогичная ситуация может наблюдаться, когда число итераций равно 30. Результат, когда алгоритм LAMS работает лучше в области высокого SNR, неудивителен, поскольку алгоритм BP не оптимален для коротких длин кода и ограниченного числа итераций, что вызвано увеличением корреляций при передаче сообщений [9]. Следовательно, благодаря уменьшению отрицательного эффекта корреляций оптимизированные декодеры LAMS могут превзойти BP-декодер в некоторых конкретных случаях.
На рис. 3 показаны рабочие характеристики кодов скорости 1/3 с различной длиной информации для четырех декодеров, где максимальное число итераций установлено в I = 15. Как видно из рисунка, наш алгоритм LAMS работает лучше при коротких информационных длинах. Для информационных длин K = 260 и K = 520 декодеры LAMS даже превосхо-
дят BP-декодеры, когда SNR больше, чем примерно -2,2 (дБ) и -2,5 (дБ) соответственно.
Рис. 3. BLER производительность 5G кодов с кодовой скоростью R = 1 / 3, число итераций I = 15 и различные длины информации K = 260; 520; 2080
Как показано на рис. 4, мы также сравниваем четыре алгоритма для LDPC-кодов с разными скоростями кодирования. Хотя прототипы LDPC-кодов с более низкими скоростями 1/4 и 1/5 весьма различны для кода со скоростью 1/3, в декодировании LAMS используются те же оптимизированные коэффициенты в каждой итерации, показанной в таблице. Для этих трех кодовых скоростей алгоритм LAMS может обеспечить лучшую производительность, чем алгоритмы NMS и OMS. Чем выше кодовая скорость, тем больше преимущество производительности для декодера LAMS. По мере увеличения SNR разрыв между декодером LAMS и декодером BP постепенно сокращается. По сравнению с алгоритмом OMS алгоритм LAMS обладает большей устойчивостью, чтобы поддерживать отличную производительность при одинаковых оптимизированных коэффициентах для разных скоростей кодирования.
Рис. 4. Эффективность BLER кодов 5G с длиной информации K = 520, количеством итераций I = 15 и различными скоростями кодирования R = 1/3, 1/4, 1/ 5
Заключение
Здесь предложен алгоритм LAMS, который использует линейную аппроксимацию вместо одной нормализации или смещения для моди-фикацированного обновления проверочного узла. Кроме того, также модифицируем вычисление LLR из канала AWGN с линейным приближением. Используем небольшую и неглубокую нейронную сеть для обучения соответствующих значений каждой итерации, где коэффициенты устанавливаются в одинаковые значения для всех ребер прохождения сообщений в декодере. Используя структуры контроля качества, мы делаем размер нейронной сети сопоставимым с размером протографа. Поскольку здесь оптимизируются параметры только одной итерации за раз, нейронная сеть имеет только три уровня, что позволяет проводить обучение, не требуя обширных вычислительных ресурсов. Наконец, обучаем набор коэффициентов для 3° итераций и проводим моделирование для LAMS декодера. Результаты моделирования показывают, что предлагаемый LAMS декодер может работать лучше, чем декодеры NMS и OMS, и даже при высоком SNR, чем декодер BP.
Литература
1. Protograph-based raptor-like LDPC codes / T.Y. Chen, K. Vakilinia, D. Divsalar, and R.D. Wesel // IEEE Trans. Commun. 2015. Vol. 63. № 5. Pp. 1522-1532.
2. Reduced-complexity decoding of LDPC codes / J. Chen, A. Dholakia, E. Eleftheriou, M.P.C. Fossorier, and X.-Y. Hu // IEEE Trans. Commun. 2005. Vol. 53. № 8. Pp. 1288-1299.
3. Richardson T. and Urbanke R. Modern Coding Theory // Cambridge, U.K.: Cambridge Univ. Press, 2008.
4. Nachmani E. and Be'ery Y., and Burshtein D. Learning to decode linear codes using deep learning // in Proc. 54th Annu. Allerton Conf. Commun., Control, Comput. (Allerton), Sep. 2016. Pp. 341-346.
5. Lugosch L. and Gross W.J. Neural offset min-sum decoding // in Proc. IEEE Int. Symp. Inf. Theory. 2017. Pp. 1361-1365.
6. Deep learning methods for improved decoding of linear codes / E. Nachmani, E. Marciano, L. Lugosch, W.J. Gross, D. Burshtein, and Y. Be'ery // IEEE J. Sel. Topics Signal Process. 2018. Vol. 12. № 1. Pp. 119-131.
7. Gruber T., Cammerer S., Hoydis J., and ten Brink S. On deep learning- based channel decoding // in Proc. 51st Annu. Conf. Inf. Sci. Syst. (CISS). 2017. Pp. 1-6.
8. Хорошайлова М.В. Анализ сложности алгоритмов декодирования недвоичных LDPC-кодов // Актуальные проблемы энергосбережения и эффективности в технических системах: тез. докл. 3-й Междунар. конф. с элементами научной школы. 2016. С. 155-156.
9. Хорошайлова М.В. Архитектура канального кодирования на основе ПЛИС для 5G беспроводной сети с использованием высокоуровневого синтеза // Вестник Воронежского государственного технического университета. 2018. Т. 14. № 2. С. 99-105.
10. Башкиров А.В., Хорошайлова М.В. Использование вынужденной конвергенции для снижения сложно-
сти LDPC-декодирования // Вестник Воронежского госу- Т. 13. № 1. С. 69-73.
дарственного технического университета. 2017.
Поступила 29.01.2019; принята к публикации 12.04.2019
Информация об авторах
Свиридова Ирина Владимировна - старший преподаватель, Воронежский государственный технический университет (394026, Россия, г. Воронеж, Московский проспект, 14), e-mail: [email protected], ORCID: https://orcid.org/ 0000-0001-5279-0807 Хорошайлова Марина Владимировна - ассистент, Воронежский государственный технический университет (394026, Россия, г. Воронеж, Московский проспект, 14), e-mail: [email protected], ORCID: orcid.org/0000-0001-9167-9538
USING NEURAL NETWORKS TO OPTIMIZE DECODING LDPC CODES FOR 5G WIRELESS
NETWORK
I.V. Sviridova, M.V. Khoroshaylova
Voronezh State Technical University, Voronezh, Russia
Abstract: in this article, we propose a generalized min-sum decoding algorithm using linear approximation (LAMS) for low density parity check codes with quasi-cyclic structures (QC-LDPC). The linear approximation introduces some factors at each decoding iteration that linearly correct the update of the test node and the output of the channel. These factors are itera-tively optimized using neural learning, where optimization can be effectively solved using a small and shallow neural network with training data obtained using a LAMS decoder. The neural network is built in accordance with the parity check matrix of the QC-LDPC code with a parity structure that can significantly reduce the size of the neural network. Since we optimize coefficients once per iteration of decoding, optimization is not limited to the number of iterations. Then we set the optimized coefficient results in the LAMS decoder and perform decoding simulation for QC-LDPC codes in fifth-generation mobile networks (5G). In the simulation, the LAMS algorithm shows a noticeable improvement compared to the normalized and minimum amount of bias algorithms and even better performance than the belief propagation algorithm in some areas with a high signal-to-noise ratio
Key words: quasi-cyclic low-density codes, min-sum decoding algorithm, neural networks, decoding optimization
References
1. Chen T.Y., Vakilinia K., Divsalar D., Wesel R.D. "Protograph-based raptor-like LDPC codes", IEEE Trans. Commun., 2015, vol. 63, no. 5, pp. 1522-1532.
2. Chen J., Dholakia A., Eleftheriou E., Fossorier M.P.C., Hu X.-Y. "Reduced-complexity decoding of LDPC codes", IEEE Trans. Commun., 2005, vol. 53, no. 8, pp. 1288-1299
3. Richardson T., Urbanke R. "Modern coding theory", Cambridge, U.K., Cambridge Univ. Press, 2008.
4. Nachmani E., Be'ery Y., Burshtein D. "Learning to decode linear codes using deep learning", Proc. 54th Annu. Allerton Conf. Commun., Control, Comput. (Allerton), 2016, pp. 341-346.
5. Lugosch L., Gross W.J. "Neural offset min-sum decoding", Proc. IEEE Int. Symp. Inf. Theory, 2017, pp. 1361-1365
6. Nachmani E., Marciano E., Lugosch L., Gross W.J., Burshtein D., Be'ery Y. "Deep learning methods for improved decoding of linear codes", IEEE J. Sel. Topics Signal Process., 2018, vol. 12, no. 1, pp. 119-131.
7. Gruber T., Cammerer S., Hoydis J., ten Brink S. "On deep learning-based channel decoding", Proc. 51st Annu. Conf. Inf. Sci. Syst. (CISS), 2017, pp. 1-6.
8. Khoroshaylova M.V. "Analysis of the complexity of decoding algorithms for non-binary LDPC codes", Proc. of the 3rd International Conf. with Elements of a Scientific School: Actual Problems of Energy Saving and Efficiency in Technical Systems (Ak-tual'nye problemy energosberezheniya i effektivnosti v tekhnicheskikh sistemakh: tez. dokl. 3-y Mezhdunar. konf. s elementami nauchnoy shkoly), Tambov, 2016, 155-156 pp.
9. Khoroshaylova M.V. "Architecture of FPGA based channel coding for 5G wireless network using high-level synthesis", The Bulletin of Voronezh State Technical University (Vestnik Voronezhskogo gosudarstvennogo tekhnicheskogo universiteta), 2018, vol. 14, no. 2, pp. 99-105
10. Bashkirov A.V. "Use forced to reduce the convergence complexity LDPC decoding", The Bulletin of Voronezh State Technical University (Vestnik Voronezhskogo gosudarstvennogo tekhnicheskogo universiteta), 2017, vol. 13, no. 1, pp. 69-73
Submitted 29.01.2019; revised 12.04.2019
Information about the authors
Irina V. Sviridova, Assistant Professor, Voronezh State Technical University (14 Moskovskiy prospekt, Voronezh 394026, Russia), e-mail: [email protected]
Marina V. Khoroshaylova, Assistant, Voronezh State Technical University (14 Moskovskiy prospekt, Voronezh 394026, Russia), e-mail: [email protected], tel.: 8-910-732-66-13