Научная статья УДК 004.032.26:004.312.26 https://doi.org/10.35266/1999-7604-2024-3-6
Разработка архитектуры нейросетевого декодирования, основанной на системах стробирования и распределения весовых коэффициентов
Александр Александрович Пирогов1, Марина Владимировна Хорошайлова2, Элеонора Викторовна СёмказМ
12Воронежский государственный технический университет, Воронеж, Россия
3Военный учебно-научный центр Военно-воздушных сил «Военно-воздушная академия имени
профессора Н. Е. Жуковского и Ю. А. Гагарина» Минобороны России, Воронеж, Россия
[email protected], https://orcid.org/0000-0002-5105-0505
[email protected], https://orcid.org/0000-0001-9167-9538
[email protected]://orcid.org/0000-0002-0194-6979
Аннотация. Проведен анализ рабочей архитектуры для алгоритма нейросетевого декодирования, основанного на распространении доверия, в которой контролируется количество обучаемых параметров и вычислений в нейронной сети благодаря распределению весов и эффективному вычислительному графу. Операция распределения весовых коэффициентов включает в себя вычисление взвешенной суммы выходных сигналов нейронов уровня слоя, умноженной на соответствующие веса, и сложение смещений. Метод выделения участка данных предполагает применение нелинейной функции активации к выходным сигналам нейронов. После нескольких итераций локального декодирования значение потерь рассчитывается с использованием функции потерь среднеквадратичной ошибки.
Результаты моделирования показывали, что производительность улучшается по сравнению со стандартным декодером, построенного с использованием стандартного алгоритма распространения доверия (belief propagation, BP), благодаря применению подхода, подобного нейросетевому алгоритму BP.
Предложена надежная схема декодирования на основе нейронной сети, предназначенная для систем беспроводной связи. Данная архитектура рекуррентной нейронной сети, основанная на алгоритмах стробирования и распределения весовых коэффициентов, предназначена для выполнения декодирования распространения доверия без предварительного знания схемы кодирования.
Ключевые слова: нейросетевой декодер, рекуррентная нейронная сеть, блочные коды, алгоритм распространения доверия, функция весовых коэффициентов
Финансирование: работа выполнена при поддержке Минобрнауки России в рамках Федерального проекта «Подготовка кадров и научного фундамента для электронной промышленности» Государственной программы Российской Федерации «Научно-технологическое развитие Российской Федерации» при реализации Программы развития учебного дизайн-центра электроники «Силовая электроника» (соглашение № 075-02-2024-1517 от 7.03.2024 г. и № 075-02-2024-1520 от 7.03.2024 г.) в ФГБОУ ВО «Воронежский государственный технический университет».
Для цитирования: Пирогов А. А., Хорошайлова М. В., Сёмка Э. В. Разработка архитектуры нейро-сетевого декодирования, основанной на системах стробирования и распределения весовых коэффициентов // Вестник кибернетики. 2024. Т. 23, № 3. С. 46-55. https://doi.org/10.35266/1999-7604-2024-3-6.
(сс)
BY 4.0
Original article
Development of a neural network decoding architecture based on gating and weight distribution systems
Aleksandr A. Pirogov1, Marina V. Khoroshailova2, Eleonora V. Syomka3M 12Voronezh State Technical University, Voronezh, Russia
3Military Educational and Scientific Centre of the Air Force N. E. Zhukovsky and Y. A. Gagarin Air Force Academy the Ministry of Defence of the Russian Federation, Voronezh, Russia '[email protected], https://orcid.org/0000-0002-5105-0505 [email protected], https://orcid.org/0000-0001-9167-9538 [email protected], https://orcid.org/0000-0002-0194-6979
Abstract. The research analyzes the working architecture for a neural network decoding algorithm based on belief propagation. It is found that the weight distribution and an efficient computational graph determine the number of trainable parameters and computations in the neural network. The weight distribution involves calculating the weighted sum of the output signals of the neurons of a layer, multiplied by the corresponding weights, and adding the biases. The data region extraction method involves applying a nonlinear activation function to the output signals of neurons. After several iterations of local decoding, the algorithm calculates the loss value using the mean square error loss function.
The simulation results indicated that using an approach similar to the neural network Belief Propagation (BP) algorithm improved the performance compared to the standard decoder built using the standard BP algorithm.
A robust neural network-based decoding scheme for wireless communication systems is proposed. This recurrent neural network architecture, based on gating and weight distribution algorithms, is designed to perform belief propagation decoding without prior knowledge of the coding scheme.
Keywords: neural network decoder, recurrent neural network, block codes, belief propagation, weight function
Funding: the work is supported by the Ministry of Education and Science of the Russian Federation within the Federal Project "Podgotovka kadrov i nauchnogo fundamenta dlya elektronnoy promyshlennosti" of the State Program of the Russian Federation "Nauchno-tekhnologicheskoe razvitie Rossiyskoy Federatsii" in the implementation of the Program for the Development of the Educational Design Center for Electronics "Silo-vaya elektronika" (agreement No. 075-02-2024-1517 dated March 7, 2024, and No. 075-02-2024-1520 dated March 7, 2024) at the Voronezh State Technical University.
For citation: Pirogov A. A., Khoroshailova M. V., Syomka E. V. Development of a neural network decoding architecture based on gating and weight distribution systems. Proceedings of Cybernetics. 2024;23(3):46-55. https://doi.org/10.35266/1999-7604-2024-3-6.
ВВЕДЕНИЕ
Современная система связи должна быть оперативна, достоверна, помехоустойчива, надежна и скрытна. Опираясь на данные требования к связи, можно утверждать, что помехоустойчивое кодирование является неотъемлемой частью цифровой обработки информационных данных. Рассмотрены архитектура каскадного кодека для программируемой логической интегральной схемы (ПЛИС) с использованием внутреннего низкоплотностного кода стандарта БУВ-82 и внешнего кода Рида - Соломона [1], архитектура ПЛИС для квазициклических кодов
четности с низкой плотностью (QC-LDPC), основанных на построении идентичной матрицы circulant-1 [2]. Алгоритм декодирования с использованием метода низкой плотности проверки на четность (LDPC) на основе ПЛИС для реализации полностью параллельных LDPC-декодеров предназначен для оптимизации использования логики ПЛИС и уменьшения времени задержки декодирования [3]. Каскадная сетевая структура для распознавания LDPC кодирования вслепую рассматривалась авторами в работе [4]. Декодирование LDPC-алгоритма побитовым адаптивным порогом инверсии бита (adaptive
threshold bit flipping, ATBF) исследовали авторы в работе [5].
Коды с исправлением ошибок, имеющие широкое применение при передаче данных, хранении данных и отказоустойчивых вычислениях, предназначены для защиты информации от случайных ошибок. Основным классом помехоустойчивых кодов является класс линейных блочных кодов (LBC). В LBC к строке информационных символов добавляются некоторые дополнительные символы, предназначенные для формирования кодового слова, таким образом, чтобы отделить каждый информационный вектор дальше друг от друга в пространстве кодовых слов. Следовательно, когда на кодовое слово влияет некоторый шум во время передачи или обработки, декодер может исправить ошибку, связав зашумленную строку с ближайшим допустимым кодовым словом.
Современные инструменты машинного обучения, универсальные и простые в использовании могут значительно улучшить производительность декодирования [6]. Нейронные декодеры распространения доверия были представлены как способ улучшения производительности декодирования итерационного алгоритма распространения доверия для линейных блочных кодов короткой и средней длины. Основная идея, которая лежит в основе этих декодеров, заключается в представлении распространения убеждений в виде нейронной сети, позволяющей адаптивно взвешивать процесс декодирования.
Цель: разработка упорядоченной архитектуры, обеспечивающей применение алгоритма нейросетевого распространения доверия для декодирования линейных блочных кодов с улучшенной гибкостью декодера благодаря его возможностям обучения и повышения производительности по сравнению со стандартным декодером BP.
МАТЕРИАЛЫ И МЕТОДЫ
Коды проверки четности низкой плотности (LDPC) были выбраны в стандарте 5G наряду с полярными кодами. Низкоплотностные коды представляют собой класс линейных блочных
кодов и являются одними из самых эффективных помехоустойчивых кодов, выполняющими итеративные алгоритмы декодирования. Тем не менее в некоторых случаях использования, таких как IoT (Internet of Things - интернет вещей) с низким энергопотреблением, нельзя применять большие коды из-за сложности их декодирования и их несоответствия относительно небольшим полезным нагрузкам, с которыми приходится сталкиваться. При меньшей длине кода матрица проверки четности (ПЧ) кодов LDPC не становится более разреженной; свойство «низкой плотности» теряется, и становится неизбежным наличие коротких циклов в ПЧ-матрице. Как следствие, производительность алгоритма декодирования, основанного на распространении доверия (BP), также известного как sum-product (SP), становится низкоэффективной. В такой ситуации предлагается представить алгоритм BP в виде нейронной сети (НС), что позволяет адаптивно взвешивать сообщения, которыми обмениваются в процессе декодирования.
Рассматривается линейный блочный код C длиной n и разрядом k. Связанная матрица генератора размером k * n и соответствующая матрица проверки четности размером (n - k) * n обозначаются как G и H соответственно. Матрица проверки четности может быть представлена в виде двудольной графовой модели, называемой графом Таннера, определенного типа факторного графа (ФГ). Исследование способа идентификации циклов в графах Таннера LDPC кодов на основе пересечений коротких замкнутых структур в протографах было рассмотрено в работе [7]. Такое представление обеспечивает эффективное итеративное декодирование на основе классических алгоритмов передачи сообщений, таких как BP. Этот алгоритм направлен на то, чтобы сходиться к передаваемому кодовому слову путем итеративного обмена «предположениями» между узлами графа о вероятных значениях полученных битов кодового слова. Обычно обмениваемые сообщения связаны с логарифмическими коэффициентами правдоподобия (LLR) полученных
битов, и правило обновления sum-product может быть применено к различным узлам, используя следующие уравнения:
- правило обновления SP, примененное к переменному узлу i для вычисления сообщения для контрольного узла j:
(1)
где - предшествующее значение 1ХЯ, полученное переменным узлом г,
- сообщения, полученные переменным узлом от соседних контрольных узлов к.
- правило обновления 8Р, применяемое к контрольному узлу ] для вычисления сообщения для переменного узла г:
(2)
/V
где ' у- - сообщения, полученные контрольным узлом ] от соседних переменных узлов к;
- правило обновления 8Р, применяемое к переменному узлу г для вычисления бита г для последующего ЬЬЯ:
.
(3)
К
Поскольку ФГ не является циклическим, необходимо применить итеративное декодирование путем передачи сообщений туда и обратно между переменным и контрольным узлами, используя уравнения (1) и (2), прежде чем прийти к удовлетворительному решению. Алгоритм нейросетевого распространения доверия (МБР) предлагает научиться взвешивать сообщения и вводить ЬЬЯ уравнений (1), (2) и (3), чтобы уменьшить негативное влияние коротких циклов на конечную производительность декодирования.
По мере увеличения количества слоев в нейронной сети улучшаются возможности обработки данных моделей. Искусственная нейронная сеть состоит из нескольких нейронов, соединяющих друг друга с другими ребрами. Нейронные сети обеспечивают входной уровень, несколько скрытых слоев
и выходной слой, что позволяет выполнять более точные и сложные задачи определения и классификации образов. Поскольку нейронная сеть содержит несколько скрытых слоев, она называется глубокой нейронной сетью. В моделях глубокой нейронной сети (ГНС) каждый нейрон и связанные с ним ребра имеют свои характерные особенности. На каждом нейроне есть функция активации и параметр смещения, а также параметр веса на ребре, соединенном с нейроном. Функция активации представляет собой нелинейное преобразование выходного сигнала нейрона. Входной сигнал умножается на вес, прибавляется к смещению, а затем производится для получения активного выходного сигнала. В ГНС вес и смещение силы используются для кон -троля связей между нейронами и смещения нейронов. Функции активации, вес и смещения в ГНС взаимодействуют друг с другом, и, регулируя их, можно контролировать силу связей, смещений и выходных результатов между нейронами, тем самым достигая обучения и прогнозирования нейронной сети.
Предлагается архитектура НС для выполнения алгоритма МБР, применяемого для декодирования линейных блочных кодов. В предлагаемом способе принимающему устройству больше не требуется предварительное знание используемой схемы кодирования. Как следствие, ему необходимо изучить как топологию ФГ, так и вес МБР. Предлагаемый декодер основан на пользовательской архитектуре ячеек рекуррентной нейронной сети (РНС), которая использует механизмы распределения веса и стробирования. Сначала правила 8Р будут описаны как эффективные матричные операции для универсальных линейных блочных кодов. Затем предлагаемые операции будут использоваться для РНС.
На каждой итерации МБР декодер запускается путем обновления сообщений из переменных в контрольные узлы , следуя рассчитанному по весу выражению (1) (входные сообщения, полученные от контрольных узлов , инициализируются значением О
на первой итерации). Это вычисление может
быть реализовано с использованием плотного слоя НС, как показано на рис. 1, где N
' г ' переменных
и N обозначают количество перемен-
проверочных г
ных и контрольных узлов в ФГ, ю(Ау) - нелинейная функция, применяемая к параметрам факторного графа для представления как механизмов стробирования (т. е. бинарного выбора), так и механизмов взвешивания. Например, если ю(Ау) определено как ступенчатая функция, то вычислительный график будет воспроизводить стандартный алгоритм ВР с двоичными весами. Коэффициенты р. не должны проходить через функцию ю, потому что нет необходимости в сокращении каких-либо входных данных.
Поскольку декодирование ВР является итеративным алгоритмом, вышеупомянутые операции должны повторяться несколько раз для достижения хорошей производительности. РНС может использоваться для выполнения такого итеративного декодирования в рамках НС.
Активация нейрона в слое, отличном от входного, представляет собой сумму произведений его входных данных и параметров веса,
соответствующих соединениям, которые вводят эти входные данные. Рассмотрим j-й нейрон в скрытом слое и примем j = 2. Если входной сигнал равен (1,1; 2,4; 3,2; 5,1; 3,9), а конечный выходной параметр равен (0,52; 0,75; 0,97), если веса, заданные для нейрона второго скрытого слоя, задаются вектором (-0,33; 0,07; -0,45; 0,13; 0,37), то активация будет произведена следующим образом:
(-0,33; 1,1) + (0,07; 2,4) + (-0,45; 3,2) + + (0,13; 5,1) + (0,37; 3,9) = 0,471. (4)
Теперь добавим к этому необязательное смещение или пороговое значение, например, 0,679, чтобы получить 1,15, и используем сигмовидную функцию, заданную 1(1 + ехр(-х)), при х = 1,15 выходной сигнал этого нейрона скрытого слоя будет равен 0,7595. Если вычисленный выходной параметр также оказывается равным (0,61; 0,41; 0,57; 0,53), в то время как желаемое значение равно (0,52; 0,25; 0,75; 0,97). Очевидно, существует несоответствие между желаемым и вычисленным. Различия по компонентам приведены в векторе (-0,09; -0,16; 0,18; 0,44). Этот вектор используется для формиро-
Рис. 1. Реализация взвешенной функции уравнения (1) с использованием плотного слоя
Примечание: составлено авторами по источнику [8].
вания другого вектора, где каждый компонент является произведением компонента ошибки, соответствующего вычисленного компонента шаблона и дополнения последнего относительно 1. Для первого элемента ошибка равна -0,09, вычисленный элемент эталонного значения равен 0,61, а его дополнение равно 0,39. Умножая их вместе, получаем -0,02. Аналогично вычисляя другие компоненты, получаем вектор, равный (-0,02; -0,04; 0,04; 0,11). Теперь необходимы веса соединений между вторым нейроном в скрытом слое и различными выходными нейронами. Если эти веса заданы вектором (0,85; 0,62; -0,10; 0,21), то ошибка второго нейрона в скрытом слое может быть вычислена с использованием его выходных данных. Ошибка равна:
0,7595((1 - 0,7595)(0,85; -0,02) + + (0,62; -0,04) + (-0,045)(-0,10; 0,4) +
+ (0,21; 0,11)) = -0,0041. (5)
Далее необходим параметр скорости обучения для этого уровня. Теперь оно установлено равным 0,2. Умножив этот выходной сигнал второго нейрона на параметр скорости обучения, равный 0,2 в скрытом слое, получим 0,1519. Каждый из компонентов вектора (-0,02; -0,04; 0,04; 0,11) теперь умножается на 0,1519, что является последним достигнутым вычислением. Результатом является вектор, который корректирует веса соединений,
идущих от второго нейрона в скрытом слое к выходным нейронам. Эти значения заданы в векторе (-0,003; -0,006; 0,006; 0,017). После добавления этих корректировок веса, которые будут использоваться в следующем цикле для связей между вторым нейроном в скрытом слое и выходными нейронами, становятся весами в векторе (0,847; 0,614; ... 0,094; 0,227).
На рис. 2 предлагается структурированная ячейка РНС, адаптированная для выполнения нейросетевого ВР-декодирования линейных блочных кодов.
Ячейка рекуррентной нейронной сети построена на основе двух типов обучаемых параметров веса:
- стробирующие веса: представляют топологию факторного графа и используются для соответствующего выбора сообщений на различных этапах процесса декодирования. Чтобы представить такое поведение при бинарном выборе, к этим весам применяется сигмоидальная функция активации о;
- веса КВР: веса ^ и моит используются для улучшения производительности схемы декодирования аналогично механизму КВР.
Все веса распределяются между различными итерациями РНС. Веса стробирования также распределяются внутри любой заданной итерации между различными операциями алгоритма ВР. Структурированная архитекту-
Рис. 2. Предлагаемая закрытая ячейка РНС для выполнения КНР-декодирования линейных блочных кодов
Примечание: составлено авторами по источнику [8].
ра НС гарантирует, что изученный алгоритм декодирования аналогичен NBP, но позволяет изучать топологию ФГ. В предлагаемой архитектуре вышеупомянутые функции ю, 0, у и у могут быть определены следующим образом:
oj(a)= w^ ®<j{wG\if/(a) = wOUT®cr(wG)^ в(а) = o-(wG у(а) = 1 - cr(wG ) (6)
Система обработки сообщений выбирает сообщения, используя модифицированную функцию обработки o(wG). Эта функция в значительной степени действует как сигмовидная функция, но обеспечивает лучшее обратное распространение градиента в режиме насыщения сигмоидной функции, тем самым улучшая обучаемость вентиля (за счет дополнительных обучаемых параметров). Можно отметить, что выбранная архитектура взвешивает сообщения только на определенных этапах. Использование разных параметров веса перед операциями и OUT кажется эффективным.
Чтобы оценить производительность предлагаемой ячейки РНС, в TensorFlow определяется сквозная модель НС со следующими настраиваемыми слоями. Системная модель показана на рис. 3, где ячейки, выделенные серым цветом, не поддаются обучению, а белым цветом - поддаются.
В данной системной модели рекуррентной нейронной сети подаваемые на вход информационные слова x кодируются с использованием систематических версий кодов Боуза -Чоудхури - Хоквингема БЧХ (15,11) или БЧХ (15,7), применяется двоичная фазовая модуляция (BPSK), затем символы кодового слова проходят через канал с аддитивным белым га-уссовским шумом (АБГШ). С учетом используемой модуляции и канала вычисляется LLR принятых выборок.
Предварительная обработка LLR: для облегчения обучения РНС значения LLR нормализуются до диапазона [-1, +1] в соответствии с максимальным абсолютным значением LLR в каждом кодовом слове. Затем LLR передается в соответствии с заданным числом итераций. К нормализованным кодовым словам применяется итерационный алгоритм расчета
весовых коэффициентов. Это могло бы позволить НС компенсировать недостаточный диапазон нормализации кодовых слов, с одной стороны, а также внести разнообразие в итерации РНС, изменив баланс между входными данными ЬЬЯ и сообщениями из предыдущей итерации, с другой стороны. Предлагаемая закрытая ячейка МБР РНС используется для декодирования принятых кодовых слов. Ней-росетевой алгоритм БР должен изучить схему кодирования, используемую в источнике.
При обработке выходных данных вместо извлечения только результата последней итерации БР выходные данные всех итераций объединяются повторно с использованием взвешенной суммы. Таким образом, уровень РНС используется в конфигурации «многие ко многим». Такой подход упрощает обратное распространение градиента, вводя его обратно на каждой итерации БР. Это также позволяет системе придавать большее значение результатам итерации, которые являются наиболее надежными с точки зрения опыта обучения. Зная положение систематических битов кода, затем применяется уровень определяемой выборки для подбора этих битов, и применяется сигмовидная функция для сжатия декодированного логарифмического коэффициента правдоподобия либо до 0, либо до 1.
РЕЗУЛЬТАТЫ И ИХ ОБСУЖДЕНИЕ
Структура автоматического кодирования обеспечивает простой процесс обучения, поскольку функция потерь может быть вычислена как двоичная перекрестная энтропия между исходными информационными словами х и декодированными словами х Для обоих кодов обучение выполняется с использованием случайно выбранных информационных битов, разделенных на слова размером k. Ко -личество слов, используемых для обучения, в 10 раз превышает общее количество возможных слов, 21". Уровень шума, используемый на этапе обучения, зафиксирован на уровне 4 дБ. Механизм регуляризации со смещением 12 применяется для ограничения полученных весовых коэффициентов КБР, которые находятся слишком далеко от 1.
С
Кодовое слово
БР8К модуляция
АБГШ
С
Вычисление ЬЬЯ
Передача данных об итерации
ух I X
Вычисление весов на итерациях
Итерация вьшодит рассчитанную сумму
Я
/■ N
Систематический выбор битов
£ Ч ">>4 ЧОх; "X 1 ч ЧХ
■■* ■ ЗСН (15,7) - Стандартаый НР : —*— ВСН (15,7) - 1}Р РИС -*-ВСН (15,7) - М1. деколнр-е : -■- БОН (15,11) Стандартный ВР —•—ВСН (15,11)-(ЩЕРРНС 1 -■»-ВСК (15,11)-Мкдоимр-с х: \Ч
\ N \ N
I I
Рис. 3. Системная модель рекуррентной нейронной сети
Примечание: составлено авторами на основании данных, полученных в исследовании.
Модель оценивалась на наборе данных, состоящем из случайно выбранных слов. Для получения надежных результатов вместо фиксированного количества тестируемых слов было исправлено количество ошибок, которых необходимо достичь. Производительность лучшей модели среди 50 тренировок, обозначенной как «NBP РНС», сравнивается с базовыми показателями максимального правдоподобия (ML) и стандартного декодирования BP для обоих кодов, как показано на рис. 4.
Все кривые производительности отображаются в виде частоты ошибок блока (количество ошибочно декодированных кодовых слов среди всех обработанных кодовых слов).
ЕЬ/ЛГ0 [(¡В]
Рис. 4. Частота ошибок блока предложенной модели по сравнению со стандартными декодерами ВР и максимального правдоподобия для кодов БЧХ (15,11) и БЧХ (15,7)
Примечание: составлено авторами на основании данных, полученных в исследовании.
Предлагаемая модель способна обучаться декодированию обоих кодов и превосходит стандартный алгоритм BP, особенно для кода БЧХ (15,7), где прирост производительности до 1 дБ значительно сокращает разрыв при декодировании с максимальным правдоподобием.
На рис. 5 приведена частота битовых ошибок для кода БЧХ с N = 15, а для БЧХ (15,7) и БЧХ (15,11) получено улучшение до 0,9 и 1,0 дБ соответственно.
ЗАКЛЮЧЕНИЕ
Представлена эффективная архитектура РНС со стробированием для декодирования линейных блочных кодов. Эта архитектура улучшает процесс итеративного декодирования BP, используя подход нейросетевого BP, при котором на приемной стороне не требуется предварительных знаний об используемой схеме кодирования. Вычислительный граф разработан несложным, универсальным и масштабируемым для больших кодов. Основными преимуществами разработанной архитектуры являются:
- контролируемое количество обучаемых параметров и вычислений в нейронной сети благодаря распределению веса и эффективному вычислительному графу;
х
ю\
—•— БЧЖ15.11 СгандартныИ BP —5.11 JBP РИС
\ ■v.
't ч
N. N
V X
\
Eb/N0[dB]
а б
Рис. 5. Результаты БЕЯ для кода БЧХ: а - обученного с использованием матрицы проверки для алгоритмов стандартного БР; б - нейросетевого БР
Примечание: составлено авторами на основании данных, полученных в исследовании.
- структурированная архитектура, обеспечивающая применение алгоритма КБР для декодирования линейных блочных кодов;
- улучшенная производительность по сравнению со стандартным декодером БР благодаря применению нейросетевого алгоритма БР;
- повышенная гибкость декодера благодаря его возможностям обучения.
Декодер РНС может быть использован для повышения производительности и альтер-
нативного снижения вычислительной сложности алгоритма декодирования коротких и средней длины кодов в беспроводных системах передачи информации.
Планируется изучение возможностей такой структурированной архитектуры для схемы декодирования больших кодов, где невозможно предоставить все кодовые слова в обучающем наборе данных.
Список источников
1. Зинченко М. Ю., Левадний А. М., Гребенко Ю. А. Реализация ЬБРС декодера на ПЛИС и оптимизация потребляемой мощности // Т-Сошш: Телекоммуникации и транспорт. 2020. Т. 14, № 3. С. 4-10.
2. Хорошайлова М. В. Архитектура канального кодирования на основе ПЛИС для 5в беспроводной сети с использованием высокоуровневого синтеза // Вестник Воронежского государственного технического университета. 2018. Т. 14, № 2. С. 99-105.
3. Хорошайлова М. В. Архитектура для стохастических ЬБРС-декодеров с использованием эффективной площади кристалла на основе ПЛИС // Вестник Воронежского государственного технического университета. 2018. Т. 14, № 1. С. 95-100.
4. Башкиров А. В., Хорошайлова М. В., Демихо-ва А. С. Разработка архитектуры слепого распознавания линейного блочного кодирования с использованием каскадной сети // Вестник Воронежского государственного технического университета. 2023. Т. 19, № 6. С. 130-137.
References
1. Zinchenko M. Y., Levadniy А. М., Grebenko Y. A. FPGALDPC decoder implementation and optimization its power consumption. T-Comm. 2020;14(3):4-10. (In Russ.).
2. Horoshaylova M. V. Architecture of FPGA based channel coding for 5G wireless network using high-level synthesis. Bulletin of Voronezh State Technical University. 2018;14(2):99-105. (In Russ.).
3. Horoshaylova M. V. Architecture for stochastic LDPC-decoders c using the effective chip area based on EPLD. Bulletin of Voronezh State Technical University. 2018;14(1):95-100. (In Russ.).
4. Bashkirov A. V, Khoroshailova M. V, Demikhova A. S. Development of a blind recognition architecture for linear block coding using a cascade network. Bulletin of Voronezh State Technical University. 2023;19(6):130-137. (In Russ.).
5. Bashkirov A. V, Muratov A. V, Khoroshaylova M. V et al. Low-density codes low power decode. Radioengineering. 2016;(5):32-37. (In Russ.).
5. Башкиров А. В., Муратов А. В., Хорошайлова М. В. и др. Низкоплотностные коды малой мощности декодирования // Радиотехника. 2016. № 5. С. 32-37.
6. Silver D., Huang A., Maddison C. J. et al. Mastering the game of Go with deep neural networks and tree search // Nature. 2016. Vol. 529, no. 7587. P. 484-489.
7. Овинников А. А. Способ идентификации циклов в графах Таннера LDPC кодов на основе пересечений коротких замкнутых структур в протографах // Цифровая обработка сигналов. 2016. № 4. С. 26-30.
8. Mandic D. P., Chambers J. A. Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. London : Wiley, 2001. 308 p.
Информация об авторах
А. А. Пирогов - кандидат технических наук, доцент.
М. В. Хорошайлова - кандидат технических наук, доцент.
Э. В. Сёмка - кандидат физико-математических наук, доцент.
6. Silver D., Huang A., Maddison C. J. et al. Mastering the game of Go with deep neural networks and tree search. Nature. 2016;529(7587):484-489.
7. Ovinnikov A. A. Images of cycles of cyclic liftings in the base graph of protograph LDPC codes. Digital Signal Processing. 2016;(4):26-30. (In Russ.).
8. Mandic D. P., Chambers J. A. Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. London: Wiley, 2001. 308 p.
About the authors
A. A. Pirogov - Candidate of Sciences (Engineering), Docent.
M. V. Khoroshailova - Candidate of Sciences (Engineering), Docent.
E. V. Syomka - Candidate of Sciences (Physics and Mathematics), Docent.