Научная статья на тему 'АЛГОРИТМ СХОДИМОСТИ ДЛЯ LDPC-КОДЕКА НИЗКОЙ СЛОЖНОСТИ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ'

АЛГОРИТМ СХОДИМОСТИ ДЛЯ LDPC-КОДЕКА НИЗКОЙ СЛОЖНОСТИ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
39
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АЛГОРИТМ ОБРАТНОГО РАСПРОСТРАНЕНИЯ / LDPC-КОДЕК / ВЫЧИСЛИТЕЛЬНАЯ СЛОЖНОСТЬ / ПЕРСЕПТРОН

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Хорошайлова М.В.

Описана модифицированная методика, основанная на «мягких» вычислениях для менее сложного в вычислительном отношении LDPC-кодера/декодера. Данная методика обучения вычислительно менее сложна, чем обычный метод градиентного обучения, и отличается высокой точностью. Для изменения H-матрицы использовались две формы вычисления в виде приближенного нижнего треугольника, а именно: систематическое кодирование методом исключения Гаусса и кодирование со сложностью, которая растет линейно с размером блока. Производительность разработанной методики сравнивается с традиционными методами с точки зрения максимальной погрешности, минимальной погрешности и вычислительной сложности. Для эмуляции кодека разработан LDPC-кодер/декодер на основе искусственной нейронной сети. Нейронная сеть имеет три слоя: входной слой, один скрытый слой и выходной слой. Количество нейронов во входном и выходном слоях зависит от размера матрицы проверки четности LDPC-кодера. Производительность предлагаемого LDPC-кодека сравнивается с производительностью обычных кодеков с точки зрения алгоритма обучения. Предлагаемый алгоритм обучения имеет умножение X-L в отличие от умножения X2 и X обычных методов. Также предлагается эффективная архитектура для того, чтобы нейронная сеть действовала как универсальный LDPC-кодек, выбирая 0/1 для установленного бита

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CONVERGENCE ALGORITHM FOR LDPC CODEC OF LOW COMPLEXITY BASED ON NEURAL NETWORK

The paper describes a modified soft-computing technique for a less computationally complex LDPC encoder/decoder. This learning technique is computationally less complex than the conventional gradient learning method and is highly accurate. I used two forms of approximate lower triangle calculation to change the H-matrix, namely systematic Gaussian elimination coding and coding with complexity that grows linearly with block size. The performance of the developed technique is compared with traditional methods in terms of maximum error, minimum error and computational complexity. I developed an LDPC encoder/decoder based on an artificial neural network to emulate the codec. A neural network has three layers, namely an input layer, one hidden layer and an output layer. The number of neurons in the input and output layers depends on the size of the parity check matrix of the LDPC encoder. I compared the performance of the proposed LDPC codec with the performance of conventional codecs in terms of the learning algorithm. The proposed learning algorithm has X-L multiplication as opposed to X2 and X multiplication of conventional methods. I also propose an efficient architecture for the neural network to act as a generic LDPC codec by choosing either 0/1 for a set bit

Текст научной работы на тему «АЛГОРИТМ СХОДИМОСТИ ДЛЯ LDPC-КОДЕКА НИЗКОЙ СЛОЖНОСТИ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ»

DOI 10.36622^Ти.2022.18.3.017 УДК 004.032.26

АЛГОРИТМ СХОДИМОСТИ ДЛЯ LDPC-КОДЕКА НИЗКОЙ СЛОЖНОСТИ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ

М.В. Хорошайлова

Воронежский государственный технический университет, г. Воронеж, Россия

Аннотация: описана модифицированная методика, основанная на «мягких» вычислениях для менее сложного в вычислительном отношении LDPC-кодера/декодера. Данная методика обучения вычислительно менее сложна, чем обычный метод градиентного обучения, и отличается высокой точностью. Для изменения H-матpицы использовались две формы вычисления в виде приближенного нижнего треугольника, а именно: систематическое кодирование методом исключения Гаусса и кодирование со сложностью, которая растет линейно с размером блока. Производительность разработанной методики сравнивается с традиционными методами с точки зрения максимальной погрешности, минимальной погрешности и вычислительной сложности. Для эмуляции кодека разработан LDPC-кодер/декодер на основе искусственной нейронной сети. Нейронная сеть имеет три слоя: входной слой, один скрытый слой и выходной слой. Количество нейронов во входном и выходном слоях зависит от размера матрицы проверки четности LDPC-кодера. Производительность предлагаемого LDPC-кодека сравнивается с производительностью обычных кодеков с точки зрения алгоритма обучения. Предлагаемый алгоритм обучения имеет умножение X-L в отличие от умножения XI и X обычных методов. Также предлагается эффективная архитектура для того, чтобы нейронная сеть действовала как универсальный LDPC-кодек, выбирая 0/1 для установленного бита

Ключевые слова: алгоритм обратного распространения, LDPC-кодек, вычислительная сложность, персептрон

Введение

LDPC код является блочным кодом, в котором биты сообщения кодируются с помощью матрицы проверки четности (И-матрицы), которая генерируется с большим количеством нулей и меньшим количеством единиц. Количество нулей в матрице влияет на сложность декодирования и определяет минимальное расстояние кода. Распределение по степеням относится к числу ненулевых записей в каждой из строк и столбцов матрицы проверки четности И. Если степень распределения как строк, так и столбцов одинакова, то это обычная И-матрица, в противном случае она называется нерегулярной И-матрицей. Часто И-матрицу представляют в графическом виде и называют графом Таннера. Цикл определяется как последовательность соединенных узлов, которые начинаются и заканчиваются в одном и том же узле, а обхват относится к наименьшему циклу в графе Таннера. Кодовое слово, передаваемое с использованием Н-матрицы, представляет собой само сообщение и избыточные биты.

Предлагается модифицированный метод для LDPC-кодеров, который позволит использовать меньшее количество вычислений для кодирования битов сообщения. Однако в слу-

© Хорошайлова М.В., 2022

чае приемопередатчиков будет наиболее целесообразно, если одна и та же схема сможет выполнять как кодирование, так и декодирование в LDPC. Была изучена логика декодирования для класса кодов евклидовой геометрии с низкой плотностью контроля четности (от англ. Euclidean geometry low density parity check, EG-LDPC) с использованием метода, аналогичного методу одношагового мажоритарного декодирования. Декодирование мажоритарной логики было реализовано последовательно с помощью простого оборудования, но требует длительного времени декодирования, что увеличило время доступа к памяти. Метод определяет, имело ли слово ошибки на первых итерациях мажоритарного логического декодирования, и когда ошибок в декодировании не было, оно закончилось, не завершив остальные итерации. Поскольку большинство слов в памяти будут безошибочными, среднее время декодирования сильно сократится.

Производительность квазициклических кодов проверки четности с низкой плотностью (QC LDPC) может быть дополнительно ускорена с помощью улучшенного логического декодирования, такого как декодирование мажоритарной логики. Был предложен эффективный метод кодирования с использованием метода скупых перестановок. Для изменения H-матрицы использовалась форма приближен-

ного нижнего треугольника (ALT) двумя способами, а именно: систематическое кодирование методом исключения Гаусса и кодирование со сложностью, которая растет линейно с размером блока. Затем систематическая форма ALT (форма SALT) используется для изменения H-матрицы. Для кодирования используется скупая перестановка и производительность сравнивается с результатами гауссовой перестановки.

В этой статье успешно разработан метод на основе нейронной сети как для кодирования, так и для декодирования, основанный на алгоритмах градиентного обучения обычной сети (GLN) и адаптивного естественного градиентного обучения (AGLN). Однако предложенный метод превосходит два алгоритма с точки зрения простоты вычислений и сходимости. Использование многослойного персеп-трона (MLP) в нейронной сети позволяет прогнозировать и классифицировать выходные переменные из набора входных переменных. Нейронная сеть имеет три слоя: входной слой, один скрытый слой и выходной слой. Количество нейронов во входном и выходном слоях зависит от типа LDPC-кодека. В этом случае рассматривается LDPC-кодер с 5 входами и 10 выходами. Следовательно, количество нейронов в входном и выходном слоях равно 5 и 10 соответственно. Нейроны в скрытом слое повышают точность предсказания. Но это увеличивает сложность системы памяти и хранения информации. Следовательно, в этом случае количество нейронов в скрытом слое выбрано равным 10. Существующая нейронная сеть была смоделирована, а коды предсказаны с использованием методов OGL и AGL. Минимальная, максимальная и средняя ошибки предсказания 10-битного кода из 5-битного входного сообщения показаны в табл. 1.

Количество умножений также указано в последнем столбце таблицы. Установлено, что AGLN обеспечивает меньшую среднюю

ошибку, минимальную и максимальную ошибки. Однако количество вычислений велико в случае сети на основе AGLN.

Чтобы сравнить производительность предложенного алгоритма с традиционными методами, изначально сохраняется архитектура нейронной сети. Также изучается возможность использования методов обучения для декодирования битов сообщения из закодированных битов. Производительность предлагаемого метода обучения (декодера) также сравнивается с обычными алгоритмами обучения. Предлагаемый многослойный персептрон имеет входной слой, скрытый слой и выходной слой.

LDPC-кодер на основе нейронной сети

В случае кодера количество нейронов в скрытом слое выбирается равным 10. Количество нейронов во входном и выходном слоях равно 5 и 10 соответственно. Архитектура предлагаемого кодера на основе нейронной сети показана на рис. 1.

Скрытый Выходной

Рис. 1. LDPC-кодер на основе нейронной сети

Предлагаемый LDPC-кодер на основе персептрона способен генерировать 10-битный код для любой из 32 комбинаций входного по-

Таблица 1

Минимальное, максимальное и среднее значения ошибки для входного сообщения

Метод Суммарная ошибка Ср. ошибка Мин. ошибка Макс. ошибка Количество вычислений

OGL 14.3392 0.0448 0.0014 0.9716 X умножений

AGL 8.8542 0.0277 5.4360e-005 0.9986 X умножений

тока сообщений в диапазоне от 00000В до 11111В. Матрица проверки четности снова представляет собой 32 комбинации из пяти битов. В этом конкретном случае 10-битное кодовое слово получается путем добавления битов сообщения к кодовым битам. Однако кодовые слова также могут быть сгенерированы путем рассмотрения матрицы проверки четности 10^5 и выполнения сложения по модулю 2 для завершенного сообщения и соответствующих кодовых битов.

Параметр обучения равен 0,0001, а параметр импульса равен 0,01. Условие смещения включено для всех нейронов в скрытом и выходном слоях. Сеть спроектирована таким образом, чтобы принимать блок сообщений и матрицу проверки четности также в качестве входных параметров. Кодовые слова представляют собой чистые выходные данные нейронов в выходном слое. Пример набора шаблонов (биты сообщения и соответствующие кодовые слова) показан в табл. 2.

Соотношение между фактическим (А) и желаемым (Б) выходами каждого нейрона выходного уровня для всех 32 комбинаций показано в табл. 3 для предлагаемого алгоритма обучения.

Таблица 3

Отношения между желаемым (Б) и фактическим (А) значениями

С10 С9 С8 С7 С6 С5 С4 С3 С2 С1

D А D А D А D А D А D А D А D А D А D А

0 1 0 0 0 0 0 1 0 1 0 0 0 0 0 1 0 1 0 1

1 0 1 0 1 1 0 0 0 0 0 1 0 0 0 1 0 1 1 0

1 0 1 1 0 0 1 0 0 1 0 0 0 0 0 1 1 0 0 1

0 0 0 1 1 0 1 0 0 0 0 0 0 1 0 1 1 1 1 0

1 0 0 0 1 1 0 1 1 0 0 0 0 0 1 0 0 1 0 1

0 0 1 1 0 1 0 1 1 0 0 0 0 1 1 1 0 0 1 1

0 1 1 1 1 1 1 0 1 1 0 0 0 1 1 0 1 1 0 0

1 1 0 1 0 0 1 0 1 0 0 1 0 0 1 1 1 1 1 1

0 0 0 1 1 1 1 0 1 0 0 1 1 1 0 0 0 0 0 0

1 0 1 1 0 0 1 1 1 0 0 1 1 1 0 0 0 1 1 1

1 0 1 1 1 1 0 0 1 1 0 1 1 0 0 0 1 1 0 1

0 1 0 0 0 1 0 0 1 1 0 0 1 0 0 1 1 0 1 0

1 1 0 0 0 0 1 0 0 1 0 1 1 0 1 0 0 1 0 0

0 0 1 0 1 0 1 1 0 0 0 1 1 0 1 1 0 0 1 1

0 1 1 1 0 0 0 1 0 1 0 0 1 1 1 0 1 0 0 1

1 1 0 0 1 1 0 1 0 0 0 1 1 1 1 0 1 1 1 0

0 0 1 0 0 0 1 0 1 0 1 0 0 0 0 0 0 0 0 0

1 0 0 1 1 0 1 1 1 1 1 1 0 0 0 0 0 0 1 0

1 1 0 1 0 1 0 0 1 0 1 0 0 0 0 0 1 0 0 1

Таблица 2

Примерный набор битов сообщения и со-

ответствующие кодовые слова

Биты входного сообщения Выходные кодированные биты

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 1 1 1 1 0 0 0 0 0 0 1

0 0 0 1 0 1 1 0 1 0 0 0 0 1 0

0 0 0 1 1 0 0 1 1 0 0 0 0 1 1

0 0 1 0 0 1 0 1 0 1 0 0 1 0 0

0 0 1 0 1 0 1 0 0 1 0 0 1 0 1

0 0 1 1 0 0 1 1 1 1 0 0 1 1 0

0 0 1 1 1 1 0 0 1 1 0 0 1 1 1

0 1 0 0 0 0 0 1 1 1 0 1 0 0 0

0 1 0 0 1 1 1 0 1 1 0 1 0 0 1

0 1 0 1 0 1 1 1 0 1 0 1 0 1 0

0 1 0 1 1 0 0 0 0 1 0 1 0 1 1

0 1 1 0 0 1 0 0 1 0 0 1 1 0 0

1 0 0 1 1 0 1 1 0 1 1 0 0 1 1

1 0 1 0 0 1 1 1 1 0 1 0 1 0 0

1 0 1 0 1 0 0 0 1 0 1 0 1 0 1

1 0 1 1 0 0 0 1 0 0 1 0 1 1 0

1 0 1 1 1 1 1 0 0 0 1 0 1 1 1

1 1 0 0 0 0 1 1 0 0 1 1 0 0 0

1 1 0 0 1 1 0 0 0 0 1 1 0 0 1

1 1 0 1 0 1 0 1 1 0 1 1 0 1 0

1 1 0 1 1 0 1 0 1 0 1 1 0 1 1

1 1 1 0 0 1 1 0 0 1 1 1 1 0 0

1 1 1 0 1 0 0 1 0 1 1 1 1 0 1

1 1 1 1 0 0 0 0 1 1 1 1 1 1 0

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Продолжение табл. 3

0 1 1 0 1 0 0 1 1 0 1 0 0 1 0 1 1 0 1 0

1 0 1 0 1 0 1 0 0 1 1 0 0 1 1 0 0 1 0 1

0 1 0 1 0 1 1 1 0 1 1 0 0 1 1 0 0 1 0

0 1 0 0 1 1 0 1 0 1 1 1 0 0 1 0 1 0 0 1

1 1 1 0 0 1 0 0 0 1 0 0 1 1 1 1 1 1 1

0 0 1 0 1 1 0 0 0 1 1 1 1 1 0 1 0 0 0 1

1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 1 0 1 1 0

1 1 0 1 1 0 1 1 0 1 0 1 0 0 0 1 1 0 0

0 0 1 0 0 1 1 1 0 1 1 0 1 1 0 0 1 0 1 0

1 1 1 1 0 1 0 1 1 1 1 1 1 1 1 1 0 1 0 1

0 1 0 0 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1

0 1 0 1 0 0 1 0 1 1 1 1 1 1 1 1 1 0 0 0

1 0 1 0 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 0

Таблица 4

Оценка эффективности разработанной методики

Метод Суммарная ошибка Ср. Мин. Макс.

ошибка ошибка ошибка

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

OGL 14.3392 0.0448 0.9716 X умножений

AGL 8.8542 0.0277 0.9986 Х2 Очень сложный

Разработанный 7.0177 0.0219 0.9969 Х-Ь умножения

Из табл. 3 видно, что существует небольшое несоответствие между фактическими и желаемыми значениями. Производительность измеряется в сумме ошибок, средней абсолютной ошибке и максимальной ошибке. Также вычислительная сложность измеряется в определении количества умножений во время выполнения программы. Эти значения приведены в табл. 4. Из табл. 4 видно, что сумма ошибок, средняя абсолютная и максимальная ошибки меньше, чем у методов AGL. Кроме того, вычислительная сложность уменьшилась на L умножений по сравнению с методом OGL, который, в свою очередь, требует меньших вычислений, чем AGL.

Декодер на основе нейронной сети

Для реализации декодера количество нейронов во входном слое равно 10, а количество нейронов в выходном слое равно 5. Количество нейронов в скрытом слое равно 10. Предлагаемая архитектура декодера на основе нейронной сети показана на рис. 2.

Набор примеров, используемых для обучения нейронной сети, показан в табл. 5. Десятибитное кодовое слово используется в качестве входных данных, а 5-битное сообщение используется для обучения декодера на основе нейронной сети. Подобно кодеру, алгоритм выполняется в течение определенного числа итераций. Параметры обучения и импульса

остаются неизменными. Соотношение между желаемыми и фактическими значениями показано в табл. 6.

Входной слай Скрытый слай

Рис. 2. Предлагаемый LDPC-декодер на основе нейронной сети

Таблица 5 Примерный набор кодовых слов, используемых для обучения декодера

Входное кодовое слово Выходное сооб-

щение

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

1 1 1 0 0 0 0 0 0 1 0 0 0 0 1

1 1 0 1 0 0 0 0 1 0 0 0 0 1 0

0 0 1 1 0 0 0 0 1 1 0 0 0 1 1

1 0 1 0 1 0 0 1 0 0 0 0 1 0 0

0 1 0 0 1 0 0 1 0 1 0 0 1 0 1

0 1 1 1 1 0 0 1 1 0 0 0 1 1 0

1 0 0 1 1 0 0 1 1 1 0 0 1 1 1

0 0 1 1 1 0 1 0 0 0 0 1 0 0 0

1 1 0 1 1 0 1 0 0 1 0 1 0 0 1

1 1 1 0 1 0 1 0 1 0 0 1 0 1 0

0 0 0 0 1 0 1 0 1 1 0 1 0 1 1

1 0 0 1 0 0 1 1 0 0 0 1 1 0 0

0 1 1 1 0 0 1 1 0 1 0 1 1 0 1

0 1 0 0 0 0 1 1 1 0 0 1 1 1 0

1 0 1 0 0 0 1 1 1 1 0 1 1 1 1

0 1 0 1 1 1 0 0 0 0 1 0 0 0 0

1 0 1 1 1 1 0 0 0 1 1 0 0 0 1

1 0 0 0 1 1 0 0 1 0 1 0 0 1 0

0 1 1 0 1 1 0 0 1 1 1 0 0 1 1

1 1 1 1 0 1 0 1 0 0 1 0 1 0 0

0 0 0 1 0 1 0 1 0 1 1 0 1 0 1

0 0 1 0 0 1 0 1 1 0 1 0 1 1 0

1 1 0 0 0 1 0 1 1 1 1 0 1 1 1

0 1 1 0 0 1 1 0 0 0 1 1 0 0 0

1 0 0 0 0 1 1 0 0 1 1 1 0 0 1

1 0 1 1 0 1 1 0 1 0 1 1 0 1 0

0 1 0 1 0 1 1 0 1 1 1 1 0 1 1

1 1 0 0 1 1 1 1 0 0 1 1 1 0 0

0 0 1 0 1 1 1 1 0 1 1 1 1 0 1

0 0 0 1 1 1 1 1 1 0 1 1 1 1 0

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Из соответствующих столбцов (фактические (А) и желаемые ф) выходы) табл. 6 обнаружено, что существует небольшое различие между желаемыми и фактическими битами сообщения.

Таблица 6 Соотношение между желаемыми и фактическими результатами

М5 М4 М3 М2 М1

D А D А D А D А D А

0 0 0 0 0 1 0 1 0 1

0 1 0 0 0 1 0 1 1 0

0 0 0 0 0 1 1 0 1

0 0 0 1 0 1 1 1 1 0

0 0 0 0 1 0 0 1 0 1

0 0 0 1 1 1 0 1 1

0 0 0 1 1 0 1 1 0 0

0 1 0 0 1 1 1 1 1 1

0 1 1 1 0 0 0 0 0

0 1 1 1 0 0 0 1 1 1

0 1 1 0 0 0 1 1 0 1

0 0 1 0 0 1 1 0 1 0

0 1 1 0 1 0 0 1 0 0

0 1 1 0 1 1 0 0 1 1

0 0 1 1 1 0 1 0 0 1

Продолжение табл. 6

0 1 1 1 1 0 1 1 1 0

1 0 0 0 0 0 0 0 0 0

1 1 0 0 0 0 0 0 1 0

1 0 0 0 0 0 1 0 0 1

1 0 0 1 0 1 1 0 1 0

1 0 0 1 1 0 0 1 0 1

1 1 0 0 1 1 0 0 1 0

1 1 0 0 1 0 1 0 0 1

1 0 0 1 1 1 1 1 1 1

1 1 1 1 0 1 0 0 0 1

1 0 1 0 0 1 0 1 1 0

1 0 1 0 0 0 1 1 0 0

1 0 1 1 0 0 1 0 1 0

1 1 1 1 1 1 0 1 0 1

1 1 1 1 1 0 0 0 1 1

1 1 1 1 1 1 1 0 0 0

1 1 1 1 1 1 1 1 1 0

LDPC-коды на основе нейронной сети

Доказано, что предложенный метод обучения менее сложен как с точки зрения вычислений, так и с точки зрения применения, и обладает высокой точностью, также была предпринята попытка разработать прототип архитектуры для LDPC-кодера / декодера с использованием нейронной сети. Архитектура показана на рис. 3.

Рис. 3. Архитектура экспериментального образца

Бит выбора s используется для выбора предлагаемого кодера/декодера для конкретной функции, т.е. в качестве кодера или декодера. Если s=0, он действует как кодер, а если s=1 - как декодер. В этой работе разработан модифицированный, менее сложный, высоко-

точный алгоритм обучения для LDPC-декодирования. Также была успешно разработана модель для кодирования/декодирования LDPC. Точность предлагаемой системы намного выше, чем у традиционных алгоритмов обучения.

Заключение

В этой статье был предложен новый алгоритм обучения для LDPC-кода. Предлагаемый алгоритм вычислительно менее сложен, чем адаптивное обучение с естественным градиентом (AGLN), и обладает высокой точностью, чем обычное градиентное обучение (OGLN). Также предлагается эффективная архитектура для того, чтобы нейронная сеть действовала как универсальный LDPC-кодек, выбирая 0/1 для установленного бита. Как видно на примере разработанной модели, для реализации архитектуры требуются определенного объема аппаратные ресурсы, соответственно, с увеличением размера кода и поступающими данными их размер увеличивается. Необходимо решать проблемы конвейерного поступления данных и распараллеливания памяти, что явля-

ется мотивацией для будущих исследований и разработок.

Литература

1. Хорошайлова М.В. Разработка и реализация симметричного самоорганизующегося нейросетевого декодера // Вестник Воронежского государственного технического университета. 2020. Т. 16. № 3. С. 60-64.

2. Hua Xiao, Mehdi Karimi. Error Rate Estimation of Low-Density Parity-Check Codes Decoded by Quantized Soft-Decision Iterative Algorithms // IEEE transactions on communications. 2013. Vol. 61. №. 2. P. 474.

3. Chu-Hsiang Huang, Yao Li and Lara Dolecek Gallager B. LDPC Decoder with Transient and Permanent Errors // IEEE Transactions on Communications. 2014. Vol. 62. № 1. P. 15-28.

4. Хорошайлова М.В. Архитектура канального кодирования на основе ПЛИС для 5G беспроводной сети с использованием высокоуровневого синтеза // Вестник Воронежского государственного технического университета. 2018. Т. 14. № 2. С. 99-105.

5. Хорошайлова М.В. Реализации нейронной сети на ПЛИС с использованием аппаратных ресурсов // Вестник Воронежского государственного технического университета. 2021. Т. 17. № 3. С. 127-134.

6. Khoroshaylova M.V. LDPC code and decoding algorithms // Антропоцентрические науки: инновационный взгляд на образование и развитие личности: материалы II междунар. науч.-практ. конф.: в 2 ч.; под ред. Э. П. Комаровой. Воронеж, 2015. С. 227-228.

Поступила 26.04.2022; принята к публикации 16.06.2022 Информация об авторах

Хорошайлова Марина Владимировна - канд. техн. наук, старший преподаватель, Воронежский государственный технический университет (394006, Россия, г. Воронеж, ул. 20-летия Октября, 84), e-mail: pmv2205@mail.ru, ORCID: orcid. org/0000-0001-9167-9538

CONVERGENCE ALGORITHM FOR LDPC CODEC OF LOW COMPLEXITY BASED

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ON NEURAL NETWORK

M.V. Khoroshaylova

Voronezh State Technical University, Voronezh, Russia

Abstract: the paper describes a modified soft-computing technique for a less computationally complex LDPC encoder/decoder. This learning technique is computationally less complex than the conventional gradient learning method and is highly accurate. I used two forms of approximate lower triangle calculation to change the H-matrix, namely systematic Gaussian elimination coding and coding with complexity that grows linearly with block size. The performance of the developed technique is compared with traditional methods in terms of maximum error, minimum error and computational complexity. I developed an LDPC encoder/decoder based on an artificial neural network to emulate the codec. A neural network has three layers, namely an input layer, one hidden layer and an output layer. The number of neurons in the input and output layers depends on the size of the parity check matrix of the LDPC encoder. I compared the performance of the proposed LDPC codec with the performance of conventional codecs in terms of the learning algorithm. The proposed learning algorithm has X-L multiplication as opposed to X2 and X multiplication of conventional methods. I also propose an efficient architecture for the neural network to act as a generic LDPC codec by choosing either 0/1 for a set bit

Key words: backpropagation algorithm, LDPC codec, computational complexity, perceptron

References

1. Khoroshaylova M.V. "Development and implementation of a symmetric self-organizing neural network decoder", Bulletin of Voronezh State Technical University (Vestnik Voronezhskogo gosudarstvennogo tekhnicheskogo universiteta), 2020, vol. 16, no. 3, pp. 60-64

2. Hua Xiao, Mehdi Karimi "Error rate estimation of low-density parity-check codes decoded by quantized soft-decision iterative algorithms", IEEE transactions on communications, 2013, vol. 61, no. 2, pp. 474.

3. Chu-Hsiang Huang, Yao Li, Lara Dolecek Gallager B. "LDPC decoder with transient and permanent errors", IEEE Transactions on Communications, 2014, vol. 62, no. 1, pp.15-28.

3. Khoroshaylova M.V. "Architecture of FPGA based channel coding for 5G wireless network using high-level synthesis", Bulletin of Voronezh State Technical University (Vestnik Voronezhskogo gosudarstvennogo tekhnicheskogo universiteta), 2018, vol. 14, no. 2, pp. 99-105.

4. Khoroshaylova M.V. "Implementation of a neural network on FPGA using hardware resources", Bulletin of Voronezh State Technical University (Vestnik Voronezhskogo gosudarstvennogo tekhnicheskogo universiteta), 2021, vol. 17, no. 3, pp. 127-134.

5. Khoroshaylova M.V. "LDPC code and decoding algorithms", Proc. of the 2nd Int. Sci.-Practical Conf.: Anthropocentric Sciences: an Innovative Look at Education and Personal Development, 2015, pp. 227-228.

Submitted 26.04.2022; revised 16.06.2022 Information about the author

Marina V. Khoroshaylova, Cand. Sc. (Technical), Assistant Professor, Voronezh State Technical University (84 20-letiya Ok-tyabrya str., Voronezh 394006, Russia), e-mail: pmv2205@mail.ru, tel.: 8-910-732-66-13, ORCID: https://orcid.org/0000-0001-9167-9538

i Надоели баннеры? Вы всегда можете отключить рекламу.