УДК 621.396.42
НЕЛИНЕЙНОЕ СТАТИЧЕСКОЕ УРАВНИВАНИЕ КАНАЛА С QAM МОДУЛЯЦИЕЙ
Ю.Б. Нечаев, Ю.А. Дергачев
В статье получена и рассмотрена мультипликативная архитектура нейронной сети с оптимальным числом узлов, используемая для адаптивного уравнивания канала с QAM модуляцией. Замена суммирования на умножение в каждом узле, приводит к более быстрой сходимости, которая обусловлена способностью более быстрой обработки данных из обучающей выборки. Численные эксперименты показывают, что предложенный метод обеспечивает удовлетворительные результаты с точки зрения среднеквадратических ошибочных кривых и частоты появления ошибочных битов при различных уровнях сигнала к уровню шума
Ключевые слова: нейронная сеть, QAM модуляция
Введение
Поскольку QAM модуляция является одной из наиболее приемлемых для осуществления быстрой передачи данных, то различные искажения становятся главным фактором, который ограничивает пропускную способность каналов связи. Тепловые помехи, импульсный шум, и природа самого канала способствуют
возникновению ошибок в передаваемых данных. В результате этих факторов происходят
непредвиденные скачки по амплитуде и повороты фазы, что приводит к последовательным наложениям отдельных пульсов и искажению канальных символов.
Наличие межсимвольной интерференции (МСИ) в системе, приводит к ошибкам в устройстве принятия решений в приемнике. Учитывая это, при проектировании устройств приема/передачи и создании фильтров, основная задача состоит в минимизации эффекты МСИ, и таким образом -получению цифровых данных с наименьшей возможной ошибкой. На данном этапе развития цифровой техники, адаптивные цифровые фильтры являются наиболее распространенными и эффективными при обработке сигнала для борьбы с эффектом МСИ в дисперсионных каналах. Адаптивные фильтры имеют наилучшие спектральные характеристики с учетом особенностей сигнала, что достигается с помощью изменения коэффициентов фильтра (и таким образом - его ответа) согласно используемым рекурсивным алгоритмам оптимизации. Такого рода адаптивные управляемые фильтры активно применяются, так как некоторые параметры принимаемого при его обработке не известны заранее (например, свойства некоторого шумового сигнала) [1].
Нечаев Юрий Борисович - ВГУ, д-р физ-мат. наук, профессор, тел. (4732) 78-25-62
Дергачев Юрий Аркадьевич - ОАО «Концерн «Созвездие», аспирант, тел. (4732)52-63-73
Работа выполнена при финансовой поддержке РФФИ (проекты 08-02-13555-офи-ц, 09-07-97522-р-центр-а)
Когда уровень шума достаточно велик, то при добавлении к полезному передаваемому
сигналу, линейные границы в стандартных адаптивных фильтрах не оптимальны при принятии решений в приемнике.
Полученный сигнал, в каждый конкретный момент времени, можно рассматривать как нелинейную функцию от предыдущих
переданных символов. Ввиду того, что нелинейное искажение меняется в зависимости от времени и места, то получаемая приемником информация несет в себе сильные наведенные и накопленные искажения, устранение которых, используя стандартные методы классификации ошибок, становится затруднительным.
Нейронные сети (НС) успешно используются для моделирования сложных нелинейные систем и выделения сигналов с относительно простой архитектурой [2] - [4]. Широкий спектр различных типовых нейронных архитектур можно использовать для того, чтобы смоделировать нелинейное уравнивание канала. Использование таких сетей как многослойный персептрон (МП), которые содержат входной слой, слой продукции и один или более скрытые слои, обладают способностями нелинейной обработки и возможностью аппроксимации, что способствует их успешному применению для обработки передаваемых по каналу данных [5] - [7]. Алгоритм обратного распространения, является
контролируемым и состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении, обратном прямому распространению сигналов при обычном режиме работы. [8]. Эти модели нейрона обрабатывают входные данные, используя операцию суммирования.
Недавно были разработаны новые архитектуры нейронных сетей для нелинейной обработки продукции ввода/вывода. Это такие архитектуры как Product unit neural network (PUNN), Sigma-Pi network (SPN), Pi-Sigma network (PSN) и т.д., Они позволяют нейронным сетям “выявлять” мультипликативные взаимодействия произвольной степени. Умножение играет важную роль в нейронном моделировании биологического поведения и в вычислении и изучении с
искусственными неиронными сетями.
Мультипликативный нейрон содержат элементы, которые умножают значения на входах вместо того, чтобы производить суммирование. Таким образом, происходит нелинейное взаимодействие нейронов через их входы. Благодаря этому,
мультипликативная сеть обладает лучшей способностью к приближению, и ее обучение происходит за более короткое время благодаря обработке более больших массивов учебных данных
[9] - [11].
Адаптивное управление каналом
Диаграмма блока адаптивного управления приведена на Рис 1.
,[М|
Рис 2. Мультипликативная нейронная сеть
Диаграмма блока управления каналом, использующая МНС, показана на рис 3.
Сигнал, анализируемый блоком адаптивного управления, представляет собой сумму двух составляющих: полезного входного сигнала х(к) и шума у(к) , Оригинальный входной сигнал с задержкой будем называть желательным сигналом. В тоже время, на основе желательного сигнала (который на начальном этапе является предопределенным), с помощью обучающего алгоритма, генерируется обучающая
последовательность, чтобы обеспечить контрольные точки для процесса адаптации. Коэффициенты фильтра размерности р определены как:
^ = К (0) ч (1),•••, ч (р)]Т (1)
Критерий для оптимизации - функция стоимости или ошибочный сигнал, который является разностью между желательным и предполагаемым сигналом:
е(к) = а (к) - у(к) (2)
Желательный сигнал оценивается как свертка входного сигнала с “импульсом ответа” и выражается как:
а (к) = жТх(г), (3)
где х(к) = [ х(к), х(к -1),..., х(к - р)]Т входной вектор сигнала. Коэффициенты фильтра обновляются в каждый момент времени. Их можно представить в виде:
„ = Кк +АГк, <4)
где А Жк - корректор коэффициентов фильтра.
Алгоритм оптимизации может быть как линейным, так и нелинейным. На рис 2. показана мультипликативная нейронная сеть (МНС).
Рис 3. Блок управления каналом
Алгоритм обучения системы можно представить следующим образом. Передатчик посылает известную учебную последовательность в приемник. Элемент последовательности,
передаваемый в 4^АМ, можно представить как набор символов, в котором каждому входному элементарному сигналу ставится в соответствие одно из 4 различных значений. При этом, все возможные комбинации описываются как {-1,
1,1}, где ]- мнимая единица. В соответствии с уровнем шума, сигналу продукции ставится в соответствие одно из М позиций в М-РАМ созвездии сигнала. Когда сигнал передают через нелинейный канал, это становится стохастическим вероятностным процессом. Границы принятия решения формируются во время наблюдения, и служат для распределения наблюдаемых векторов между 4 классами. Для управления, адаптивный фильтр используется последовательно с неизвестной системой, генерирующей тестовый сигнал а(к), минимизируя квадрат расстояния между продукцией адаптивной фильтра и желательным сигналом. Задача модуля управления состоит в том, чтобы установить свои управляемые параметры таким образом, при котором продукция у(к) будет близка к желательному сигналу ё(к).
В зависимости от значения вектора продукции, модуль управления строит оценку, которая является близкой к одной из переданных последовательностей. Нейронный модуль управления отдельно обрабатывает реальную и мнимую часть, используя мультипликативную модель [12] нейронной сети - [13]. Это может быть
рассмотрено как две реальных функции активации, которые служат для того, чтобы обработать фазовые и квадратурные компоненты 4-РАМ сигнала.
Реальную Я и мнимую I части можно представить как:
Р(х(г)) = /(Х1Я (г), х2я (г)) + /(хи (г), х21 (г)) (5) Где входной продукцией являются:
х1(г) = х1Я (г) + 1хи (гX
х 2 (г) =х 2Я О) + 1х 21 (г) (6)
Обучение сети мультипликативных нейронов
На первом этапе, алгоритм обучения мультипликативного нейрона строится для единственного скрытого слоя сети. На следующих итерациях он расширяется до многослойной архитектуры. Биполярная функция активации (сигмоид) используется в каждом узле. Структура нейрона такой сети представлена на рис 4,
где оператор Р - мультипликативный оператор в выражении (7), а агрегатная функция и перед применением активационной функции задается как:
= П (™і*і + Ъ ),
(7)
У = /(и) =
Выход узла у можно представить в виде:
1 —и
1 — е
(8)
коэффициент
(9)
1 + е_“
Среднеквадратический ошибки задается как:
1 N 2
*=^ £( у'- уа),
где, р - номер входного образца.
Для нахождения величины изменения весовых коэффициентов разделенного комплексного алгоритма обратного распространения, необходимо решить уравнение:
А ш а*
АШ, = -ц-
(10)
1 и
—п(у - а)(1+у)(1 - у)-------------------,
2 IV -УП (шх + В)
где, п - норма изучения и ё - желательный сигнал. Вычисление смещения производится разностным методом из условий, что:
(12)
(13)
ДЪ. = — п----=
і сЬ>і
1 и
— п( У — d )(1 + у)(1 — у)------------
2 м (Ж.Х. + Ві)
^нов = щстар + Д Ж.
ъиое = Ъстар + ъжг
Веса обновляются после того, как вся учебная последовательность была представлена сети.
На основе изложенного алгоритма, построим метод обучения нескольких слоев мультипликативной сети, для этого необходимо передавать коэффициенты на следующий слой нейронной сети. Введем следующие обозначения:
N0 - число входов во входном слое; п - число скрытых слоев;
Nп - число нейронов на п-ом скрытом
слое;
К - число выходов на выходном слое;
]п -у-й нейрон на п-ом слое;
п
Уп - выходу-го нейрона на п-ом слое;
Усік - желательный выход к-го нейрона на выходном слое;
Ук - актуальный выход к-го нейрона на выходном слое;
^упуп1 - вес связи между у-м нейроном (п-1) -го слоя иу-м нейроном п-го слоя;
Ъ ІЩП-1 - “отклонение” связи между у-м нейроном (п-1) -го слоя иу-м нейроном п-го слоя.
Выход -го нейрона в 1-й скрытый слой задается в виде:
N0
УІ = 1 (П КуоХ у'о + ЪЛус)),
у'о =1
(14)
при этом, для у1=1,2..^1 и ху0 представлен у-м
входом во входном слое нейронов и активационная функция/(...) определяется как:
1 - е - у
/ (у) = -—7 (15)
1 + е у
Выход -го нейрона на 2-ом скрытом слое рассчитывается как:
N
(16)
У 2 = 1 (П ^уу хн + ЪыУ
Л =1
Аналогично вычисляется выход у-го нейрона на п-ом скрытом слое:
Nп-
уп = к п ы ■ ■ уп—1 + ъ . ))
7 уп у пу п—1^ у„_ 1 упуп—1''
(17)
уп—1 1
Выход к-го нейрона на выходном слое:
и
і=1
Ур = f (П (^Л + К))
(18)
Используем метод градиентного спуска. Построим среднеквадратическую функцию ошибок для вычисления обновления весовых коэффициентов.
E
1 K P
msn = 2PK
ZZ( у dk - yp )2
(19)
к=1 р=1
Весовые коэффициенты между выходным слоем и п-м скрытым слоем определяются следующим соотношением:
д*
А*. =-п т* =
dw
kjn
[П (wjjj + к)]
nSk ^--------------у"
k (w^j + К) jn
(2o)
Sk =
1 K P
г iV к=1 p=1
1
K P (vdk - yp )[-(1+yp)
2
] (21)
k=1 p=1 Л 1,p
(1 - yp)]
[ П(wjjnj, + ър„)]
А ЪЬ- = Vs ,
А w,
jn =1
(wp„vP„ + Ър-„ )
(22)
yj.
Весовые коэффициенты между n-м скрытым и (n-1)-м скрытым слоем
3F
Aw.. =-п—— =
-1 dWj.
п [Y у (yp - yp) dyk ] dyP =
lY Y<y* y*) dy’n1 j (23)
Заключение
Таким образом, синтезирован метод адаптивного уравнивания канала с QAM модуляцией. Использование нейронных сетей позволяет минимизировать число ошибок вызванных межсимвольной интерференцией, что позволяет применять многопозиционные сигнальнокодовые конструкции в каналах со сложной помеховой обстановкой.
Литература
1. S. Hay kin, Adaptive Filter Theory, Pearson Education, 2005, pp. 22-25.
2. D.C. Park, M. A. El-Sharkawi, and R. J. Marks II, “Adaptively trained neural network,” IEEE Trans. Neural Networks, vol. 2, pp. 334-345, May 1991.
3. Pham DT, Liu X, Neural networks for identification, prediction and control, London: Springer, 1995.
4. S. Bang, S. H. Sheu, and J. Bing, “Neural network for detection of signals in communication,” IEEE Trans. Circuits Syst. I, vol. 43(8), pp. 644-655, Aug. 1996.
5. S. Chen, G. Gibson, C. Cown, and P. Grant, “Adaptive equalization of finite nonlinear channels using multilayer perceptrons,” Signal Processing, vol. 20, pp. 107119, June 1990.
6. G. Gibson, S. Siu, and C. Cowan, “Multilayer perceptron structures applied to adaptive equalizers for data communications,” in Proc. ICASSP, May 1989, Glasgow, U.K., pp. 1183-1186
7. T. Kim, T. Adali,” Fully complex multi-layer perceptron network for nonlinear signal processing,” J. VLSI Signal Process., vol. 32, No. 1, pp. 29-43, 2002.
8. Q. Zhang, “Adaptive equalization using the back propagation algorithm,” IEEE Trans. Circuits Syst., vol. 37, pp. 848-849, June 1990.
9. C.L. Giles and T. Maxwell,” Learning, invariance, and generalization in high-order neural networks,” Applied Optics, vol. 26, no. 23, pp. 4972-4978, 1987.
10. E.M. Iyoda, K. Hirota, and F. J. Von Zuben,” Sigma-Pi cascade extended hybrid neural networks,” Journal of Advanced Computational Intelligence, vol.6, no. 3, pp. 126134, 2002.
[П (wjnynjn + К )]
nSk
jn=1
-w.
ду
(wkjnynjn + Ъкт) dwjnjn-1
Воронежский государственный университет ОАО «Концерн «Созвездие», г. Воронеж
NONLINEAR STATIC EQUALIZING OF THE CHANNEL WITH QAM MODULATION
1
Yu. B. Nechaev, Yu. A. Dergachev
This article is about the multiplicate architecture of a neural network with optimum number of the knots, used for adaptive equalising of the channel with QAM modulation is received and considered. Replacement of summation by multiplication in each knot, leads to faster convergence which is caused by ability of faster data processing from training sample. Numerical experiments show that the offered method provides satisfactory results from the point of view square erroneous curves and frequency of occurrence of erroneous bits at various levels of a signal to noise level
Key words: neural network, QAM modulation