НАУЧНЫЙ ВЕСТНИК МГТУ ГА серия Радиофизика и радиотехника
УДК ххх.ххх
МНК И РНК АЛГОРИТМЫ АДАПТИВНОЙ ФИЛЬТРАЦИИ
О.И. МАЛАХОВ, М.М. ТРЕГУБЕНКО Статья представлена доктором технических наук, профессором Шахтариным Б.И.
Приведены теоретические положения, лежащие в основе широко распространенных алгоритмов адаптивной фильтрации - метода наименьших квадратов (МНК) и рекурсивного наименьших квадратов (РНК). Проведен их сравнительный анализ. Выполнено математическое моделирование работы алгоритмов для случая стационарных сигналов в среде МаШСАБ.
В традиционных методах обработки данных информация извлекается из входных сигналов линейными системами с постоянными параметрами алгоритмов преобразования данных. Адаптивные устройства обработки данных отличаются наличием определенной связи параметров передаточной функции с параметрами входных, выходных, ожидаемых, прогнозируемых и прочих дополнительных сигналов или с параметрами их статистических соотношений [1].
В простейшем случае, адаптивное устройство содержит программируемый фильтр обработки данных и блок (алгоритм) адаптации, который на основании определенной программы анализа входных, выходных и прочих дополнительных данных вырабатывает сигнал управления параметрами программируемого фильтра [3]. Импульсная характеристика адаптивных систем также может иметь как конечный, так и бесконечный характер.
Как правило, адаптивные устройства выполняются узкоцелевого функционального назначения под определенные типы сигналов. Внутренняя структура адаптивных систем и алгоритм адаптации практически полностью регламентируются функциональным назначением и определенным минимальным объемом исходной априорной информации о характере входных данных и их статистических и информационных параметрах [2].
Существует большое количество адаптивных алгоритмов, различающихся вычислительной сложностью, особенностями поведения, используемыми исходными данными и структурами самих адаптирующихся систем. В данной статье рассматриваются два алгоритма: МНК (LMS-англ.) и РНК (Я^-англ.).
Общие принципы адаптивной обработки сигналов
Общая структура адаптивного фильтра показана на рис. 1. Входной дискретный сигнал х(к) обрабатывается дискретным фильтром, в результате чего получается выходной сигнал у(к) . Этот выходной сигнал сравнивается с сигналом-образцом d(k), разность между ними образует сигнал ошибки е(к). Задача адаптивного фильтра - минимизировать ошибку воспроизведения образцового сигнала. С этой целью блок адаптации после обработки каждого отсчета анализирует сигнал ошибки и дополнительные данные, поступающие из фильтра, используя результаты этого анализа для подстройки параметров (коэффициентов) фильтра.
Возможен и иной вариант адаптации, при котором образцовый сигнал не используется. Такой режим работы называется слепой адаптацией. Разумеется, в этом случае требуется некоторая информация о структуре полезного входного сигнала. Слепая адаптация является более сложной вычислительной задачей, чем адаптация с использованием образцового сигнала. В данной статье эти алгоритмы рассматриваться не будут.
Рис. 1. Общая структура адаптивного фильтра
Может показаться, что алгоритмы с использованием образцового сигнала лишены практического смысла, поскольку выходной сигнал должен быть заранее известен. Однако есть целый ряд практических задач, при решении которых образцовый сигнал оказывается доступен. Следует отметить, что в ряде случаев при этом полезным сигналом является не выходной сигнал фильтра, а сигнал ошибки, то есть разность между образцовым сигналом и выходным сигналом адаптивного фильтра[4].
В качестве фильтра в структуре, показанной на рис. 1, чаще всего используется нерекурсивный цифровой фильтр. Одним из главных достоинств этого варианта является то, что нерекурсивный фильтр является устойчивым при любых значениях коэффициентов.
Однако следует помнить, что алгоритм адаптации в любом случае вносит в систему обратную связь, вследствие чего адаптивная система в целом может стать неустойчивой.
Существуют адаптивные алгоритмы и для рекурсивных фильтров, однако, при их разработке возникают серьезные проблемы, прежде всего связанные с устойчивостью, поэтому такие фильтры не получили широкого распространения.
Далее будут рассмотрены два адаптивных алгоритма с использованием образцового сигнала, часто применяемых на практике в различных системах обработки информации.
Оптимальный фильтр Винера
Прежде чем рассматривать собственно алгоритмы адаптации, необходимо определить те оптимальные параметры фильтра, к которым эти алгоритмы должны стремиться.
Подход к задаче оптимальной фильтрации может быть как статистическим, так и детерминированным. Ограничимся рассмотрением статистического варианта.
Пусть входной дискретный случайный сигнал х(к) обрабатывается нерекурсивным дискретным фильтром порядка N, коэффициенты которого могут быть представлены вектор-столбцом w = [w0,wI,...,wN]т . Выходной сигнал фильтра равен:
у(к) = ит(к^, (1)
где и(к) = [х(к),х(к — 1),...,х(к — N)]т - вектор-столбец содержимого линии задержки
фильтра на к -м шаге.
Кроме того, имеется образцовый (также случайный) сигнал d(k). Ошибка воспроизведения образцового сигнала равна
е(к) = d(k) — у(к) = d(k) — ит (к^ . (2)
Необходимо найти такие коэффициенты фильтра w, которые обеспечивают максимальную близость выходного сигнала фильтра к образцовому, то есть минимизируют ошибку е(к). Поскольку е( к ) также является случайным процессом, в качестве меры ее величины разумно принять средний квадрат.
Таким образом, оптимизируемый функционал выглядит так:
J(w) = e2(k) ® min.
Квадрат ошибки равен
e2(k) = (d(k) - uT (k)w) = d2(k) - 2d(k)uT (k)w + wTu(k)uT (k)w. Статистически усредняя это выражение [3], получаем следующее:
J(w) = e2(k) = d2(k) - 2d(k)uT (k)w + wTu(k)uT (k)w.
Входящие в полученную формулу усредненные величины имеют следующий смысл:
(3)
- d2(к) = - средний квадрат образцового сигнала;
- d(k)uT (к) = рт - транспонированный вектор-столбец р взаимных корреляций между к -м отсчетом сигнала-образца и содержимым линии задержки фильтра. Если рассматриваемые случайные процессы х(1) и d(k) являются совместно стационарными, вектор взаимных корреляций не зависит от номера шага к ;
- и(к)ит (к) = Я - корреляционная матрица сигнала, имеющая размер (N +1) X (N +1). Для стационарного случайного процесса корреляционная матрица имеет вид матрицы Теплица, то есть на ее диагоналях стоят одинаковые величины:
' Rx(0) RX(1) Rx(2) ■ • Rx(N) "
Rx(i) Rx(0) Rx(i) ■ • Rx(N -1)
R= Rx(2) Rx(i) Rx(0) ■ ■ Rx(N - 2)
_ Rx(N) RX(N -1) Rx(N - 2) ■ ■ Rx(0) _
здесь Ях(т) = х(к)х(к — т) - корреляционная функция (КФ) случайного процесса{х(к)}.
С учетом введенных обозначений (3) принимает следующий вид:
З(^) = а2Л — 2pГw + wгRw . (4)
Данное выражение представляет собой квадратичную форму относительно w и потому при невырожденной матрице R имеет единственный минимум, для нахождения которого необходимо приравнять нулю вектор градиента:
gradJ(w) = —2р + 2Rw = 0 .
Отсюда получаем искомое решение для оптимальных коэффициентов фильтра:
w = R 1 p
(5)
Такой фильтр называется фильтром Винера. Подстановка (5) в (4) дает минимально достижимую дисперсию сигнала ошибки:
~ " ’ (6)
e2(k)t
тт --S2d-PTR~!P •
Несложно также показать, что е(к)у(к) = 0 и е(к)х(к) = 0, то есть, что сигнал ошибки для фильтра Винера некоррелирован с входным и выходным сигналами фильтра.
Восстановление переданного сигнала неизбежно требует внесения некоторой временной задержки, поэтому образцовый сигнал представляет собой задержанную копию переданного: d(k) = х0(к — Ак) . В линии задержки фильтра на к -м шаге находятся отсчеты искаженного
сигнала с номерами к,к — 1,к — 2,...,к — N , где N - порядок фильтра.
Каждый из этих отсчетов представляет собой линейную комбинацию отсчетов переданного сигнала:
х(к) = ^ х0(п)к(к — п). (7)
п=—¥
Поскольку исходный сигнал считается белым шумом, то при вычислении т -го элемента вектора р результат усреднения будет отличен от нуля только для одного слагаемого (7):
рт = х(к — m)d(k) = ^ х0(п)к(к — т — п)х0(к —Ак) = к(Ак — т).
П=—¥
Таким образом, вектор р содержит перевернутую импульсную характеристику канала, при необходимости обрезанную или дополненную нулями с одной или двух сторон.
МНК-алгоритм
Один из наиболее распространенных адаптивных алгоритмов основан на поиске минимума целевой функции (3) методом наискорейшего спуска. При использовании данного способа оптимизации вектор коэффициентов фильтра w( к) должен рекурсивно обновляться следующим образом:
w(k +1) = w(k ) — т gradJ (ч,(к )) = w(k) + ¡ир — цЯм(к), (8)
где и - положительный коэффициент, называемый размером шага. Алгоритм сходится, если 0 < ¡и < 2 / 1тах, где 1тах - максимальное собственное число корреляционной матрицы Я.
Скорость сходимости при этом зависит от разброса собственных чисел корреляционной матрицы Я - чем меньше отношение 1тах / 1тп, тем быстрее сходится итерационный процесс.
Однако для расчета градиента необходимо знать значения матрицы Я и вектора р . На практике могут быть доступны лишь оценки этих значений, получаемые по входным данным. Простейшими такими оценками являются мгновенные значения корреляционной матрицы и вектора взаимных корреляций, получаемые без какого-либо усреднения:
Щк) = и(к )ит (к), р(к) = d(k)u(k).
При использовании данных оценок формула (8) принимает следующий вид: w(k +1) = w(k ) + ^( к )и( к ) — ци(к)ит (к ^(к) = w(k) + ци(к )(d(k) — ит (к ^( к) (9)
Выражение, стоящее в скобках, согласно (2), представляет собой разность между образцовым сигналом и выходным сигналом фильтра на к -м шаге, то есть ошибку фильтрации е( к ) . С учетом этого выражение для рекурсивного обновления коэффициентов фильтра оказывается очень простым:
w(k +1) = w(k) + ие(к)и(к). (10)
Алгоритм адаптивной фильтрации, основанный на формуле (10), получил название метода наименьших квадратов (МНК). Можно получить ту же формулу и несколько иным образом -
используя вместо градиента статистически усредненного квадрата ошибки е2(к ) градиент его
мгновенного значения е2(к ) .
Анализ сходимости алгоритма МНК показывает, что верхняя граница для размера шага и в данном случае является меньшей, чем при использовании истинных значений градиента. Эта граница примерно равна
~ 2 - 2 — 2 ( \ ßmax Z1 trace(R) (N + l)s2 ’ 11
k
где 1k - собственные числа корреляционной матрицы; R, s2 - средний квадрат входного сигнала фильтра.
Основным достоинством алгоритма МНК является предельная вычислительная простота -для подстройки коэффициентов фильтра на каждом шаге нужно выполнить N +1 пар операций «умножение-сложение». Платой за простоту является медленная сходимость и повышенная (по сравнению с минимально достижимым значением (6)) дисперсия ошибки в установившемся режиме - коэффициенты фильтра всегда флуктуируют вокруг оптимальных значений (5), что и увеличивает уровень выходного шума.
Существует большое число модификаций алгоритма МНК, направленных на ускорение сходимости либо на уменьшение числа арифметических операций. Ускорение сходимости может быть достигнуто за счет улучшения используемой оценки градиента, а также за счет преобразования входного сигнала с целью сделать его отсчеты некоррелированными. Уменьшение вычислительной сложности может быть достигнуто, в частности, за счет использования в (10) не сигнала ошибки и содержимого линии задержки фильтра, а лишь их знаков. Это позволяет полностью избавиться от операций умножения при обновлении коэффициентов фильтра. В целом следует отметить, что требования ускорения сходимости и сокращения вычислительных затрат являются противоречивыми.
РНК-алгоритм
Будем считать задачей оптимизации отыскание таких коэффициентов фильтра w, чтобы норма ошибки воспроизведения образцового сигнала была минимальной:
K -1
J(w) — Z\e(k)\ ® min (12)
k—0
Для решения задачи в выражениях (1) и (2) необходимо перейти к матричной записи вдоль
координаты к [1]. Получим формулы для векторов-столбцов выходного сигнала у и для
ошибки воспроизведения входного сигнала e :
у — UTw, e — d - UTw. (13)
Здесь d - вектор-столбец отсчетов образцового сигнала, а U - матрица, столбцы которой представляют содержимое линии задержки фильтра на разных тактах.
Выражение () в матричном виде будет иметь вид:
J(w) — eTe ® min (14)
Оптимальное решение имеет вид [1]:
w — (UUT )~1Ud. (15)
В формуле (13) прослеживается связь с формулой (5), описывающий оптимальный в статистическом смысле фильтр Винера.
Таким образом, в принципе, в процессе приема сигнала можно на каждом очередном шаге пересчитывать коэффициенты фильтра непосредственно по формуле (15), однако это связано с неоправданно большими вычислительными затратами. Действительно, размер матрицы U постоянно увеличивается и, кроме того, необходимо каждый раз заново вычислять обратную
матрицу (UUT у1.
Сократить вычислительные затраты можно, если заметить, что на каждом шаге к матрице U добавляется лишь один новый столбец, а к вектору d - один новый элемент. Это дает
возможность организовать вычисления рекурсивно. Соответствующий алгоритм называется рекурсивным методом наименьших квадратов (РНК).
При использовании алгоритма РНК производится рекурсивное обновление оценки
обратной корреляционной матрицы P = (UUT )-, вывод формул основывается на следующем матричном тождестве:
(A + BCD)-1 = A- - A~1B(C - + DA~1B)~1DA~1 , (16)
где A и C - квадратные невырожденные матрицы (необязательно одинаковых размеров), а B и D - матрицы совместимых размеров.
Применение формулы (16) для рекурсивного обновления обратной корреляционной матрицы P в сочетании с исходной формулой (15) для коэффициентов оптимального фильтра дает следующую последовательность шагов адаптивного алгоритма РНК.
1. При поступлении новых входных данных u(k) производится фильтрация сигнала с использованием текущих коэффициентов фильтра w(k -1) и вычисление величины ошибки воспроизведения образцового сигнала:
y(k) = uT (k)w(k -1) e(k) = d(k) - y(k)
2. Рассчитывается вектор-столбец коэффициентов усиления (следует отметить, что знаменатель дроби в следующих двух формулах является скаляром, а не матрицей):
P(k - 1)u(k) 1 + uT(k)P(k -1 )u(k)
3. Производится обновление оценки обратной корреляционной матрицы сигнала:
P(k) = P(k -1) - K(k)uT (k)P(k -1). (18)
4. Наконец, производится обновление коэффициентов фильтра:
w(k) = w(k -1) + K(k)e(k) .
Начальное значение вектора w обычно принимается нулевым, а в качестве исходной оценки матрицы P используется диагональная матрица вида CI / (У2Х , где C >> 1.
В формулах (12) и (14) значениям ошибки на всех временных тактах придается одинаковый вес. В результате, если статистические свойства входного сигнала со временем изменяются, это приводит к ухудшению качества фильтрации. Чтобы дать фильтру возможность отслеживать нестационарный входной сигнал, можно применить в (12) экспоненциальное забывание, при котором вес прошлых значений сигнала ошибки экспоненциально уменьшается:
J(w) = ^1K-1-k \e(k )\2,0 <l£ 1
k=0
При использовании экспоненциального забывания формулы (17) и (18) принимают следующий вид:
P(k - 1)u(k)
K(k) =
l + uT (k)P(k -1 )u(k)
Р(к) =1 (Р(к -1) - К(к)ит (к}Р(к -1))
Главным достоинством алгоритма РНК является быстрая сходимость. Однако достигается это за счет значительно более высокой (по сравнению с алгоритмом МНК) вычислительной сложности. При оптимальной организации вычислений для обновления
коэффициентов фильтра на каждом такте требуется (2.5Ы2 + 4Ы) пар операций «умножение-сложение».
Моделирование МНК и РНК алгоритмов в среде МАТНСАБ
Рассмотрим применение МНК и РНК алгоритмов для случая стационарных сигналов с целью удаления нежелательной компоненты в сигнале.
Пусть число отсчетов данных N = 1000, коэффициент обновления МНК ¡1 = 0.05, коэффициент РНК 1= 0.99, порядок модели т = 8, коэффициент обновления энергии а = 0.005, показатель «случайности» входного сигнала шщ = 0.8. При этом увеличение «случайности» улучшает идентификацию системы [5,7].
Отношение, в желаемом сигнале, между компонентами входа и другими компонентами snru = 1.5.
Предполагаем, что оцениваемая система состоит из КИХ-фильтра, который задается следующими коэффициентами:
с = (0.1 0.24 0.32 0.22 0.15)т, пс = 1вщШ(с).
Синусоидальная компонента входного сигнала (не поддающегося наблюдению) имеет вид: sqi = 0.381п(2 -п-0.22 • \) при I = 0,1...N + т — 1, случайная:
по1ъ = гпогт(N + т,0, тщ • stdev(sq)), МЛЫпо^) = 0 785 stdev( sq ) qj = sqi + noisi.
Входной сигнал (поддающийся наблюдению) т = гпогт(N,0,0.01 )т при i = 0,1..^ -1, nvi = 0,
^ + Щ.
Если мы используем регрессионную модель, т.е. т = 0, то сигнал, поддающийся наблюдению, будет равен сигналу, который не поддается наблюдению (х = q ) [6].
Выходная компонента вследствие входного сигнала:
qУnc-1+j = Е С] • ^(пс-Ш)-] , 7 = 0...пс -1
}
Аддитивная компонента на выходе:
ппи = гпогт(N,0,5) пир1 = sin(2 • п • 0.1 • i) + ппи7
stdev(qy) пи =-------------------пир
snru • stdev( пир )
Нормализуем компоненту так, чтобы получить желаемое отношение « snru »:
stdev( ду) = 15
stdev( пи )
Желаемый сигнал: di = пи1 + qyi.
В задаче удаления, «qy »является нежелательной компонентой вследствие источника « q » и хотелось бы удалить ее, чтобы получить сигнал « пи ».
В задаче идентификации системы « пи » является аддитивным шумом на выходе системы, и нам хотелось бы оценить вектор коэффициентов « с ».
Выберем интервалы
ije = iji + п] -1, у = iji.. .ije.
для
отображения
сигнала: п.. = 100, iji = 0,
Рис. 2. Входной различимый сигнал х и неразличимый q
Рис. 3. Желаемый сигнал d и компонента выхода qy (а2 = var(х) = 0.073)
МНК-алгоритм. Этапы
1. Инициализируем нулевыми значениями столбцы первые ^.
2. Обновляем оценку энергии.
3. Вычисляем ошибку предсказания.
4. Обновляем параметры фильтра.
' 1 1 —0 т-1, т-1
Аэг t е т - 1.. N - 1
Аэг j е 0.. т - 1
V — х j t—j
о2 — о2^(1 - а) + а • ^)2
2 • 1 т^ о2
ж(со1*(ш)-1)т = (0.12 0.249 0.317 0.227 0.141 -0.021 -0.013 4.907х 10-3) 0
ст = (0.1 0.24 0.32 0.22 0.15 0 0 0)
а
е • V
Выполнение процедуры удаления оцененной компоненты вследствие источника « х » из «желаемого» сигнала «d »: eri = di -у1, var(d) = 0.013, var(er) = 5.025х 10~3.
Рис. 4. Входной сигнал х
Рис. 5. Желаемый сигнал d
Рис. 6.
Уч
___________I_______________I________________I_______________I_______________I________________I_______________I_______________I________________I__________
'о 10 20 30 40 50 60 70 80 90 100
Рис. 7.
Рис. 9.
erc1
erc, ( , = 0.035.
ш$Т( erc )
Рис. 10.
0 1 2 3 4 5 6 7
0 0.100 0.240 0.320 0.220 0.150 0.000 0.000 0.000
0 1 2 3 4 5
0 0 0 0 0 0 0
1 0 0 0 0 0 0
2 0 0 0 0 0 0
3 0 0 0 0 0 0
4 0 0 0 0 0 0
5 0 0 0 0 0 0
6 0 0 0 0 0 0
7 0 0 0 0 0 0
8 -5.0210 - 4 -6.372 10 -3 -4.66410 -3 0.012 0.011 -7.65610 -4
9 -1.12810 -3 -6.543 10 -3 -6.83610 -3 0.011 0.015 2.82310 - 3
10 8.08710 - 4 -5.13510 -3 -6.45110 -3 0.016 0.018 -6.73410 -3
11 0.015 -2.087 10 -3 -4.23610 -3 0.016 0.026 -1.1110 -3
12 0.026 0.015 -4.67810 -4 0.019 0.027 8.38810 - 3
13 0.021 0.033 0.028 0.025 0.031 9.61410 -3
14 0.017 0.031 0.037 0.04 0.034 0.012
15 0.017 0.03 0.037 0.041 0.037 0.013
Т
с
Т
=
РНК-алгоритм. Этапы:
1 .Инициализируем нулевыми значениями столбцы первые w.
2. Вычисляем априорную ошибку предсказания.
3. Вычисляем вектор прироста.
4. Обновляем параметры фильтра.
5.Обновляем инвертированное значение автокорреляционной матрицы.
8 — 0.001
С — 8 • 1ёепШу(т)
Юг ' е т - 1.. N - 1 Гог j е 0.. т - 1
V — х • j гУ' — (• V )0_
е — - У
1 — (vT • С- v)0,0
ё —
1+1
тт/'+1) ,,/'> ,
' — ' + ё • е
Т
^ с - ё • V1• С
ж
'соЬ(Ш )-1)
= (0.126 0.264 0.309 0.235 0.135 -0.024 -6.561 х 10-3 0.011)
ст-1 = 0 т-1
ст = (0.1 0.24 0.32 0.22 0.15 0 0 0)
Выполнение процедуры «удаления» оцененной компоненты вследствие источника « х » из «желаемого» сигнала «d »: eri = di -у1, var(d) = 0.013, var(er) = 4.658х 10~3.
Рис. 11. Входной сигнал х
Рис. 12. Желаемый сигнал d
' , , — 0 т-1, т-1
С V
Рис. 14.
Рис. 15.
Рис. 1б.
erc,
W[i — c
erclast(erO = 0.05 .
erc¡
Рис. 17
W
T
С =
0 1 2 3 4 5 6 7
0 0.100 0.240 0.320 0.220 0.150 0.000 0.000 0.000
0 1 2 3 4 5
0 0 0 0 0 0 0
0 0 0 0 0 0
2 0 0 0 0 0 0
3 0 0 0 0 0 0
4 0 0 0 0 0 0
5 0 0 0 0 0 0
6 0 0 0 0 0 0
7 0 0 0 0 0 0
8 -5.274 10 -3 -0.067 -0.049 0.131 0.111 -8.042 10 - 3
9 -7.232 10 -3 -0.066 -0.055 0.122 0.122 4.284 10 - 3
10 7.265 10 - 3 -0.026 -0.052 0.097 0.151 -0.048
11 0.112 -0.037 -7.405 10 - 3 0.134 0.121 0.017
12 0.119 0.169 -0.014 0.273 0.168 -8.3910 - 3
13 0.075 0.278 0.45 0.285 0.392 0.117
14 0.499 0.134 0.415 0.118 0.592 -0.079
15 0.59 1.12 -0.303 0.33 0.145 0.525
T
W
Выводы
В статье показана возможность использования МНК и РНК алгоритмов для случая стационарных сигналов с целью удаления нежелательной компоненты в сигнале. Значения коэффициентов КИХ-фильтра, как и следовало ожидать, вычисленные с использованием МНК и РНК алгоритмов совпали. Также в статье продемонстрировано, что алгоритм РНК обладает более быстрой сходимостью, по сравнению с МНК, что достигается это за счет его значительно более высокой (по сравнению с алгоритмом МНК) вычислительной сложности.
ЛИТЕРАТУРА
1. Уидpоу Б., Стщнз С. Адаптивная обработка сигналов. М.: Радио и связь, 1989.
2. Лосев Ю.И., Беpдников А.Г., Гойхман Э.Ш. Адаптивная компенсация помех в каналах связи. - М.: Радио и связь,1988.
3. Коуэн К.Ф., Гpант П.М. Адаптивные фильтры. М.: Мир, 1988.
4. Голышев Н.В. Адаптивная обработка сигналов. Конспект лекций по курсу «Методы обработки сигналов». Новосибирск: НГТУ, 1996.
5. S. Haykin, Adaptive Filter Theory, 3rd Edition, Prentice-Hall, 1996.
6. Michael L. Honig and David G. Messerschmitt, Adaptive Filters - Structures, Algorithms, and Applications, Kluwer Academic Publishers, Hingham, MA 1984.
7. Glentis G.O., Berberidis K., Theodoridis S. Efficient Least Squares Adaptive Algorithms for FIR Transversal Filtering // IEEE Signal Processing Magazine.-1999.
LMS AND RLS ALGORITHMS OF ADAPTIVE FILTRATION
Malahov O.I., Tregubenko M.M.
This article is about the main principles of adaptive filtering theory, the algorithms of adaptive filtering - Least Mean Square (LMS) and Recursive Least Square (RLS) and their applications for filtering of stationary signals. All calculations were made in MathCad 2001.
Сведения об авторах
Малахов Олег Игоревич, 1983 г.р., студент 6-го курса МГТУ им. Н.Э. Баумана, автор 2 научных работ, область научных интересов - применение адаптивной фильтрации в криптографических системах Трегубенко Михаил Михайлович, 1983 г.р., студент 6-го курса МГТУ им. Н.Э. Баумана, именной стипендиат Правительства РФ, автор 3 научных работ, область научных интересов - применение адаптивной фильтрации в системах связи,