Научная статья на тему 'Выделение сигналов из их смеси (элементы алгоритмов и нейросетевых структур)'

Выделение сигналов из их смеси (элементы алгоритмов и нейросетевых структур) Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
233
29
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СИГНАЛЫ ИСТОЧНИКА / РАЗДЕЛЕНИЕ СМЕСИ СИГНАЛОВ / ВОССТАНОВЛЕНИЕ СИГНАЛА / НЕЗАВИСИМЫЕ КОМПОНЕНТЫ СИГНАЛА / НЕЙРОННЫЕ СЕТИ / НЕЙРОННЫЕ СТРУКТУРЫ / АДАПТИВНАЯ ФИЛЬТРАЦИЯ / SOURCE SIGNALS / SIGNALS RECONSTRUCTION / INDEPENDENT SIGNALS COMPONENTS / SIGNALS ANALYSIS / NEURAL NETWORK / ADAPTIVE FILTRATION / STRUCTURES / SIGNAL SEPARATION / NOISE CANCELLATION

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Картамышев А. В., Малыхин Вадим Макарович, Малыхина Г. Ф., Меркушева А. В.

Представлены методы восстановления вида сигналов по измерительной информации об их смеси. Алгоритмы и нейросетевые структуры, реализующие эту задачу, приведены для различных условий формирования смеси сигналов (наличие статистических характеристик шума) и возможности снижения уровня шума в восстановленных сигналах.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Картамышев А. В., Малыхин Вадим Макарович, Малыхина Г. Ф., Меркушева А. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SIGNALS EXTRACTION FROM THEIR MIXTURE (ELEMENTS OF ALGORITHMS AND NEURO NET STRUCTURES)

Possible accesses and methods are given that enable to get the form of separate signals on the base of measurement information on their mixture. Algorithms and neural network structures realizing this task are based on different concepts that represent features of signal mixture formation, presence of noise at signal registration and also the possibility of noise cancellation for separated signals.

Текст научной работы на тему «Выделение сигналов из их смеси (элементы алгоритмов и нейросетевых структур)»

ISSN 0868-5886

НАУЧНОЕ ПРИБОРОСТРОЕНИЕ, 2010, том 20, № 1, c. 96-112

ТЕОРЕТИЧЕСКИЕ РАЗРАБОТКИ

УДК 681.51; 621.391; 519.21

© А. В. Картамышев, В. М. Малыхин, Г. Ф. Малыхина, А. В. Меркушева

ВЫДЕЛЕНИЕ СИГНАЛОВ ИЗ ИХ СМЕСИ (ЭЛЕМЕНТЫ АЛГОРИТМОВ И НЕЙРОСЕТЕВЫХ СТРУКТУР)

Представлены методы восстановления вида сигналов по измерительной информации об их смеси. Алгоритмы и нейросетевые структуры, реализующие эту задачу, приведены для различных условий формирования смеси сигналов (наличие статистических характеристик шума) и возможности снижения уровня шума в восстановленных сигналах.

Кл. сл.: сигналы источника, разделение смеси сигналов, восстановление сигнала, независимые компоненты сигнала, нейронные сети, нейронные структуры, адаптивная фильтрация

ВВЕДЕНИЕ

Задачи восстановления формы сигналов (ВФС), регистрируемых средствами нескольких каналов в виде смеси с различными соотношениями, имеет значительное количество приложений, поскольку чаще всего первичный информационно значимый вектор-сигнал (т. е. группа сигналов по нескольким каналам) не является доступным в используемой системе измерений. В частности, в системах беспроводной связи методы уплотнения каналов с временным или частотным разделением используют наиболее простой вид ВФС, когда компоненты смеси занимают ненакладывающиеся интервалы в частотной или временной области. При перекрытии спектров компонент неполное ВФС возможно только при частичном их наложении в об-

ласти время-частотных преобразований. Среди потенциальных приложений ВФС — обработка многокомпонентных речевых сигналов, геофизических данных, анализ многоканальных биомедицинских сигналов (ЭЭГ, ЭМГ, ЭКГ) и анализ сигналов элементов антенны при приеме множественных целей.

Возможные формы постановки задачи ВФС, включают ряд вариантов.

— Выделение группы сигналов-компонент, определяющих максимальную долю дисперсии регистрируемых смесей сигналов источника (СИ)

— ВФС по критерию независимости ее компонент.

— ВФС без информации о виде и количестве компонент и пропорциях их в смесях.

Рис. 1. Блок-схема обработки сигналов для восстановления их формы по данным регистрации смеси на выходе линейной динамической системы

Общая постановка задачи ВФС предполагает, что наблюдаемый га-компонентный вектор-сигнал х(0 = [ ), х2(*),..., хт (* )]т регистрируется нелинейной динамической системой, имеющей п входов и т выходов. Целью является получение обратной системы (в виде нейронной сети или другой адаптивной структуры), оценивающей первичный вектор-сигнал ) = [),s2(t),...,sn(*)]т, поступающий на сенсоры. Оценка б(1) осуществляется на основе п-мерного вектора-сигнала У(*) = [УА*),У2(1),. .,Уп(*)]т на выходе обратной системы (рис. 1). Предпочтительно, чтобы обратная система была адаптивной, т. е. могла отслеживать нестационарные изменения б(*) и, следовательно, поступающего на ее вход сигнала х(*).

Иногда вместо прямой оценки СИ более удобно сначала идентифицировать систему, смешивающую сигналы, или фильтрующую динамическую систему. Это бывает, когда обратную систему трудно получить или когда количество смесей меньше, чем число первичных СИ.

Задача ВФС отличается от задачи полной обратной идентификации СИ. При идентификации (с помощью обратной системы) требуется получить доступ к первичным СИ, т. е. оценить задержанные (возможно, сглаженные) выходы обратной системы (ОС) на основе минимизации среднеквадратичного различия (ошибки) между задержанными СИ и сигналами выхода ОС. Модель системы для задачи обратной идентификации показана на рис. 2, а, а основанное на модели адаптивное обратное управление — на рис. 2, б.

Б(к)

а

Л

Б(к) -Ч-

Контроллер W(z)

х(к)

(т х п)

Объект управления

Н^)

Модель Мф

d(k)=M(z) 8(к) -/-

Адаптивный е(к) ,

алгоритм

I

У(к) -►

Нелинейный фильтр

Ч-д d(k)

2 п

б

п

т

п

1

п

Рис. 2. Структура системы для задачи обратной идентификации (а) и адаптивная структура "обратного" управления (б), которое основано на модели. При переключателе в положении 1 реализуется адаптивная обратная система (путем минимизации ошибки е); при положении 2 — оценивается ошибка е

В задаче адаптивного обратного управления выбирается вид адаптивного контроллера, передаточная функция которого является обратной по отношению к объекту управления (ОУ). Такая адаптивная система обеспечивает следование ОУ за входными сигналами-командами, т. е. за сигналами источника. При этом вектор-сигнал ошибки е(к), определяемый разницей между выходом ОУ и (опорным) сигналом модели, используется в обучающем адаптивном алгоритме для подстройки параметров линейного контроллера (рис. 2, б). Считается желательным, чтобы выход ОУ отслеживал не сами СИ, а задержанные или сглаженные (фильтрованные) входные сигналы получающиеся после преобразования М(г) [1, 2]. Такая структура с последовательным включением контроллера и ОУ после завершения адаптивной подстройки (процесса обучения) начинает моделировать динамику выходного сигнала по опорной модели М(г).

ЭЛЕМЕНТЫ ОБЩЕЙ КОНЦЕПЦИИ РАЗДЕЛЕНИЯ СИГНАЛОВ СМЕСИ

Решение задачи ВФС базируется на методе анализа главных компонент [3-5] и на более новых подходах к разделению сигналов, таких как последовательное извлечение СИ из смеси на выходе системы с преобразованием типа свертки [57]. В зависимости от особенностей приложения задачи ВФС процессы смешивания и фильтрации неизвестных СИ могут соответствовать различным математическим или физическим моделям.

В наиболее простом случае т смешанных сигналов xi(к) (, = 1,2,...,т) являются линейной комбинацией п (п < т) неизвестных, статистически взаимно независимых СИ sj(к) (, = 1,2,...,п), которые имеют нулевые средние и "искажены" присутствием сопутствующего шума. Этот случай описывается соотношением (1) или его матричной формой (2):

х,(к) = (к) (к) (, = 1,2,...,т), (1)

з=1

х(к) = Н • s(k) + у(к), (2)

где

х(к) = [х1(к), х2(к),..., хт (к)]Т— вектор сигналов сенсоров;

s(k) = [s1(k), s2(k),..., sn (к )]Т — вектор СИ;

у(к) = [у1(к ),У2(к),..., Ут (к)]Т — вектор аддитивного шума;

Н — неизвестная смешивающая матрица размера т х п и полного ранга (т. е. ранг матрицы Н равен

п)1.

Чаще всего предполагается, что количество СИ п неизвестно, доступным является только вектор-сигнал сенсоров х(к); требуется использовать нейронную сеть с прямым распространением (или рекуррентную сеть) и адаптивный алгоритм обучения, позволяющий оценить СИ, идентифицировать смешивающую матрицу Н или разделяющую матрицу W [8, 9] (рис. 3). При этом достигается достаточно хорошая адаптация значений получаемых матриц Н и W к изменениям СИ.

Задача ВФС может трактоваться как анализ независимых компонент. При этом для разделения вектора-сигнала х(к) = [ х1(к), х2(к),..., хп (к)]Т и восстановления формы первичных сигналов (СИ) требуется найти линейное преобразование в виде "разделяющей" матрицы W размерности п х т , полного ранга и такой, чтобы выходной вектор-сигнал у (к) = [ У1 (к), ^(к),..., уп (к)]Т, определенный соотношением у = W х, содержал компоненты, которые максимально статистически независимы. Степень независимости компонент проверяется с помощью информационно-теоретического критерия Кульбака—Лейблера [12], [13]. При таком подходе к задаче ВФС требуется адаптация весов Wij — компонент матрицы W линейной системы у = W х, которая реализуется в виде однослойной нейронной сети. Эта сеть комбинирует наблюдаемые и измеряемые х,(к) и дает оценку §з (к) СИ:

т

$з (к) = Уз (к) = £ (к), (з = 1,2,..., п). (3)

,=1

Оптимальные веса соответствуют статистической независимости выходных сигналов ур (к) (рис. 3, б).

Концепция и типы формализации задачи ВФС, приспособленные к особенностям приложений, строятся с использованием ряда модификаций метода анализа независимых компонент.

МОДИФИКАЦИИ МЕТОДА АНАЛИЗА НЕЗАВИСИМЫХ КОМПОНЕНТ

Применение метода АНК для получения оценок сигналов, регистрируемых в виде их смеси, имеет некоторые особенности, связанные со спецификой приложений.

1 При таком значении ранга матрица Н имеет псевдообратную матрицу Н + [10, 11], что в принципе позволяет восстановить СИ. Однако в практических приложениях матрица Н, смешивающая первичные сигналы, не бывает известна.

*(к)

у(к)

Н

О

х(к)

га

W

/

п )

Неизвестная часть

hll

-г-0—•< I

п •___.

га1

(к)

п(к) \

-сг -СГ -СГ

Ут(к)

Неизвестные Неизвестная

СИ матрица Наблюдаемые "О" "¡2Г

• Обучающий алгоритм

У1(к)

► Уп(к)

Л

Разделенные сигналы

смешанные сигналы Нейронная сеть Рис. 3. Векторно-матричная структура (а) и логика (б) системы разделения сигналов (ВФС)

а

б

■ При АНК зашумленного стохастического (га-мерного) сигнала х(к) определяется разделяющая матрица W размера п х га (п < га), которая по соотношению у = W•x дает вектор-сигнал у(к) = [У1(к),у2(к),...,Уп(к)]т , содержащий оценку компонент СИ )eRп, причем эти компоненты "насколько возможно" статистически независимы. Как отмечено выше, степень независимости контролируется по критерию Кульбака—Лейблера.

■ Для зашумленного вектора-сигнала х(к), определяемого выражением х(к) = Н^(к) + у(к) (где Н — смешивающая (га х п) -матрица; Б(к) = = [^(к), s2(k),..., sn (к )]т— вектор СИ со статистически независимыми компонентами; у(к) = = [у1(к),у2(к),...,уга(к)]т — вектор некоррелированных компонент шума) метод АНК реализуется путем оценивания как смешивающей матрицы Н, так и независимых компонент Б(к) =

= Мк), s2(k),..., Sn (к )]т.

■ АНК может формулироваться как задача оценки всех СИ, количества СИ и (или) идентификации смешивающей матрицы Н или псевдообратной разделяющей матрицы W = Н+ . При этом единственным допущением является стати-

стическая независимость первичных СИ и линейная независимость столбцов матрицы Н. (Последнее допущение равноценно тому, что ранг Н равен п). В контексте метода АНК модель смешивания СИ, объединяющая набор (из Ы) векторов-сигналов X = [х(1),х(2),...,х(N)]т eRгaхN и соответствующий набор N сигналов источника S = [б(1),б(2),...,б(Ы)]т eRпхЫ, может быть представлена в виде:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

X = Н • S. (4)

В приложениях, где при большом количестве независимых компонент, имеющих "разреженное" распределение (со значительным относительным взаимным расстоянием друг от друга), используется зависимость (эквивалентная (4))

Хт = Sт • Нт. (5)

Операция транспонирования изменяет роли матрицы Н = h2,...,hn]т и матрицы независимых компонент (матрицы СИ) S = [б(1),б(2),...,б(Ы)]т . Поэтому векторы-столбцы матрицы Нт могут рассматриваться как независимые компоненты, а матрица Sт— как матрица смешивания (и наоборот, как в (4)). В обычной временной модели АНК

принимается, что независимые компоненты s(k) являются временными сигналами, а матрица смешивания является фиксированной матрицей без наложения каких-либо ограничений на ее элементы. В пространственно-временной модели АНК различие между главными компонентами и матрицей смешивания полностью перестает существовать, т. е. делаются одинаковые или подобные предположения относительно главных компонент и относительно матрицы смешивания [5, 14].

■ В отличие от обычного метода АНК при использовании пространственно-временного АНК производится максимизация степени независимости по времени и пространству выборок X и S. Для этой модели АНК вероятностная матрица X (ХТ = ST • НТ) получается оцениванием обоих неизвестных матриц: S и Н. И делается это таким путем, чтобы строки у матрицы S и столбцы у матрицы Н были независимыми и чтобы S и Н обладали одинаковыми или подобными статистическими свойствами (например, распределением Лапласа или разреженным распределением главных компонент).

■ В реальных приложениях данные на сенсорах представляют сложные нелинейные структуры из компонент СИ, поэтому применение АНК ко всей совокупности данных может привести к неудовлетворительным результатам. Вместо применения АНК ко всей совокупности данных оказывается полезной предварительная их обработка с группировкой в кластеры или в подгруппы, однородные по особенностям данных. После этого АНК применяется последовательно (индивидуально) к каждому кластеру или подгруппе.

Стадия предобработки с подходящей группировкой или кластеризацией данных особенно разумна для случая значительной нелинейности в представлении данных на сенсорах. В то же время линейная модель АНК отдельных кластеров используется для описания локальных свойств данных. В локальной модели АНК для непосредственно измеряемых данных с сенсоров производится предварительная обработка, например преобразование (фильтрация) их с помощью согласованного многоканального разделения (СМР) [2], применения вейвлет-преобразования, совместного время-частотного анализа. Затем производится кластеризация в пространственной, частотной или время-частотной областях, после чего применяется линейная форма АНК в отдельности (локально) в каждом кластере или в частотном диапазоне. Таким образом, оптимальный локальный АНК может быть выполнен как результат совместного взаимодействия двух процессов: подходящего процесса кластеризации и процесса АНК в применении к каждому кластеру.

■ В приложениях, связанных с задачами ВФС, иногда бывает необходимо оценить только одну или несколько желаемых компонент (вектора СИ), которые обладают особыми статистическими признаками или свойствами, и не рассматривать остальные компоненты и шумы (информативно незначимые для этого приложения). В этом случае используется метод (близкий к модификации АНК), условно называемый извлечением сигналов с восстановлением их вида (ИСВВ).

ИСВВ формулируется как задача оценки одного или отобранного числа СИ с желаемыми свойствами или характеристиками, причем извлечение и оценка вида выбранных сигналов производится последовательно один за другим. Эквивалентная формулировка задачи ИСВВ такова. Необходимо идентифицировать соответствующий вектор (или векторы) Ь,- матрицы смешивания Н и их псевдообратные ^з, являющиеся строками разделяющей матрицы W = Н + . При этом предполагается независимость компонент первичного вектора-сигнала источника и линейная независимость столбцов матрицы Н.

ДОПОЛНИТЕЛЬНЫЕ ЗАМЕЧАНИЯ ПО КОНЦЕПЦИИ РАЗДЕЛЕНИЯ СИГНАЛОВ СМЕСИ

Можно сказать, что пока нет сформировавшейся методологии в области прикладных задач, связанных с ВФС или ИСВВ по измерительным данным об их смеси, особенно при большой размерности вектор-сигналов и при нелинейном типе смешивания. Встречается подмена понятий ВФС, АНК и ИСВВ, хотя они относятся к одной и той же или очень близкой проблематике современных алгоритмов обработки сложных и нелинейных комбинаций многомерных сигналов при предположении статистической независимости их компонент. Однако в реальных задачах использование АНК и ВФС направлено на несколько различающиеся цели.

■ Целью ВФС служит получение оценки СИ, даже если они не полностью взаимно статистически независимы, в то время как цель АНК состоит в определении такого преобразования, которое обеспечивает, чтобы выходные сигналы были (максимально) статистически независимыми.

■ Методы АНК, как правило, основаны на использовании статистик высокого порядка (кумулянт), а в базовом методе ВФС используются только статистики второго порядка (СВП). Метод на основе СВП предполагает, что СИ имеют некоторую временную структуру, в то время как использование статистик высокого порядка предполагает их полную статистическую независимость. Второе различие состоит в том, что метод,

Нестационарность

меняющиеся во времени дисперсии

Взаимная независимость негауссовость, АНК

Временная структура. линейная предсказуемость, нет отбеливания

Время-частотное, спектральное и (или) покомпонентное разнообразие (несходство)

Рис. 4. Элементы априорных знаний как основа формирования алгоритмов для задач разделения сигналов по измерениям их смеси

основанный на статистиках высокого порядка, не может быть применен к гауссовым сигналам (т. е. при нормальном распределении компонент СИ), а метод, основанный на СВП, не имеет такого ограничения. Фактически методы ВФС (в описанной выше их интерпретации) не замещают АНК, и наоборот, т. к. каждый подход основан на различных предположениях и часто на различных целевых установках.

Основные подходы к формированию алгоритмов разделения смеси СИ неявно связаны с априорными представлениями и знаниями, которые отражены на рис. 4.

■ Наиболее часто встречается подход, использующий в качестве критерия меру независимости сигналов (компонент СИ), негауссовость или разреженное распределение главных компонент. Когда компоненты СИ принимаются статистически независимыми и без временной структуры, то для решения задачи разделения СИ существенно применяются статистики высокого порядка (неявно или явно). В этом случае допустимо не более одной компоненты и с гауссовым распределением.

■ Если СИ имеют временную структуру, то каждая компонента СИ имеет неисчезающие временные корреляции. Это менее ограничивающее условие, чем статистическая независимость. СВП достаточны для оценки смешивающей матрицы и СИ. В этом направлении разработано несколько методов [15-17]. Но все же методы СВП не позво-

ляют разделять СИ с одинаковым (идентичным) спектром мощности или независимые и одинаково распределенные СИ.

■ Третий подход использует свойство нестационарности и статистики второго порядка.2 В отличие от других подходов метод, основанный на использовании свойства нестационарности, позволяет разделять окрашенные гауссовы сигналы, имеющие идентичную форму частотного спектра мощности. В то же время этот метод не допускает возможности разделения сигналов (ВФС), если сигналы имеют идентичную форму нестационарности [19, 20].

■ Четвертый подход использует меру различия сигналов. Эта мера оценивается на основе их свойств и характеристик: временных, частотных (спектральных), время-частотных или пространственно-время-частотных [21].3

2 В рассматриваемом случае принимается нестационарность второго порядка в том смысле, что дисперсия зависит от времени. Как показано в [18], использование метода декорреляции позволяет выполнить разделение СИ, поступающих на сенсоры ИИС.

3 Концепция пространственно-время-частотного различия сигналов достаточно широко используется в системах беспроводной связи [1, 2]. Сигналы могут быть легко разделены при условии, если они не накладываются в любой из областей: во временной, частотной либо время-частотной области.

Желаемый сигнал s(k)

Vш(k

Референтный шум (помеха или мешающий сигнал)

Основной сенсор

О

d(k) =s(k)+v(k)

,' ^(к),интерференция

Сенсор для контроля шума — помехи

/

Нелинейный адаптивный фильтр

+

I

¿(к )

Алгоритм обучения

е(к)= £(к)

Рис. 5. Структурная схема для удаления шума при одном канале связи с использованием нелинейного адаптивного фильтра или нейронной сети

ИСПОЛЬЗОВАНИЕ МЕТОДА АНК ДЛЯ ЗАШУМЛЕННЫХ ДАННЫХ

В присутствии шума оценки разделяющей матрицы W, восстанавливающей форму СИ, и матрицы смешивания I] достигаются более сложными процедурами, чем в случае отсутствия шума или при его несущественной значимости. Методическая схема, пригодная для ВФС по зашумлен-ным данным, должна ориентироваться на алгоритмы, робастные к шуму ("устойчивые" или мало зависимые от шума) или на алгоритмы, которые могут обеспечить снижение уровня шума в оценке выходного вектор-сигнала у(к).

Естественным предположением является независимость сигнала и аддитивного шума. В отдельных приложениях оказывается возможным интерпретировать шум как неизвестный СИ, и поле (или вектор) шума, поступающее на сенсоры, можно рассматривать как эквивалент дополнительных СИ. Однако при этом для ВФС не более чем одна компонента шума может иметь гауссово распределение, а остальные — негауссово. В отдельных случаях нет необходимости в разделении сигналов шума и восстановлении их вида.

В общем случае решение задачи удаления шума крайне трудна или даже нереализуема, т. к. получается (т + п) неизвестных СИ (п источников и т сигналов шума).

Для удаления шума (безотносительно к многоканальной задаче ВФС по информации об их сме-

си) разработан ряд методов [22-24]. С некоторыми модификациями они могут быть использованы для выработки подходов к удалению шума при разделении и ВФС.

В прикладных системах нередко возможно измерить или моделировать шум среды, в которой анализируются информационные сигналы. В этом случае шум называют опорным или референтным (он обозначен Уш(к) на рис. 5).4 Шум (за счет среды его распространения) может влиять на каждый сенсор неизвестным образом: возможны эффекты задержки, реверберации, эха и нелинейных искажений. Можно считать, что перед тем, как достигнуть сенсора, референтный шум обрабатывается неизвестной динамической системой. В простом случае система преобразования может описываться операцией свертки, где Уш обрабатывается некоторым КИХ-фильтром (рис. 6). В этом случае одновременно происходят два процесса обучения: процедура несупервизорного обучения ("без учителя"), осуществляющая разделение сигналов, и супервизорная ("с учителем")

4 В акустической задаче, где из регистрируемого обсуждения (на конференции) необходимо выделить речевой сигнал только одного из участников, можно измерить или зарегистрировать окружающий шум использованием изолированного микрофона. Шум в биомедицинских приложениях может быть измерен путем подходящего размещения вспомогательного сенсора (или электрода).

Рис. 6. Структура преобразований, обеспечивающая подавление шума и разделение сигналов при их линейном преобразовании в форме свертки

gp = 2 к [ • кр_к ]

а

б

Неизвестная часть системы

Рис. 7. Схема процедур, связанных с восстановлением сигнала при его преобразовании в виде свертки: одноканальный (а, б) и многоканальный (в) случаи

процедура, реализующая алгоритм снижения шу- Каспрзак, Пежунен (КаЛипеп, ОЛосИ, Kasprzak. ма. Этот подход использовали Карунен, Сичоки, Pejunen) [25] и Сичоки, Карунен, Каспрзак, Вига-

рио (Vigario) [26] для снижения шума в предположении, что референтный шум доступен для оценки.

фильтра.5 Задача разделения сигналов из смеси, где каждый вес НС (элемент матрицы W ) задается в виде его 2-преобразования

РАЗДЕЛЕНИЕ СИГНАЛОВ МНОГОКАНАЛЬНОЙ СМЕСИ В ФОРМЕ СВЕРТКИ

Структурная схема процедур, связанных с восстановлением сигнала при его преобразовании в форме свертки показана на рис. 7, а, б, для одно-канального случая (два эквивалентных вида схемы) и рис. 7, в — для многоканальной смеси компонент вектор-сигнала. В многоканальном случае измеряемый сигнал х(к) = [хДк),х2(к),...,хт(к)]т образуется как смесь типа свертки из компонент п-мерного вектор-сигнала s(k)=[51(£),s2(k),..,sn(к)]т (т > п). Это отражает устойчивая модель

х(к) = £ Hр8(к - р) = Hр * 8(к)

пРи £ ||HР

<да,

H(2) = £ H р 7

(8)

где 2~ означает операцию задержки на единицу времени (т. е. сдвиг временного сигнала назад г -р[5г(к)] = si(k - р)), то при замене г на комплексную переменную 2 = ехр(-ст + ]аТ) H(2) является 2-преобразованием {H } — матрицей передаточных функций системы.

Объединение (7) и (8) дает (9):

X(k) =[Щ2)] • 8(к).

(9)

Ж, (2, к) = £ WJlp (к) • 2-

р=0

(10)

описывается многоканальным адаптивным фильтром с конечной импульсной характеристикой и дискретным временем (к). СИ оцениваются с помощью устойчивой модели НС, которая описывается соотношением (11) и показана на рис. 8, а:

У;(к) = £ £ ^(к-Р), ] = 1,2,...,п . (11)

/=1 р=-да

В матричной форме (11) имеет вид (12):

у(к) = £ Wp (к) • х(к - р) = Wp (к) *х(к) =

р=—'Х1

= 2, к)] • х(к),

(12)

(7) где у(к) = [ у^к), У2(к),..., Уп (к )]т — п-мерный вектор на выходе системы; W(k) = {Wp (к)} (-да < р < да) — последовательность п х т коэф-

где * — операция свертки, H — (т х п)-матрица

коэффициентов смешивания для СИ с временной задержкой р.

Если определить Щ2) соотношением

фициентов матриц, используемых для времени к; матричная передаточная функция (в форме 2-преобразования) определяется выражением

да

W(2, к) = £ Wp (к) • 2-р .

р=-да

Цель адаптивного разделения СИ из смеси в форме свертки достигается подстройкой матрицы W( 2, к) таким образом, чтобы общая система (последовательность матриц смешивания Щ2) и восстановления W(z, к)) представляла СИ, преобразованные перестановкой компонент (Р) и масштабированием ф(2))6:

Нт G(2, к) = W(2, к) • Щ2) = Г • D(2).

к ^да

(13)

Задача разделения сигналов многоканальной свертки состоит в определении (возможно, масштабированных и задержанных) СИ с использованием приблизительных знаний о распределении СИ, их статистических свойствах. Предполагается, что каждый СИ si(k) является независимо и одинаково распределенной последовательностью (по к), которая статистически независима от всех других последовательностей компонент СИ.

Для восстановления СИ могут быть использованы модели нейронных сетей (НС), показанных на рис. 3, б, и рис. 6, но для свободных параметров сети (весов м;) необходимо некоторое обобщение, такое, чтобы НС имела свойство КИХ- или БИХ-

Два типа НС для ВФС с весами в форме БИХ-фильтров с устойчивой ограниченной по величине импульсной характеристикой показаны на рис. 8, б, и рис. 8, в. В обеих структурах, представленных на рисунках, используется только один сенсор, регистрирующий компоненту XI вектора х.

Сокращения КИХ и БИХ используются для фильтров с конечной и бесконечной импульсной характеристикой.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Р — (п х п)-матрица перестановок; D(z) — диагональная (п х п)-матрица, 0', ;)-й элемент которой равен С2; ci — числовой множитель, а Ai определяет (целочисленную) временную задержку компонент СИ.

р=-

р=—со

р=~

Wj 0(k )

X, (k)

w

7zjk)\.

Уп (k)

w,(k)

i>

X(k) X(k -1) X. (k

У, (k)

I )—*

xt (k - M)

x, (k)

X, (k)

wj, 0(k ) -----

-O-

h2 -1

I

о-1 WjM (k)

hM -1

У а (k)

a

б

в

Рис. 8. Примеры структуры синаптических весов НС в составе адаптивной системы, показанной на рис. 3, б.

а — основная модель фильтра; б — модель гамма-фильтра; в — модель фильтра Лагерра [27]

Применительно к этим структурам НС для ВФС Принсайп, Врие и Оливере (Principe, Vries, Olivere) [27] использовали фильтры Лагерра.

ПОСЛЕДОВАТЕЛЬНОЕ ИЗВЛЕЧЕНИЕ СИГНАЛОВ ИЗ СМЕСИ В ЗАДАЧЕ ВФС

При решении задачи разделения СИ и восстановления их формы в случае линейной смеси или смеси в виде свертки может быть использовано два подхода: в первом (кратко описанном выше) разделяются одновременно все СИ, во втором — выделяются сигналы последовательно, один за другим. Второй подход целесообразен, когда в

многоканальной системе используется много сенсоров (электродов, микрофонов или других преобразователей), а информационно значимым является только малое число сигналов, поступающих на сенсоры (рис. 9).7

7 В системах регистрации электроэнцефалограммы и магнитоэнцефалограммы используются 64 (и более) сигналов сенсоров, но только небольшое их число представляет интерес, а остальные могут рассматриваться как шумы интерференции. Таким же образом бывает необходимо выделить речевые сигналы (РС) только нескольких человек из большого количества регистрируемых РС многих (и часто, одновременно говорящих) участников конференции.

Неизвестная часть

Рис. 9. Структура системы, ориентированной на последовательное извлечение СИ или последовательный АГК.

Синаптические веса (свободные параметры НС) могут быть изменяемыми во времени коэффициентами или адаптивными фильтрами

Сигналы могут извлекаться в определенном порядке в соответствии с их статистическими признаками, например в порядке, определяемом величиной нормализованного эксцесса. (Логика такой процедуры тесно связана с логикой восстановления СИ из смеси в форме многоканальной свертки [28] и вместе с тем может трактоваться как обобщение анализа главных компонент (АГК), где де-коррелированные выходные сигналы извлекаются в порядке уменьшения значения их дисперсии). Последовательное извлечение СИ из смеси может выполняться с использованием последовательно связанных нейронных сетей, аналогично тому как это осуществляется при АГК.

Для таких систем целесообразна разработка алгоритмов обучения НС, устойчивых к небольшим уровням шума и позволяющих извлекать из смеси только небольшое число сигналов, которые представляют интерес и содержат полезную информацию.

ВОССТАНОВЛЕНИЕ ФОРМЫ СИГНАЛОВ

ИЗ СМЕСИ В ФОРМЕ МНОГОКАНАЛЬНОЙ СВЕРТКИ: МОДЕЛЬ ПРОСТРАНСТВА СОСТОЯНИЙ

Для общего случая наличия СИ и шума динамические системы смешивания сигналов и восстановления их формы могут описываться моделью пространства состояний (рис. 10), которая представлена соотношениями

1(к +1) = А • |(к) + В • 8(к) + N • V р (к), х(к) = С(к) • 1(к) + Б(к) • 8(к) + v(k),

где ^ — вектор состояния системы; в(к) е Кп — вектор неизвестных входных сигналов (предполагается, что компоненты его имеют нулевое среднее и негауссовы одинаковые и взаимно пространственно независимые распределения); х(к) — вектор сигналов сенсоров; V (к) — вектор шума; (г х г)-матрица А — матрица состояния; (г х п)-матрица В — входная матрица смешивания; (т х г)-матрица С — выходная матрица смешивания; (т х п)-матрица D — матрица смешивания вход-выход; (г х р)-матрица N — матрица преобразования шума.

Передаточная функция является (т х п) -матрицей и имеет вид:

Н(2) = С • (2 • I - А) 1 • В + D,

(15)

где 2 1 — символ операции задержки (т. е. 2^х(к)= = х(к -1)).

В аналогичной форме представляется модель системы, реализующей ВФС:

\{к +1) = А • \{к) + В • х(к) + L • V р (к), у(к) = С(к) • %(к) + D(k) • х(к).

(16)

Соотношение (16) включает неизвестные матрицы пространства состояний: (М х М)-матрица А; (М х т)- матрица В; (т хМ)- матрица С; (т х т)-матрица D и (М х т)- матрица L . При этом имеется в виду, что М >г, т. е. порядок системы ВФС

Динамический процесс смешивания

Динамический процесс разделения

а

б

Рис. 10. Структура общей модели пространства состояний, включающей линейное смешивание (компоненты вектора состояния) (а) и адаптивную модель разделения (б) для динамического анализа независимых компонент.

Цель алгоритмов обучения состоит в оценке набора матриц {А, В, С, D, L}

должен быть не менее, чем порядок системы смешивания сигналов.

Концепция модели пространства состояния, отражающей общую форму смешивания сигналов источника и адаптивную процедуру их разделения при динамическом анализе независимых компонент, показана на рис. 10.

Можно считать, что линейная модель пространства состояния является расширением модели одновременного разделения сигналов и ВФС. В частном случае, когда матрицы А, В, С в модели смешивания и матрицы А, В, С в модели разделения сигналов являются нуль-матрицами, общая модель упрощается и отражает метод анализа

независимых компонент. Элементы набора матриц 0 = [А, В, С, D, Ь] являются параметрами, которые определяются в процессе обучения на основе знания временной последовательности х(^) и, возможно, некоторых априорных знаний о системе в целом.

Таким образом, динамическое ВФС реализует получение вида первоначальных СИ по регистрируемым значениям х(^) без использования априорных знаний о СИ и о матрицах пространства состояний [А, В, С, D]. Передаточная функция, определяющая восстановление сигналов, имеет вид: W(z) = С • (z • I - А)1 • В + D . Обычным (и практически неограничивающим) предположением

x(k) -А

т

f (X, %)

% (k)

Нелинейная часть

%(к)

Б

М

С

+

+

+

у(к)

Линейная часть

Рис. 11. Упрощенная нелинейная модель разделения СИ.

При разомкнутом переключателе эта модель — класса скользящего среднего, при замкнутом переключателе — это рекуррентная (нелинейная) модель авторегрессии скользящего среднего (НАРСС) [29, 30]

п

является взаимная независимость СИ и равенство нулю их средних значений. В случае отсутствия шума СИ могут быть восстановлены по выходным сигналам у(к) = [уДк),у2(к),...,ут(к)]т в соответствии с соотношением:

У(к) = [Щ z) • Н( z)] • 8(к) = [Б( z)] • Р • 8(к), (17)

где Р — обобщенная (т х п)-матрица перестановок (общего вида); Б^) — диагональная матрица с передаточными функциями Dii (z), определяющими форму фильтров8

Б( ^ = Dп( Z), D22( Z),.., Dmm (z)}.

В некоторых приложениях требуется, чтобы Dii (z) = , где Х — постоянный ненулевой

8 Матрица перестановок Р состоит из п ненулевых элементов и имеет только по одному (ненулевому) элементу в каждом столбце. Размерность (т х т)-матрицы z) предполагает, что число выходов системы равно числу сенсоров, хотя в практике бывает, что число СИ может быть меньше, чем число сенсоров (т. е. т > п). Использованная модель определяется двумя факторами. 1. Число сенсоров может быть неизвестным и может изменяться со временем. 2. В практике иногда сигналы аддитивного шума удобно считать вспомогательными источниками и их целесообразно извлечь из смеси, сохраняя остальные информативные СИ. В идеальном случае отсутствия шума избыточные (т - п) выходные сигналы yi должны исчезать в ходе адаптивного процесса обучения, и только п выходов будут соответствовать восстановленным СИ.

коэффициент масштаба, а — величина временной задержки.

НЕЛИНЕЙНАЯ МОДЕЛЬ ПРОСТРАНСТВА СОСТОЯНИЙ И ОБРАБОТКА ВЫХОДА МОДЕЛИ ДЛЯ ВФС

Линейная модель пространства состояний для смешивания сигналов и их разделения фильтрацией обобщается на нелинейную модель. Она представлена на рис. 11 и описывается соотношениями

%(к) = {[ Х(к), %(к)], у (к) = С(к) • %(к) + Б(к) • х(к),

где %(к) = [^1(к), £2(к),..., (к )]т — вектор состояния; х(к) = [ Х1(к), Х2(к),..., хт (к )]т — доступный для измерения вектор сигналов сенсоров; {[х(к), % (к)] — М-мерный вектор нелинейных функций (с х(к) = [хт(к), хт(к-1),...,хт(к-Lx)] и %(к) = [%т(к), %т(к-1),...,%т(к-Lx)] ); вектор сигналов на выходе системы у(к) = = [У1(к),у2(к),...,Ут(к)]т; (т хМ)-матрица С и (т х т)-матрица Б — матрицы на выходе системы.

Первое соотношение в (18) описывает нелинейную модель авторегрессии скользящего среднего, а модель выхода системы, которая отражена вторым соотношением (18), является линейной. Цель состоит в оценке матриц выхода С и Б

Нейронная сеть (нелинейный адаптивный фильтр)

Рис. 12. Упрощенная модель нейронной сети с СФПН в применении для нелинейной структуры квази-ВФС для бинарных СИ на примере отдельного канала.

Переключатель в положении 1 — супервизорное обучение НС; в положении 2 — несупервизорное обучение

и в идентификации модели НАРСС с использованием нейронной сети, сигналов сенсоров х(£) и (желаемых) СИ б(£) (которые доступны для кратковременных временных окон).

Для того чтобы решить эту сложную задачу, используется подход квази-ВФС, т. е. комбинируются алгоритмы супервизорного ("с учителем") и несупервизорного обучения НС. Подход проверен в нескольких прикладных исследованиях. Обычно предполагается, что система смешивания СИ изменяется достаточно медленно, и ее параметры

При анализе магнитоэнцефалограмм и электроэнцефалограмм может быть использован фантом головы человека с возбуждением искусственными источниками, расположенными в особых местах фантома. Аналогично при решении задачи выделения определенного голоса из одновременно говорящих участников встречи можно использовать кратковременные интервалы ("окна") с записью желаемого речевого сигнала. Эти кратковременные интервалы обучающих источников позволяют на основе супервизорного алгоритма определить подходящую модель разделения СИ и соответствующие нелинейные базисные функции (СФПН [31, 32]) нейронной сети и их параметры.

флюктуируют незначительно (главным образом за счет изменения локализации СИ в пространстве). Обучающие СИ (ОСИ) доступны только в течение кратковременных интервалов. В течение интервалов, когда ОСИ недоступны, может использоваться алгоритм несупервизорного обучения, который выполняет тонкую подстройку выходных матриц С и D (при сохранении фиксированной нелинейной модели). Таким путем можно непрерывно оценивать СИ. Упрощенная структура нелинейной модели пространства состояния, использующей НС с СФПН [31, 32], показана на рис. 12.

Тот факт, что модель пространства состояний является полезным и эффективным средством при решении прикладных задач ВФС по измерениям их смеси, обусловлен рядом обстоятельств.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

— Процессы смешивания сигналов и разделения фильтрацией неизвестных СИ Sj(k) (/ = 1, 2,..., п) могут иметь различную математическую или физическую модель, зависящую от специфики приложения. Модель пространства состояний для разделения сигналов является гибкой и универсальной моделью, которая описывает широкий класс динамических систем, включая систему многоканального смешивания сигналов в форме свертки в условиях конечной импульсной характеристики

фильтров, гамма-фильтров или более общих моделей (авторегрессии, скользящего среднего или авторегрессии скользящего среднего)

— Такие модели динамического разделения сигналов позволяют создавать многие прототипы соотношений той же самой динамической системы посредством применения эквивалентных преобразований.

— Линейная модель пространства состояний является расширением модели одновременного разделения СИ с восстановлением их вида.

— Модель пространства состояний включает две подсистемы: слой линейного выхода (без запоминания) и линейную или нелинейную рекуррентную НС, которую можно идентифицировать или подстраивать с использованием различных методов обучения и подстройки параметров нейронной сети [33, 34].

ОБЛАСТЬ ПРИЛОЖЕНИЙ ОБРАБОТКИ СИГНАЛОВ С РАЗДЕЛЕНИЕМ (КВАЗИРАЗДЕЛЕНИЕМ) СМЕСИ

Задачи анализа независимых компонент (АНК), восстановления вида первичных сигналов источника (СИ) при линейной их смеси и смеси в форме многоканальной свертки потенциально могут иметь применение в различных приложениях и областях исследований. Это — обработка и анализ биомедицинских сигналов: электроэнцефалограмм (ЭЭГ), магнитоэнцефалограмм (МЭГ), электрокардиограмм (ЭКГ); обработка геофизических данных; многоаспектный, интеллектуальный анализ баз данных сложной структура ("data mining"); усиление речевых сигналов (ВФС при наличии шума); распознавание изображений и совершенствование системы беспроводной связи [1, 8, 35-38]. В этих приложениях бывает доступным большое количество сигналов сенсоров или данных, которые являются фильтрованной суперпозицией отдельных различных и независимых СИ, а цель состоит в обработке наблюдений таким образом, чтобы выход соответствовал разделенным первичным СИ.

Обработка и анализ биомедицинских сигналов осуществляется в связи со следующими исследованиями.

— Восстановление сигнала ЭКГ плода (т. е. удаление или фильтрация сигнала ЭКГ матери от ЭКГ плода). Отделение сигнала ЭКГ трансплантированного сердца от сигнала ЭКГ "старого" сердца [39].

— Разделение сигналов ЭЭГ средствами анализа независимых компонент.

— Удаление артефактов и шумов из регистрируемых ЭЭГ и МЭГ. Усиление компонент ЭЭГ и МЭГ с низким уровнем.

Акустические приложения включают ситуации, в которых СИ — это сигналы от различных микрофонов в звуковом поле, производимом несколькими людьми (задача выделения индивидуального речевого сигнала), или СИ — это сигналы от нескольких акустических преобразователей в подводном звуковом поле от шума двигателей нескольких судов (задача гидроакустического контроля).

Примеры радио- и беспроводной связи включают наблюдения, соответствующие элементам массива с выхода антенны (как отклик от нескольких передатчиков), и могут также включать эффект взаимной связи элементов. Другая возможная ситуация в области радиосвязи включает использование поляризационного мультиплексирования в звеньях микроволнового оборудования; поддержание ортогональности поляризации не может быть совершенным и остается небольшая интерференция между отдельными передающими каналами. В радиолокационной технике встречается наложение сигналов за счет различных механизмов модуляции сигналов от целей, наблюдаемых несколькими приемниками с различной чувствительностью и компонентам поляризации.

ЗАКЛЮЧЕНИЕ

Рассмотрены возможные подходы и методы, позволяющие получать форму отдельных сигналов по измерительной информации об их смеси. Основой алгоритмов и нейросетевых структур, реализующих восстановление сигналов — компонент смеси, служат различные концепции, связанные с особенностями формирования смеси сигналов, наличием статистических характеристик шума, сопровождающего регистрируемые сигналы на сенсорах, а также с методологией снижения уровня шума в восстановленных сигналах.

- Приведены элементы общей концепции смешивания первичных сигналов источника (СИ), их фильтрации и разделения при наличии шума или без него.

- Проанализированы типы формализации задачи восстановления формы сигналов (ВФС) и варианты постановки задач, которые связаны с выделением части сигналов из смеси (по критерию максимальной доли в общей дисперсии или по критерию наибольшей независимости выделяемых сигналов).

- Даны структуры преобразований, обеспечивающих реализацию полного восстановления первичных сигналов источника (СИ) или последовательное выделение компонент вектора сигнала, который регистрируется сенсорами в форме смеси неизвестного вида.

- Кратко описана методология использования

нейронной сети и адаптивного алгоритма обучения, позволяющие получить оценку СИ, смешивающей матрицы H и разделяющей матрицы W.

- Даны трактовка задачи ВФС как задачи анализа независимых компонент и метод использования критерия Кульбака—Лейблера для оценки степени независимости компонент.

- Концепция и типы формализации задачи ВФС приспособлены к особенностям приложений и построены с использованием нескольких модификаций анализа независимых компонент (АНК).

- Проанализированы особенности задачи разделения СИ для многоканальной смеси в форме свертки и показана логика процедур для решения такой задачи.

- Рассмотрена модификация задачи ВФС, решение которой основано на последовательном извлечении сигналов из смеси. Сигналы могут извлекаться в определенном порядке в соответствии с их статистическими признаками.

- Дан метод решения задачи ВФС из смеси в форме свертки на основе модели пространства состояний. Модель отражает форму смешивания СИ и адаптивную процедуру их разделения при динамическом анализе независимых компонент.

- Показана область приложений обработки сигналов с целью восстановления вида компонент регистрируемой смеси.

Идеи концепции и методы ВФС по регистрируемым данным смеси СИ на сенсорах ИИС разрабатывали Карунен и Джоутсенсало (Karhunen, Joutsensalo) [4], Плумбли (Plumbley) [5], Берлоуч-рани, Абед-Мераим, Кардосо и Моулинес (Berlouchrani, Abed-Meraim, Cardoso, Moulines) [7], Амари и Сичоки (Amari, Cichocki) [8], Пхам и Кардосо [20], Сервьер и Баудоис (Serviere, Baudois) [36].

СПИСОК ЛИТЕРАТУРЫ

1. Столлинг С.В. Беспроводные линии связи и сети. М.: Изд. дом "Вильямс", 2003. 637 с.

2. Меркушева А.В. , Малыхина Г.Ф. Согласованное многоканальное разделение сигнала: фильтрация и мультиплексирование // Научное приборостроение. 2008. Т. 18, № 1. С. 98-109.

3. Comon P. Independent Component Analysis: A New Conception? // Signal Processing. 1994. V. 36. P. 278-314.

4. Karhunen J., Joutsensalo J. Generalizations of Principal Component Analysis, Optimization Problems and Networks // Neural Networks. 1995. V. 8. P. 549-562.

5. Plumbley M. Conditions for Nonnegative Independent Component Analysis // IEEE Transactions on Neural Networks. 2003. V. 14, N 3. P. 534-543.

6. Jutten C., Hérault J. Separation of Sources: Adaptive Algorithm Based on Neuron Network Architec-

ture // Signal Processing. 1991. V. 24, N 1. P. 1-10.

7. Berlouchrani A., Abed-Meraim K., Cardoso J.-F., Moulines E. A Source Separation Technique Using Second-Order Statistics // IEEE Transactions on Signal Processing. 1997. V. 45, N 2. P. 434-444.

8. Amari S., Cichocki A. Adaptive Blind Signal Processing — Neural Network Approaches // Proceedings of IEEE. 1998. V. 86. P. 1186-1187.

9. Мстыхина Г.Ф., Меркушева А.В. Адаптивный алгоритм на основе рекуррентной сети для задачи восстановления формы линейно смешанных сигналов // Нейрокомпьютеры. 2006. № 7, часть 2. С. 3-13.

10. Widrow B., Walach E. Adaptive Inverse Control. N.Y.: Prentice-Hall, 1996. 280 p.

11. Гантмахер Ф.Р. Теория матриц. М.: Наука, 1988. 548 с. (С. 31-38).

12. Кутьбак С. Теория информации и статистика. М.: Наука, 1967. 408 с.

13. Меркушева А.В., Малыхина Г.Ф. Восстановление формы линейно смешанных сигналов на основе адаптивного алгоритма рекуррентной сети // Научное приборостроение. 2005. Т. 15, № 3. С. 94107.

14. Hyvarinen A., Karhunen J., Oja E. Independent Component Analysis. N.Y.: Wiley Inter-Science. 2001. 230 p. (P. 147-164).

15. Tong L., InouyeY., Liu R. Waveform Preserving Estimation of Multiple Independent Sources // IEEE Transaction on Signal Processing. 1993. V. 47, N 7. P.2461-2470.

16. Molgedey L., Schuster H.G. Separation of a Mixture of Independent Signals Using Time Delayed Correlations // Physical Review Letters. 1994. V. 72, N 23. P. 3634-3637.

17. Belouchrani A., Cichocki A. Robust Whitening Procedure in Source Separation Context // Electronic Letters. 2000. V. 36, N 24. P. 2050-2053.

18. Matsuoka K., Kawamoto M. A Neural Net for Separation of Non-Stationary Signals // Neural Networks. 1995. V. 8, N 3. P. 411-419.

19. Choi S., Cichocki A. Blind Separation of Nonstatio-nary Sources in Noisy Mixtures // Electronic Letters. 2000. V. 36, N 9. P. 848-849.

20. Pham D.T., Cardoso J.F. Separation of Instantaneous Mixtures of Nonstationary Sources // IEEE Transaction on Signal Processing. 2001. V. 49, N 9. P.1837-1848.

21. Gaundaurd G.C., Stifors H.C. Signal Analysis by Means of Time-Frequency Transformation of Wign-er Type // Proceedings of IEEE. 1996. V. 84, N 9. P.1231-1247.

22. Xie L. Robust Kalman Filtering for Uncertain Systems // System and Control Letters. 1994. V. 22. P.123-133.

23. van Gerven S., van Comprenolle D. The Use of De-correlation in Scalar Signal Separation // 1994 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP-94). V. III. 19-22 Apr. 1994. P. 57-60.

24. Малыхина Г.Ф., Меркушева А.В. Сеть с симмет-

ричной функцией преобразования нейронов для подавления искажений и восстановления изображения // Научное приборостроение. 2008. Т. 18, № 2. С. 73-80.

25. Karhunen J., Cichocki A., Kasprzak W., Pejunen P. On Neural Blind Separation with Noise Suppression and Redundancy Reduction // International Journal of Neural Systems. 1997. V. 8, N 2 (April). P. 219237.

26. Cichocki A., Karhunen J., Kasprzak W., Vigario R. Neural Networks for Blind Separation with Unknown Number of Sources // Neurocomputing. 1999. V. 24, N 1-3 (February). P. 55-93.

27. Principe J.C., Vries B., Olivere P.G. The Gamma Filter — a New Class of Adaptive IIR Filters with Restricted Feedback // IEEE Transaction on Signal Processing. 1993. V. 41, N 4. P. 649-656.

28. Shalvi O., Weinstein E. New Criteria for De-convolution of Non-Minimum Phase Systems (Channels) // IEEE Transaction on Information Theory. 1990. V. 36, N 2. P. 312-321.

29. Малыхина Г.Ф., Меркушева А.В. Нейронные сети, отражающие динамику входной информации и построенные на принципе обратных связей (рекуррентные сети) // Научное приборостроение. 2004. Т. 14, № 3. С. 11-32.

30. Бендат Дж., Пирсол А. Прикладной анализ случайных данных. М.: Мир, 1989. 540 с.

31. Haykin S. Neural Networks. Prentice-Hall, 1999. 842 p.

32. Меркушева А.В., Малыхина Г.Ф. Методология сетей с симметричной функцией преобразования нейронов // Научное приборостроение. 2006. Т. 16, № 2. С. 34-45.

33. Cichocki A., Unbehauen R. Robust Neural Net-

works with on-Line Learning for Identification and Separation Source Signals // IEEE Transactions on Circuits and Systems, I: Fundamentals Theory and Application. 1996. V. 43, N 11. P. 894-906.

34. Zhang L., Cichocki A. Deconvolution of Dynamic Systems: A state Space Approach // Japanese Journal of Signal Processing. 2000. V. 4, N 2 (March). P.111-130.

35. Gardner W.A. A New Method of Clinical Identification // IEEE Transactions on Communications. 1991. V. 39, N 6. P. 813-817.

36. Serviere C., Baudois D. Source Separation with Noisy Observations: a Noise Canceling Application // Signal Processing. 1995. V. 42, N 1. P. 45-57.

37. Shalvi O., Weinstein E. New Criteria for Signal De-convolution of Non-Minimum Phase Systems (Channels) // IEEE Transactions on Information Theory. 1993. V. 39, N 2. P. 504-519.

38. Skarbek W., Cichocki A., Kasperzak W. Principal Subspace Analysis for Incomplete Image Data in One Learning Epoch // Neural Network World. 1996. V. 6, N 3. P. 375-382.

39. Nanui A.K., Zaraoso V. Forth Order Cumulant Based Source Signal Separation // Signal Processing Letters. 1996. V. 3, N 12. P. 312-314.

СПбГТУ, Санкт-Петербург

Контакты: Малыхин Вадим Макарович, v_m_malychin@mail .ru

Материал поступил в редакцию 3.12.2009.

SIGNALS EXTRACTION FROM THEIR MIXTURE (ELEMENTS OF ALGORITHMS AND NEURO NET STRUCTURES)

A. V. Kartamyshev, V. M. Malykhin, G. F. Malykhina, A. V. Merkusheva

SPbSTU, Saint-Petersburg

Possible accesses and methods are given that enable to get the form of separate signals on the base of measurement information on their mixture. Algorithms and neural network structures realizing this task are based on different concepts that represent features of signal mixture formation, presence of noise at signal registration and also the possibility of noise cancellation for separated signals.

Keywords: source signals, signals reconstruction, independent signals components, signals analysis, neural network, adaptive filtration, structures, signal separation, noise cancellation

i Надоели баннеры? Вы всегда можете отключить рекламу.