УДК 681.513
ДИНАМИЧЕСКАЯ РЕКОНСТРУКЦИЯ ХАОТИЧЕСКИХ СИГНАЛОВ НА ОСНОВЕ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ
БОДЯНСКИЙ Е.В., ПЛИСС И.П.,
ЧАПЛАНОВ А.П.
Рассматривается задача восстановления характеристик и прогнозирования временных рядов произвольной природы. Предлагается процедура динамической реконструкции, основанной на аппарате хаос-динамики и искусственных нейронных сетей.
При решении медико-биологических, финансовоэкономических, радиотехнических и тому подобных задач исследователю достаточно часто приходится сталкиваться с сигналами и процессами, поведение которых выглядит как случайное, хотя по сути им не является. Более того, статистический анализ (вторые моменты, автокорреляционные функции, спектр) показывает, что это широкополосный случайный процесс, хотя и порождаемый совершенно детерминированной нелинейной системой, что само собой парадоксально. Такие системы называются хаотическими и последние два десятилетия они являются предметом пристального внимания как теоретиков, так и специалистов совершенно различных областей [ 1-3].
В принципе будущее поведение хаотической системы в силу ее детерминированности полностью определяется ее прошлым, но на практике любая неопределенность или неточность в выборе начальных условий резко усложняют задачи анализа, для решения которых в последнее время все чаще используются нейронные сети, в первую очередь благодаря своим универсальным аппроксимирующим свойствам [4-7].
Подобный временной ряд может быть получен с помощью элементарной схемы генератора хаоса, приведенного на рис. 1 и содержащего блоки умножения, суммирования, усиления и чистой задержки z _1.
Переписав (1) в виде
x(k +1)
xi(k +1) X2(k +1)
' x2 (k) - x2(k) ЇГ011 v2x1(k)x2(k)j [Q2 )
T1(Xc(k)) W 01 T 2(xc(k)) J~40 2
T(xc(k)) + 0,
введя вектор ошибок
e(k)
e1(k)
e2(k)
x(k)l2 - x(k) =
= x(k)l2 -y(xc(k -1)) -0
и одношаговый критерий обучения, принятый в теории нейронных сетей
1 II- II2 1 ll~ -II2
E(k) = -||e(k)||2 = -|x(k) -е| ,
можно записать рекуррентную процедуру его минимизации в виде
0(k +1) = 0(k) + p(k)(~(k) -0(k)), (2)
где x(k) = x(k)l2 - ф(xc (k -1)), I2 = (1,1)T , p(k) -параметр шага обучения.
Несложно видеть, что (2) совпадает с алгоритмом Т. Кохонена [10], при этом вектор восстановленных
параметров 0 позволяет получить пару прогнозных значений наблюдаемого ряда в виде
x(k +1) = vfr (xc (k)) + 0(k +1).
Одной из таких задач является так называемая динамическая реконструкция [8], состоящая в восстановлении модели, которая генерирует хаотический временной ряд по растущей выборке наблюдений
x(1), x(2),... x(k),..., где k — текущее дискретное время.
Решение этой задачи рассмотрим на примере простейшей модели Б. Мандельброта [9] вида
xc(k +1) = x2(k) +0, (1)
1
где xc(k) = x1 + ix2 , 0 = 01 + i02 ,
i = лЛ , при этом предполагается, что параметры 01 и 02 неизвестны.
Рис. 1
62
РИ, 2002, № 3
Введем далее более сложную структуру комплексного хаотического процесса:
x(k +1)
xi(k +1) x2(k +1)
" wn(xj2(k) - x2(k)) + 0i'' v W2ixi(k)x2(k) + 02 ,
wnVi(xc(k)) + 0i Wii 0i
W21V 2(xc(k)) +0 2 ) \ W 2i 0 2
V i(xc(k)) 1|I
ф2(xc(k)) 1J 2
W®Y(xc(k))l2,
(3)
и решив дифференциальное уравнение
S|| v(k)|Vdc = 0,
можно получить оценку
c(k) = V2T (k)
v2(k) - Vi(k) IV2 (k) - Vi (k)||2 ’
1 - c(k) = ViT(k)
Vi(k) - V2(k) ||Vi(k) - V2 (k)||2
(8)
где wii, W21, 0i, 02 — неизвестные параметры,
подлежащие определению; ® — символ скоттова произведения.
Переписав (3) покомпонентно
|xi (k +1) = (w 11,01 )(у i (x c (k)),1)T = W1 Ti (xc (k)),
[x 2 (k +1) = (w 21,0 2 )(V 2 (x c (k)),1)T = W 2 ^2 (x c (k)),
можно уточнять неизвестные параметры с помощью стандартного нейросетевого алгоритма Б. Уидроу—М. Хоффа в форме [11]
Подставляя (8) в последнее уравнение системы (7), получаем
V(k) = V2T (k)
V2(k) - Vi(k)
IIV2 (k) - Vi(k)||2
Vi(k) +
+ VjT (k) Vi(k) - V2(k)
II Vi (k) - V2 (k)||2
V2(k)=
= (Vi(k)V2T(k) - V2 (k)ViT (k))
Vi(k) - V2(k) ||Vi(k) - V2 (k)||2 ’
откуда следует
w1(k + 1)
Wi(k) + p
x(k) - Wi(k)Ti(xc(k -1))^ 1 + W(xc(k - i)) X
x^iT(xc(k - 1)),
• w2(k + i) = w2(k) + p x^T(xc(k - i)),
0 <p < 2
x(k) - w2(k)y2(xc(k -1)) x
1 + У 2 (xc (k - i))
(4)
||V(k)||2 = ( (|V2(k)|2
ViT(k)V2(k))Vi(k) +
+ (|Vi(k)|2 - ViT(k)V2(k))V2(k) x|| Vi(k) - V2 (k)|| ~4.
2
)x
(9)
Используя (9), несложно получить систему неравенств
и на их основе строить пару одношаговых прогнозов:
x(k +1) = W(k + 1)®T(xc(k))I2. (5)
Комплексный прогноз вещественного сигнала x(k) может быть некоторым образом свернут в целях получения более точных результатов. Для этого можно использовать простейшую аддитивную форму
x(k +1) = cx 1 (k +1) + (1 - c)x2(k +1), (6)
где c — некоторый параметр, определяющий точность прогнозирования.
Введя (k х 1) — векторы сигналов и ошибок X(k) = (x(1),x(2),...,x(k))T,
X(k) = (x(1),x(2),..,x(k))T,
■ic;(k) = (х;(1),х;(2),„ ,x;(k))T,i = 1,2,
V;(k) = X(k) - Xi (k), i = 1,2, (7)
V(k) = X(k) - X(k) = cV1 (k) + (1 - c)V2 (k)
Ml2-I lVi(k)||2 ||V(k)|2 -IIV2 (k)||2
(|Vi(k)|2 - ViT(k)V2(k))2 II Vi (k) - V2(k)||2
< 0,
(|V2(k)|2 - ViT(k)V2(k))2 ||Vi(k) - V2 (k)||2
< 0,
свидетельствующую о том, что точность прогноза (6) никогда не может быть хуже, чем точность любой из компонент (5).
Для работы в реальном времени полученные соотношения следует представить в рекуррентной форме, что можно сделать, введя новые переменные
V2i(k) = V2 (k) - Vi(k), e1 (k +1) = x(k +1) - xi (k +1), e2(k +1) = x(k +1) - x2(k +1),
e2i(k +1) = e2(k +1) - ei(k +1) и переписав (8) в виде
c(k +1) = jfiLC(k) + + 1)e21 (k + 1)
p(k +1) p(k +1) = p(k) + e2i(k +1).
p(k +1)
РИ, 2002, № 3
63
С учетом очевидных выражений
jv21(k) = XjGo - ic2(k),
Iе 21 (k +1) = Xi(k +1) - X2(k +1) окончательно получаем
River, N.J.: Prentice Hall, Inc., 1999. 842 p. 9. Mandelbrot
B.B. Die fraktale Geomrtrie der Natur Basel: Birkhaeuser Verlag, 1991. 491 S. 10. Kohonen T. Self-Organizing Maps. Berlin: Springer-Verlag, 1995. 362 p. 11. Cichocki A., Unbehauen R. Neural Networks for Optimization and Signal Processing. Stuttgart: Teubner, 1993. 526 p.
Поступила в редколлегию 12.07.2002
c(k+1)=-^kLc(k)+^k_+ 1)(X1(k+1) - x2(k+1))
p(k +1)
p(k +1)
p(k +1) = p(k) + (£1 (k +1) - X2(k +1))2.
(10)
На рис. 2 приведена схема формального нейрона, осуществляющая динамическую реконструкцию хаотического процесса согласно соотношениям (4), (5), (10).
Подобная схема может быть построена для любой из известных математических моделей хаоса [1-3, 9]. Она предназначена для анализа и прогнозирования сигналов различной природы.
Рецензент: д-р техн. наук, проф. Любчик Л.М.
Бодянский Евгений Владимирович, д-р техн. наук, профессор кафедры искусственного интеллекта, научный руководитель ПНИЛ АСУ ХНУРЭ, член IEEE, WSES. Научные интересы: нейро-фаззи-системы. Адрес: Украина, 61166, Харьков, пр. Ленина, 14, тел. 4098-90
E-mail: [email protected], [email protected]
Плисс Ирина Павловна, канд. техн. наук, ст. науч. сотр., вед. науч. сотр. ПНИЛ АСУ ХНУРЭ, член IeEe. Научные интересы: адаптивные системы, искусственные нейронные сети. Адрес: Украина, 61166, Харьков, пр. Ленина, 14, тел.: 40-98-90.
E-mail: [email protected]
Литература: 1. Мун Ф. Хаотические колебания. М.: Мир, 1990. 312 с. 2. Верже П, Помо И., Видаль К. Порядок в хаосе. М.: Мир, 1991. 368 с. 3. Кроновер Р.М. Фракталы и хаос в динамических системах. Основы теории. М.: Постмаркет, 2000. 352 с. 4. Intelligent Hybrid Systems: Fuzzy Logic, Neural Networks, and Genetic Algorithms / Ed. by Da Ruan. Boston: Kluwer Academic Publishers, 1997. 354 p. 5.
Abe S. Neural Networks and Fuzzy Systems:
Theory and Application.
Boston: Kluwer Academic Publishers, 1997. 258 p. 6.
Osana Yu., Hagiwara W.
Separation of superimposed pattern and many-to-many associations by chaotic neural networks /
/ Proc. IEEE Int. Joint conf. on Neural Networks “IJCNN’98”. Anckorage,
Alaska, 1998. P. 514-519.
7. Rojas I., Gonzalez J,
Canas A, Diaz A.F., Rojas F.J., Rodriguez M. Shortterm prediction of chaotic time series by using RBF network with regression weights // Int. J. of Neural Systems. 2000. 10. N 5. P.
353-364. 8. Haykin S.
Neural Networks. A ►
Comprehensive Foundation. Upper-Saddle
Чапланов Алексей Павлович, аспирант кафедры искусственного интеллекта, мл. науч. сотр. ПНИЛ АСУ ХНУРЭ. Научные интересы: искусственные нейронные сети, хаос-динамика. Адрес: Украина, 61166, Харьков, пр. Ленина, 14, тел.: 40-98-90.
E-mail: [email protected]
64
РИ, 2002, № 3