Научная статья на тему 'Обучение искусственных всплеск-нейронных сетей при обработке нестационарных стохастических сигналов'

Обучение искусственных всплеск-нейронных сетей при обработке нестационарных стохастических сигналов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
201
51
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Бодянский Евгений Владимирович, Винокурова Елена Анатольевна

Рассматривается группа адаптивных алгоритмов обучения всплеск-нейронных сетей, предназначенных для обработки нестационарных стохастических сигналов. Вводятся алгоритмы, обладающие как фильтрующими, так и следящими свойствами, анализируется их сходимость и показываются преимущества перед известными процедурами. Отмечается, что ряд известных алгоритмов обучения является частным случаем предложенных конструкций.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Wavelet neural network learning for nonstationary stochastic signals processing

The wavelet neural network learning algorithms are proposed. These learning algorithms have both the following and the filtering properties. The learning algorithms convergence is analyzed and the advantages compared to the known procedures are considered.

Текст научной работы на тему «Обучение искусственных всплеск-нейронных сетей при обработке нестационарных стохастических сигналов»

УДК 681.513

ОБУЧЕНИЕ ИСКУССТВЕННЫХ ВСПЛЕСК-НЕЙРОННЫХ СЕТЕЙ ПРИ ОБРАБОТКЕ НЕСТАЦИОНАРНЫХ СТОХАСТИЧЕСКИХ СИГНАЛОВ

БОДЯНСКИЙЕ.В., ВИНОКУРОВА Е.А.______________

Рассматривается группа адаптивных алгоритмов обучения всплеск-нейронных сетей, предназначенных для обработки нестационарных стохастических сигналов. Вводятся алгоритмы, обладающие как фильтрующими, так и следящими свойствами, анализируется их сходимость и показываются преимущества перед известными процедурами. Отмечается, что ряд известных алгоритмов обучения является частным случаем предложенных конструкций.

1. Введение

В настоящее время при обработке сигналов различной природы (прогнозирование, фильтрация, сглаживание, сегментация, сжатие, диагностика и т.п.) применяются технологии, основанные на использовании базисов всплесков (вейвлетов, wavelets) [14], кроме всего благодаря их кратномасштабным свойствам. Всплески имеют вид коротких, локализованных во времени (или пространстве) волновых пакетов с нулевым значением интеграла; обладают возможностью сдвига по оси времени; способны к масштабированию (сжатию-растяжению); имеют локальный частотный спектр.

Сочетание кратномасштабных свойств всплесков с универсальными аппроксимирующими свойствами искусственных нейронных сетей (И НС) привело к появлению всплеск-нейронных сетей (wavelet neural networks) [5-10], представляющих собой по сути И НС с прямой передачей информации и архитектурой, подобной широко распространенным радиально-базисным нейронным сетям [11-13].

Всплеск-нейронная сеть (ВНС) реализует нелинейное отображение вектора входов

x(k) = (xj (k), X2(k),.. .,xn (k))T є Rn

в вектор выходовy(k) = (y1(k),y2(k),...,ym(k))T єRm;

yj(k) = Fj(x(k)) = ^ Wji9i(x(k)) = wT ф(к), i=1

j = 1,2,...,m,

где Fj(«) — некоторый оператор, связывающий пространство входов с пространством выходов;

т

Wj = (WjbWj2,...,Wjh) — (h Х1) -вектор настраиваемых синаптических весов;

ф(к) = (91(x(k)), 92(x(k)),..., 9h(x(k)))T - вектор

функций активации нейронов скрытого слоя на основе всплесков; n << h — число нейронов скрытого слоя; k — текущее дискретное время.

В качестве функций активации могут использоваться различные всплески, такие как всплеск Sinc, Хаара (wavelet Haar), Симлета (wavelet Symlet), всплески Добеши (wavelets Daubechies), Гаусса (wavelet Gaussian), Морлета (wavelet Morlet), “Мексиканская шляпа” (wavelet “Mexican hat”).

2. Алгоритмы обучения радиально-базисных ИНС

Для настройки синаптических весов радиальнобазисных ИНС, являющихся прототипом ВНС, наиболее широко применяются алгоритмы, минимизирующие критерий обучения, связанный с квадратами рассогласований между внешним обучающим сигналом dj (k) и выходом сети yj (k).

Простейшей из таких процедур является алгоритм Уидроу-Хоффа [14-16], минимизирующий на каждом такте локальный критерий

1 2 1 2 Ej(k) = — (dj(k) - yj(k))2 = -e2(k)

и имеющий вид

w j (k +1)

Wj (k) +

d j (k +1) - w T (к)ф(к +1)

J

||ф(к +1)||2

x ф(к +1) = Wj (k) +

ej(k + 1)ф(к +1) ||ф(к +1)||2

(1)

Обладая высоким быстродействием, а следовательно, и выраженными следящими свойствами, этот алгоритм плохо работает в условиях помех, искажающих обрабатываемые сигналы, в связи с чем при работе со стохастическими процессами чаще применяется метод наименьших квадратов в различных модификациях [17-23].

Алгоритмы, связанные с методом наименьших квадратов, минимизируют критерий

k 1 k

ej = E Ej(p) = 2 Ee (p), (2)

p=1 z p=1

заданный на всей обучающей выборке, и фактически обеспечивают решение системы нормальных уравнений

V wEJ =-rj(k) + R(k)Wj(k) = 0, (3)

имеющее вид

Wj(k) = R ~1(k)rj(k),

k k T

где rj (k) =2 dj (pMp), R(k) = £ 9(p)9T (p)-

p=1 p=1

Чтобы реализовать алгоритм в реальном времени, запишем искомый вектор синаптических весов для (k +1) -го такта времени в виде

wj(k +1) = R _1(k + 1)rj (k +1) =

= (Rj(k) + ф(к + 1)ф T(k +1))_1 x x (rj (k) + dj(k + 1)ф(к +1)),

после чего, применяя формулу Шермана-Мориссо-на

РИ, 2003, № 1

85

(4)

Ф(к +1) =

(5)

R-1(к +1) = R _1(к) -R _1 (к)ф(к + 1)ф T (к + 1)R _1 (к)

1 + ф т(к + 1)R _1(к)ф(к +1) :

получим рекуррентную форму

w j(k +1) = w j(k) + R _1(к) х

d; (к +1) - wT (к)ф(к +1)

x—т-----------і---------

1 + фТ (к + 1)R_1(к)ф(к +1)

R “1(к)еі(к + 1)ф(к +1)

= w ,(к) +--т--------:---------.

1 + фТ (к + 1)R_1(к)ф(к +1)

Соотношения (4), (5) описывают стандартный рекуррентный метод наименьших квадратов. Это наиболее распространенная процедура, используемая для обучения радиально-базисных ИНС, основним недостатком которой является численная громоздкость, проявляющаяся при работе в реальном времени с высокой частотой квантования сигналов и при большом числе нейронов скрытого слоя h.

По своим сглаживающим свойствам к рекуррентному методу наименьших квадратов близок алгоритм Гудвина-Рэмеджа-Кэйнеса [24, 25], существенно более простой в вычислительном отношении, однако имеющий низкую скорость сходимости. В принятых здесь обозначениях этот алгоритм может быть записан в форме

w j (к +1) = wj (к) + (Tr Rfc +1))_1 (dj (к +1) -

- wj" (к)ф(к + 1))ф(к +1),

(6)

к+1

= w j

(к) + H 1 (к +1) £ (d j (p) -w j" (к)ф(р))ф(р) = (7) p=l j (7)

= w j (к) + H _1 (к + 1)(rj (к +1) - Rfc + 1)w j (к)),

к+1 j

где Н(к +1) = £ ф(р)ф1 (р) = R(k +1) — гессиан при-р=1

нятого критерия обучения. Заметив, что выражение rj (к +1) - R^ + 1)w j (к) = rj (к) + dj (к + 1)ф(к +1) -- R^)w j (к) - ф(к + 1)фТ (к + 1)w j (к) с учетом (3) превращается в мгновенную разность:

rj (к +1) - Rfc + 1)wj (к) = dj (к + 1)ф(к +1) -- ф(к + 1)фТ (к + 1)w j (к),

можно записать еще одну форму рекуррентного метода наименьших квадратов:

86

R _1(к +1) = R _1(к) -

_ R-1 (к)ф(к + 1)фт (к + 1)R-1 (к)

1 + фТ (к + 1)R _1(к)ф(к +1) ’ w j (к +1) = w j (к) + R_1 (к + 1)(dj (к +1) - (8)

- wj" (к)ф(к + 1))ф(к +1).

Используя в (7) вместо обратного гессиана скалярный параметр скорости обучения, можно ввести модифицированный алгоритм Гудвина-Рэмеджа-Кэйнеса:

wjfc +1) = wjfc) + ц j(k + 1)(rj (к +1)

- R(k + 1)wj (к)) = w j (к) + (TrR(k +1)) х (ті(к +1) - R^ + 1)wj(k)),

R(k +1) = R(k) + ф(к + 1)фТ(к +1), rj (к +1) = rj (к) + dj (к + 1)ф(к +1).

(9)

Низкая скорость обучения, присущая алгоритму (9), ставит задачу отыскания оптимальных значений параметра шага Цj (к +1) вместо сугубо эмпирического (TrR^ +1))_1.

Запишем первое соотношение (9) в виде

w j (к +1) = w j (к) + ц j (к + 1)(rj (к +1) - R(k + 1)w j (к)) =

к+1 T

= w j (к) + ц j (к +1) £ (d j (р) - w T (к)ф(р))ф(р)

р=1

TrR(k +1) = TrR(k) +||ф(к +1)||2 .

По сути он является процедурой стохастической аппроксимации.

3. Модифицированные алгоритмы обучения

Используя для минимизации критерия (2) процедуру Г аусса- Ньютона, записываем

w j (к +1) = wj (к)-Н-1(к + 1)VwE^1 =

или, что то же самое,

к+1

w j (к +1) = w j (к) - цj (к +1) X (dj (р) -

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

р=1

- wT (к)ф(р))ф(р) = -w j (к) -

к+1 T

-Цj(k +1) £ wT (к)ф(р)ф(р), р=1

(10)

где wj^) = w* - wj^) - (hx 1) -вектор уклонений текущих значений синаптических весов wj^) от своих гипотетических оптимальных значений w *

j

Вводя в рассмотрение норму ||w j (к +1) и соотношение, описывающее ее изменение:

-1)12 =

j+1)|| =1 Ь(к)1Г

к+1

- 2цj (к +1) £ wj (к^ (к)ф(р)ф(р) +

р=1

2 к+1 T T

й 2 (к +1) £ (d j (р) - w j" (к)ф(р))ф T (р) х (11)

j р=1 j (11)

к+1

: £ (dj (р) - w j (к)ф(р))ф(р),

р=1

с учетом того, что

РИ, 2003, № 1

E (wT(к)ф(р))2 = Е e2(p) = ejj(k +1) (12)

р=1 р=1

есть накопленная сумма мгновенных ошибок обучения, и решая дифференциальное уравнение

S||wj(k +1)||2/9л j = 0, (13)

находим оптимальное значение параметра скорости обучения в виде

Л j (k +1) = е2 (k + 1)||rj (k +1) - R(k + 1)w j (k)| "2.

Тогда алгоритм настройки синаптических весов ВНС может быть записан в форме

Wj(k +1) = Wj(k) +

e2(k + 1)(rj(k +1) - R(k + 1)wj(k))

||rj (k +1) - R(k + 1)wj(k)|2 ’ (14)

ej2(k +1) = ej2(k) + e2(k +1),

представляющей собой модификацию адаптивных алгоритмов одновременного действия, введенных в [26, 27].

4. Обучение в нестационарных условиях

В условиях, когда характеристики обрабатываемых сигналов изменяются во времени, в качестве критерия обучения достаточно часто используется взвешенная сумма квадратов ошибок

, k , ik

Ek = £ak-pEj(p) = -2 X P=1

2p=1

ak pe2(p),

(15)

где 0 < a < 1 — параметр забывания устаревшей информации.

Минимизация (15) с помощью процедуры Гаусса-Ньютона приводит к экспоненциально-взвешенному рекуррентному методу наименьших квадратов:

Wj(k +1) = Wj(k) + R J(k)x

dj(k +1) - wT(k)9(k +1)

x —-----------------------9(k +1):

a + 9T(k + 1)R _1(k)9(k +1)

R -1(k)ej(k + 1)9(k +1)

1 = Wj(k) +------T--------;----------

J a + 9T(k + 1)R _1(k)9(k +1)

R-!(k +1) = —(r _1(k) -

rv '

(16)

R-1 (k)9(k + 1)фт (k + 1)R-1 (k)'' а + ф”1"^ + 1)R_1(k^(k +1) y

0 < a < 1,

склонному к неустойчивости («взрыв параметров») при малых а и больших h.

В качестве альтернативы можно использовать либо экспоненциально-взвешенный алгоритм Гудвина-Рэмеджа-Кэйнеса [28]

wj(k +1) = wj(k) + (TrR(k +1)) 1 х х (dj(k +1) - wT(k^(k + 1))ф(k +1),

TrR(k +1) = aTrR(k) + |^(k +1)||2, 0 < a < 1,

либо версию процедуры (9) в виде

w j (k +1) = w j (k) + (Tr R(k +1))_1 X x (rj(k +1) - R(k + 1)wj(k)),

R(k +1) = a R(k) + 9(k + 1)9T(k +1), (18)

rj (k +1) = a rj (k) + d j (k + 1)ф(k +1), 0 < a < 1.

Повторяя выкладки, аналогичные (10)-(13), можно получить экспоненциально-взвешенный алгоритм обучения со скалярным параметром скорости:

wj(k +1) = wj(k) +

+ ej2(k + 1)(rj(k +1) - R(k + 1)Wj(k))

||rj (k +1) - R(k + 1)w j (k)||2 + ц j

' ej2 (k +1) = a ej2(k) + e2 (k +1),

R(k +1) = a R(k) + ф(k + 1)фT (k +1), rj (k +1) = a rj (k) + dj (k + 1)ф(k +1),

0 < a < 1,

где параметр ц j > 0 вводится в целях защиты от деления на ноль в окрестности оптимального вектора w* .

Заметим также, что в отличие от процедуры (16), где параметр забывания а не может принимать нулевых значений, алгоритмы (17)-( 19) при а = 0 автоматически превращаются в одношаговый алгоритм Уидроу-Хоффа (1).

5. Исследование сходимости

Запишем первое соотношение (19) относительно вектора уклонений w j (k) при ц j = 0:

wj(k +1) = wj(k)

x R(k + 1)w j (k)

wT (k)R(k + 1)\v j (k) ||R(k + 1)wj(k)||2

(20)

k+1 , t

(здесь R(k +1) = E ak p9(p)9 (p)) и введем квад-p=l

рат нормы

ІІ~ її- ||~ и- (\v'T (k)R(k + 1)w j (k))2

w.j(k +1^ = wj(k^-------j-------(21)

|R(k + 1)wj(k)| (21)

Поскольку конструкция

(iwт (k)R(k + 1)\vj (k))2 ||R(k + 1)lvj (k^ 2

всегда неотрицательна, норма уклонений ||wj(k +1)|| в процессе обучения не может возрастать, при этом если a = 0 , (21) превращается в

РИ, 2003, № 1

87

Iwj(k+1)||2

(^vj(k)9(k +1))2 ||ф(к +1)||2

что совпадает с известным результатом для алгоритма Уидроу-Хоффа. Для случая же независимых центрированных входов (R(k +1) = I — единичная матрица)

(wj (k)I^Vj(k))2

ІИіД2

<k)ll

2

|wj(k)f|b(k + 1)l|2 > (wvj(k)9(k +1))2

||9(k +1)||2 ||9(k +1)||2 ’

т.е. алгоритм (19) по быстродействию всегда не хуже (1).

Рассмотрим процесс обучения в нестационарных условиях, что означает дрейф оптимального вектора синаптических весов:

w*(k +1) = w*(k) + Aw .

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Тогда

W *||2 ||~ и 2

wj(k +1) + Aw = wj(k) - (wj (k) x

x R(k + 1)w j (k))2R(k + 1)w j (k)|| “2,

или

||'Wj(k)| -||\Vj(k +1)|| = (wT(k)R(k + 1)lvj(k))2 x

и ~ и-2 *t~ * 2 (22)

x ||R(k + 1)wj(k)|| + 2Aw Wj(k +1) + Aw .

Подставляя (20) в (22), получаем условие сходимости в виде неравенства

(w j (k)R(k + 1)\v j(k))2 2 wj (k)R(k + 1) w j (k)

||R(k + 1)wj(k)|2 ||R(k + 1)wj(k)||

2

T ^ ^ T 4^ II *3

:wj(k)R(k + 1)Д w - 2wj (k)Aw - Aw

с выполнением которого связано устойчивое слежение за изменяющимися характеристиками обрабатываемого сигнала.

2

Рассмотрим далее ситуацию, когда сигнал ошибки обучения ej (k) наблюдается на фоне помехи С j(k) с ограниченным вторым моментом. Тогда, расписывая квадрат нормы (21) с учетом того, что

e j (k +1) + С j (k +1) = wj (k)cp(k +1) + C j (k +1),

после несложных, но громоздких преобразований получаем условие сходимости в виде

2m|wt(k) X ak+1_p(wT(k)9(p) + Cj (р))ф(р)j >

> M-

Еа k+1-p(wj(k)9(p) +C j)2

P=1

(здесь M{»} — символ математического ожидания) или с учетом некоррелированности <p(k +1) и С j(k +1) -

m{wJ (k)R(k + 1)\Yj(k^ > Mjf1 ak+1'pC 2(p)|. (23)

Таким образом, при наличии помех в канале обучения алгоритм обеспечивает сходимость в область, определяемую условием (23), размер которой определяется отношением сигнал / шум.

В ситуации, когда помехи проникают в скрытый слой со входа сети, т.е. вместо вектора <p(k) обрабатывается сигнал y(k) = <p(k) + |(k), условие сходимости может быть записано в виде

м{~ j (k)R ^ (k + 1)Wj(k)} > w*TP^ (k + 1)w*, (24)

где R у (k +1) = M-

k+1 py(p)yT(p)|,

P§ (k +1) = M| ^ak+1-p|(p)|T(p)j ,

и, наконец, если в сети присутствуют помехи С j и б, , получаем

m|wt (k)R ^ (k + 1)\Yj(k^ >

> w*TP§(k + 1)w* + M-j^ak+1-pC2(p)J. (25)

Оценки (22)-(25) показывают, что процедура обучения (19) по своим свойствам близка к алгоритму Уцдроу-Хоффа, однако превосходит его в скорости, а кроме того, подобно методу наименьших квадратов, обладает фильтрующими свойствами.

6. Заключение

Рассмотренные алгоритмы обучения всплеск-ней-ронных сетей предназначены для настройки синап -тических весов в условиях нестационарности и зашумленности обрабатываемых сигналов, обладают фильтрующими и следящими свойствами, просты в реализации и устойчивы при любых значениях параметра забывания.

Литература: 1. Vatterli M, Kovacevic J. Wavelets and Subband Coding. Englewood Cliffs, NJ: Prentice Hall, 1995. 489p. 2.Mallat S.A. Wavelet Tour of Signal Processing. San Diego: Academic Press, 1998. 635p. 3. Daubechies I. Ten Lectures on Wavelets. Philadelphia, PA: SIAM, 1992. 228p. 4. Kugarajah T, Zhang Q. Multidimensional wavelet frames // IEEE Trans. on Neural Networks. 1995. 6. P.1552-1556. 5. Echauz J., Vachtsevanos G. Elliptic and radial wavelet neural networks // Proc. Second World Automation Congress (WAC’96), Montpellier, France, 1996. 5. P.365-374. 6. Zhang Q, Benveniste A. Wavelet networks // IEEE Trans. on Neural Networks. 1992. 3. № 6, P.889-898. 7. Katic D, Vukobratovic M. Wavelet neural network approach for control of non-contact and contact robotic tasks // Proc. IEEE Symposium on Intelligent Control, 16-18 July 1997, Istambul. P.245-250. 8. Liangyue Cao, Yiguang Hong, Haiping Fang. Predicting chaotic time series with wavelet networks // Physica D. 1995. P.225-238. 9. Rao S, Kumthekar B. Recurrent wavelet networks // Neural networks for signal processing III: proceeding of the 1993 IEEE-SP Workshop IEEE. 1993. P.3143-3147. 10. БодянскийЕ.В, Винокурова E.A., Плисе И.П. Алгоритм

88

РИ, 2003, № 1

обучения вплеск-нейронной сети // Сб. науч. тр. 1-го Международного радиоэлектронного форума «Прикладная радиоэлектроника. Состояние и перспективы развития» - МРФ-2002. Часть 2. Харьков: АН ПРЭ, ХНУРЭ, 2002. С.87-89. 11. Moody J, Darken C.J. Fast learning in networks of locally-tuned processing units // Neural Computation.1989.1.P.281-294. І2. ParkJ., Sandberg

I. W. Universal approximation using radial-basis-function networks // Neural Computation. 1991. 3. P.246-257. 13. Radial Basis Function Networks. Recent Developments in Theory and Applications / Eds. by RJ.Howlett, L.C.Jain. Berlin: Springer, 2001. 318p. 14. Widrow B., Hoff Jr.M.E. Adaptive switching circuits // 1960 IRE Western Electric Show and Connection Record. 1960. Part 4. P.96-104.

15. Widrow B, Lee M. 30 years of adaptive neural networks: perceptron, adaline and backpropagation // Proc. IEEE. 1990. 78. № 9. P.1415-1442. 16. Ham F.M, KostanicI. Principles of Neurocomputing for Science & Engineering. N.Y.: Mc Graw-Hill, Inc., 2001. 642p. 17.Chen S, Billings

S.A., Cowan C.F.N, Grant P.M. Non-linear system identification using radial basis function / / Int. J. Syst. Sci. 1990. 21. № 12. P.2513-2539. 18. Chen S, Cowan C.EN, Grant P.M. Orthogonal least squares learning algorithm for radial basis function networks // IEEE. Trans. on Neural Networks. 1991. 2. № 12. P.302-308. 19. Chen S, Billings S.A., Grant P.M. Recursive hybrid algorithm for nonlinear system identification using radial basis function // Int. J. Contr. 1992. 55. № 5. P.1051-1070. 20. Shah S, PalmieriF, Datum M. Optimal filtering algorithms for fast learning in feedforward neural networks // Neural Networks. 1992. № 5. P.779-787. 21.Kasparian V., Batur C, ZhangH, Padovan

J. Davidon least squares-based learning algorithm for feedforward neural networks // Neural Networks. 1994. 7. № 4. P.661-670. 22.Sherstinsky A., Picard R.W On the efficiency of the orthogonal least squares training method for radial basis function networks // IEEE Trans. on Neural

Networks. 1996. 7. №1. P.195-200. 23. Fung C.F., Billings S.A., Luo W. On-line supervised adaptive training using radial basis function networks // Neural Networks. 1996. 9. №.9. P.1597-1617. 24.Goodwin G.C.,RamadgeP.J., Caines P.E. Discrete time stochastic adaptive control // SIAM J. Control and Optimization. 1981. 19. № 6. P.829-853. 25. Goodwin G.C., Ramadge P.J., Caines P.E. A globally convergent adaptive predictor // Automatica. 1981. 17. №1. P.135-140. 26. БодянскийE.B, ПлисеИ.П. Об одном модифицированном алгоритме одновременного действия для идентификации объектов управления. Харьков, 1981. 18с. Рук. деп. в ВИНИТИ 15.09.1981, № 4474 — 81 Деп. 27. Бодянский E.B., Плисе И.П. Об одном многошаговом адаптивном алгоритме идентификации нестационарных объектов. Харьков, 1984.8с. Рук. деп. в УкрНИИНТИ 03.02.1984, № 183 Ук-Д 84. 28. Бодянский E.B., Плисс И.П, Соловьева T.B. Многошаговые оптимальные упредители многомерных нестационарных стохастических процессов // Докл. АН УССР. 1986. Сер .А. № 12. С. 47-49.

Поступила в редколлегию 25.12.2002

Рецензент: д-р техн. наук, проф. Любчик Л.М..

Бодянский Евгений Владимирович, д-р техн. наук, профессор кафедры искусственного интеллекта, научный руководитель проблемной НИЛ АСУ ХНУРЭ, член IEEE, WSES. Научные интересы: нейро-фаззи-системы. Адрес: Украина, 61166, Харьков, пр. Ленина, 14, тел. 40-98-90. E-mail: bodya@kture.kharkov.ua

Винокурова Елена Анатольевна, аспирант кафедры искусственного интеллекта, младший научный сотрудник ПНИЛ АСУ ХНУРЭ. Научные интересы: искусственные нейронные сети, всплески (вейвлеты, wavelet). Адрес: Украина, 61166, Харьков, пр. Ленина, 14, тел.: 40-98-90. E-mail: elena_vinokurova@yahoo.com.

УДК 519.81

ИСПОЛЬЗОВАНИЕ МЕТОДА ГЕНЕТИЧЕСКИХ АЛГОРИТМОВ ДЛЯ РЕШЕНИЯ ЗАДАЧИ КОМПАРАТОРНОЙ ИДЕНТИФИКАЦИИ МОДЕЛИ МНОГОФАКТОРНОГО ОЦЕНИВАНИЯ

ПЕТРОВ Э.Г., БУЛАВИН Д.А.____________

Рассматривается постановка и основанный на применении генетических алгоритмов метод решения задачи идентификации структуры модели индивидуального многофакторного оценивания.

1. Введение

Всякое новое научное направление возникает на базе уже известных и связано с другими направлениями. Несомненна связь проблемы принятия решений с исследованием операций, кибернетикой, искусственным интеллектом. В то же время принятие решений имеет свои, отличные от прочих направлений задачи и свою логику развития. Одной из актуальных проблем общей теории принятия решений является формализация процессов выбора решений в условиях многокритериальнос-ти. Конструктивное решение этой проблемы свя-РИ, 2003, № 1

зано с идентификацией модели формирования скалярной многофакторной оценки качества (эффективности) допустимых альтернативных решений X вида:

P(x) = F[A i,ki(x)], (1)

где ki(x), i = 1, n — частные критерии (характеристики), однозначно определенные для каждого x є X; Ai — коэффициенты изоморфизма, приводящие разнородные частные критерии к единой размерности (или безразмерному виду), одинаковому интервалу изменения и учитывающие различную их значимость (вес) в обобщенной оценке P(x).

В общем случае проблема идентификации модели (1) требует решения задач структурной и параметрической идентификации, т.е. соответственно определения вида оператора F и значений параметров Ai. При этом классические методы идентификации непригодны для идентификации моделей интеллектуальной деятельности. Перспективным для этих целей является использование метода компараторной идентификации [1,3].

2. Метод компараторной идентификации модели многофакторного оценивания

Решение задачи структурной идентификации любой математической модели связано с необходимостью принятия некоторой гипотезы о характере взаимосвязи входных и выходных переменных. В

89

i Надоели баннеры? Вы всегда можете отключить рекламу.