Научная статья на тему 'О свойствах дескрипторных нейронных сетей'

О свойствах дескрипторных нейронных сетей Текст научной статьи по специальности «Математика»

CC BY
149
49
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Руткас Андрей Анатольевич

Конструируется дескрипторная нейронная сеть как определенная комбинация динамических и статических нейронов. Ее функционирование описывается системой разностных и чисто алгебраических уравнений, как в случае дескрипторных систем управления. Исследуются условия разрешимости системы, в частности, находятся необходимые ограничения на вектор входных сигналов сети. Подробно рассматривается дескрипторная сеть с линейными активационными функциями нейронов

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Руткас Андрей Анатольевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

About properties of descriptor neural networks

Properties of descriptor neural networks, constructed from dynamic and static neurons are explored. Not all vectors of input signals are admissible. The manifold of input vectors, recognizable by a network, is described. The proposed neural models are applied to analysis of physical and calculating systems with implicit difference and algebraic equations.

Текст научной работы на тему «О свойствах дескрипторных нейронных сетей»

Литература: 1. CampbellS.L. Singular Systems ofDifferential Equations. Pitman, 1980. 176 p. 2.MarzR. On linear differential-algebraic equations and linearizations//Applied Numerical Mathematics, 1994. P.279-292. 3. Самойленко АМ., Шкіль M.I., Яковець В.П. Лінійні системи диференціальних Рівнянь з виродженнями: Навч. посіб., К.: Вища шк., 2000. 294 с. 4. Руткас А.Г. Задача Коши для уравнения

A-ddx + Bx(t) = f(t)// Дифференциальные уравнения.

1975. №11. С. 1996-2010. 5. Favini A., Plazzi P. Some results concernong the abstract nonlinear equation

DtMu(t) + Lu(t) = f(t, Ku(t))// Circuits, Systems, Signal Proceccing, 1986. P. 261-274. 6. Rutkas A.The solvability of a nonlinear differenitial equation in a Banach space//Spectral and evolutional problems. Proceedings of Sixth Crimean Fall Mathematical School-Symposium (Simferopol),1996. P.317320. 7. Favini A., Rutkas A.Existence and uniqueness of solution of some abstract degenerate nonlinear equation// Differential Integral Equations. 1999. No. 12. P.373-394. 8. Rutkas A.G., Vlasenko L.A .Existence of solutions of degenerate nonlinear differential operator equations//

Nonlinear Oscilations. 2001. No12. P.252-263. 9. Власенко Л.А. Эволюционные модели с неявными и вырожденными дифференциальными уравнениями // Системные технологии. 2006. С.273. 10. Руткас А.Г., ХудошинИ.Г. Глобальная разрешимость одного вырожденного полулинейного дифференциально-операторного уравнения// Нелінійні коливання. 2004. Т.7, №3. С.414-429. 11. Радбель Н.И. О начальном многообразии и диссипативности задачи Коши для уравнения Ax'(t) + Bx(t) = 0 //Дифференциальные уравнения. 1979. №6. 12. ХудошинИ.Г. Начальная задача для некоторых квазилинейных дифференциально-алгебраических уравнений // Вісник Харківського універстету. Математика, прикладна математика і механіка. 1999. № 458. С.159-164 13. Шварц Л. Анализ. Т.1. М.:Мир, 1972. С. 824.

Поступила в редколлегию 16.09.2008

Рецензент: д-р физ.-мат. наук, проф. Руткас А.Г.

Худошин Илья Григорьевич, ст. преподаватель каф. ММ и ПО ХНУ им. В.Н.Каразина. Адрес: Украина, 61045, г.Харьков, пер. Шекспира, 7, кв. 69, тел. (050)4043498.

УДК 517.922+517.958

О СВОЙСТВАХ ДЕСКРИПТОРНЫХ НЕЙРОННЫХ СЕТЕЙ

РУТКАС А.А.

xm+1(k) = V m+1[wm+Ux1(k) + ••• + wm+1,nxn(k) + + 0m+l(k)]

xn(k) = V n[Wntx1(k) +... + w nnxn (k) +0n(k)],

k = 0,1,2,...

(2)

Конструируется дескрипторная нейронная сеть как определенная комбинация динамических и статических нейронов. Ее функционирование описывается системой разностных и чисто алгебраических уравнений, как в случае дескрипторных систем управления. Исследуются условия разрешимости системы, в частности, находятся необходимые ограничения на вектор входных сигналов сети. Подробно рассматривается дескрипторная сеть с линейными активационными функциями нейронов.

1. Введение

Динамические системы с дискретным временем как математические модели инженерных объектов и естественных процессов могут содержать одновременно с разностными уравнениями еще и чисто алгебраические, статические уравнения связей между динамическими переменными в один и тот же момент времени. В качестве лишь нескольких примеров можно указать макроэкономическую динамическую модель Леонтьева в дискретной форме [1], математические модели биологии и физики [2], вычислительные схемы решения дифференциально-алгебраических уравнений (ДАЕs)[3,4], неявные и вырожденные дискретные динамические системы [5] и др.

Здесь рассматривается простейший класс разностноалгебраических систем, допускающих преобразование к следующему виду:

x1(k +1) = у 1[wnx1(k) +... + W1„xn(k) + 01 (k)]

xm(k +1)

V m[wm1x1(k) +... + w mn

f (1)

xn(k) +0m(k)].

Уравнения подсистемы (1) являются разностными уравнениями первого порядка, остальные (n - m) уравнений в подсистеме (2) - чисто алгебраическими, связывающими переменные x1 (k),..., xn (k) в один и тот же момент времени k . Числовые значения wji, 0j(k) и функции одной переменной уj(u) считаются заданными (j,i = 1,...,n; k = 0,1,2,...).

Мы покажем, что уравнения (1), (2) описывают динамику искусственной дискретной нейронной сети с m динамическими нейронами типа Хопфилда [6,7] и (n - m) статическими нейронами Маккалоха-Пит-тса [8,9]. Будем называть такую комбинированную ИНС дескрипторной, по аналогии с терминологией теории управления, где дескрипторными называются системы управления с дифференциально-алгебраическими уравнениями состояний [10,11]. Дескрипторная ИНС имеет ряд свойств, которые не реализуются в чисто динамических или в чисто статических сетях. Изучение этих «дескрипторных» свойств представляет интерес для теории ИНС и для приложений этой теории к анализу объектов и процессов, в математических моделях которых комбинируются разностные (динамические) и алгебраические (статические) ур авнения.

2. Модельная дескрипторная ИНС с двумя нейронами

Сеть, изображенная на рис. 1, содержит один динамический нейрон с активационной функцией у 1 и один статический нейрон с активационной функцией у 2.

22

РИ, 2008, № 3

Рис. 1. Дескрипторная сеть с динамическим и статическим нейронами

В момент времени k на вход сети подается два сигнала xi(k), X2(k), выходы yi(k + 1),y2(k) отвечают разным моментам времени (к +1), к соответственно и вычисляются по формулам

Уі(к +1) = Vi (wnxi (к) + W12X2(к) + 01 (к)), (3) У2(к) = V2(w2lXl(k) + w22X2 (к) + 02 (к)). (4)

Для получения входных сигналов в момент (к +1)

Тогда путем подстановки правой части (5) вместо хДк +1) в (7) можно получить выход

У2(к +1) = х2(к +1) как функцию от входов хДк),Х2(к), смещения 01 (к) в момент к и смещения 02(к +1) в следующий момент (к +1):

Х2(к +1) = F{y1[wnx1(k) + Wl2X2(k) + 0Дк)],

02(к +1)} ^П[х1(к),Х2(к),01 (к),02(к +1)] • (8)

Естественно, что наличие динамического и статического нейронов в сети предопределяет использование

сигналов смещения 01 (к) и 02(к +1) в разные моменты времени для получения полного выходного состояния У1 (к +1), У2 (к +1) в момент к +1 •

Подставляя правую часть (5) в (6) вместо Х1 (к +1), получаем функциональное уравнение относительно

x2(k +1):

x2(k +1) = ®(x2(k +1)), Ф = у 2(w21 • V1[wnx1(k) + + w12x2(k) + ^1(к)] + w22 ' x2(k +1) + 02(k +1)}

Функция n (8) может быть найдена непосредственно (без использования функции F (7)) из соотношения (9). Возможность получить единственное явное решение x2(k +1) уравнения (9) предполагает определенные согласования между параметрами сети - синаптическими весами w;k, активационными функциями у к и сигналами смещения 01 (к), 02(к +1). В частно -сти, подходящими являются такие условия согласования, которые обеспечивают сжимаемость отображения Ф (9) как функции от переменной x2(k +1) в нетривиальной замкнутой ограниченной области значений этой переменной.

3. Ограничения на входные векторы, распознаваемые дескрипторной ИНС

Равенство входа x2 (к) и выхода У2 (к) (4) в статическом нейроне порождает на функциональной схеме рис.1 цикл, содержащий блок отождествления | = |. Это означает, что входные сигналы x1(k) ,x2(k) не

x1(k +1) = У1(к +1), x2(k +1) = У2(к +1)

следует воспользоваться динамическим уравнением (3) и статическим уравнением (4) в следующий момент (к +1):

x1(k +1) = y1(wnx1(k) + w12x2(k) + 01 (к)), (5)

могут выбираться произвольно на любом к -м шаге (итерации), а должны удовлетворять соотношению, вытекающему из уравнения (4):

x2(k) = Ц! 2[w21x1(k) + w22x2(k) + 02(k)], k = 0,1,2,... (10)

x2(k +1) - V2(w21x1(k +1) + w22x2(k +1) +

+ 02(k +1)) (6)

Предположим, соотношение (6) можно разрешить явно относительно переменной x2(k +1):

x2(k +1) = F[x1(k +1), 02 (k +1)]. (7)

РИ, 2008, № 3

Следовательно, вектор x(k) = (x1(k), x2(k))tr воспринимается или распознается дескрипторной нейронной сетью (см. рис.1) в том случае, когда он принадлежит определенному одномерному многообразию Л к в двухмерном пространстве входов

X = R 2,dim Л к = 1. В частности, допустимые вход-

23

ные векторы x(0) начального шага k = 0 должны принадлежать одномерному начальному многообразию

tr

Л0 = {(x1;x2) : V2[w21 ' x1 + w22 ' x2 +02(О)] _ ^ ^ - x2 = 0} ( )

Приведем достаточные условия разрешимости функционального уравнения (10) относительно x2(k), которые позволяют указать конструктивное правило построения отображений F (7), П (8).

Теорема. Пусть для каждого k = 0,1,2,..., каждого x из открытого множества Q(c R) и каждого у

из сегмента у1 < у < у2 активационная функция у 2 (u) непрерывно дифференцируема при всех соответствующих значениях своего аргумента u = u(x,y,k) = w21 • x + w22 • y + 02(k) • Предполо-

жим, для каждого фиксированного k функция

g(u) =

dy 2 (u)

w 22 _ 1

du ^ отлична от нуля и не меняет свой знак в области {(x,y) = Qx [yby2]} , а на концах сегмента [y1,y2] одновременно для всех x efi выполнено знаковое условие

явной функции следует, что явная функция y = fk (x) непрерывна и дифференцируема. Соотношение (10) удовлетворяется для каждой пары точек

x1(k) = x1;x2(k) = fk(x1),x1 є Q . Теорема доказана.

4. Предельные режимы функционирования дескрипторной нейронной сети

Для каждого входного сигнала x; существует такой интервал его «малых» значений, что после синаптического усиления wjixi он все же не преодолевает порога чувствительности j -го нейрона и потому не воспринимается j -м нейроном. При большом разбросе значений синаптических весов wji входной сигнал xi может не восприниматься j -м нейроном, но

восприниматься другим, k -м нейроном. Отметим три таких предельных режима в дескрипторной сети (см.рис.1).

I. Режим автономного функционирования динамической и статической составляющих.

Если в уравнениях (1), (2) величины

w21x1(k),w12x2(k) малы, то заменяя их нулями, получаем несвязанные уравнения

Sgn[y 2(u(x y1,k)) - y1] + Sgn[y 2(u(x, y2,k)) - y1(k +1) = V 1(w11x1(k) + 01 (k));

- y2] = 0 y2(k) = y 2(w 22x2 (k) +02(k))

Тогда при фиксированном k и заданном смещении 02(k) для каждого значения x1 ей существует единственное x2(k) є [y1,y2], такое что равенство (10) выполняется, а соответствующая явная функция x2(k) = fk(x1) непрерывна и дифференцируема по x1. Размерность многообразия Лk соответствующих векторов (x1,x2(k))tr равна dim Q = 1.

Доказательство. Функция

vk(x,y) = Ц!2[w21 • x + w22 • y +02(k)] - y

имеет непрерывные частные производные по x и y .

Производная

dv k(x,y) _ dy 2

dy

du

w22 _ 1 всюду в обла-

сти Qx [y 1,y2] отлична от нуля и сохраняет знак, так

что по переменной y Є [y1,y2] функция Vk(x,y) является строго монотонной. Вследствие (12) Sgnv k(x,y1) =-Sgnvk(x,y2), так что по теореме о промежуточных значениях непрерывной функции существует нуль у функции Vk(x,y) и при каждом фиксированном x он является единственным нулем на интервале (yby2):vk(x,y) = 0,y = y(x) є (y1,y2). Таким образом, глобально на области q определена функция нулей y = fk(x):[y1,y2] такая, что vk(x,fk(x)) = 0,Vx ей . Из локальной теоремы о не-

24

динамического и статического нейронов.

II. Режим относительно слабой собственной синаптической связи в статическом нейроне•

Пусть влияние собственного сигнала w22x2(k) в статическом нейроне не ощущается по сравнению с влиянием w21x1(k) со стороны динамического нейрона. В частности, это верно при любых входах, если w22 = 0 . Тогда необходимость решения неявного функционального уравнения (6) относительно

x2 (k +1) отпадает, использование достаточных условий типа теоремы также излишне. Из (5), (6) с учетом w22x2(k +1) = 0 получаем явное выражение для отображения п (8):

x2(k +1) = V2{w21 -V1[wnx1(k) + w12 • x2(k) +

+ 01(k)] + 02(k + 1)} (13)

III. Режим активационной компенсации собственного синаптического усиления в статическом ней-роне•

Рассматривается дескрипторная сеть (см.рис.1), в которой активационная функция статического нейрона имеет вид

W 2 (U2 )

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1

w 22

u2 + b2 + o(u2)

(14)

РИ, 2008, № 3

где нелинейная часть o(u2) мала в рабочем диапазоне

изменения внутреннего сигнала U2, а скорость изменения линейной части является постоянной, обратной к синаптическому весу W22. Подстановка в (6) активационной функции у 2(u2) вида (14) с внутренним сигналом

u2 = u2(k +1) = w21' x1(k +1) + w22 ' x2(k +1) +

+ 02(k +1) (15)

приводит к соотношению

w21 ■ x1(k + 1) = _02(k + 1) _ w22 ■ b2 _ w22 'o(u2)- (16) После исключения X1(k +1) в (16) и (5) мы получаем

(1 - a2w22) ' x2(k +1) - a2w21 ' x1(k +1) +

+ a202(k +1) + b2 (20)

Кроме самостоятельного значения, исследование линейных дескрипторных сетей представляет интерес для качественной оценки эволюции нелинейных дескрипторных сетей, у которых активационные функции нейронов имеют участки линейности или участки удовлетворительной линейной аппроксимации.

Исключительный режим компенсации синаптического усиления w22 и активации у 2 реализуется, если a2w22 = 1. В этом случае упреждающее значение смещения 02 (k +1) единственным образом вычисляется по формуле

02(k + 1) + w21 • V1[w11 • x1(k) + w12 ' x2(k) +

+ 01(k)] + w22 • b2 + w22 ' o(u2(k +1)) = 0 . (17)

-02(k +1) - a1w21[w 11 ' x1(k) + w12 ' x2(k) + + 01(k)] + w21b1 + w22 'b2-

Отбрасывая малую нелинейность o(u2(k +1)), в качестве главного линейного приближения получаем правило упреждающего выбора смещения 02(k +1) на статическом нейроне:

-02(k + 1) - w21 ' ^ 1[w 11 • x1(k) + w 12 ' x2(k) + + 01(k)] + w22 • b2

Правило (18) есть условие корректного функционирования дескрипторной сети (см. рис.1) в режиме активационной компенсации (14) собственного синаптического усиления w22 в статическом нейроне.

Замечание. Рассмотренный режим «компенсации» является исключительным в том смысле, что он параметрически неустойчив. Действительно малое возму-

1

щение

w 22

1

w22

- + Є

линейной части в (14) меня-

ет соотношение (16) на равенство

В нормальном, параметрически устойчивом режиме функционирования дескрипторной нейронной сети,

когда a2 • w22 ^ 1, из (19), (20) находим

x2(k + 1) = (1 _ a2w22) 1{a2w21a1[w 11 ■ x1(k) + ( )

+ w12 ' x2(k) + 01(k)] + a2w21b1 + b2 + a202(k + 1)}

Равенства (19), (22) определяют отображение рекурсии

Sk : x(k) ^ x(k +1), x(k) = (x1(k),x2(k))tr. (23)

Если смещения 01,02 не зависят от k, то отображение Sk = S также не зависит от k, а в однородном случае нулевых смещений 0j(k) = 0 и bj = 0 отображение S линейно и имеет матричную форму

S = a1

w11

rw11

w12

rw12

a2w21

r = 1 2 21 . (24)

1 - a2w 22

Є • w 22 • x2(k + 1) +

1

------he

w 22

02(k +1) +

1

w 22

- + Є

• w21 ■ V1[w11 • x1(k) + w12 ■ x2(k) + 01(k)] + b2 + + o(u2(k +1)) = 0.

Пренебрегая величиной o(u2), мы вместо упреждающего значения 02(k +1) получаем формулу для нахождения x2(k +1) при произвольном задании смещения 02 (k +1).

5. Линейная дескрипторная ИНС

В случае линейных активационных функций нейронов уk(u) = aku + bk уравнения (5), (6) имеют вид

x1(k +1) = a1[wn • x1(k) + w12 • x2(k) + 01(k)] + b1 ,(19)

Многообразие Лk = {x(k)} допустимых входных векторов, распознаваемых дескрипторной ИНС и удовлетворяющих соотношению (10), в данном случае определяется как

Л k = {x(k):(1 - a2w22)x2(k) = a2w21 • x^k) +

+ a2'02(k) + b2} (25)

Формально отображение рекурсии Sk (23) можно применять к любым векторам x є R2, однако только векторы x(k) є Лk(c R2) образуют распознаваемые входы k-й итерации, а отображение Sk переводит их в допустимые входы (k +1) -й итерации:

Sk(A k) =Л k+1, k = 0,1,2,... (26)

Этот факт следует из равенства (20). Учитывая (26), с помощью суперпозиции отображений Sj можно по-

РИ, 2008, № 3

25

лучать распознаваемые векторы входов x(k) и строить многообразие Л k, исходя из допустимых начальных векторов x(0) и начального многообразия Л о на нулевом шаге k = 0 :

x(k) = Sk_i ° Sk_2 °... ° So (x(0));

Лk = Sk-1 0 Sk-2 ° ... ° S0(Ao) . (27)

При этом начальное многообразие Л0 описывается в виде

tr

Л 0 = {x(0) = (xi,x2) :x2 = (1 - a2W22) • [a2W21 ' x1 + a2®2(0) + b2]> ^x1 є R}

(28)

В частности, если 02(0) = b2 = 0, то начальное многообразие Л0 = span{(1,r)tr} есть одномерное линейное подпространство в R2, а вследствие структуры рекурсивного отображения S (24) оно отображает Л0 на Л0. В этом случае все реализуемые векторы входов-выходов x(k) лежат в начальном многообразии Л0 и!к = Л0 для всех k.

6. Дескрипторная ИНС с произвольным числом нейронов

В общем случае разностно-алгебраическая система (1), (2) описывает дескрипторную нейронную сеть с m динамическими и (n - m) статическими нейронами. Принципиальная логическая схема этой сети представлена на рис.2, где входные состояния xj(k) в k-й момент времени сгруппированы в векторы

x1(k) xm+1(k) xD(k) _xC(k)_

xD(k)= _ xm (k)_ ;xC(k) = _ xn(k) _ ; x(k) =

Здесь и далее индексом d помечаются векторы переменных или параметров, отвечающих динамическим нейронам, индексом C - статическим нейронам. В частности, внутренние состояния нейронов uj на k -м шаге объединяются в два вектора:

UD(k +1) = (U1(k + 1),...,Um(k + 1))tr,

Рис. 2. Блочная схема дескрипторной сети с m динамическими и (n - m) статическими нейронами

Обозначим

VD(UD)= V1(U1) ; Vc(uc) = V m+1(um+1)

T m(Um)_ _ Vn(un) _

Uj(k +1) =2 wji • x;(k) + 0j (k), j = 1,

i=1

Uc(k) = (Um+1(k),...,Un(k))tr,

'01GO' "0m+1(k)"

m. 0D(k)= _0m(k)_ ; 0c(k) = _ 0n(k) _

n

Uj(k) =2wji • xi (k) + 0j(k), j = m + 1,...,n.

i=1

С помощью m x n -матрицы D и (n - m) x n -матрицы C: D = [Em;0] , C = [0;En_m] матрица синаптичес-

Тогда уравнения (1), (2) записываются в векторной форме:

xD(k +1) = уD[DWx(k) + 0D(k)] , (29)

xc(k) = V c[CWx(k) + 0c(k)]. (30)

ких весов W(n x n) разбивается на четыре блока соответствующих размерностей, присутствующих на блок-схеме рис.2:

W =

DWD* | DWC*

CWD* | CWC*

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

: Rm ® Rn“m ^ Rm ® Rn_m

Статическое уравнение (30) связи между входными сигналами xj(k) перепишем детальнее для (k +1) -го шага:

xC (k +1) = уC[CWD* • xD(k +1) +

* (31)

+ CWC • xC(k +1) + 0C(k +1)] . v '

Пусть уравнение (31) разрешимо относительно вектора xC(k +1):

26

РИ, 2008, № 3

xc(k +1) = F{xD(k +1), 0c(k +1)} =

= F{y d [DW • x(k) + 0d (k)], 0c(k +1)}. (32)

Функция F явно выражает статическую векторную компоненту xc (k +1) через динамическую xD (k +1) и смещение 0C(k +1), что отражено на блок-схеме дескрипторной сети рис.2 пунктирным блоком F.

Соотношения (29), (32) определяют отображение рекурсии (ср.(23))

Sk : x(k)^

xD(k +1) xC(k +1)

;Sk = Sk(0D(k), 0C(k +1)). (33)

Распознаваемые сетью на k -м шаге входные векторы x(k) = xD (k) ® xC (k) образуют в Rn многообразие

Лk = {x(k): xC (k) = уC [CWD* • xD (k) +

+ CWC* • xC(k) + 0C(k)]}.

В случае линейных активационных функций нейронов уk(uk) = ak 'uk + bk примем обозначения векторов и матриц:

y(u) = a • u + b;u

b1

uD ,b =

_ uC _ bn _

,a = diag{aj}n=1.

Уравнения (1), (2) имеют векторную форму:

xD (k +1) = DAD*DW • x(k) + DAD*0D(k) + Db , xC (k) = CAC* [CWD* • xD (k) + CWC* • xC (k) + (34)

+ 0C(k)] + C • b.

Из последнего уравнения можно выразить xC (k) через xD(k):

_1 * *

xC(k) = V X{CAC [CWD • xD(k) +0C(k)] + C• b},

V = EC - CAC*CWC*,

если det V ^ 0 . Отсюда входы статических нейронов xC (k +1) на (k +1) -м шаге образуют вектор

xC(k +1) = V_1{CAC • CWD [DAD DW • x(k) +

* * (35)

+ DAD 0D(k) + Db] + CAC -0C(k +1) + Cb}. v ’

Отображение рекурсии (33) задается равенствами (34), (35), а в однородном случае

(bj = 0,0 j(k) = 0, Vj,k) оно не зависит от k и принимает форму блочной матрицы:

DAD*DW

V_1CAC CWD DAD DW

: x(k)^

xD(k +1) 'j xC(k +1) /

В последней ситуации многообразие распознаваемых сетью входных векторов одинаково для всех шагов (k = 0,1,2,...), является линейным подпространством ТІ в Rn :

Л = {xD ® xc : xc = V 1CAC *CWD * -xD, VxD є Rm}, dim Л = m.

7. Выводы

Рассмотрена искусственная нейронная сеть, сконструированная из динамических нейронов типа Хоп-филда и статических нейронов типа Маккалоха-Пит-тса. Функционирование сети описано разностными и алгебраическими уравнениями, векторная форма которых содержит вырожденную матрицу при полном векторе разностей. Подобные уравнения встречаются в дескрипторных системах управления, в связи с чем указанная нейронная сеть названа дескрипторной. Изучены особенности нейронной сети, обусловленные ее дескрипторностью - комбинированием динамических и статических нейронов. В частности, не всякий набор входных сигналов (входной вектор) распознается сетью. Исследованы многообразия допустимых входных векторов, их зависимость от смещений и активационных функций нейронов, от конструкции сети. Описано три предельных режима функционирования дескрипторной нейронной сети, определяемых специальными выборами синаптических весов либо активационных функций нейронов. Предложенные нейросетевые модели могут применяться для анализа и синтеза физических и вычислительных систем, описываемых неявными разностными и алгебраическими уравнениями.

Литература: 1. Leontief W.W. Input-output Economics, London-New York, 1966. 2. Campbell S.L. Singular Systems of Differential Equations - San Francisco, London, Melbourne: Pitman Publishing, Research Notes in Mathematics; I - Vol. 40, 1980, 176 p.; II - Vol.61, 1982. 234 p. 3. Бояринцев Ю.Е., Данилов В.А., Логинов А.А. Численные методы решения сингулярных систем. Новосибирск: Наука, 1989. 223 с. 4. Kunkel P., Mehrmann V. Differential-Algebraic Equations: Analysis and Numerical Solitions, Zurich, European Mathematical Society Publishing House. 5. Бондаренко М. Ф., Руткас А.Г. Признаки детерминированности неявных дискретных неавтономных систем // Доп.НАН України. 2001. № 2. С.7-11. 6.Hopfield I.I. Neural Networks and Physical Systems with Emergent Collective Computational Abilities, Proc.of the National Academy of Science. 1982. 79. P.25542558. 7. Бодянский Е.В., Руденко О.Г. Искусственные нейронные сети: архитектуры, обучение, применения. Харьков, ТЕЛЕТЕХ, 2004. 372 с. 8. Mc Culloch W.S., Pitts W. A Logical Calculus of the Ideals Immanent in Nervous Activity, Bulletin of Mathematical Biophysics. 1943. № 5. P. 115-133. 9. Руденко О.Г., Бодянский Е.В. Искусственные нейронные сети. Харьков: «СМИТ», 2005. 408 с. 10. BenderD.I., Laub A. The linear-quadratic optimal regulator for descriptor systems, IEE Transactions on Automatic Control. 1987. Vol.AC-32, №

6. P.2062-2077. 11. Campbell S.L. Nonregular descriptor

systems with delays, IMA I.Math.Control and Information. 1995. V.12. P.57-67.

Поступила в редколлегию 11.08.2008

Рецензент: д-р техн. наук, проф. Кривуля Г.Ф.

Руткас Андрей Анатольевич, аспирант ХНУРЭ. Научные интересы: машинный перевод, искусственные нейронные сети, динамические системы. Увлечение и хобби: электронное и математическое обеспечение систем GPS, системы безопасности и слежения. Адрес: Украина, 61001, Харьков, ул. Плехановская 2/5, кв. 29, тел.: (057) 732 28 35.

РИ, 2008, № 3

27

i Надоели баннеры? Вы всегда можете отключить рекламу.