Литература: 1. CampbellS.L. Singular Systems ofDifferential Equations. Pitman, 1980. 176 p. 2.MarzR. On linear differential-algebraic equations and linearizations//Applied Numerical Mathematics, 1994. P.279-292. 3. Самойленко АМ., Шкіль M.I., Яковець В.П. Лінійні системи диференціальних Рівнянь з виродженнями: Навч. посіб., К.: Вища шк., 2000. 294 с. 4. Руткас А.Г. Задача Коши для уравнения
A-ddx + Bx(t) = f(t)// Дифференциальные уравнения.
1975. №11. С. 1996-2010. 5. Favini A., Plazzi P. Some results concernong the abstract nonlinear equation
DtMu(t) + Lu(t) = f(t, Ku(t))// Circuits, Systems, Signal Proceccing, 1986. P. 261-274. 6. Rutkas A.The solvability of a nonlinear differenitial equation in a Banach space//Spectral and evolutional problems. Proceedings of Sixth Crimean Fall Mathematical School-Symposium (Simferopol),1996. P.317320. 7. Favini A., Rutkas A.Existence and uniqueness of solution of some abstract degenerate nonlinear equation// Differential Integral Equations. 1999. No. 12. P.373-394. 8. Rutkas A.G., Vlasenko L.A .Existence of solutions of degenerate nonlinear differential operator equations//
Nonlinear Oscilations. 2001. No12. P.252-263. 9. Власенко Л.А. Эволюционные модели с неявными и вырожденными дифференциальными уравнениями // Системные технологии. 2006. С.273. 10. Руткас А.Г., ХудошинИ.Г. Глобальная разрешимость одного вырожденного полулинейного дифференциально-операторного уравнения// Нелінійні коливання. 2004. Т.7, №3. С.414-429. 11. Радбель Н.И. О начальном многообразии и диссипативности задачи Коши для уравнения Ax'(t) + Bx(t) = 0 //Дифференциальные уравнения. 1979. №6. 12. ХудошинИ.Г. Начальная задача для некоторых квазилинейных дифференциально-алгебраических уравнений // Вісник Харківського універстету. Математика, прикладна математика і механіка. 1999. № 458. С.159-164 13. Шварц Л. Анализ. Т.1. М.:Мир, 1972. С. 824.
Поступила в редколлегию 16.09.2008
Рецензент: д-р физ.-мат. наук, проф. Руткас А.Г.
Худошин Илья Григорьевич, ст. преподаватель каф. ММ и ПО ХНУ им. В.Н.Каразина. Адрес: Украина, 61045, г.Харьков, пер. Шекспира, 7, кв. 69, тел. (050)4043498.
УДК 517.922+517.958
О СВОЙСТВАХ ДЕСКРИПТОРНЫХ НЕЙРОННЫХ СЕТЕЙ
РУТКАС А.А.
xm+1(k) = V m+1[wm+Ux1(k) + ••• + wm+1,nxn(k) + + 0m+l(k)]
xn(k) = V n[Wntx1(k) +... + w nnxn (k) +0n(k)],
k = 0,1,2,...
(2)
Конструируется дескрипторная нейронная сеть как определенная комбинация динамических и статических нейронов. Ее функционирование описывается системой разностных и чисто алгебраических уравнений, как в случае дескрипторных систем управления. Исследуются условия разрешимости системы, в частности, находятся необходимые ограничения на вектор входных сигналов сети. Подробно рассматривается дескрипторная сеть с линейными активационными функциями нейронов.
1. Введение
Динамические системы с дискретным временем как математические модели инженерных объектов и естественных процессов могут содержать одновременно с разностными уравнениями еще и чисто алгебраические, статические уравнения связей между динамическими переменными в один и тот же момент времени. В качестве лишь нескольких примеров можно указать макроэкономическую динамическую модель Леонтьева в дискретной форме [1], математические модели биологии и физики [2], вычислительные схемы решения дифференциально-алгебраических уравнений (ДАЕs)[3,4], неявные и вырожденные дискретные динамические системы [5] и др.
Здесь рассматривается простейший класс разностноалгебраических систем, допускающих преобразование к следующему виду:
x1(k +1) = у 1[wnx1(k) +... + W1„xn(k) + 01 (k)]
xm(k +1)
V m[wm1x1(k) +... + w mn
f (1)
xn(k) +0m(k)].
Уравнения подсистемы (1) являются разностными уравнениями первого порядка, остальные (n - m) уравнений в подсистеме (2) - чисто алгебраическими, связывающими переменные x1 (k),..., xn (k) в один и тот же момент времени k . Числовые значения wji, 0j(k) и функции одной переменной уj(u) считаются заданными (j,i = 1,...,n; k = 0,1,2,...).
Мы покажем, что уравнения (1), (2) описывают динамику искусственной дискретной нейронной сети с m динамическими нейронами типа Хопфилда [6,7] и (n - m) статическими нейронами Маккалоха-Пит-тса [8,9]. Будем называть такую комбинированную ИНС дескрипторной, по аналогии с терминологией теории управления, где дескрипторными называются системы управления с дифференциально-алгебраическими уравнениями состояний [10,11]. Дескрипторная ИНС имеет ряд свойств, которые не реализуются в чисто динамических или в чисто статических сетях. Изучение этих «дескрипторных» свойств представляет интерес для теории ИНС и для приложений этой теории к анализу объектов и процессов, в математических моделях которых комбинируются разностные (динамические) и алгебраические (статические) ур авнения.
2. Модельная дескрипторная ИНС с двумя нейронами
Сеть, изображенная на рис. 1, содержит один динамический нейрон с активационной функцией у 1 и один статический нейрон с активационной функцией у 2.
22
РИ, 2008, № 3
Рис. 1. Дескрипторная сеть с динамическим и статическим нейронами
В момент времени k на вход сети подается два сигнала xi(k), X2(k), выходы yi(k + 1),y2(k) отвечают разным моментам времени (к +1), к соответственно и вычисляются по формулам
Уі(к +1) = Vi (wnxi (к) + W12X2(к) + 01 (к)), (3) У2(к) = V2(w2lXl(k) + w22X2 (к) + 02 (к)). (4)
Для получения входных сигналов в момент (к +1)
Тогда путем подстановки правой части (5) вместо хДк +1) в (7) можно получить выход
У2(к +1) = х2(к +1) как функцию от входов хДк),Х2(к), смещения 01 (к) в момент к и смещения 02(к +1) в следующий момент (к +1):
Х2(к +1) = F{y1[wnx1(k) + Wl2X2(k) + 0Дк)],
02(к +1)} ^П[х1(к),Х2(к),01 (к),02(к +1)] • (8)
Естественно, что наличие динамического и статического нейронов в сети предопределяет использование
сигналов смещения 01 (к) и 02(к +1) в разные моменты времени для получения полного выходного состояния У1 (к +1), У2 (к +1) в момент к +1 •
Подставляя правую часть (5) в (6) вместо Х1 (к +1), получаем функциональное уравнение относительно
x2(k +1):
x2(k +1) = ®(x2(k +1)), Ф = у 2(w21 • V1[wnx1(k) + + w12x2(k) + ^1(к)] + w22 ' x2(k +1) + 02(k +1)}
Функция n (8) может быть найдена непосредственно (без использования функции F (7)) из соотношения (9). Возможность получить единственное явное решение x2(k +1) уравнения (9) предполагает определенные согласования между параметрами сети - синаптическими весами w;k, активационными функциями у к и сигналами смещения 01 (к), 02(к +1). В частно -сти, подходящими являются такие условия согласования, которые обеспечивают сжимаемость отображения Ф (9) как функции от переменной x2(k +1) в нетривиальной замкнутой ограниченной области значений этой переменной.
3. Ограничения на входные векторы, распознаваемые дескрипторной ИНС
Равенство входа x2 (к) и выхода У2 (к) (4) в статическом нейроне порождает на функциональной схеме рис.1 цикл, содержащий блок отождествления | = |. Это означает, что входные сигналы x1(k) ,x2(k) не
x1(k +1) = У1(к +1), x2(k +1) = У2(к +1)
следует воспользоваться динамическим уравнением (3) и статическим уравнением (4) в следующий момент (к +1):
x1(k +1) = y1(wnx1(k) + w12x2(k) + 01 (к)), (5)
могут выбираться произвольно на любом к -м шаге (итерации), а должны удовлетворять соотношению, вытекающему из уравнения (4):
x2(k) = Ц! 2[w21x1(k) + w22x2(k) + 02(k)], k = 0,1,2,... (10)
x2(k +1) - V2(w21x1(k +1) + w22x2(k +1) +
+ 02(k +1)) (6)
Предположим, соотношение (6) можно разрешить явно относительно переменной x2(k +1):
x2(k +1) = F[x1(k +1), 02 (k +1)]. (7)
РИ, 2008, № 3
Следовательно, вектор x(k) = (x1(k), x2(k))tr воспринимается или распознается дескрипторной нейронной сетью (см. рис.1) в том случае, когда он принадлежит определенному одномерному многообразию Л к в двухмерном пространстве входов
X = R 2,dim Л к = 1. В частности, допустимые вход-
23
ные векторы x(0) начального шага k = 0 должны принадлежать одномерному начальному многообразию
tr
Л0 = {(x1;x2) : V2[w21 ' x1 + w22 ' x2 +02(О)] _ ^ ^ - x2 = 0} ( )
Приведем достаточные условия разрешимости функционального уравнения (10) относительно x2(k), которые позволяют указать конструктивное правило построения отображений F (7), П (8).
Теорема. Пусть для каждого k = 0,1,2,..., каждого x из открытого множества Q(c R) и каждого у
из сегмента у1 < у < у2 активационная функция у 2 (u) непрерывно дифференцируема при всех соответствующих значениях своего аргумента u = u(x,y,k) = w21 • x + w22 • y + 02(k) • Предполо-
жим, для каждого фиксированного k функция
g(u) =
dy 2 (u)
w 22 _ 1
du ^ отлична от нуля и не меняет свой знак в области {(x,y) = Qx [yby2]} , а на концах сегмента [y1,y2] одновременно для всех x efi выполнено знаковое условие
явной функции следует, что явная функция y = fk (x) непрерывна и дифференцируема. Соотношение (10) удовлетворяется для каждой пары точек
x1(k) = x1;x2(k) = fk(x1),x1 є Q . Теорема доказана.
4. Предельные режимы функционирования дескрипторной нейронной сети
Для каждого входного сигнала x; существует такой интервал его «малых» значений, что после синаптического усиления wjixi он все же не преодолевает порога чувствительности j -го нейрона и потому не воспринимается j -м нейроном. При большом разбросе значений синаптических весов wji входной сигнал xi может не восприниматься j -м нейроном, но
восприниматься другим, k -м нейроном. Отметим три таких предельных режима в дескрипторной сети (см.рис.1).
I. Режим автономного функционирования динамической и статической составляющих.
Если в уравнениях (1), (2) величины
w21x1(k),w12x2(k) малы, то заменяя их нулями, получаем несвязанные уравнения
Sgn[y 2(u(x y1,k)) - y1] + Sgn[y 2(u(x, y2,k)) - y1(k +1) = V 1(w11x1(k) + 01 (k));
- y2] = 0 y2(k) = y 2(w 22x2 (k) +02(k))
Тогда при фиксированном k и заданном смещении 02(k) для каждого значения x1 ей существует единственное x2(k) є [y1,y2], такое что равенство (10) выполняется, а соответствующая явная функция x2(k) = fk(x1) непрерывна и дифференцируема по x1. Размерность многообразия Лk соответствующих векторов (x1,x2(k))tr равна dim Q = 1.
Доказательство. Функция
vk(x,y) = Ц!2[w21 • x + w22 • y +02(k)] - y
имеет непрерывные частные производные по x и y .
Производная
dv k(x,y) _ dy 2
dy
du
w22 _ 1 всюду в обла-
сти Qx [y 1,y2] отлична от нуля и сохраняет знак, так
что по переменной y Є [y1,y2] функция Vk(x,y) является строго монотонной. Вследствие (12) Sgnv k(x,y1) =-Sgnvk(x,y2), так что по теореме о промежуточных значениях непрерывной функции существует нуль у функции Vk(x,y) и при каждом фиксированном x он является единственным нулем на интервале (yby2):vk(x,y) = 0,y = y(x) є (y1,y2). Таким образом, глобально на области q определена функция нулей y = fk(x):[y1,y2] такая, что vk(x,fk(x)) = 0,Vx ей . Из локальной теоремы о не-
24
динамического и статического нейронов.
II. Режим относительно слабой собственной синаптической связи в статическом нейроне•
Пусть влияние собственного сигнала w22x2(k) в статическом нейроне не ощущается по сравнению с влиянием w21x1(k) со стороны динамического нейрона. В частности, это верно при любых входах, если w22 = 0 . Тогда необходимость решения неявного функционального уравнения (6) относительно
x2 (k +1) отпадает, использование достаточных условий типа теоремы также излишне. Из (5), (6) с учетом w22x2(k +1) = 0 получаем явное выражение для отображения п (8):
x2(k +1) = V2{w21 -V1[wnx1(k) + w12 • x2(k) +
+ 01(k)] + 02(k + 1)} (13)
III. Режим активационной компенсации собственного синаптического усиления в статическом ней-роне•
Рассматривается дескрипторная сеть (см.рис.1), в которой активационная функция статического нейрона имеет вид
W 2 (U2 )
1
w 22
u2 + b2 + o(u2)
(14)
РИ, 2008, № 3
где нелинейная часть o(u2) мала в рабочем диапазоне
изменения внутреннего сигнала U2, а скорость изменения линейной части является постоянной, обратной к синаптическому весу W22. Подстановка в (6) активационной функции у 2(u2) вида (14) с внутренним сигналом
u2 = u2(k +1) = w21' x1(k +1) + w22 ' x2(k +1) +
+ 02(k +1) (15)
приводит к соотношению
w21 ■ x1(k + 1) = _02(k + 1) _ w22 ■ b2 _ w22 'o(u2)- (16) После исключения X1(k +1) в (16) и (5) мы получаем
(1 - a2w22) ' x2(k +1) - a2w21 ' x1(k +1) +
+ a202(k +1) + b2 (20)
Кроме самостоятельного значения, исследование линейных дескрипторных сетей представляет интерес для качественной оценки эволюции нелинейных дескрипторных сетей, у которых активационные функции нейронов имеют участки линейности или участки удовлетворительной линейной аппроксимации.
Исключительный режим компенсации синаптического усиления w22 и активации у 2 реализуется, если a2w22 = 1. В этом случае упреждающее значение смещения 02 (k +1) единственным образом вычисляется по формуле
02(k + 1) + w21 • V1[w11 • x1(k) + w12 ' x2(k) +
+ 01(k)] + w22 • b2 + w22 ' o(u2(k +1)) = 0 . (17)
-02(k +1) - a1w21[w 11 ' x1(k) + w12 ' x2(k) + + 01(k)] + w21b1 + w22 'b2-
Отбрасывая малую нелинейность o(u2(k +1)), в качестве главного линейного приближения получаем правило упреждающего выбора смещения 02(k +1) на статическом нейроне:
-02(k + 1) - w21 ' ^ 1[w 11 • x1(k) + w 12 ' x2(k) + + 01(k)] + w22 • b2
Правило (18) есть условие корректного функционирования дескрипторной сети (см. рис.1) в режиме активационной компенсации (14) собственного синаптического усиления w22 в статическом нейроне.
Замечание. Рассмотренный режим «компенсации» является исключительным в том смысле, что он параметрически неустойчив. Действительно малое возму-
1
щение
w 22
1
w22
- + Є
линейной части в (14) меня-
ет соотношение (16) на равенство
В нормальном, параметрически устойчивом режиме функционирования дескрипторной нейронной сети,
когда a2 • w22 ^ 1, из (19), (20) находим
x2(k + 1) = (1 _ a2w22) 1{a2w21a1[w 11 ■ x1(k) + ( )
+ w12 ' x2(k) + 01(k)] + a2w21b1 + b2 + a202(k + 1)}
Равенства (19), (22) определяют отображение рекурсии
Sk : x(k) ^ x(k +1), x(k) = (x1(k),x2(k))tr. (23)
Если смещения 01,02 не зависят от k, то отображение Sk = S также не зависит от k, а в однородном случае нулевых смещений 0j(k) = 0 и bj = 0 отображение S линейно и имеет матричную форму
S = a1
w11
rw11
w12
rw12
a2w21
r = 1 2 21 . (24)
1 - a2w 22
Є • w 22 • x2(k + 1) +
1
------he
w 22
02(k +1) +
1
w 22
- + Є
• w21 ■ V1[w11 • x1(k) + w12 ■ x2(k) + 01(k)] + b2 + + o(u2(k +1)) = 0.
Пренебрегая величиной o(u2), мы вместо упреждающего значения 02(k +1) получаем формулу для нахождения x2(k +1) при произвольном задании смещения 02 (k +1).
5. Линейная дескрипторная ИНС
В случае линейных активационных функций нейронов уk(u) = aku + bk уравнения (5), (6) имеют вид
x1(k +1) = a1[wn • x1(k) + w12 • x2(k) + 01(k)] + b1 ,(19)
Многообразие Лk = {x(k)} допустимых входных векторов, распознаваемых дескрипторной ИНС и удовлетворяющих соотношению (10), в данном случае определяется как
Л k = {x(k):(1 - a2w22)x2(k) = a2w21 • x^k) +
+ a2'02(k) + b2} (25)
Формально отображение рекурсии Sk (23) можно применять к любым векторам x є R2, однако только векторы x(k) є Лk(c R2) образуют распознаваемые входы k-й итерации, а отображение Sk переводит их в допустимые входы (k +1) -й итерации:
Sk(A k) =Л k+1, k = 0,1,2,... (26)
Этот факт следует из равенства (20). Учитывая (26), с помощью суперпозиции отображений Sj можно по-
РИ, 2008, № 3
25
лучать распознаваемые векторы входов x(k) и строить многообразие Л k, исходя из допустимых начальных векторов x(0) и начального многообразия Л о на нулевом шаге k = 0 :
x(k) = Sk_i ° Sk_2 °... ° So (x(0));
Лk = Sk-1 0 Sk-2 ° ... ° S0(Ao) . (27)
При этом начальное многообразие Л0 описывается в виде
tr
Л 0 = {x(0) = (xi,x2) :x2 = (1 - a2W22) • [a2W21 ' x1 + a2®2(0) + b2]> ^x1 є R}
(28)
В частности, если 02(0) = b2 = 0, то начальное многообразие Л0 = span{(1,r)tr} есть одномерное линейное подпространство в R2, а вследствие структуры рекурсивного отображения S (24) оно отображает Л0 на Л0. В этом случае все реализуемые векторы входов-выходов x(k) лежат в начальном многообразии Л0 и!к = Л0 для всех k.
6. Дескрипторная ИНС с произвольным числом нейронов
В общем случае разностно-алгебраическая система (1), (2) описывает дескрипторную нейронную сеть с m динамическими и (n - m) статическими нейронами. Принципиальная логическая схема этой сети представлена на рис.2, где входные состояния xj(k) в k-й момент времени сгруппированы в векторы
x1(k) xm+1(k) xD(k) _xC(k)_
xD(k)= _ xm (k)_ ;xC(k) = _ xn(k) _ ; x(k) =
Здесь и далее индексом d помечаются векторы переменных или параметров, отвечающих динамическим нейронам, индексом C - статическим нейронам. В частности, внутренние состояния нейронов uj на k -м шаге объединяются в два вектора:
UD(k +1) = (U1(k + 1),...,Um(k + 1))tr,
Рис. 2. Блочная схема дескрипторной сети с m динамическими и (n - m) статическими нейронами
Обозначим
VD(UD)= V1(U1) ; Vc(uc) = V m+1(um+1)
T m(Um)_ _ Vn(un) _
Uj(k +1) =2 wji • x;(k) + 0j (k), j = 1,
i=1
Uc(k) = (Um+1(k),...,Un(k))tr,
'01GO' "0m+1(k)"
m. 0D(k)= _0m(k)_ ; 0c(k) = _ 0n(k) _
n
Uj(k) =2wji • xi (k) + 0j(k), j = m + 1,...,n.
i=1
С помощью m x n -матрицы D и (n - m) x n -матрицы C: D = [Em;0] , C = [0;En_m] матрица синаптичес-
Тогда уравнения (1), (2) записываются в векторной форме:
xD(k +1) = уD[DWx(k) + 0D(k)] , (29)
xc(k) = V c[CWx(k) + 0c(k)]. (30)
ких весов W(n x n) разбивается на четыре блока соответствующих размерностей, присутствующих на блок-схеме рис.2:
W =
DWD* | DWC*
CWD* | CWC*
: Rm ® Rn“m ^ Rm ® Rn_m
Статическое уравнение (30) связи между входными сигналами xj(k) перепишем детальнее для (k +1) -го шага:
xC (k +1) = уC[CWD* • xD(k +1) +
* (31)
+ CWC • xC(k +1) + 0C(k +1)] . v '
Пусть уравнение (31) разрешимо относительно вектора xC(k +1):
26
РИ, 2008, № 3
xc(k +1) = F{xD(k +1), 0c(k +1)} =
= F{y d [DW • x(k) + 0d (k)], 0c(k +1)}. (32)
Функция F явно выражает статическую векторную компоненту xc (k +1) через динамическую xD (k +1) и смещение 0C(k +1), что отражено на блок-схеме дескрипторной сети рис.2 пунктирным блоком F.
Соотношения (29), (32) определяют отображение рекурсии (ср.(23))
Sk : x(k)^
xD(k +1) xC(k +1)
;Sk = Sk(0D(k), 0C(k +1)). (33)
Распознаваемые сетью на k -м шаге входные векторы x(k) = xD (k) ® xC (k) образуют в Rn многообразие
Лk = {x(k): xC (k) = уC [CWD* • xD (k) +
+ CWC* • xC(k) + 0C(k)]}.
В случае линейных активационных функций нейронов уk(uk) = ak 'uk + bk примем обозначения векторов и матриц:
y(u) = a • u + b;u
b1
uD ,b =
_ uC _ bn _
,a = diag{aj}n=1.
Уравнения (1), (2) имеют векторную форму:
xD (k +1) = DAD*DW • x(k) + DAD*0D(k) + Db , xC (k) = CAC* [CWD* • xD (k) + CWC* • xC (k) + (34)
+ 0C(k)] + C • b.
Из последнего уравнения можно выразить xC (k) через xD(k):
_1 * *
xC(k) = V X{CAC [CWD • xD(k) +0C(k)] + C• b},
V = EC - CAC*CWC*,
если det V ^ 0 . Отсюда входы статических нейронов xC (k +1) на (k +1) -м шаге образуют вектор
xC(k +1) = V_1{CAC • CWD [DAD DW • x(k) +
* * (35)
+ DAD 0D(k) + Db] + CAC -0C(k +1) + Cb}. v ’
Отображение рекурсии (33) задается равенствами (34), (35), а в однородном случае
(bj = 0,0 j(k) = 0, Vj,k) оно не зависит от k и принимает форму блочной матрицы:
DAD*DW
V_1CAC CWD DAD DW
: x(k)^
xD(k +1) 'j xC(k +1) /
В последней ситуации многообразие распознаваемых сетью входных векторов одинаково для всех шагов (k = 0,1,2,...), является линейным подпространством ТІ в Rn :
Л = {xD ® xc : xc = V 1CAC *CWD * -xD, VxD є Rm}, dim Л = m.
7. Выводы
Рассмотрена искусственная нейронная сеть, сконструированная из динамических нейронов типа Хоп-филда и статических нейронов типа Маккалоха-Пит-тса. Функционирование сети описано разностными и алгебраическими уравнениями, векторная форма которых содержит вырожденную матрицу при полном векторе разностей. Подобные уравнения встречаются в дескрипторных системах управления, в связи с чем указанная нейронная сеть названа дескрипторной. Изучены особенности нейронной сети, обусловленные ее дескрипторностью - комбинированием динамических и статических нейронов. В частности, не всякий набор входных сигналов (входной вектор) распознается сетью. Исследованы многообразия допустимых входных векторов, их зависимость от смещений и активационных функций нейронов, от конструкции сети. Описано три предельных режима функционирования дескрипторной нейронной сети, определяемых специальными выборами синаптических весов либо активационных функций нейронов. Предложенные нейросетевые модели могут применяться для анализа и синтеза физических и вычислительных систем, описываемых неявными разностными и алгебраическими уравнениями.
Литература: 1. Leontief W.W. Input-output Economics, London-New York, 1966. 2. Campbell S.L. Singular Systems of Differential Equations - San Francisco, London, Melbourne: Pitman Publishing, Research Notes in Mathematics; I - Vol. 40, 1980, 176 p.; II - Vol.61, 1982. 234 p. 3. Бояринцев Ю.Е., Данилов В.А., Логинов А.А. Численные методы решения сингулярных систем. Новосибирск: Наука, 1989. 223 с. 4. Kunkel P., Mehrmann V. Differential-Algebraic Equations: Analysis and Numerical Solitions, Zurich, European Mathematical Society Publishing House. 5. Бондаренко М. Ф., Руткас А.Г. Признаки детерминированности неявных дискретных неавтономных систем // Доп.НАН України. 2001. № 2. С.7-11. 6.Hopfield I.I. Neural Networks and Physical Systems with Emergent Collective Computational Abilities, Proc.of the National Academy of Science. 1982. 79. P.25542558. 7. Бодянский Е.В., Руденко О.Г. Искусственные нейронные сети: архитектуры, обучение, применения. Харьков, ТЕЛЕТЕХ, 2004. 372 с. 8. Mc Culloch W.S., Pitts W. A Logical Calculus of the Ideals Immanent in Nervous Activity, Bulletin of Mathematical Biophysics. 1943. № 5. P. 115-133. 9. Руденко О.Г., Бодянский Е.В. Искусственные нейронные сети. Харьков: «СМИТ», 2005. 408 с. 10. BenderD.I., Laub A. The linear-quadratic optimal regulator for descriptor systems, IEE Transactions on Automatic Control. 1987. Vol.AC-32, №
6. P.2062-2077. 11. Campbell S.L. Nonregular descriptor
systems with delays, IMA I.Math.Control and Information. 1995. V.12. P.57-67.
Поступила в редколлегию 11.08.2008
Рецензент: д-р техн. наук, проф. Кривуля Г.Ф.
Руткас Андрей Анатольевич, аспирант ХНУРЭ. Научные интересы: машинный перевод, искусственные нейронные сети, динамические системы. Увлечение и хобби: электронное и математическое обеспечение систем GPS, системы безопасности и слежения. Адрес: Украина, 61001, Харьков, ул. Плехановская 2/5, кв. 29, тел.: (057) 732 28 35.
РИ, 2008, № 3
27