Научная статья на тему 'Нейромоделирование одного класса динамических систем'

Нейромоделирование одного класса динамических систем Текст научной статьи по специальности «Математика»

CC BY
162
73
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Руткас Андрей Анатольевич

Исследуется связь между неявными, в частности вырожденными разностными системами и дескрипторными нейронными сетями, состоящими из динамических и статических нейронов. Характеристический пучок матриц главной линейной части разностной системы преобразуется к нормальной форме и по нормализованной системе конструируется модельная дескрипторная нейронная сеть. Параметры модельной сети позволяют анализировать качественные характеристики исходной разностно-алгебраической системы – разрешимость, устойчивость, существование периодических режимов и др.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Neuromodelling of one class of dynamic systems

is modeled by a descriptor neural network that consists of neurons of two types – dynamical and static. The normal form of pencil of two matrices is used when modeling, characteristic for the main linear part of the system. Normalized neural descriptor network characterizes qualitative dynamical properties of the source difference-algebraic system: solvability, stability, existence of the periodic modes, etc.

Текст научной работы на тему «Нейромоделирование одного класса динамических систем»

УДК 517.922+517.958

НЕЙРОМОДЕЛИРОВАНИЕ ОДНОГО КЛАССА ДИНАМИЧЕСКИХ СИСТЕМ

то вся нейронная сеть описывается системой п уравнений

xj(k +1)

( п

л

V D

Е WjiXi(k) +0 j(k)

U=1

j=1,

m; (6)

РУТКАС А.А.

Исследуется связь между неявными, в частности вырожденными разностными системами и дескрипторными нейронными сетями, состоящими из динамических и статических нейронов. Характеристический пучок матриц главной линейной части разностной системы преобразуется к нормальной форме и по нормализованной системе конструируется модельная дескрипторная нейронная сеть. Параметры модельной сети позволяют анализировать качественные характеристики исходной разностно-алгебраической системы - разрешимость, устойчивость, существование периодических режимов и др.

1. Введение

Классический динамический дискретный нейрон Хоп-филда с n входами xi описывается рекуррентным уравнением [1, 2]

' n А

xj(k +1) = уd Е wjixi(k) + 0j(k)

I i=1

k = 0,1,2,...

(1)

Статический нейрон Маккалоха-Питтса с n входами xi и выходом yj отвечает уравнению [3, 4]

(n А

yj = V C

Е wjixi +0 j

V i=1 )

(2)

При функционировании нейронов обоих типов (1), (2) на общем векторе входов x(k) = (x^k),..., xn(k))tr в момент времени k следует положить в (2) xi = xi(k),

0j = 0j(k), yj = yj(k). Аналогом «мгновенной» обратной связи в блоке статических нейронов может служить постулируемое «передаточное» преобразование входов xic блока статических нейронов в выходы ycj статических нейронов. Например, возможны нелинейные отображения

yj(k) = gj(xc (k),...,xj(k)), (3)

либо линейные зависимости с заданными коэффициентами

yj(k) = EV jixj(k)+bj, (4)

i

либо, наконец, прямолинейные связи с одноименными входами

yj(k) = vj • xj(k) + bj. (5)

Рассмотрим случай линейной передаточной связи (4) на статических нейронах. Если n входных сигналов xi подаются на вход «смешанной» сети с m динамическими нейронами (1) и (n - m) статическими нейронами при планируемых «передаточных» связях (4),

РИ, 2008, № 2

Ev jixi(k)

i=m+1

V с

( n ^

Ё wjixi(k) + 0 j(k) U=1

- bj;

j = m + 1,...,n;k = 0,1,2,...

(7)

Через wji обозначен коэффициент синаптического усиления i -го входного сигнала в j -м нейроне, vji -необходимый коэффициент влияния входа xi блока статических нейронов на выход j -го статического нейрона, 0 j(k) - сигнал внешнего смещения в j-м нейроне, уD - активационные функции динамических нейронов, у с - активационные функции статических нейронов. Соотношения (6) есть разностные уравнения первого порядка относительно входных сигналов xi(k); соотношения (7) образуют бесконечную систему алгебраических уравнений. Формально бесконечная система (7) распадается на конечные подсистемы уравнений, не связанные друг с другом для различных значений тактового индекса k, однако фактически связь переменных xi (k) и xj(k +1) осуществляется через динамические уравнения (6). Введем следующие обозначения для матриц, векторов и вектор-функций:

x1 , xc = xm+1 , x = xD

xc

|_xm J L xn J

W = {Wjij=1;V = (V ji>n,i=m+1;bc =

V D(x1)

4,(x) = -+D«m)

3m+1 n

bm+1 bn

(8)

V c(xm+1)

Vc(xn)

Тогда система уравнений (6), (7) приобретает векторную форму

Ax(k +1) + Bx(k) = y(Wx(k) + 0(k)) - b; k = 0,1,2,..., (9) где

Od

A(n xn) -

Em 0 00

B

(nxn)

Om 0 0V

b

(nx1)

bc

Система векторных уравнений (9) является рекуррентной системой первого порядка, не разрешенной от-

11

m

x

D

носительно старшего члена x(k +1) и, вообще говоря, нелинейной. Матрица A здесь необратима, и rang A = m(< n). Вообще, разностная система векторных уравнений вида (9) с необратимым оператором A в конечномерном или бесконечном пространстве называется вырожденной динамической системой (дискретной) [5, 6]. Принципиальным свойством такой системы, связанным с ее детерминированностью, т.е. единственностью решения при заданном начальном значении

x(0) = a, (10)

является регулярность характеристического пучка матриц левой линейной части уравнения (9): det(XA + B) Ф 0. В нашем конкретном случае det(XA + B) = Xm • det V, так что характеристический пучок здесь регулярен, если и только если det V Ф 0 . Это условие означает, что передаточная матрица V: xC ^ yC блока статических нейронов должна быть обратимой квадратной матрицей размерности (n - m) х (n - m). Более того, матрицы A, B в (9) имеют специальную блочно-диагональную структуру. Однако для произвольной вырожденной динамической системы и в случае неявных разностных схем в конкретных прикладных задачах матрицы A,B регулярного пучка не имеют указанной блочно-диагональной структуры [7, 8]. Для нейросетевого моделирования таких систем в данной работе предлагается использовать переход к нормальной форме К. Вейер-штрасса для регулярного пучка матриц [9, 10].

2. Нейромоделирование путем перехода к нормальной форме характеристического пучка матриц

Рассмотрим полулинейную, вообще говоря, вырожденную, дискретную динамическую систему в пространстве Rn :

Ax(k +1) + Bx(k) = 4/(\VX(k) + 0(k)), k = 0,1,2,..., (11)

9(k) - векторы в Rn ; Rn - отображение с

областью определения QcRn. Если не оговорены отдельно локальные ограничения и утверждения, мы будем считать Q.= Rn . Вырожденность означает, что det A = 0. Основное предположение состоит в том, что характеристический пучок матриц линейной части ур авнения (11) является регулярным и имеет индекс 1:

det(XA + B) Ф 0, ind(A, B) = 1. (12)

Последнее означает, что det A = 0 и матрица-функция (A + цБ)-1 комплексного переменного р имеет в точке р = 0 полюс первого порядка:

(a+цё у1

* £,0 <1

<е.

(13)

Отсюда, в частности, следует необратимость матрицы A :det A = 0 . Заметим, что в уравнении (9), описывающем смешанную сеть с динамическими и статичес-

кими нейронами, матрицы А, В образуют пучок X A + B индекса 1.

Мето до м теории элементарных делителей К. Вейерш-трасс показал, что всякий регулярный пучок матриц ХА +13 может быть приведен к канонической форме ХА + B путем умножения на две квадратные обратимые матрицы P и Q [9, 10 - р.ХІІ, § 2]:

ХА + B = Q(XA + B)P. (14)

С учетом ограничения (13) на индекс пучка матрицы канонической формы имеют блочно-диагональную форму

А = Em 0 , B = J 0 "

0 0 0 E У ^n - m _

m = rang А, (15)

где Ek - единичная (k х k) -матрица; J - (m х m) -матрица, имеющая блочно-диагональную нормальную жорданову форму. Весьма трудоемкий алгоритм вычисления приводящих матриц P, Q можно существенно упростить, если не требовать, чтобы в блочной форме (15) матричный блок J размерности m х m был нормальной жордановой матрицей. Тогда приведение пары матриц A,B к виду (15) осуществляется с помощью контурного интегрирования резольвенты (ХА + B)_1 = R(X) по окружности |х| = r, охватывающей конечный спектр пучка; подробное описание имеется, например, в монографии [11, р.2.3]. В связи с этим мы считаем в дальнейшем, что в (15) блок J есть произвольная (m х m) -матрица, тем более что нейросетевое моделирование окажется возможным при самой общей форме матрицы J . Введем нормализованный вектор сигналов x(k) и нормализованную матрицу весов W :

x(k) = P _1x(k),W = WP. (16)

Тогда векторное уравнение динамической системы (11) преобразуется к виду

Ax(k +1) + Bx(k) = Q\p(Wx(k) +0(k)) (17)

с матричными коэффициентами (15).

Логическая блок-схема нормализации уравнений вырожденной динамической системы (11) изображена на рис.1.

Рис. 1. Принципиальная схема нормализации ДДС (*); W = WP

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

12

РИ, 2008, № 2

Дополнительно к (8), (16) примем следующие обозначения для матриц и отображений:

D = [Em;0]:Rn ^Rm;C = [0;En_m]: Rn ^ Rn"m;

уD = DQy :Rn ^ Rm;уC = CQy:Rn ^ Rn“m. (18)

Теперь преобразованное уравнение (17) записывается как пара векторных уравнений

XD(k +1) = V d(W • x(k) + 0(k)) - J • XD(k), (19)

Xc (k) = Vc(W • x(k) + 0(k)); x(k) = xd (k) ® xc (k) .(20)

Уравнение (17) и эквивалентную пару (19), (20) будем называть нормализованными уравнениями динамической системы (11). Нормализованные уравнения (19), (20) будем трактовать как рекуррентно-статические уравнения некоторой дескрипторной нейронной сети с m-мерным динамическим и ^^^мерным статическим нейронами. Логическая схема искомой нейронной сети изображена на рис.2.

Рис. 2. Блок-схема дескрипторной нейронной модели нормализованной системы

Отличие p -мерного нейрона от сети из р обычных нейронов (одномерных) заключается в том, что каждая компонента у; векторной активационной функ-РИ, 2008, № 2

ции у зависит не только от одноименной компоненты u; внутреннего состояния u, но и от всех остальных компонент uj,j = 1,...,p. В частном случае, когда уi = ^i(ui), т.е. активационные компонентные функции не зависят от «чужих» внутренних состояний uj(j ^ i), p -мерный нейрон есть стандартная нейронная сеть Хопфилда или Маккалоха-Питтса, состоящая из p обычных нейронов.

Термин «дескрипторная» заимствован из теории управления, где дескрипторной называется система, содержащая разностные уравнения и, возможно, статические уравнения связей, в совокупности не разрешаемые относительно членов старшего порядка [13, 14]. Поясним часть обозначений логических блоков сети рис.2. Согласно (8), (18) 0D(k) = D0(k), 0C (k) = C0(k). Векторный аргумент u = Wx + 0 функций у D, yC в (19), (20) имеет два блока:

u =

uD

uC

ud = Du = DWD*xd + DWC*xc +0D, (21)

uC = Cu = CWD*xd + CWC*xc +0c . (21)

Следовательно, часть логической схемы рис.2, выполненная сплошными линиями, реализует уравнения (19), (20) для фиксированного такта k. Обратная

векторная динамическая связь

'■ ' связывает непос-

редственно выходы и входы только m -мерного динамического нейрона для выполнения уравнения (19). В

(n - m) -мерном статическом нейроне блок отожде-

ствления

обеспечивает равенство левой и пра-

вой частей в (20). Пунктирная часть схемы рис.2 позволяет отразить рекуррентное функционирование всей дескрипторной нейронной сети за счет кооперирования m-мерного динамического нейрона на k-м такте, описываемого разностным уравнением (19), с (n - m)-мерным статическим нейроном на (k+1)-n такте, описываемым алгебраическим уравнением

xc(k +1) = у JWD* • xD(k +1) + + WC* • xC(k +1) +0(k +1)]

Предположим, уравнение (22) можно явно разрешить относительно вектора xC (k +1), и обозначим через F соответствующую явную «разрешающую» функцию:

xC(k +1) = F[xD(k +1), 0(k +1)]. (23)

Равенство (23) реализуется пунктирной частью схемы рис.2.

Логическая схема функционирования исходной динамической системы (11) с последовательностью состояний

x(0),x(1), x(2),...,x(n),... (24)

конструируется путем замены на рис. 1 промежуточного нормализованного блока, отмеченного пунктиром, на схему дескрипторной нейронной сети рис.2.

13

Замечание. Уравнения вырожденной динамической системы (9) описывают сеть из m -мерного динамического и (n - m)-мерного статического нейронов, логическая схема которой изображена на рис.3. Матрицы A, B в (9) отличаются от матриц (15) нормализованной системы (17), соответственно нейронная сеть на рис.3 несколько отличается от нейронной сети на рис.2. Согласно принятой выше терминологии обе нейронные сети следует называть дескрипторными.

Рис. 3. Блочная схема дескрипторной сети (6), (7), (8) с линейным передаточным преобразованием (4) в статических нейронах

3. Рекурсивное отображение и эволюционный оператор

Для исследования качественного поведения динамической системы с последовательностью состояний {х(к)}д (24) естественно исходить из рекурсивного отображения Sk и эволюционного оператора Фк, действующих по правилу

Sk(x(k -1)) = х(к), Фк(х(0)) = х(к). (25)

Эволюционный оператор является суперпозицией рекурсивных отображений:

Фк = Sk ^к-і °... ° Si. (26)

Если в уравнении (11) det A = 0, то в пространстве Rn множество Лк векторов х(к), для которых существуют векторы х(к +1), такие что уравнение (11) удовлетворяется, не совпадает со всем пространством Rn : Лк с Rn, Лк ф Rn .

Это верно уже для случая линейной функции vf в (11) [5, 6, 11]. Таким образом, возникает вопрос об описании многообразий Лк = {х(к)} как областей определения рекурсивных отображений Sk+1. Заметим, что при надлежащих предположениях относительно правой части равенства (11) единственность решения х(к +1) уравнения (11) имеет место благодаря регулярности пучка матриц xA + B . Например, единственность легко устанавливается, если W = 0, или если преобразование у линейно и пучок матриц xA + (B -\]/W) регулярен.

Важным свойством является вложенность областей определения рекурсий:

£к(Лк-1) с Лк, к = 1,2,... (27)

Из (27) вытекает, что при любом к эволюционный оператор Фк определен на множестве векторов Ло, которое в этом случае называется начальным многообразием динамической системы (11).

Практически для анализа отображений S^ Фк и многообразий Лк удобно перейти к нормализованной динамической системе (17) ~ (19), (20) и модельной дескрипторной нейронной сети рис.2. На последовательности состояний {хк}^ дескрипторной нейронной сети определяются нормализованные операторы рекурсии Sk и эволюции Фк :

Sk (х(к -1)) = х(к), Фк (х(0)) = х(к). (28)

С помощью нормализующей замены состояний (16) х(к) = Рх(к) операторы (25) легко восстанавливаются по соответствующим операторам (28) нейронной сети:

S]£ = PS^_1; Фк = РФкР_1, к = 0,1,2,... (29)

Здесь Р, Р_1 - линейные операции умножения векторов на постоянную матрицу и обратную к ней.

Приведем явные формулы для операторов S^ Фк в случае линейных активационных функций нейронной сети, когда операции уD, уC в (19), (20) есть умножения на матрицы и, следовательно, исходная динамическая система линейна с операцией умножения на матрицу у в правой части (11). Если бы модельная нейронная сеть не содержала статических нейронов, то в (18) было бы m = n, yC = 0. Уравнение (20) превратилось бы в тривиальное тождество хс(к) = 0, а уравнение (19) - в явное разностное уравнение

х(к +1) = Тх(к) + Дк), T = у DW = QyW,

fGO = у d^OO (30)

14

РИ, 2008, № 2

Оператор рекурсии Sk здесь явно задан в правой части:

Sk+i(x(k)) = Tx(k) + f(k),k > 0. (31)

Эволюционный оператор Ф k (28) также легко находится [12]:

Ф k(x(0)) = x(k) = Tk

k-1

• x(0) + £ T i=0

k-i-1

•f(i),k ^ 1(32)

Однако в дескрипторной сети (1 < m < n) мы не можем использовать выражение (31) для рекурсии и выражение (32) для эволюционного оператора. Исходя из линейного варианта уравнений (19), (22), нетрудно получить рекурсию Sk+1 (x(k)) = x(k +1) =

xD(k +1) xC (k +1)

Обозначая матрицу GC = En_m -

-y CWC* и предполагая ее обратимость, находим искомые формулы рекурсии:

xD(k +1) = (у dW - JD)x(k) + у D0(k), (33)

xc (k +1) = G“ VC {wD*[(Ц,dW - JD)x(k) + yD0(k^ +

+ 0(k +1)}. (34)

Количество строк и столбцов квадратной матрицы GC равно (n - m) - числу статических нейронов дескрипторной нейронной сети.

Для чисто динамической нейронной сети формула (30) дает реальные входные состояния x(k +1) на (k +1) -м такте для любых векторов x(k), f (k) є Rn . Однако в дескрипторной нейронной сети вектор

x(k +1)

xD(k +1) xc(k +1)

, вычисленный по формулам (33),

(34), будет реальным входным состоянием на (k +1) -м такте тогда и только тогда, когда предыдущее состояние x(k) удовлетворяет статическому уравнению

Cx(k) = у CWx(k) + yC0(k). (35)

Отсюда следует формула рекурсивного отображения допустимых многообразий Лk :

Sk+1(Лk) = Лk+1, лk = {x(k)}, k = 0,1,2,... (36)

Таким образом, справедлива следующая теорема.

Теорема. Пусть матрица GC = En_m - у CWC* обратима. Рекурсивное отображение

Sk+1: Лk ^ Лk+1 линейной дескрипторной нейронной сети определяется формулами (33), (34). Эволюционное отображение ®k (28) может быть вычислено по формуле (32), где матрица T и векторы f(k) строятся по правилу

T =

у DW - JD

,

G_VCWD (уDW - JD)

f(k)

уD0(k)

G“1yc(WDy D0(k) +0(k +1))

а начальный вектор x(0) принадлежит начальному многообразию Л0:

Л0 = |x(0) є Rn : Cx(0) = уCWx(0) + yC0(0)[ (37)

Размерность начального многообразия Л 0 и многообразий состояний Лk на всех тактах k = 1,2,... совпадает с числом динамических компонент вектора внутренних состояний сети:

dim Л0 = dim Лk = m.

В доказательстве нуждается последнее утверждение о размерностях. Достаточно установить, что в отсутствие смещений (однородный случай 0(0) = 0 ) dim Л0 = m. Из (37) следует, что Л0 есть линейное подпространство в Rn , состоящее из векторов x(0) таких, что (C-уCW)x(0) = 0. С учетом (18) последнее равенство равносильно следующему: C(En - QyW)x(0) = 0 . Оно переписывается в виде

C(En - Qh/W)(Pdx(0) + Pcx(0)) = 0

с помощью взаимно дополнительных проекционных матриц в Rn :

Pd = D*D,Pc = C*C,Pd + Pc = En.

После подстановки значений Pd , Pc получаем C(En - Qv[/W)D*Dx(0) = -C(En - Q\|/W)C*Cx(0).

Поскольку CEnC* = En _m (см.(18)), то

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

GC = C(En - QyW)C* , и путем обращения матрицы GC можно выразить Cx(0) через Dx0 . Окончательно для любого начального вектора x(0) при 0(0) = 0 находим представление

x(0)

Dx(0)" Dx0

Cx(0) - G“1C(En - QyW)D • Dx0

, (38)

в котором блочная компонента Dx0 может выбираться произвольно. Следовательно,

dim{x(0)} = dim Л 0 = rangD = m.

4. Выводы

Исследована связь между неявными разностными системами (по другой терминологии - неявными и вырожденными динамическими дискретными системами) и дескрипторными нейронными сетями, сконструированными из динамических и статических нейронов. Во введении описано, как уравнения состояний дескрипторной нейронной сети допускают представление в виде вырожденной полулинейной дискретной динамической системы, неразрешенной относительно старших разностей. В разделе 2 показано

РИ, 2008, № 2

15

обратное: всякая полулинейная вырожденная динамическая система, для которой характеристический пучок матриц имеет индекс 1, преобразованием нормализации приводится к системе уравнений дескрипторной нейронной сети. Дается точное описание конструкции (логической схемы) сети. В разделе 3 продемонстрировано применение «нормализованной» дескрипторной нейронной сети к анализу исходной динамической (разностной) системы. В частности, исследуются допустимые многообразия состояний, которые имеют размерность, равную числу динамических компонент вектора внутренних состояний сети. Анализируются рекурсивное и эволюционное отображения дескрипторной динамической системы с помощью аналогичных отображений модельной нейронной сети. Эти результаты создают предпосылки для эффективного анализа кардинальных качественных свойств дескрипторных динамических систем - устойчивости, выявления периодических режимов, аттракторов и т.п.

Литература: 1. Hopfield I.I. Neural Networks and Physical Systems with Emergent Collective Computational Abilities, Proc.of the National Academy of Science. 1982. 79. P.25542558. 2. Бодянский Е.В., Руденко О.Г. Искусственные нейронные сети: архитектуры, обучение, применения. Харьков, ТЕЛЕТЕХ, 2004. 372 с. 3. Mc Culloch W.S., Pitts W. A Logical Calculus of the Ideals Immanent in Nervous Activity, Bulletin of Mathematical Biophysics. 1943. № 5. P. 115-133. 4. Руденко О.Г., Бодянский Е.В. Искусственные нейронные сети, Харьков, «СМИТ», 2005. 408 с. 5. БенабдаллахМ., Руткас А.Г., Соловьев А.А. Об устойчи-

УДК 519.23 '

РЕДУКЦИОННЫЙ МЕТОД ИССЛЕДОВАНИЯ ПРЕДЕЛЬНЫХ РАСПРЕДЕЛЕНИЙ СЧЕТНЫХ МАРКОВСКИХ ЦЕПЕЙ

ГЕРАСИН С.Н., МИХАЙЛОВ Е.А.______________

Предлагается редукционный метод анализа счетных марковских цепей с непрерывным временем. Описываются оценки скорости сходимости редуцированных предельных распределений к исходным вероятностям.

1. Введение

Изучение марковских процессов со счетным числом состояний зачастую приводит к ситуациям более сложным, чем в случае процессов с конечным числом состояний. Особенно заметно это становится при использовании численных методов. Одной из причин является та, что бесконечные системы уравнений разрешимы в некоторых случаях - общая теория пока отсутствует . В то же время вопрос о существовании стационарного решения разрешим в рамках общей эргодической теоремы для процессов Маркова. Но, как обычно, теорема существования не дает конкретных способов нахождения решения, поэтому задача их вычисления решается в конкретных случаях по-

вости вырожденных разностных систем в банаховых пространствах // Динамические системы. Киев-Симфе-рополь, 1987. Вып.6. С. 103-109. 6. Bondarenko M.F., Rutkas A.G. On a class of implicit difference equations // Доповіді НАН України. 1998. №7. С.11-15. 7. Campbell S.L. Singular Systems of Differential Equations - San Francisco, London, Melbourne: Pitman Publishing, Research Notes in Mathematics; I . 1980. Vol.40176 p.; II. 1982. Vol.61. 234 p. 8. Власенко Л.А. Импульсные дифференциальноалгебраические уравнения в математических моделях электрических цепей // Радиоэлектроника и информатика. 2004. №3(28). С.27-31.9. Weierstrass K.,Zur Theorie der bilinearenund quadratischen Formen, Monatsh. Akad. Wissenschaft, Berlin (1867). Р. 310-338. 10. Гантмахер Ф.Р. Теория матриц. М.: Наука, 1966. 576 с. 11. Власенко Л.А. Эволюционные модели с неявными и вырожденными дифференциальными уравнениями. Днепропетровск: Системные технологии. 2006. 273 с. 12. Халанай А., ВекслерД. Качественная теория импульсных систем. М.: Мир, 1971. 312 с. 13. Bender D.I., Laub A. The linear-quadratic optimal regulator for descriptor systems, IEE Transactions on Automatic Control. 1987. Vol.AC-32, № 6. P.2062-2077. 14. Campbell S.L. Nonregular descriptor systems with delays, IMA I.Math.Control and Information. 1995. V.12. P.57-67.

Поступила в редколлегию 11.06.2008

Рецензент: д-р техн. наук, проф.Кривуля Г.Ф.

Руткас Андрей Анатольевич, аспирант ХНУРЭ. Научные интересы: машинный перевод, искусственные нейронные сети, динамические системы. Увлечение и хобби: электронное и математическое обеспечение систем GPS, системы безопасности и слежения. Адрес: Украина, 61001, Харьков, ул. Плехановская, 2/5, кв. 29, тел.: (057) 732-28-35.

разному [1]. В данной работе предлагаются некоторые способы нахождения решений, базирующиеся на редукции бесконечных систем, т. е. пути сведения к конечным системам. С методической точки зрения этот подход применим и к системам с большим числом состояний. Например, при исследовании нейронных сетей их модель в виде марковской цепи может иметь 106-108 состояний, что делает ее потенциально бесконечной с точки зрения машинных вычислений.

Целью данной работы является применения редукционных методов к анализу марковских цепей со счетным множеством состояний и аппроксимация их близкими, в смысле предельных свойств, конечными цепями.

2. Однородный процесс со счетным числом состояний

Будем рассматривать марковский процесс с непрерывным временем и счетным множеством состояний. Пусть его поведение описывается матрицей интенсивностей (инфинитезимальной матрицей) Л = (X у), i, j = 1, 2,...; по определению данная матрица вырождена. Покажем, что применение метода редукции к матрице Л = (X у) возможно и что в этом случае поэлементной сходимости, вообще говоря, недостаточно. Известен тот факт, что если sup Xjj <ж, то соответствующая система уравнений Колмогорова

16

РИ, 2008, № 2

i Надоели баннеры? Вы всегда можете отключить рекламу.