Научная статья на тему 'УСТОЙЧИВОСТЬ НЕЙРОННЫХ СЕТЕЙ КОЭНА - ГРОССБЕРГА С ЗАПАЗДЫВАНИЯМИ, ЗАВИСЯЩИМИ ОТ ВРЕМЕНИ'

УСТОЙЧИВОСТЬ НЕЙРОННЫХ СЕТЕЙ КОЭНА - ГРОССБЕРГА С ЗАПАЗДЫВАНИЯМИ, ЗАВИСЯЩИМИ ОТ ВРЕМЕНИ Текст научной статьи по специальности «Математика»

CC BY
49
10
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННЫЕ СЕТИ КОЭНА - ГРОССБЕРГА / ЗАПАЗДЫВАНИЯ / УСТОЙЧИВОСТЬ / АСИМПТОТИЧЕСКАЯ УСТОЙЧИВОСТЬ

Аннотация научной статьи по математике, автор научной работы — Бойков Илья Владимирович, Руднев Владимир Александрович, Бойкова Алла Ильинична

Актуальность и цели . Работа посвящена анализу устойчивости в смысле Ляпунова нейронных сетей Коэна - Гроссберга с запаздываниями, зависящими от времени. Для этого исследуется устойчивость установившихся решений систем линейных дифференциальных уравнений с коэффициентами, зависящими от времени, и с запаздываниями, зависящими от времени. Рассматриваются случаи непрерывного и импульсного возмущения. Актуальность исследования обусловлена двумя обстоятельствами. Во-первых, нейронные сети Коэна - Гроссберга находят многочисленные применения в различных областях математики, физики, технологий и необходимо определение границ их возможного применения при решении каждой конкретной задачи. Во-вторых, известные к настоящему времени условия устойчивости нейронных сетей Коэна - Гроссберга достаточно громоздки. Статья посвящена нахождению условий устойчивости нейронных сетей Коэна - Гроссберга, выраженных через коэффициенты систем дифференциальных уравнений, моделирующих сети. Материалы и методы. Исследование устойчивости основано на применении метода «замораживания» коэффициентов, зависящих от времени, и последующем анализе устойчивости решения системы в окрестности точки «замораживания». При анализе преобразованных таким образом систем дифференциальных уравнений используются свойства логарифмических норм. Результаты. Предложен метод, позволяющий получать достаточные условия устойчивости решений конечных систем линейных дифференциальных уравнений с коэффициентами и с запаздываниями, зависящими от времени. Алгоритмы эффективны как в случае непрерывных, так и в случае импульсных возмущений. Выводы. Предложенный метод может быть использован при исследовании нестационарных динамических систем, описываемых системами обыкновенных линейных дифференциальных уравнений с запаздываниями, зависящими от времени. Метод может быть положен в основу исследования устойчивости нейронных сетей Коэна - Гроссберга с разрывными коэффициентами и разрывными функциями активации. Аналогичные результаты ранее были получены для нейронных сетей Хопфилда в работе: Boykov I., Roudnev V., Boykova A. Stability of solutions to systems of nonlinear differential equations with discontinuous right-hand sides. Applications to Hopfield artificial neural networks. Mathematics. 2022. Vol. 1.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Бойков Илья Владимирович, Руднев Владимир Александрович, Бойкова Алла Ильинична

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE STABILITY OF COHEN-GROSSBERG NEURAL NETWORKS WITH TIME DEPENDENT DELAYS

Background. The study is devoted to the analysis of stability in the sense Lyapunov Cohen-Grossberg neural networks with time-dependent delays. To do this, we study the stability of the steady-state solutions of systems of linear differential equations with coefficients depending on time and with delays, time dependent. The cases of continuous and impulsive perturbations are considered. The relevance of the study is due to two circumstances. Firstly, Cohen-Grossberg neural networks find numerous applications in various fields of mathematics, physics, technology, and it is necessary to determine the boundaries of their possible application. Secondly, the currently known conditions for the stability of the Cohen-Grossberg neural networks are rather cumbersome. The article is devoted to finding the conditions for the stability of the Cohen-Grossberg neural networks, expressed in terms of the coefficients of the systems of differential equations modeling the networks. Materials and methods. The study of stability is based on the application of the method of “freezing” time-dependent coefficients and the subsequent analysis of the stability of the solution of the system in the vicinity of the “freezing” point. In the analysis of systems of differential equations transformed in this way, the properties of logarithmic norms are used. Results. A method is proposed that makes it possible to obtain sufficient stability conditions for solutions of finite systems of linear differential equations with coefficients and with time-dependent delays. The algorithms are effective both in the case of continuous and impulsive disturbances. Conclusions. The proposed method can be used in the study non-stationary dynamical systems described by systems of ordinary linear differential equations with delays depending from time. The method can be used as the basis for studying the stability of Cohen-Grossberg neural networks with discontinuous coefficients and discontinuous activation functions. Similar results were previously obtained for Hopfield neural networks in the work: Boykov I., Roudnev V., Boykova A. Stability of solutions to systems of nonlinear differential equations with discontinuous right-hand sides. Applications to Hopfield artificial neural networks. Mathematics . 2022:1.

Текст научной работы на тему «УСТОЙЧИВОСТЬ НЕЙРОННЫХ СЕТЕЙ КОЭНА - ГРОССБЕРГА С ЗАПАЗДЫВАНИЯМИ, ЗАВИСЯЩИМИ ОТ ВРЕМЕНИ»

УДК 517.929

doi: 10.21685/2072-3040-2023-2-5

Устойчивость нейронных сетей Коэна - Гроссберга с запаздываниями, зависящими от времени

И. В. Бойков1, В. А. Руднев2, А. И. Бойкова3

1,3Пензенский государственный университет, Пенза, Россия 2Санкт-Петербургский государственный университет, Санкт-Петербург, Россия

[email protected], [email protected], [email protected]

Аннотация. Актуальность и цели. Работа посвящена анализу устойчивости в смысле Ляпунова нейронных сетей Коэна - Гроссберга с запаздываниями, зависящими от времени. Для этого исследуется устойчивость установившихся решений систем линейных дифференциальных уравнений с коэффициентами, зависящими от времени, и с запаздываниями, зависящими от времени. Рассматриваются случаи непрерывного и импульсного возмущения. Актуальность исследования обусловлена двумя обстоятельствами. Во-первых, нейронные сети Коэна - Гроссберга находят многочисленные применения в различных областях математики, физики, технологий и необходимо определение границ их возможного применения при решении каждой конкретной задачи. Во-вторых, известные к настоящему времени условия устойчивости нейронных сетей Коэна - Гроссберга достаточно громоздки. Статья посвящена нахождению условий устойчивости нейронных сетей Коэна - Гроссберга, выраженных через коэффициенты систем дифференциальных уравнений, моделирующих сети. Материалы и методы. Исследование устойчивости основано на применении метода «замораживания» коэффициентов, зависящих от времени, и последующем анализе устойчивости решения системы в окрестности точки «замораживания». При анализе преобразованных таким образом систем дифференциальных уравнений используются свойства логарифмических норм. Результаты. Предложен метод, позволяющий получать достаточные условия устойчивости решений конечных систем линейных дифференциальных уравнений с коэффициентами и с запаздываниями, зависящими от времени. Алгоритмы эффективны как в случае непрерывных, так и в случае импульсных возмущений. Выводы. Предложенный метод может быть использован при исследовании нестационарных динамических систем, описываемых системами обыкновенных линейных дифференциальных уравнений с запаздываниями, зависящими от времени. Метод может быть положен в основу исследования устойчивости нейронных сетей Коэна - Гроссберга с разрывными коэффициентами и разрывными функциями активации. Аналогичные результаты ранее были получены для нейронных сетей Хопфил-да в работе: Boykov I., Roudnev V., Boykova A. Stability of solutions to systems of nonlinear differential équations with discontinuous right-hand sides. Applications to Hopfield artificial neural networks. Mathematics. 2022. Vol. 1.

Ключевые слова: нейронные сети Коэна - Гроссберга, запаздывания, устойчивость, асимптотическая устойчивость

Для цитирования: Бойков И. В., Руднев В. А., Бойкова А. И. Устойчивость нейронных сетей Коэна - Гроссберга с запаздываниями, зависящими от времени // Известия высших учебных заведений. Поволжский регион. Физико-математические науки. 2023. № 2. С. 41-58. doi: 10.21685/2072-3040-2023-2-5

The stability of Cohen-Grossberg neural networks with time dépendent delays

© Бойков И. В., Руднев В. А., Бойкова А. И., 2023. Контент доступен по лицензии Creative Commons Attribution 4.0 License / This work is licensed under a Creative Commons Attribution 4.0 License.

I.V. Boykov1, V.A. Roudnev2, A.I. Boykova3

13Penza State University, Penza, Russia 2Saint Petersburg State University, Saint Petersburg, Russia [email protected], [email protected], [email protected]

Abstract. Background. The study is devoted to the analysis of stability in the sense Lya-punov Cohen-Grossberg neural networks with time-dependent delays. To do this, we study the stability of the steady-state solutions of systems of linear differential equations with coefficients depending on time and with delays, time dependent. The cases of continuous and impulsive perturbations are considered. The relevance of the study is due to two circumstances. Firstly, Cohen-Grossberg neural networks find numerous applications in various fields of mathematics, physics, technology, and it is necessary to determine the boundaries of their possible application. Secondly, the currently known conditions for the stability of the Cohen-Grossberg neural networks are rather cumbersome. The article is devoted to finding the conditions for the stability of the Cohen-Grossberg neural networks, expressed in terms of the coefficients of the systems of differential equations modeling the networks. Materials and methods. The study of stability is based on the application of the method of "freezing" time-dependent coefficients and the subsequent analysis of the stability of the solution of the system in the vicinity of the "freezing" point. In the analysis of systems of differential equations transformed in this way, the properties of logarithmic norms are used. Results. A method is proposed that makes it possible to obtain sufficient stability conditions for solutions of finite systems of linear differential equations with coefficients and with time-dependent delays. The algorithms are effective both in the case of continuous and impulsive disturbances. Conclusions. The proposed method can be used in the study non-stationary dynamical systems described by systems of ordinary linear differential equations with delays depending from time. The method can be used as the basis for studying the stability of Cohen-Grossberg neural networks with discontinuous coefficients and discontinuous activation functions. Similar results were previously obtained for Hopfield neural networks in the work: Boykov I., Roudnev V., Boykova A. Stability of solutions to systems of nonlinear differential equations with discontinuous right-hand sides. Applications to Hop-field artificial neural networks. Mathematics. 2022:1.

Keywords: Cohen-Grossberg neural networks, delays, stability, asymptotic stability

For citation: Boykov I.V., Roudnev V.A., Boykova A.I. The stability of Cohen-Grossberg neural networks with time dependent delays. Izvestiya vysshikh uchebnykh zavedeniy. Pov-olzhskiy region. Fiziko-matematicheskie nauki = University proceedings. Volga region. Physical and mathematical sciences. 2023;(2):41-58. (In Russ.). doi: 10.21685/2072-30402023-2-5

Введение

Нейронные сети Хопфилда (НСХ), Коэна - Гроссберга (НСКГ) и подобные им активно изучаются в последнее время в связи с их многочисленными приложениями к физическим и техническим проблемам [1-4]. НСХ нашли приложения в широком диапазоне областей, таких как вычислительная математика, ассоциативная память, классификация паттернов, задачи оптимизации и т.д. НСКГ находят широкое применение в задачах оптимизации и при моделировании мозговых процессов (так называемые brain-state-in-a-box нейронные сети [5]).

В настоящее время при исследовании нейронных сетей используются две основные математические модели: либо локальные нейронные сети, либо статические нейронные сети. Базовая модель локальной нейронной сети описывается системой обыкновенных дифференциальных уравнений (ОДУ):

dXj (t) dt

n

Xi (t) + Ywijgj (Xj (t)) + h, i = 1,2,.n,

j=1

(1)

где gi - функция активации 7-го нейрона; ху - состояние 7-го нейрона; - внешнее воздействие на 7-й нейрон; м>у - синапс, связывающий выход

/-го нейрона со входом 7-го нейрона; п - число нейронов в сети.

Статическая нейронная сеть описывается системой уравнений

в которой использованы те же обозначения, что и выше.

Локальная нейронная сеть (1) была введена Хопфилдом и в большинстве литературных источников называется сетью Хопфилда. Отметим, что нейронная сеть (1) моделирует ассоциативную память и сотовую сеть.

Статические нейронные сети (2) введены в работах [6, 7] и во многих литературных источниках называются нейронными сетями Коэна - Гроссберга.

Замечание. В 50-70 гг. прошлого столетия активно развивалось направление вычислительной техники, связанное с конструированием и эксплуатацией аналоговых вычислительных машин. Одна из разновидностей этих машин реализовала решение нелинейных систем ОДУ вида (1), (2). Позднее аналоговая техника была вытеснена цифровой. В настоящее время в связи с разработкой новых материалов наблюдается возросший интерес к аналоговой вычислительной технике. Приведенные ниже результаты могут быть непосредственно использованы при исследовании устойчивости решений систем нелинейных ОДУ на машинах непрерывного действия.

Наряду с непрерывными функциями активации имеется большое число приложений, которые моделируются нейронными сетями с разрывными функциями активации. Исследование подобных моделей восходит к работе [8].

Подробная теория дифференциальных уравнений с разрывными правыми частями содержится в книге [9].

Напомним, следуя [9], определения решений дифференциальных уравнений с разрывными правыми частями и устойчивости их решений.

Рассмотрим уравнение или систему уравнений в векторной записи:

где / (7, х) - кусочно-непрерывная функция (или вектор-функция) в области х £ Яп ; М — множество меры нуль точек разрыва функции /(7, х). Каждой точке (7, х) поставим в соответствие множество F(7, х) в п -мерном пространстве. Это множество строится следующим образом. Если в точке (7, х) функция / (7, х) непрерывна, то множество F (7, х) состоит из одной точки, которая совпадает с /(7, х). Если же (7, х) - точка разрыва функции / , то множество F(7, х) задается способом, адекватным рассматриваемой

физической задаче. Для нейронных сетей один из таких способов описан в разделе 1.5 книги [10].

(3)

Определение 1.1 [9]. Решением уравнения (3) называется решение дифференциального включения

е Fх), (4)

т.е. абсолютно непрерывная вектор-функция х^), определенная на интервале или отрезке I, для которой почти всюду на I выполняется включение

—е F^, х). &

Определение 1.2 [9]. Решение х = ф^), ¿0 - ^ < дифференциального включения (4) называется устойчивым, если для любого £> 0 существует такое 5 > 0, что для каждого такого Хо, что | Хо -ф(^)|< 8, каждое решение Х^) с начальным условием Х(^) = -Хо при tо - ^ < ^ существует и удовлетворяет неравенству

| Х^) - ф^) |< е при ^ —1 < ^.

Определение 1.3 [9]. Решение Х = ф^), ^ — t < дифференциального включения (4) называется асимптотически устойчивым, если оно устойчиво и, кроме того, Нт | ■Х(t) - ф^) |= 0 .

Определение 1.4 [9]. Решение Х = ф^), tо — t < дифференциального включения (4) называется устойчивым в целом, если оно асимптотически устойчиво при любом начальном значении Хо е Яп.

Проблема нахождения достаточных условий устойчивости в целом нейронных сетей чрезвычайно сложная, и ее решение известно только в ряде частных случаев. Для решения этой проблемы используются различные методы, в частности круги Гершгорина, метод отображений и др. Наибольшее применение при исследовании устойчивости нейронных сетей получил второй метод Ляпунова.

В работе [11] показано, что отрицательная полуопределенность матриц гарантирует устойчивость в целом нейронных сетей Хопфилда, описываемых уравнениями вида (1). В статье [12] приведен ряд достаточных условий локальной экспоненциальной устойчивости НСХ. В работе [13] технология матричных норм применена к исследованию нелинейных динамических систем.

Подробная библиография работ, посвященных устойчивости искусственных нейронных сетей, содержится в [3, 4, 10, 14], причем в [4] также исследуются нейронные сети, моделируемые системами разностных уравнений.

Обширное исследование устойчивости нейронных сетей, в том числе нейронных сетей Хопфилда, проведено в книге [4]. Исследована устойчивость нейронных сетей при различных функциях активации, причем исследуется как устойчивость в целом, так и локальная устойчивость отдельных точек покоя. Основным аппаратом исследования устойчивости нейронных сетей в [4] являются функции Ляпунова и функции энергии.

В работах [10, 15] исследуется устойчивость нейронных сетей, функционирование которых описывается системами дифференциальных уравнений вида

ddtt1 = "«.X + Zgij(xj), i = 1,2,,...«, (5)

j=1

с функциями gj (Xj), i, j = 1,2,...,n, имеющими в отдельных точках разрывы первого рода.

Области притяжения неподвижных точек НСХ вида (1) оценены в [16]. В работе [14] исследуется устойчивость нейронных сетей, моделируемых системами дифференциальных уравнений с коэффициентами, зависящими от времени:

dx (t) «

dd(-) = -ei (t) Xi + Yyij (t) gij (Xj (t)), i = 1,2,..., n, j=1

причем как коэффициенты, так и функции активации допускают разрывы в конечном числе точек.

Из-за конечной скорости переключения нейронов и конечной скорости обработки информации происходят временные задержки при прохождении информации по нейронным сетям, которые могут быть источником колебаний, дивергенции и нестабильности [17, 18]. Поэтому исследования устойчивости НСХ с временными задержками в настоящее время активно развиваются (см. [19-22]).

Матричные неравенства и функционалы Ляпунова - Красовского использованы в работе [18] для нахождения достаточных условий устойчивости НСХ вида

dx; (t)

= -ax (t) + Ybij (Xj (t - т)) + с; , i = 1,2,..., n.

j=1

В работе [23] методом функций Ляпунова найдены условия устойчивости НСХ вида

^ = -diXi (t) + Y^ijgj (Xj (t)) + Ybtjfj (Xj (t - тj)) + Ii, t > 0, (6)

j=1 j=1

с начальными условиями

x;(t) = ф;(t), -т< t < 0, i = 1,2,...,n, т = maxт.

1<i<n

В статье [24] первым методом Ляпунова исследовалась устойчивость НСХ вида (6).

В работе [24] исследована экспоненциальная устойчивость в целом нейронных сетей с непрерывным запаздыванием, моделируемых системой интегро-дифференциальных уравнений

dxk (t) =

= -ckxk(t) + Yjailgl(x(t)) + YPklSl(x(t - h)) +

dt l=1 l=1

t

+&У Г Щ^-5)gl(х(5)& + 1к, tе [tо,к = 1,2,..,/

I=1

Хк (5) = Фк (5), — 5 — tо, к = 1,2,.., П.

Фундаментальные результаты по устойчивости модели (2) и более общей модели

= " (Х)

&

ъ((Х) - 2СУ Ф У(ХУ)

г=1

г = 1,2,..., п

получены в работах [6, 7].

Обзор результатов по устойчивости нейронных сетей Коэна - Грос-сберга, известных к 2001 г., представлен в книге [3]. Устойчивость нейронных сетей Коэна - Гроссберга вида

ёх, ^)

&

• = -а,

(■ ^))

Ь (х^))-2СУ Фу ((t))

-Т&И V у (ХУ(t-Ту))

г=1

г=1

, г = 1,2,..., п,

с временными задержками Ту исследовалась в работах [25, 26], причем в [25] полагалось, что Ту = Т, г, у = 1,2,...,п.

В данной статье исследуется устойчивость по Ляпунову нейронных сетей Коэна - Гроссберга.

1. Вспомогательные утверждения

Пусть X - банахово пространство; К - оператор, действующий из X в X; В(а,г) = {х,ае X :||х-а|| — г}; Л(К) - логарифмическая норма линейного оператора К, определяемая в [27] выражением

Л(К) = Нт^0(111 + ИК || -1)/ И,

где символ И 10 означает, что И стремится к нулю, убывая.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Для матриц в часто используемых пространствах логарифмические нормы известны.

Пусть дана комплексная матрица А = {ау}, г, у = 1,2,...,п, в п -мерном пространстве Яп векторов х = (х1,...,хп) с нормой

Iх у1= 21 хк к=1

Х |Ь =

2|хк к=1

, У х у3 = тах 1 хк |. 1—к—п

Логарифмическая норма матрицы A равна [28]:

( n ^

Л1( A) = max

j

^} + £

v

(

, Л2( A) = ^

(a AT \

A + A

Л3 (A) = max

Re{a,.} + ^

j-1, j )

здесь Xтах ((А + А ) / 2) - наибольшее собственное значение матрицы (А + АТ) / 2.

2. Устойчивость обобщенной нейронной сети Коэна - Гроссберга

Рассмотрим следующее обобщение нейронной сети Коэна - Гроссберга:

dxi (t) dt

= -a (t, Xi (t))+gi

Swij (t) fj (Xj (t)) + Ii

j=1

i = 1,2,..., n, (7)

где а,^,х), gi(t,и), г = 1,2,.,п, - непрерывные функции по первой переменной и непрерывно дифференцируемые по второй переменной; м>у ^), г,у = 1,2,.,п, - непрерывные функции; ^), г = 1,2,.,п, - непрерывно дифференцируемые функции.

Введение функций а,^,х), г = 1,2,.,п, в уравнение (7) означает нелинейную обратную связь.

* * *

Будем исследовать установившееся решение х ^) = (-1 ^),.,хп^)) системы (7) при начальных условиях

Х (0) = хг, г = 1,2,.,п. (8)

Дадим нейронной сети возмущение

х, (0) = х1 + а,, г = 1,2,.,п, (9)

и исследуем динамику возмущенного решения х^) = (х^),., хп (t)).

Введем новую переменную и ^) = (ul(t),., ип ^)), где

*

и1 ^) = (хг ^) - хг ^)), г = 1,2,.,п. Тогда задачу Коши (7), (9) можно представить в виде

dui (t)

dt

= -a (t, x* (t) + Ui (t)) + gi

Swij (t) fj (x* (t) + Ui (t)) + Ii

j=1

-at (t, x*(t)) + ;

SWij (t) fj (x* (t)) + Ii i=1

i = 1,2,., n

(10)

Ui (0) = ai, i = 1,2,.,n.

(11) 47

Введем следующие обозначения: * д

Эх

Э { п ^

7, Т™/ с) Гз(х*)

/=1

, 7, / =1,2, ., п,

Д (а, х*, 7) = — о, (7, х ), 7 =1, 2,„., п. Эх7

Преобразуем выражение, стоящее в правой части системы (10). В результате имеем

Ши ■ (7) * *

—^ = -Д (а (7, х (7) + е,Щ (7)), х (7), 7Щ (7) +

ш

+Т^у(&,х* + е*«з,7)«з(7), 7 = 1,2,...,п, 3=1

где 0<е-, еу <1, 7,3 = 1,2,.,п .

Представим систему уравнений (12) в следующем виде:

п

(12)

(7)

л

= -Д (а1 ((,х*(7)),х*(7),7)Щ(7) + ТВу ((,х*(0,7)«/(7) -

/=1

Д (а7 ((, х* (7) + е,«,- (7)), х*, 7) - Д (а, (7, х* (7)), х*, 7

(7) +

п г

+Т °Ч ((,х* (7) + еу«з(7),7) - Д ((,х*(7),7 3 =1

«з (7)

, 7 = 1,2,.,п. (13)

Введем обозначения:

ф,- (7, х*(7),« (7 )) =

Д (а7 (7, х*(7) + е« (7)), х, 7

(а (, х*(7)), х, 7

(7), 7 = 1,2,.,п,

VI/ (7, х (7), «(7)) =

-ПУ ((, х/ (7), 7

Д/ (, х/ (7) + /■ (7), 7 )-

«/(0, 7, / = 1,2,., п.

Будем считать, что функции а (7,V), 7 = 1,2,.,п, &(7,//(V)),

Эу Эv

7, / = 1,2,., п, непрерывны по первой переменной и удовлетворяют условию Гельдера с показателем 0< а< 1 по второй переменной. Тогда, не ограничивая общности, можно считать, что выполняются неравенства

ф- (Г, х*(0, и (Г)) т < ^ (| \ы(Г )|| С[0Т]) , (14)

у у ^»Ц т ] < д2 (| |и(^)|с[с,г ] Р • (15)

Приступим к исследованию устойчивости (асимптотической устойчивости) тривиального решения системы уравнений (10). Введем матрицу

A(t, х* (t)) = {aij (t, x*(t))}, i, j = 1,..., n,

где

а- ^, х ^)) = -Б- (а- ^), х ^), t) + Б- (gi, х- ^), t), - = 1,..., п, а-у(t,хV)) = Бц(gi,х*^),t), - Ф у, у = 1,.,п. Тогда систему уравнений (13) можно представить в следующем виде: ёи^)

dt

■ = A(t,х (t))u(t) + F(t, х (t),u). (16)

Структура вектор-функции Р^, х ^), и) очевидна.

Вначале исследуем устойчивость нейронной сети. Для этого достаточно исследовать устойчивость тривиального решения системы ОДУ (16). Пусть выполнено условие Л(А(1)) < 0 . Покажем, что для любого £о >0

найдется такое 5о , 6о < £о , что при начальном возмущении ||и(0)|| < 5о траектория решения системы ОДУ (16) не покидает шар 5(0,£о) . Дадим начальному значению системы ОДУ (16) возмущение (11) с нормой || а ||<5о(а = (аь...,ап)) и покажем, что при выполнении неравенства Л( A(t)) < 0, t е [0, траектория решения задачи Коши (16), (11) не покидает шар 5(0,£о) . Доказательство проведем от противного. Пусть в момент времени Т траектория решения задачи Коши (16), (11) покидает шар В(0,£о) . При t > Т уравнение (16) можно представить следующим образом:

du(t) dt

= A (t , x* (T)) u (t) + F (t, x*(t), u) + F (t, x*(t), u). (17)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Структура вектор-функции Р^, х ^), и) очевидна. Решение уравнения (17) при t > Т имеет вид

и ^) = ехр{ А(Т, х*(Т ))(t - Т )}и (Т) + | ехр{ А(Т, х* (Т ))(t - 5 )} (Р ( 5, х*(5 ), и) + Р ( 5, х* (5), и ))ё5. (18)

t

+

T

Переходя к нормам, имеем

||u(t)|| < exp{Л(A(т,x*(T)))(t -T)}||u(T)|| +

t

\ exp {( A (t , x*(T))) (t - s)

+

T

F(s, x (s),u)

+

F(s, x (s),u)

(19)

Из структуры функции F(s, x (s),u) и неравенств (14), (15) следует,

II ** II III |1 + a *

что У F(s, x (s),u) ||< C у u у . Из структуры функций F(s, x (s),u) следует, что существует интервал времени [T, Tj] такой, что при t е [T, T|] выполняются неравенства

|| F(s,x*(s),u) ||<|| u(t) ||j+a< 5q || u(t) ||.

Таким образом, существует промежуток времени, [T, Tj], в течение

которого || F(s,x*(s),u) || +1| F(s,x*(s),u) ||< (||u(t)||a + So )||u(t)|| < 35q )||u(t)||.

Из неравенства (19) стандартными рассуждениями [10, 29] приходим к неравенству

|| u(t) ||< е(Л({А(Т,xV)))+3S0 )(t-T)} || u(T) ||. (20)

Из неравенства (20) при t е (T, Tj] и при выполнении неравенства Л(A(T, x (T))) + 3Sq < 0 вытекает оценка

|| u(t) ||<|| u(T) || .

Следовательно траектория решения системы ОДУ (16) (и, следовательно, (10)) при возмущении с нормой So не покидает шар B(0,So). Таким образом, получено противоречие, из которого следует устойчивость тривиального решения системы ОДУ (16) и, следовательно, устойчивость нейронной сети (7).

Асимптотическая устойчивость тривиального решения системы уравнений (10) доказывается (при выполнении условия Л(A(t)) <-K(t)< Kq <0, t е [0, го)) по аналогии с доказательством, приведенным в [27].

*

Теорема 2.1. Пусть при t е [0,^) выполнено условие x (t))) < 0

*

(Л(A(t,x (t))) <-K(t)< — Kq <0). Тогда установившееся решение задачи Ко-ши (7), (8) устойчиво (асимптотически устойчиво).

Замечание. Из этой теоремы следует устойчивость (асимптотическая устойчивость) нейронной сети Кохена - Гроссберга, моделируемой системой ОДУ (7).

3. Устойчивость обобщенной нейронной сети Коэна - Гроссберга с запаздываниями

Рассмотрим следующее обобщение нейронной сети Коэна - Гроссберга с запаздываниями, зависящими от времени:

dxi (t) , , чч iW = -ai (t, xi (t)) + gi

dt

Yyj (t) fj (xj (t))+ь

j=i

+

flij(t )dj (xj (t-n j(t))) j=1

i = 1,2,., n

(21)

где ai (t, x), gi (t, u), Ci (t, u), i = 1,2,...,n, - функции, непрерывные по первой переменной и непрерывно дифференцируемые по второй переменной; w>y (t), lij(t), i,j = 1,2,.,n, - непрерывные функции; f (tX di(tX i = 1,2,.,n, -непрерывно дифференцируемые функции; п*(t), i = 1,2,..,n, te [0,-непрерывные функции, H = max sup | n (t) |.

* * *

Будем исследовать установившееся решение x (t) = (x1 (t),.,xn(t)) системы (21) при начальных условиях:

xj(t) = x0(t), te [-H,0], i = 1,2,.,n. Дадим нейронной сети возмущение

xi(t) = x0(t) + a,(t), te[-H,0], i = 1,2,.,n,

(22)

(23)

и исследуем динамику возмущенного решения х^) = (х1 (t),., хп (t)).

Введем новую переменную и ^ ) = (ul(t),., ип ^)), где

*

и1 (0 = (х- (t) - х- (ф, - = 1,2,.,п. Тогда задачу Коши (21), (23) можно представить в виде

du (t) / *

г • = -ai (t, x* (t) + u (t)) + gi

f

dt

Ywj (t) fj ((t)+u (t))+i*

j=1

Л

at (t, x* (t)) +

+

+C

-Ci

Yyj (t) fj (x* (t))+i*

j=1

Yjij (t)dj (xj (t - n j (t)) + uj (t - n j (t))

j=1

i = 1,2,., n,

Yjij (t)dj ((t -n j (t))

j=1

щ (t) = ai (t), t e [-H,0], i = 1,2,., n. Введем обозначения:

(24)

(25)

~ * д -^-л

Dj (с, Xj, 0 = — c (t, yiif (t)dj (Vj))| * n i, j = 1,2,..., n.

dvj vj=xj(tj(t))

Задачу Коши (24), (25) можно записать в следующем виде: du (t) n

ddi = -Di (a,x*(t),t)(t) + £Dj■ (,xj(t),t)(t) +

j=1

n n

+YPij (с,x*(t), t)(t-nij(t)) + fi (t,a,x*(t))(t) + ^fij (t,g,x*(t))(t) + j=1 j=1

n

+2fj (t,c,x*(t-Пj)) (t-Пj(t)), i = 1,2,.,n, (26)

j=1

U(t) = ai(t),te [-H,0],i = 1,2,.,n. (27)

Структура функций fi (t, a, x*(t)), i = 1,.,n, fj (t, g, x*(t)), i, j = 1,., n,

fij (t, c, x*(t -пг-)), i, j = 1,., n, очевидна.

В матричной форме система (26) имеет вид

ddp = A(t, x* (t ))u (t) + B (t, c, x*(t - n (t))) u(t - n (t)) + F (t, x* (t), n(t)), (28)

где n(t) = (П1 (t),., Пп (t)).

*

Матрица A(t, x (t)) была определена в предыдущем разделе, построе-

**

ние матрицы B(t,с,x (t-n(t))) и вектор-функции F(t,x (t),n(t)) очевидно. Покажем, что при выполнении условий

Л(A(t,x*(t)))+1| B(t,с,x*(t-n(t))) 11< 0

(Л(A(t,x*(t)))+11B(t,c,x*(t-n(t))) ||<-к<0), te [0,

тривиальное решение системы уравнений (26) устойчиво (асимптотически устойчиво).

Вначале докажем устойчивость тривиального решения системы ОДУ (26). Покажем, что если тривиальное решение системы ОДУ (26) возмущено начальными условиями u^(t) = (t), i = 1,2,..,n, te [-H,0], с нормой

max || u(t) ||^6q, то траектория решения системы ОДУ (26) не покидает

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

te[-H ,0]

сферы B(0,60). Доказательство проведем от противного. Пусть в момент времени T, T > 0, траектория решения системы ОДУ (26) покидает сферу B(0, 6q ). При t > T систему уравнений (26) можно представить в виде

du(t)

dt

= A(T,x (T))u(t) + B(t,c,x (t-n(t)) )u(t-n(t)) + F(t,x (t),n(t)). (29)

~ *

Структура вектор-функции F(t, x (t), n(t)) очевидна. При t > T решение уравнения (29) имеет вид

u (t) = exp { A(T, x* (T ))(t - T)} u(T) +

t

+J exp {A(T, x*(T ))(t-s)} (5, c, x* (s-n(s)) )u (s-n(s))ds +

T

t

+J exp {A(T, x* (T ))(t - s)}F (s, x* (s), n(s))ds. (30)

T

Переходя к нормам, имеем

|| u (t) 11< exp {Л(A(T, x* (T))(t - T))} 11 u (T) 11 +

t

+Jexp{(A(T, x* (T))(t - s))} 115 (s,c, x*(s - n(s)) )u(s - n(s)) 11 ds +

T

t

+Jexp{(A(T,x*(T))(t - s))}|| F(s,x*(s),n(s)) || ds. (31)

T

Повторяя рассуждения, приведенные в предыдущем разделе, можно показать, что

|| F (t, x*(t), n(t)) ||< 35а (|| u (t) || +1| u (t - n(t))). Следовательно,

11 u (t) 11< exp {Л(A(T, x* (T))(t - T))} 11 u (T) 11 +

t

+J exp {(A(T, x*(T ))(t - s))}

T

t

+Jexp{(A(T,x*(T))(t - s))} || u(s) || ds. (32)

T

Рассмотрим два случая:

1) min inf | П/ |>0; 1<i<nfe[-H H

2) min inf | П; |= 0.

1<i<nfe[-H H

Вначале остановимся на первом случае. Так как в момент времени T траектория решения задачи Коши (29), (27) впервые покидает шар 5(0, 5q), то существует интервал времени [T, 71], в течение которого справедливо

ß s, с, х (5 -п00)

+ 35® III w (5-n( 5)) II äs +

неравенство || и (г -П(г)) ||<|| и(г) ||. Это неравенство позволяет усилить неравенство (32):

|| и(г) ||< ехр{л(А(Т,х*(Т))(г -Т))} || и(Т) || +

г

+|ехр{л(А(Т,х*(Т))С -5))}( Вс,х*(я-п(^))) + 38")||и(5)||Ж +

г

+

Т

|ехр{л(А(Т,х*(Т))(г -5))} || и(5) || Ж. (33)

Воспользовавшись неравенством (33), стандартными рассуждениями, приходим к оценке

|| и (г) ||< ехр{(Л( А(Т, х*(Т)))+1| В(Т, с, х*(Т)) || +380)(г - Т))} || и (Т) ||. (34)

Из неравенства (34) следует, что при г е (Т, Т|] траектория начальной задачи (29), (27) не покидает шар В(0,8д).

Рассмотрим второй случай. Здесь нужно рассмотреть несколько си* *

туаций. Пусть имеется точка Т , Т < Т, такая, что при одном из индексов г,

**

1 = 1,.,« Пг (Т ) = 0, и в интервале (Т ,Т) > 0.

Рассмотрим следующую ситуацию. Пусть при одном из индексов г, г = 1,..., п Пг (Т) = 0, и в интервале [Т, Т2] Пг =0. Тогда существует интервал [Т,Т3], Т3 <72, в котором Пг =0. Таким образом, и эта ситуация приводит к первому случаю и || и (г) ||<|| и (Т) || при г е (Т, Т4).

Осталось рассмотреть ситуацию, когда при одном из индексов г, г = 1,...,« Пг(Т) = 0, и в интервалах Т5,Т),(Т,Т6] Пг >0. Нетрудно видеть, что существует интервал [Т, Ту], Ту < Т6, в котором || и (г-п(г) ||<|| и (г) ||. Таким образом, и эта ситуация приводит к первому случаю и || и (г) ||<|| и (Т) || при ге (Т,Ту).

Из проведенного выше анализа следует, что при выполнении условий

л(, х*(0))+ в ((, с, х*(г - п(г)))

< 0 тривиальное решение системы уравне-

ний (26) устойчиво.

Асимптотическая устойчивость тривиального решения системы урав-

* *

нений (26) при выполнении условия Л(А(г,х (г)))+ || В(г,с,х (г-п(0)) ||< < -к < 0 , г е [0, го), доказывается по аналогии с рассуждениями, приведенными в [27, 28].

Заключение

В работе предложен достаточно общий метод нахождения достаточных условий устойчивости решений систем ОДУ с запаздываниями. Дано приложение этого метода к исследованию устойчивости нейронных сетей Коэна -

Гроссберга с функциями активации, зависящими от времени и с запаздываниями, зависящими от времени. В дальнейших работах авторов предполагается распространить этот метод на более общие нейронные сети.

Список литературы

1. Hopfield J. J. Neural Networks and Physical Systems with Emergent Collective Computational Abilities // Proceedings of the National Academy of Sciences. USA, 1982. Vol. 79. P. 2554-2558.

2. Hopfield J. J., Tank D. W. Neural Computation of Decision in Optimization Problems // Biological Cybernetics. 1985. Vol. 52. P. 141-152.

3. Haykin S. Neural Networks: A Comprehensive Foundation. New Jersey : Prentice Hall, 1999.

4. Gupta M. M., Jin L., Hamma N. Static and Dynamic Neural Networks. From Fundamentals to Advanced Theory // IEEE Press. New York : Wiley Interscience, 2005. 722 p.

5. Varga I., Elek G., Zak S. H. On the brain-state-in-a-convex-domain neural models // Neural Networks. 1996. Vol. 9, № 7. P. 1173-1184.

6. Cohen M. A., Grossberg S. Absolute stability of global pattern formation and parallel memory storage by competitive neural networks // IEEE Transaction on Systms, Man and Cybernetics. 1983. Vol. SMC-13. P. 815-826.

7. Grossberg S. Content-addresable memory storage by neural networks: A general model and global Liapunov method // Computational Neuroscience / ed. E. L. ISchwartz. Cambridge : MA. MIT Press, 1990. P. 56-65.

8. McCulloch W. S., Pitts W. A logical calculus of the ideas imanent in nervous activity // Bulletin of Mathematical Biophysics. 1943. Vol. 5. P. 115-133.

9. Филиппов А. Ф. Дифференциальные уравнения с разрывной правой частью. М. : Наука, 1985. 224 с.

10. Бойков И. В. Устойчивость решений дифференциальных уравнений. Пенза : Изд-во ПГУ. 2008. 244 с.

11. Forti M., Manetti S., Marini M. Necessary and sufficient conditions for absolute stability of neural networks // IEEE Trans. Circuits Syst. I: Fundamental Theory Appl. 1994. Vol. 41, № 7. P. 491-494.

12. Yang X., Liao X., Li C., Evans D. New estimate on the domains of attraction of equilibrium points in continuous Hopfield neural networks // Physics Letters A. 2006. Vol. 351 (3). P. 161-166. doi: 10.1016/j.physleta.2005.10.091

13. Fang Y., Kincaid T. G. Stability Analysis of Dynamical Neural Networks // IEEE Transcriptions of Neural Networks. 1996. Vol. 7, № 4. P. 996-1006.

14. Boykov I., Roudnev V., Boykova A. Stability of solutions to systems of nonlinear differential equations with discontinuous right-hand sides. Applications to Hopfield artificial neural networks // Mathematics. 2022. Vol. 1.

15. Boikov I. V. Stability of Hopfield neural networks // Automation and Remote Control. 2003. Vol. 64, № 9. P. 1474-1487.

16. Yang H., Dillon T. S. Exponential stability and oscilation of Hopfield graded response neural networks // IEEE Trans. Neural Networks. 1994. Vol. 5, № 5. P. 719-729.

17. Boukas E.-K., Al-Muthairi N. F. Delay-dependent stabilization of singular linear systems with delays // Int. J. Innov. Comput. Inf. Control. 2006. Vol. 2, № 2. P. 283-291.

18. Mou S., Gao H., Lam J., Qiang W. A new criterion of delay-dependent asymptotic stability for Hopfield neural networks with time delay // IEEE Transactions on Neural Networks. 2008. Vol. 19, № 3. P. 532-535.

19. Zhao K., Li Y. Robust Stability Analysis of Fuzzy Neural Network with Delays // Hindawi Publishing Corporation Mathematical Problems in Engineering. 2009. Vol. 2009, Article ID 826908. P. 13. doi: 10.1155/2009/826908

20. Chen J., Sun J., Liub G. P., Rees D. New delay-dependent stability criteria for neural networks with time-varying interval delay // Physics Letters A. 2010. Vol. 374. P. 4397-4405. doi: 10.1016/j.physleta.2010.08.070

21. Abbas S., Mahto L., Hafayed M., Alimi A. M. Asymptotic almost automorphic solutions of impulsive neural network with almost automorphic coefficients // Neurocomputing. 2014. Vol. 142. P. 326-334.

22. Changyin Sun, Shiji Song, Chun-Bo Feng. On Global Robust Exponential Stability of Interval Neural Networks with delays // Conference: Neural Networks, 2002. IJCNN'02. Proceedings of the 2002 International Joint Conference on Volume: 3. 2002.

23. Бойков И. В. Устойчивость нейронных сетей Хопфилда с запаздыванием // Известия высших учебных заведений. Поволжский регион. Физико-математические науки. 2012. № 2. С. 85-98.

24. Yin L., Chen Y., Zhao Y. Global Exponential Stability for a Class Neural Networks with Continuously Distributed Delays // Advances in Dynamical Systems and Applications. 2009. Vol. 4, № 2. P. 221-229.

25. Souza F. O, Palhares R. M, Ekel P. Y. Asymptotic stability analysis in uncertain multi-delayed state neural networks via Lyapunov -K rasovskii theory // Mathematical and Computer Modelling. 2007. Vol. 45. P. 1350-1362.

26. Faydasicok O. New criteria for global stability of neutral-type Cohen - Grossberg neural networks with multiple delays // Neural Networks. 2020. Vol. 125. P. 330-337.

27. Бойков И. В. Устойчивость установившихся решений систем нелинейных неавтономных дифференциальных уравнений с запаздываниями // Дифференциальные уравнения. 2018. Т. 54, № 4. С. 435-457.

28. Бойков И. В. Достаточные условия устойчивости решений систем обыкновенных дифференциальных уравнений с запаздываниями, зависящими от времени. Ч. III. Нелинейные уравнения // Известия высших учебных заведений. Поволжский регион. Физико-математические науки. 2019. № 2. С. 3-20. doi: 10.21685/2072-30402019-2-1

29. Далецкий Ю. Л., Крейн М. Г. Устойчивость решений дифференциальных уравнений в банаховом пространстве. М. : Наука, 1970. 536 с.

References

1. Hopfield J.J. Neural Networks and Physical Systems with Emergent Collective Computational Abilities. Proceedings of the National Academy of Sciences. USA, 1982;79:2554-2558.

2. Hopfield J.J., Tank D.W. Neural Computation of Decision in Optimization Problems.

Biological Cybernetics. 1985;52:141-152.

3. Haykin S. Neural Networks: A Comprehensive Foundation. New Jersey: Prentice Hall, 1999.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

4. Gupta M.M., Jin L., Hamma N. Static and Dynamic Neural Networks. From Fundamentals to Advanced Theory. IEEE Press. New York: Wiley Interscience, 2005:722.

5. Varga I., Elek G., Zak S.H. On the brain-state-in-a-convex-domain neural models. Neural Networks. 1996;9(7): 1173-1184.

6. Cohen M.A., Grossberg S. Absolute stability of global pattern formation and parallel memory storage by competitive neural networks. IEEE Transaction on Systms, Man and Cybernetics. 1983;SMC-13:815-826.

7. Grossberg S. Content-addresable memory storage by neural networks: A general model and global Liapunov method. Computational Neuroscience. Ed. E.L. ISchwartz. Cambridge: MA. MIT Press, 1990:56-65.

8. McCulloch W.S., Pitts W. A logical calculus of the ideas imanent in nervous activity. Bulletin of Mathematical Biophysics. 1943;5:115-133.

9. Filippov A.F. Differentsial'nye uravneniya s razryvnoy pravoy chast'yu = Differential equations with discontinuous right-hand side. Moscow: Nauka, 1985:224. (In Russ.)

10. Boykov I.V. Ustoychivost' resheniy differentsial'nykh uravneniy = The stability of solutions to differential equations. Penza: Izd-vo PGU. 2008:244.

11. Forti M., Manetti S., Marini M. Necessary and sufficient conditions for absolute stability of neural networks. IEEE Trans. Circuits Syst. - I: Fundamental Theory Appl. 1994;41(7):491-494.

12. Yang X., Liao X., Li C., Evans D. New estimate on the domains of attraction of equilibrium points in continuous Hopfield neural networks. Physics Letters A. 2006;351(3):161-166. doi: 10.1016/j.physleta.2005.10.091

13. Fang Y., Kincaid T.G. Stability Analysis of Dynamical Neural Networks. IEEE Transcriptions of Neural Networks. 1996;7(4):996-1006.

14. Boykov I., Roudnev V., Boykova A. Stability of solutions to systems of nonlinear differential equations with discontinuous right-hand sides. Applications to Hopfield artificial neural networks. Mathematics. 2022;1.

15. Boikov I.V. Stability of Hopfield neural networks. Automation and Remote Control. 2003;64(9):1474-1487.

16. Yang H., Dillon T.S. Exponential stability and oscilation of Hopfield graded response neural networks. IEEE Trans. Neural Networks. 1994;5(5):719-729.

17. Boukas E.-K., Al-Muthairi N.F. Delay-dependent stabilization of singular linear systems with delays. Int. J. Innov. Comput. Inf. Control. 2006;2(2):283-291.

18. Mou S., Gao H., Lam J., Qiang W. A new criterion of delay-dependent asymptotic stability for Hopfield neural networks with time delay. IEEE Transactions on Neural Networks. 2008;19(3):532-535.

19. Zhao K., Li Y. Robust Stability Analysis of Fuzzy Neural Network with Delays. Hindawi Publishing Corporation Mathematical Problems in Engineering. 2009;2009(ID 826908):13. doi: 10.1155/2009/826908

20. Chen J., Sun J., Liub G.P., Rees D. New delay-dependent stability criteria for neural networks with time-varying interval delay. Physics Letters A. 2010;374:4397-4405. doi: 10.1016/j.physleta.2010.08.070

21. Abbas S., Mahto L., Hafayed M., Alimi A.M. Asymptotic almost automorphic solutions of impulsive neural network with almost automorphic coefficients. Neurocomputing. 2014;142:326-334.

22. Changyin Sun, Shiji Song, Chun-Bo Feng. On Global Robust Exponential Stability of Interval Neural Networks with delays. Conference: Neural Networks, 2002. IJCNN'02. Proceedings of the 2002 International Joint Conference on Volume: 3. 2002.

23. Boykov I.V. The stability of Hopfield neural networks with delay. Izvestiya vysshikh uchebnykh zavedeniy. Povolzhskiy region. Fiziko-matematicheskie nauki = University proceedings. Volga region. Physical and mathematical sciences. 2012;(2):85-98. (In Russ.)

24. Yin L., Chen Y., Zhao Y. Global Exponential Stability for a Class Neural Networks with Continuously Distributed Delays. Advances in Dynamical Systems and Applications. 2009;4(2):221-229.

25. Souza F.O, Palhares R.M, Ekel P.Y. Asymptotic stability analysis in uncertain multi-delayed state neural networks via Lyapunov -K rasovskii theory. Mathematical and Computer Modelling. 2007;45:1350-1362.

26. Faydasicok O. New criteria for global stability of neutral-type Cohen - Grossberg neural networks with multiple delays. Neural Networks. 2020;125:330-337.

27. Boykov I.V. The stability of steady-state solutions of systems of non-linear non-autonomous differential equations with delays. Differentsial'nye uravneniya = Differential equations. 2018;54(4):435-457. (In Russ.)

28. Boykov I.V. Sufficient conditions for the stability of systems of ordinary differential time-dependent delay equations. Part 3. Nonlinear equations. Izvestiya vysshikh uchebnykh zavedeniy. Povolzhskiy region. Fiziko-matematicheskie nauki = University proceedings. Volga region. Physical and mathematical sciences. 2019;(2):3-20. (In Russ.). doi: 10.21685/2072-3040-2019-2-1

29. Daletskiy Yu.L., Kreyn M.G. Ustoychivost' resheniy differentsial'nykh uravneniy v banakhovom prostranstve = The stability of solutions to differential equations in a Ba-nach space. Moscow: Nauka, 1970:536. (In Russ.)

Информация об авторах / Information about the authors

Илья Владимирович Бойков

доктор физико-математических наук, профессор, профессор кафедры высшей и прикладной математики, Пензенский государственный университет (Россия, г. Пенза, ул. Красная, 40)

E-mail: [email protected]

Владимир Александрович Руднев

доктор физико-математических наук, доцент, доцент кафедры вычислительной физики, Санкт-Петербургский государственный университет (Россия, г. Санкт-Петербург, Университетская набережная, 7/9)

E-mail: [email protected]

Алла Ильинична Бойкова

кандидат физико-математических наук, доцент, доцент кафедры высшей и прикладной математики, Пензенский государственный университет (Россия, г. Пенза, ул. Красная, 40)

E-mail: [email protected]

Il'ya V. Boykov

Doctor of physical and mathematical sciences, professor, professor of the subdepartment of higher and applied mathematics, Penza State University (40 Krasnaya street, Penza, Russia)

Vladimir A. Roudnev Doctor of physical and mathematical sciences, associate professor, associate professor of the sub-department of computer physics, Saint Petersburg State University (7/9 Universitetskaya embankment, Saint Petersburg, Russia)

Alla I. Boykova

Candidate of physical and mathematical sciences, associate professor, associate professor of the sub-department of higher and applied mathematics, Penza State University (40 Krasnaya street, Penza, Russia)

Авторы заявляют об отсутствии конфликта интересов / The authors declare no conflicts of interests.

Поступила в редакцию / Received 10.03.2023

Поступила после рецензирования и доработки / Revised 23.04.2023 Принята к публикации / Accepted 20.05.2023

i Надоели баннеры? Вы всегда можете отключить рекламу.