Научная статья на тему 'ЭКСТРАПОЛЯЦИЯ РЕШЕНИЯ УРАВНЕНИЯ ДУФФИНГА ПРИ ПОМОЩИ RBF-СЕТИ'

ЭКСТРАПОЛЯЦИЯ РЕШЕНИЯ УРАВНЕНИЯ ДУФФИНГА ПРИ ПОМОЩИ RBF-СЕТИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
27
7
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ / RBF / ЗАДАЧА КОШИ / ОБЫКНОВЕННОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ / РАЗЛОЖЕНИЕ ТЕЙЛОРА / АППРОКСИМАЦИЯ / ЭКСТРАПОЛЯЦИЯ / ГИБРИДНАЯ МОДЕЛЬ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Лазовская Татьяна Валерьевна, Малыхина Галина Фёдоровна, Пашковский Дмитрий Максимович, Тархов Дмитрий Альбертович

В статье рассматривается проблема аппроксимации решения задачи Коши для обыкновенного дифференциального уравнения второго порядка. Схема аппроксимации основана на разложении решения по Тейлору с остаточным членом в форме Лагранжа. Остаточный член ищется в виде выхода нейронной сети с радиально-базисными функциями (RBF-сети). Представлен алгоритм обучения (выбора оптимальных параметров) RBF-сети. На примере решения задачи Коши для нелинейного дифференциального уравнения второго порядка - осциллятора Дуффинга исследовано влияние различных радиально-базисных функций на качество интерполяции и экстраполяции решения уравнения Дуффинга.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Лазовская Татьяна Валерьевна, Малыхина Галина Фёдоровна, Пашковский Дмитрий Максимович, Тархов Дмитрий Альбертович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

EXTRAPOLATION OF DUFFING EQUATION SOLUTION BY USING RBF NETWORK

The article considers the problem of approximation of the solution of the Cauchy problem for an ordinary differential equation of the second order. The approximation scheme is based on the Taylor expansion of the solution with a remainder in the Lagrange form. The residual term is sought in the form of the output of a neural network with radial basis functions (RBF networks). An algorithm for learning (choosing the optimal parameters) of the RBF network is presented. Using the example of solving the Cauchy problem for a second-order nonlinear differential equation - the Duffing oscillator, the influence of various radial-basis functions on the quality of interpolation and extrapolation of the solution to the Duffing equation is investigated.

Текст научной работы на тему «ЭКСТРАПОЛЯЦИЯ РЕШЕНИЯ УРАВНЕНИЯ ДУФФИНГА ПРИ ПОМОЩИ RBF-СЕТИ»

НАУЧНОЕ ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ В ОБРАЗОВАНИИ И НАУКЕ / SCIENTIFIC SOFTWARE IN EDUCATION AND SCIENCE

УДК 519.622

DOI: 10.25559/SITITO.17.202104.998-1006

Научная статья

Экстраполяция решения уравнения Дуффинга при помощи RBF-сети

Т. В. Лазовская, Г. Ф. Малыхина, Д. М. Пашковский, Д. А. Тархов*

ФГАОУ ВО «Санкт-Петербургский политехнический университет Петра Великого», г. Санкт-Петербург, Российская Федерация

Адрес: 195251, Российская Федерация, г. Санкт-Петербург, ул. Политехническая, д. 29 * dtarkhov@gmail.com

Аннотация

В статье рассматривается проблема аппроксимации решения задачи Коши для обыкновенного дифференциального уравнения второго порядка. Схема аппроксимации основана на разложении решения по Тейлору с остаточным членом в форме Лагранжа. Остаточный член ищется в виде выхода нейронной сети с радиально-базисными функциями (RBF-сети). Представлен алгоритм обучения (выбора оптимальных параметров) RBF-сети. На примере решения задачи Коши для нелинейного дифференциального уравнения второго порядка - осциллятора Дуф-финга исследовано влияние различных радиально-базисных функций на качество интерполяции и экстраполяции решения уравнения Дуффинга.

Ключевые слова: искусственная нейронная сеть, RBF, задача Коши, обыкновенное дифференциальное уравнение, разложение Тейлора, аппроксимация, экстраполяция, гибридная модель

Авторы заявляют об отсутствии конфликта интересов.

Для цитирования: Экстраполяция решения уравнения Дуффинга при помощи RBF-сети / Т. В. Лазовская, Г. Ф. Малыхина, Д. М. Пашковский, Д. А. Тархов // Современные информационные технологии и ИТ-образование. 2021. Т. 17, № 4. С. 998-1006. doi: https://doi.org/10.25559/ SITITO.17.202104.998-1006

|© Лазовская Т. В., Малыхина Г. Ф., Пашковский Д. М., Тархов Д. А., 2021|

Контент доступен под лицензией Creative Commons Attribution 4.0 License. The content is available under Creative Commons Attribution 4.0 License.

Современные информационные технологии и ИТ-образование

Том 17, № 4. 2021

ISSN 2411-1473

sitito.cs.msu.ru

Extrapolation of Duffing Equation Solution by Using RBF Network

The article considers the problem of approximation of the solution of the Cauchy problem for an ordinary differential equation of the second order The approximation scheme is based on the Taylor expansion of the solution with a remainder in the Lagrange form. The residual term is sought in the form of the output of a neural network with radial basis functions (RBF networks). An algorithm for learning (choosing the optimal parameters) of the RBF network is presented. Using the example of solving the Cauchy problem for a second-order nonlinear differential equation - the Duffing oscillator, the influence of various radial-basis functions on the quality of interpolation and extrapolation of the solution to the Duffing equation is investigated.

Keywords: artificial neural network, RBF, Cauchy problem, ordinary differential equation, Taylor expansion, approximation, extrapolation, hybrid model

The authors declare no conflict of interest.

For citation: Lazovskaya T.V., Malykhina G.F., Pashkovskiy D.M., Tarkhov D.A. Extrapolation of Duffing Equation Solution by Using RBF Network. Sovremennye informacionnye tehnologii i IT-obrazovanie = Modern Information Technologies and IT-Education. 2021; 17(4):998-1006. doi: https://doi. org/10.25559/SlTlTO.17.202104.998-1006

T. V. Lazovskaya, G. F. Malykhina, D. M. Pashkovskiy, D. A. Tarkhov*

Peter the Great St. Petersburg Polytechnic University, Saint Petersburg, Russian Federation Address: 29 Polytechnicheskaya St., St.Petersburg 195251, Russian Federation * dtarkhov@gmail.com

Abstract

Modern Information Technologies and IT-Education

научное программное обеспечение в образовании и науке

Т. В. Лазовская, Г. Ф. Малыхина, Д. М. Пашковский, Д. А. Тархов

Введение

Широкое внедрение киберфизических систем в производство - одна из основных тенденций четвертой промышленной революции. Киберфизическая система строится как целостное соединение реального объекта, который можно рассматривать как технологические линии, робототехнические комплексы, машины с компьютерным управлением, предприятия с интегрированными интеллектуальными системами управления, с информационной частью, функционирующей на соответствующих вычислительных узлах. Эффективность таких систем во многом определяется тем, насколько точно математическая модель реального объекта описывает его поведение. Традиционные подходы к математическому моделированию основаны на максимально точном решении дифференциальных уравнений с начальными и краевыми условиями. В то же время само уравнение может недостаточно точно отражать поведение объекта. Более того, свойства объекта со временем могут изменяться. Таким образом, рассматривается заведомо неточная модель поведения реального объекта. Поэтому важно строить адаптивные математические модели, которые могли бы подстраиваться под данные наблюдений за моделируемым объектом. В данном случае кажется естественным использование различных методов нейросетевой аппроксимации решения дифференциальных уравнений. В последнее время новые классификации модельных парадигм часто обсуждаются в литературе [1]. Набирают популярность гибридные модели, сочетающие машинное обучение на основе данных с моделированием на основе физики [2]. Аппроксимация решений дифференциальных уравнений нейронной сетью изучается уже несколько десятилетий. Одной из первых была работа Ла-гариса и др. [3], в которой рассматривались краевые задачи. Статья [4] представляет обзор и классификацию различных основных методов нейронных сетей. Решение обыкновенных дифференциальных уравнений высших порядков с помощью RBF-сетей обсуждается в [5]. В [5] также рассматривается задача Коши и приближенное решение получается в виде ряда с неизвестными коэффициентами нейронной сети. Неизвестные коэффициенты предлагается также аппроксимировать искусственными нейронными сетями двумя разными способами. Ряд наших работ [6-8] также посвящен приближенным нейросетевым методам решения дифференциальных уравнений. Нейронные сети использовались для прогнозирования сложных параметров системы в [9]. В [10] полуэмпирические нейронные сети рассматриваются как инструмент моделирования управляемых динамических систем. В настоящее время достаточно популярным стало решение дифференциальных уравнений с использованием нейронных сетей глубокого обучения и их аналогов, такой под ход ста но вится все бо лее р ас-пространенным явлением [11-14].

Мы рассматриваем способ перехода от дифференциальной модели к модели нейронной сети, обладающей адаптивностью и устойчивостью к помехам. Модели этого типа удобны для реализации во встроенных системах, необходимых для создания киберфизических систем.

В данной статье предлагаемый нами подход применяется к построению аппроксимации решения задачи Коши для уравнения Дуффинга [15-17], [19].

В"(х)ов(х)оев3(х) = 0, в(X) = в0, в'(X) = 0, Vxе В с 1 (1]

Аппроксимации решения строится на основе формулы Тейлора с остаточным членом в форме Лагранжа. Остаточный член представляется в форме RBF-сети. В статье представлен алгоритм обучения данной гибридной модели, проведено исследование параметров этой системы и найдены их оптимальные значения.

Полученная аппроксимация решения может использоваться для интерполяции решения на области, где задана обучающая выборка, а также для экстраполяции решения за границу обучающей выборки.

Основная часть

1. Общая схема решения

Рассмотрим отрезок [х0 х^], содержащий измеренные значения временного ряда, при этом данный отрезок примем за базовый. Буквой ё - обозначим длину базового отрезка. На отрезке [хЛ] построим аппроксимацию значений временного ряда. Далее, имея аппроксимирующую функцию, можно вычислить прогноз в точке хм+кё, где к - некоторая доля от длины базового отрезка. На Рис. 1 представлена экстраполяции.

Р и с. 1. Иллюстрация к общей схеме алгоритма экстраполяции F i g. 1. Illustration of the general scheme of the extrapolation algorithm

Аппроксимирующая функция временного ряда ищется в виде разложения решения уравнения (1] по формуле Тейлора с остаточным членом в форме Лагранжа:

в(х) = в(хо0о в (!р(хсДСо в в,р(*с*0)2 о (22]

Разложение ищется в окрестности точки х0. В этой формуле остаточный член является погрешностью при замене исходной функции у(х) многочленом Тейлора в окрестности точки х0. В данной работе для дифференциального уравнения Дуффинга мы берём первые три слагаемых:

в ( х) = в ( хс )о в ((Х° ) (х с хс) о (х с xo)2, £е[ хс,х ] (3]

Современные информационные технологии и ИТ-образование

Том 17, № 4. 2021

ISSN 2411-1473

sitito.cs.msu.ru

T. V. Lazovskaya, G. F. Malykhina, D. M. Pashkovskiy, D. A. Tarkhov

Данное выражение дает точную аппроксимацию в окрестности точки х0. Для возможности использования формулы (3) требуется вычислить значения коэффициента в остаточном члене. Этот коэффициент предлагается искать в виде приближения RBF-сетью:

7" (4)

'N w, c, s )

где RBF-сеть имеет вид1:

N(£w,c,s) = ]Tj (#) + w0

(4)

(5)

где

( \ J=l Ф] (x) - радиально-базисная функция.

от четырех аргументов: W = [ wo w1 ...

] - вектор весов,

[cj С, ... ек ] T - вектор положения центров ба-

зисных функций,

= [

si s2

J

вектор, содержащий ширину

каждой базисной функции,

где: К - количество базисных функций.

Радиально-базисные функции ф (х) являются функциями трех аргументов:

Тогда выражение (3) представляется в форме:

У (x) = y (Хо)+ У( Xo) (x - Xo) + (x - x)2 N (£,w,c,s) (6)

Получив аппроксимирующую функцию в форме (6), можно спрогнозировать решение, используя эту функцию. Экстраполяция за пределы базового отрезка вычисляется по следующей формуле:

У (x„ + h) = y( Xo) + У (Xo) (Xn + h-Xo) + (Xn + h - Xo)2 N (£w,c,s) (7)

Псевдокод вычисления экстраполяции в форме (6) и RBF-сети

в точке хр:

Algorithm 1: Extrapolation function Extrapolation(xo, Уп, y'n, £, xr, w, c, s)

N 0 к

N = 2 + wo

j=i

return yB 1 Уц(%р Xo) I (ij, x0)2N

Для экстраполяции с минимальным отклонением от реальных значений требуется подобрать оптимальные параметры RBF-сети, таким образом, чтобы минимизировать ошибку при интерполяции временного ряда на базовом отрезке.

Алгоритм обучения RBF-сети

ф (x) = Ф(Xcj, sJ

(8)

= X

Далее приведём вычисления 4 . Для других способов выбора промежуточной точки они проводятся аналогично. Подставим выражение (5) в уравнение второго порядка

7 " = / ( х 7 '), 7 (х0) = , У (х0) = 7о:

d2y(x) dx1

(Уо +(x Xo))o + (x-x0)2N(X'WC'S))X

= 2N ( x, w,c,s ) + 4(x - x0)

dN (x, w, c, s ) 2 d1N ( x, w, c, s )

dx

- + (x- xo)2

dx2

* K dф (x) * d2ф (x)

= 2£ j(x) + 2wo + 4(x - xo)2 WJ dx + (x - xo ) ^ WJ J = f (x*y' У ')

dx2

(9)

Выражение (9) является условием интерполяции в точке х. Для приближенного выполнения (9) требуется подобрать такие оптимальные векторы w, ^ s, чтобы минимизировать ошибку.

Для этого берутся значения временного ряда на базовом отрезке.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

■XeAy( X,)=y,> у' (Xi) = y',=..

где D - базовый отрезок.

(io)

Под обучением нейронной сети понимается процесс подбора оптимальных параметров в выражении (5), при котором бы достигался минимум разницы между точным решениему(х) и аппроксимацией RBF-сетью.

RBF-сеть (5) представляется в виде линейной комбинации базисных функций с учетом весовых коэффициентов и зависит

Для каждого из (10) запишем уравнение (9). Полученную систему алгебраических уравнений можно представить в матричной форме:

А-те = ¥ (11)

где А - матрица Грина размера их (К + 1):

A =

2 2ф(х) + 4(x - xo^dx+(x-xo)222

dx G,X

2 2Ф(X2) + 4(X2-X0)фx) + (x-xo)222 dx dx

2 2ф(х) + 4(x-Xo^dX)+(x„-xo)222 dx dx

к (X) + 4(X-+ (xj-Xo)222

dx dx

2фк (X2)+4(X2-Xo) 2 + (X2 - Xo)2

dx dx

Г (x„) + 4(x„-Xo) " + (x„ - Xo)2

dx dx

(12)

1 Haykin S. O. Neural Networks: A Comprehensive Foundation. Prentice Hall, 1998. 842 p.

Modern Information Technologies and IT-Education

научное программное обеспечение в образовании и науке

Т. В. Лазовская, Г Ф. Малыхина, Д. М. Пашковский, Д. А. Тархов

р = [/ (л1, в' ) / (^ л2, в' ) ... / (в, в: )] _ вектор

правой части размера : X1.

Все строки линейно независимы и число строк больше числа столбцов п > К+1, значит система алгебраических уравнений является переопределенной. Для такой системы вектор ^ является решением в смысле метода наименьших квадратов. Он находится при помощи псевдообратной матрицы Мура -Пенроуза2:

w = А + • Р

(13)

где A + - псевдообратная матрица к A .

Компоненты вектора c можно подбирать с помощью алгоритма К-средних [18]. Для этого х. инициализируются случайным образом значениями из D. Задается число К. Случайным образом генерируются К центров с. значениями из D. Происходит разбиение х. на К множеств S., каждое из которых соответствует центру с.. Основная идея алгоритма заключается в том, что на каждой итерации перевычисляется с. , как центр масс для каждого из К множеств S., полученного на предыдущем шаге, затем х. разбиваются на множества вновь в соответствии с тем, какой из новых центров с. оказался ближе по евклидовой метрике. Алгоритм завершается, когда перестает происходить изменение множеств.

Ниже приведен псевдокод алгоритма К-средних:

Algorithm 2: К-means

function Kmaans(x0txi, X, К)

cj = rn.ndom([xlh a^i]), j = 1,.... К t = 1

Sjl) = {x„ ; \xv - cf I3 < \x„ - Vi = 1,..., К], j = 1,.,., К

с.

,(»+!> _ 1

■bfl

E j = l.....к

M

if 3« : Cj ф cj then t = l-1-1 goto 3

(ilM(!

atop_

«j = W„ Efe - с,)2, XitSj return c, s

В результате алгоритма выбраны центры таким образом, что минимизировано суммарное среднеквадратичное отклонение для всех точек х. от этих центров.

Компоненты вектора s вычисляются, как среднеквадратичное

отклонение для элементов каждого из множеств S..

Далее представлен псевдокод алгоритма обучения RBF-сети:

Algorithm 3: RBF learn with epsilon function RBF_learn(x0, Xi, y0, y'n, X, Y, K, iters) M SEbcst = 10r> for i = 1,..., iters do

F, ~ f(Xi, y{x.i), y'(xi)), V* = l.....«

c, s = Kmcans(xu, xi, X, h') Au = 2, t - 1.....«

Aij - 2ф,(х.) I 4(Xi xo)^ I (х< x^ft^à, i = 1,... j = 2,..., К + 1

w - A 1 F

к

Ni - S + «%, » = 1----, n

3=1

M SE = § £ (yo + - x„) + (x, - xnfNi - Дц,®, j/J))

if MSE <~MSEfcjst then MSE^t - MSE

W (,,.,( = w

i.f.'.sl С

Silt-si — s return WChcst, SЫ:„1

2 Golub G. H., Van Loan C. F. Matrix Computations. 4th ed. MD, Baltimore: The Johns Hopkins Univ. Press, 2013. 784 p.

Современные информационные технологии и ИТ-образование

Том 17, № 4. 2021

ISSN 2411-1473

sitito.cs.msu.ru

T. V. Lazovskaya, G. F. Malykhina, D. M. Pashkovskiy, D. A. Tarkhov

Выбор точки 0

В качестве точки ^ в формуле (6) в процессе обучения RBF-се-ти и дальнейших вычислений может быть выбрана любая точках из отрезка [х0 х]. Рассмотрим три случая:

f = xo, f =

X + X,

o

и f = X .

ф( X, Cj, Sj ) = exp (-Sj Мультиквадратичная функция:

ф(X, cj, sj ) = V j+s 21X - cj

Обратная квадратичная функция: 1

ф( x, cj , sJ )=у

2 i i2 + s21 x - cj |2

Полигармонический сплайн при k=1: ф(X,Cj ) =| X - Cj |

(14)

(15)

(16) (17)

после каждого шага экстраполяции на 0.5d, при этом менялась точка х0 и пересчитывались начальные условия. Сдвиг делается для того, чтобы избежать потери точности при аппроксимации. Затем все повторялось. Было осуществлено 70 шагов прогноза. В результате лучший результат экстраполяции показала RBF-сеть с базисными функциями Гаусса. Далее приведена таблица со средним значением абсолютной ошибки для каждой из базисных функций:

На Рис. 2 представлены графики аппроксимации решения при х0=0,у(х0)=1 и у'(х)=0 при трех разных ^ . Обучение происходило на 50 генерациях обучающей выборки. На каждой итерации генерировалось множество из 15 случайных х. из отрезка [0, 1].

Тип базисной функции Средняя абсолютная ошибка

Функция Гаусса 0.0120371

Мультиквадратичная функция 0.0127826

Обратная квадратичная функция 0.014185

Полигармонический сплайн при к=1 0.0415191

На рисунке представлен график абсолютной ошибки в зависимости от номера шага экстраполяции для различных базисных функций:

Р и с. 2. Аппроксимация при различных F i g. 2. Approximation for various °

На графике отображены конфигурации с наименьшей абсолютной погрешность^.

Видно, что при ; = — достигается наименьшая абсолютная ошибка аппроксимации решения y(x). X

А также видно, что график аппроксимации при ; = , лежит между графиками при 0 = o и 0 = X.

Сравнение базисных функций для экстраполяции

Для задачи экстраполяции были рассмотрены следующие

функции:

Функция Гаусса:

2 ^

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

X - С,

Р и с. 3. Зависимости погрешности от номера прогноза F i g. 3. Error dependence on forecast number

Из графика видно, что хуже всего для прогноза подходит полигармонический сплайн. При RBF-сети c гауссовскими базисными функциями был получен наименьший разброс значений ошибки на всем интервале наблюдений.

Численные результаты прогнозы в зависимости от длины шага

Для задачи (1) при начальных условиях: x0=0, y(x0)=1 и y'(x0)=0 проводились численные эксперименты по экстраполяции. В выражении (6) используется RBF-сеть с гауссовскими базисными функциями. Базовый отрезок имеет длину d. Рассматривается прогноз на шаг d, 2d, 4d. Синяя кривая - это аппроксимация формулой Тейлора на базовом отрезке. Красная кривая - график решения. Фиолетовая - формула Тейлора за пределами базового отрезка. Зеленая точка - прогноз решения.

Начальные условия (1): х0=0,у(х0)=1 и у'(ха)=0. Базовый отрезок длины ^ RBF-сеть обучалась на 10 точках. Прогнозирование происходило на шаг длиной ^ Обучающая выборка сдвигалась

Р и с. 4. Экстраполяция с шагом d F i g. 4. Extrapolation with a step d

Modern Information Technologies and IT-Education

научное программное обеспечение в образовании и науке

Т. В. Лазовская, Г. Ф. Малыхина, Д. М. Пашковский, Д. А. Тархов

Р и с. 5. Экстраполяция с шагом 2d F i g. 5. Extrapolation with a step 2d

Р и с. 6. Экстраполяция с шагом 4d F i g. 6. Extrapolation with a step 4d

Из результатов видно, что в случае уравнения (1) аппроксимация в форме (6) на базовом отрезке дает хорошее приближение решения за границу базового отрезка. Это позволяет делать хороший прогноз поведения динамической системы на достаточно большой шаг.

Заключение

В статье предлагается и исследуется гибридный метод построения приближенных решений задачи Коши для уравнения Дуффинга. Схема аппроксимации основана на разложении Тейлора решения, где остаток представлен в виде выходных данных нейронной сети ЯВЕ Предложен алгоритм обучения нейронной сети с использованием дополнительных (экспериментальных) данных. Метод показал высокую точность и эффективность. В будущем мы намерены применить представленный метод к другим задачам, включая жесткие задачи, а также краевые задачи для обыкновенных дифференциальных уравнений и начально-краевые задачи для дифференциальных уравнений в частных производных. Мы будем рассматривать задачи в динамических постановках. Что касается динамических постановок, важно построить адаптивную модель на основе математико-математической модели в форме задачи Коши для дифференциального уравнения или системы уравнений. Такая модель может адаптироваться к поступающим данным о рассматриваемом объекте. Свойство адаптивности при моделировании и анализе сложных динамических систем является одним из важнейших в современных исследованиях [20-23]. Мы использовали такую модель ранее [24-26], но теперь нас интересует метод, который позволяет повысить точность модели и ускорить процесс обучения нейронной сети за счет использования сети с меньшим количеством нейронов без уменьшения точности модели. Кроме того, мы намерены рассмотреть комбинацию разложения в ряд Тейлора с решениями, полученными многослойными методами [24] вместо нейронных сетей.

References

[1] Rasheed A., San O., Kvamsdal T. Digital Twin: Values, Challenges and Enablers From a Modeling Perspective. IEEE Access. 2020; 8:21980-22012. (In Eng.) doi: https://doi.org/10.1109/ACCESS.2020.2970143

[2] Rai R., Sahu C.K. Driven by Data or Derived through Physics? A Review of Hybrid Physics Guided Machine Learning Techniques with Cyber-Physical System (CPS) Focus. IEEE Access. 2020; 8:71050-71073. (In Eng.) doi: https://doi.org/10.1109/ ACCESS.2020.2987324

[3] Lagaris I.E., Likas A., Fotiadis D.I. Artificial neural networks for solving ordinary and partial differential equations. IEEE Transactions on Neural Networks. 1998; 9(5):987-1000. (In Eng.) doi: https://doi.org/10.1109/72.712178

[4] Kumar M., Yadav N. Multilayer perceptrons and radial basis function neural network methods for the solution of differential equations: A survey. Computers and Mathematics with Applications. 2011; 62(10):3796-3811. (In Eng.) doi: https://doi. org/10.1016/j.camwa.2011.09.028

[5] Mai-Duy N. Solving high order ordinary differential equations with radial basis function networks. International Journal for Numerical Methods in Engineering. 2005; 6(92):824-852. (In Eng.) doi: https://doi.org/10.1002/nme.1220

[6] Budkina E.M., Kuznetsov E.B., Lazovskaya T.V., Leonov S.S., Tarkhov D.A., Vasilyev A.N. Neural Network Technique in Boundary Value Problems for Ordinary Differential Equations. In: Ed. by L. Cheng, Q. Liu, A. Ronzhin. Advances in Neural Networks - ISNN2016. ISNN 2016. Lecture Notes in Computer Science. Vol. 9719. Springer, Cham; 2016. p. 277-283. (In Eng.) doi: https://doi.org/10.1007/978-3-319-40663-3_32

[7] Budkina E.M., Kuznetsov E.B., Lazovskaya T.V., Tarkhov D.A., Shemyakina T.A., Vasilyev A.N. Neural network approach to intricate problems solving for ordinary differential equations. Optical Memory and Neural Networks. 2017; 26(2):96-109. (In Eng.) doi: https://doi.org/10.3103/S1060992X17020011

[8] Tarkhov D.A., Vasilyev A.N. Semi-Empirical Neural Network Modeling and Digital Twins Development. Academic Press, Elsevier; 2019. 288 p. (In Eng.) doi: https://doi.org/10.1016/C2017-0-02027-X

[9] Zhang M., Drikakis D., Li L., Yan X. Machine-Learning Prediction of Underwater Shock Loading on Structures. Computation. 2019; 7(4):58. (In Eng.) doi: https://doi.org/10.3390/computation7040058

[10] Egorchev M.V., Tiumentsev Y.V. Semi-Empirical Continuous Time Neural Network Based Models for Controllable Dynamical Systems. Optical Memory and Neural Networks. 2019; 28(3);192-203. (In Eng.) doi: https://doi.org/10.3103/S1060992X1903010X

Современные информационные технологии и ИТ-образование

Том 17, № 4. 2021

ISSN 2411-1473

sitito.cs.msu.ru

T V',Laz°vskaya' G' rF' Ma[ykhina' scientific software in education and science

D. M. Pashkovskiy, D. A. Tarkhov

[11] Raissi M., Perdikaris P., Karniadakis G. Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations. Journal of Computational Physics. 2019; 378:686-707. (In Eng.) doi: https://doi.org/10.1016/j.jcp.2018.10.045

[12] Han J., Jentzen A., Weinan E. Solving high-dimensional partial differential equations using deep learning. Proceedings of the National Academy of Sciences. 2018; 115(34):8505-8510. (In Eng.) doi: https://doi.org/10.1073/pnas.1718942115

[13] Raissi M. Forward-Backward Stochastic Neural Networks: Deep Learning of High-dimensional Partial Differential Equations. arXiv:1804.07010. 2018. (In Eng.) doi: https://doi.org/10.48550/arXiv.1804.07010

[14] Sirignano J., Spiliopoulos K. DGM: A deep learning algorithm for solving partial differential equations. Journal of Computational Physics. 2018; 375:1339-1364. (In Eng.) doi: https://doi.org/10.1016/j.jcp.2018.08.029

[15] Hairer E., Wanner G., N0rsett S.P. Solving Ordinary Differential Equations I: Nonstiff Problem. Springer Series in Computational Mathematics. Vol. 8. Springer Berlin, Heidelberg; 1993. 2nd Edition. 528 p. (In Eng.) doi: https://doi.org/10.1007/978-3-540-78862-1

[16] Vasilyev A.N., Kolbin I.S., Reviznikov D.L. Meshfree Computational Algorithms Based on Normalized Radial Basis Functions. In: Cheng L., Liu Q., Ronzhin A. Advances in Neural Networks - ISNN 2016. ISNN 2016. Lecture Notes in Computer Science. Vol. 9719. Springer, Cham; 2016. p. 583-591. (In Eng.) DOI: https://doi.org/10.1007/978-3-319-40663-3_67

[17] Gorbachenko V.I., Lazovskaya T.V., Tarkhov D.A., Vasilyev A.N., Zhukov M.V. Neural Network Technique in Some Inverse Problems of Mathematical Physics. In: Cheng L., Liu Q., Ronzhin A. (eds.) Advances in Neural Networks - ISNN 2016. ISNN 2016. Lecture Notes in Computer Science. Vol. 9719. Springer, Cham; 2016. p. 310-316. (In Eng.) doi: https://doi.org/10.1007/978-3-319-40663-3_36

[18] Linde Y., Buzo A., Gray R. An Algorithm for Vector Quantizer Design. IEEE Transactions on Communications. 1980; 1(28):84-95. (In Eng.) doi: https://doi.org/10.1109/TCOM.1980.1094577

[19] Vasilyev A.N., Gorokhovskaya V.A., Korchagin A.P., Lazovskaya T.V., Tarkhov D.A., Chernukha D.A. Investigation of the Predictive Capabilities of a Data-Driven Multilayer Neuromorphic Model by the Example of the Duffing Oscillator. Sovremennye informacionnye tehnologii i IT-obrazovanie = Modern Information Technologies and IT-Education. 2021; 17(3):625-632. (In Russ., abstract in Eng.) doi: https://doi.org/10.25559/SITITO.17.202103.625-632

[20] Yang X., Li Z., Dahhou B. Parameter and State Estimation for Uncertain Nonlinear Systems by Adaptive Observer Based on Differential Evolution Algorithm. Applied Sciences. 2020; 10(17):5857. (In Eng.) doi: https://doi.org/10.3390/app10175857

[21] Pang G., D'Elia M., Parks M., Karniadakis G.E. nPINNs: Nonlocal physics-informed neural networks for a parametrized nonlocal universal Laplacian operator. Algorithms and applications. Journal of Computational Physics. 2020; 422:109760. (In Eng.) doi: https://doi.org/10.1016/j.jcp.2020.109760

[22] Sands T. Nonlinear-Adaptive Mathematical System Identification. Computation. 2017; 5(4):47. (In Eng.) doi: https://doi. org/10.3390/computation5040047

[23] Zhang X., Ding F. Adaptive parameter estimation for a general dynamical system with unknown states. International Journal of Robust and Nonlinear Control. 2020; 30(4):1351-1372. (In Eng.) doi: https://doi.org/10.1002/rnc.4819

[24] Lazovskaya T., Tarkhov D. Multilayer neural network models based on grid methods. IOP Conference Series: Materials Science and Engineering. 2016; 158(1):012061. (In Eng.) doi: https://doi.org/10.1088/1757-899X/158/1Z012061

[25] Boyarsky S., Lazovskaya T., Tarkhov D. Investigation of the Predictive Capabilities of a Data-Driven Multilayer Model by the Example of the Duffing Oscillator. Proceedings of the 2020 International Multi-Conference on Industrial Engineering and Modern Technologies (FarEastCon). IEEE Computer Society, Vladivostok, Russia; 2020. p. 1-5. (In Eng.) doi: https://doi.org/10.1109/ FarEastCon50210.2020.9271195

[26] Lazovskaya T., Malykhina G., Tarkhov D. Construction of an Individual Model of the Deflection of a PVC-Specimen Based on a Differential Equation and Measurement Data. Proceedings of the 2020 International Multi-Conference on Industrial Engineering and Modern Technologies (FarEastCon). IEEE Computer Society, Vladivostok, Russia; 2020. p. 1-4. (In Eng.) doi: https://doi. org/10.1109/FarEastCon50210.2020.9271144

Поступила 24.08.2021; одобрена после рецензирования 03.10.2021; принята к публикации 25.10.2021.

Submitted 24.08.2021; approved after reviewing 03.10.2021; accepted for publication 25.10.2021.

|Об авторах:|

Лазовская Татьяна Валерьевна, старший преподаватель кафедры высшей математики физико-механического института, ФГА-ОУ ВО «Санкт-Петербургский политехнический университет Петра Великого» (195251, Российская Федерация, г. Санкт-Петербург, ул. Политехническая, д. 29), ORCID: https://orcid.org/0000-0002-3324-6213, tatianala@list.ru

Малыхина Галина Фёдоровна, профессор высшей школы киберфизических систем и управления института компьютерных наук и технологий, ФГАОУ ВО «Санкт-Петербургский политехнический университет Петра Великого» (195251, Российская Федерация, г. Санкт-Петербург, ул. Политехническая, д. 29), доктор технических наук, доцент, ORCID: https://orcid.org/0000-0002-1026-8727, gfmalykhina@gmail.com

Пашковский Дмитрий Максимович, студент физико-механического института, ФГАОУ ВО «Санкт-Петербургский политехнический университет Петра Великого» (195251, Российская Федерация, г. Санкт-Петербург, ул. Политехническая, д. 29), ORCID: https://orcid.org/0000-0002-2218-6649, mr.vivivilka@icloud.com

Vol. 17, No. 4. 2021 ISSN 2411-1473 sitito.cs.msu.ru

Modern Information Technologies and IT-Education

1006 научное программное обеспечение в образовании и науке

Т. В. Лазовская, Г Ф. Малыхина, Д. М. Пашковский, Д. А. Тархов

Тархов Дмитрий Альбертович, профессор кафедры высшей математики физико-механического института, ФГАОУ ВО «Санкт-Петербургский политехнический университет Петра Великого» (195251, Российская Федерация, г. Санкт-Петербург, ул. Политехническая, д. 29), доктор технических наук, доцент, ORCID: https://orcid.org/0000-0002-9431-8241, dtarkhov@gmail.com

Tatyana V. Lazovskaya, Senior Lecturer of the Department of Higher Mathematics, Institute of Physics and Mechanics, Peter the Great St. Petersburg Polytechnic University (29 Polytechnicheskaya St., St.Petersburg 195251, Russian Federation), ORCID: https://orcid. org/0000-0002-3324-6213, tatianala@list.ru

Galina F. Malykhina, Professor of the Higher School of Cyber-Physical Systems and Management, Institute of Computer Science and Technologies, Peter the Great St. Petersburg Polytechnic University (29 Polytechnicheskaya St., St.Petersburg 195251, Russian Federation), Dr.Sci. (Tech.), Associate Professor, ORCID: https://orcid.org/0000-0002-1026-8727, gfmalykhina@gmail.com

Dmitry M. Pashkovsky, Student of the Physics and Mechanics Institute, Peter the Great St. Petersburg Polytechnic University (29 Polytechnicheskaya St., St.Petersburg 195251, Russian Federation), ORCID: https://orcid.org/0000-0002-2218-6649, mr.vivivilka@ icloud.com

Dmitry A. Tarkhov, Professor of the Department of Higher Mathematics, Institute of Physics and Mechanics, Peter the Great St. Petersburg Polytechnic University (29 Polytechnicheskaya St., St.Petersburg 195251, Russian Federation), Dr.Sci. (Eng.), Associate Professor, ORCID: https://orcid.org/0000-0002-9431-8241, dtarkhov@gmail.com

Все авторы прочитали и одобрили окончательный вариант рукописи.

All authors have read and approved the final manuscript.

Современные информационные технологии и ИТ-образование

Том 17, № 4. 2021 ISSN 2411-1473 sitito.cs.msu.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.