ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА
2024 Управление, вычислительная техника и информатика № 67
Tomsk State University Journal of Control and Computer Science
Научная статья УДК 517.95
doi: 10.17223/19988605/67/4
Численное решение системы уравнений Навье-Стокса в случае сжимаемой среды с использованием нейронных сетей
Кирилл Сергеевич Кузнецов1, Елена Владимировна Амосова2
12 Дальневосточный федеральный университет, Владивосток, Россия 12Институт прикладной математики ДВО РАН, Владивосток, Россия 1 kuznetsovksl7@gmail. com 2 el_amosova@mail. ru
Аннотация. Рассматриваются вопросы использования метода Physics Informed Neural Networks (PINN) для численного решения нестационарной нелинейной системы дифференциальных уравнений в частных производных, описывающей процесс движения одномерного теплопроводного газа. Используемый подход основан на том, что нейронная сеть приближает решение системы дифференциальных уравнений, при этом учитывая физику моделируемого процесса. Обучение нейронной сети происходит на основе минимизации квадратичного функционала, построенного на невязке дифференциальных уравнений, граничных и начальных условий. Обсуждаются различные виды приближения исходных уравнений в случае, когда оператор по времени непрерывен или дискретен. Выполнен анализ результатов моделирования.
Ключевые слова: уравнения Навье-Стокса; нейронные сети; моделирование процессов газовой динамики.
Благодарности: Работа выполнена в рамках государственного задания ИПМ ДВО РАН (№ 075-00459-24-00) и при поддержке Министерства науки и высшего образования РФ (проект № 075-02-2024-1440).
Для цитирования: Кузнецов К.С., Амосова Е.В. Численное решение системы уравнений Навье-Стокса в случае сжимаемой среды с использованием нейронных сетей // Вестник Томского государственного университета. Управление, вычислительная техника и информатика. 2024. № 67. С. 31-41. doi: 10.17223/19988605/67/4
Original article
doi: 10.17223/19988605/67/4
Numerical solution of the system of Navier-Stokes equations in the case of a compressible medium using neural networks
Kirill S. Kuznetsov1, Elena V. Amosova2
12 Far Eastern Federal University, Vladivostok, Russia 12 Institute for Applied Mathematics FEB RAS, Vladivostok, Russia 1kuznetsovks17@gmail. com 2el_amosova@mail. ru
Abstract. The use of the Physics Informed Neural Networks (PINN) method for the numerical solution of a nonstationary nonlinear system of partial differential equations describing the process of motion of a one-dimensional heat-conducting gas is considered. The approach is based on the fact that a neural network approximates the solution of a system of differential equations, while taking into account the physics of the simulated process. The neural network is trained by minimizing a quadratic functional built on the difference between the predicted values and residuals of differential equations, boundary and initial conditions. Different types of approximation of the original equations are discussed in the case when the operator is continuous or discrete in time. An analysis of the presented methods is carried out. Their advantages and disadvantages are indicated.
Keywords: Navier-Stokes equations; simulation of gas dynamics processes; neural networks.
© К.С. Кузнецов, Е.В. Амосова, 2024
Acknowledgments: The work was carried out with the state assignment of the Institute for Applied Mathematics, Far Eastern Branch of the Russian Academy of Sciences (No. 075-00459-24-00 ) and with the support of the Ministry of Science and Higher Education of the Russian Federation (project No. 075-02-2024-1440).
For citation: Kuznetsov, K.S., Amosova, E.V. (2024) Numerical solution of the system of Navier-Stokes equations in the case of a compressible medium using neural networks. Vestnik Tomskogo gosudarstvennogo universiteta. Upravlenie, vychislitelnaja tehnika i informatika - Tomsk State University Journal of Control and Computer Science. 67. pp. 31-41. doi: 10.17223/19988605/67/4
Численное решение системы уравнений Навье-Стокса актуально в силу ее широкого практического применения. Особый интерес вызывает численное решение подобных задач в приложении к сжимаемым средам вследствие их математической сложности.
Поведение решений уравнений Навье-Стокса «в целом» по времени для сжимаемой среды исчерпывающе изучено только в одномерном случае [1, 2].
В работе [3] впервые описан метод решения дифференциальных уравнений в частных производных при помощи нейронных сетей. Авторы предложили подход, в основе которого лежит принцип приближения неизвестной функции нейронной сетью путем минимизации квадратичного функционала, включающего невязку уравнений, начальные и граничные условия. Впоследствии метод получил широкое распространение под названием Physics Informed Neural Networks (PINN) и активно используется в последние годы для решения различных задач гидродинамики [4-7]. В работе [3] рассмотрен способ временной дискретизации с использованием методов Рунге-Кутты высокого порядка, что позволяет снизить требования к вычислительным мощностям при расчете без потери точности решения.
В работах [3-6] рассматривается решение уравнений Навье-Стокса. В [3] приводится решение задачи восстановления неизвестных параметров и поля давления по известным значениям скорости среды. В [5] исследуется решение уравнений Рейнольдса в двумерном стационарном случае при числах Рейнольдса в диапазоне 102-2-105. В работах проведено сравнение полученных при помощи приближения решений дифференциальных уравнений с экспериментальными данными.
В данной работе подход, развитый в [3-6], используется для решения системы уравнений Навье-Стокса в случае сжимаемой среды. Исследуется применение PINN как в случае модели с непрерывным временем процесса, так и для модели с дискретизацией по времени. Отметим, что уравнения Навье-Стокса в случае сжимаемой и в случае несжимаемой среды отличаются с точки зрения классификации дифференциальных уравнений, в силу чего к ним не могут применяться одни и те же способы и методы решения. Другой особенностью данной работы является исследование возможности решения системы уравнений для неоднородной среды, характеризуемой большими числами Рейнольдса и Пекле, Re ~ 107, Pe ~ 107, которые соответствуют реальным физическим характеристикам движения газа. Показано, что применение временной дискретизации позволяет снизить требования к вычислительным ресурсам.
Математическую модель, описывающую нестационарное движение вязкого политропного газа в одномерном пространстве через интервал ^ = {х :0 < х < Ь} , ограниченный с двух сторон при t > 0, вместе с граничными условиями можно выразить следующей системой уравнений [1, 2]:
Введение
1. Математическая модель
(1)
(2)
и\ х=о = и0(х) РI х=0 = Ро( х) 01 х=0 = 90( х)> (4)
и |х=0 = ), Р I х=0 = й(*), 0 I х=0 = 01 (5)
"\ *=ь = МО, 0\ х=ь = 02(О, X е[0, Ь], х е[0,Т ], (6) где и, р, 0 - неизвестные функции скорости, плотности и температуры газа соответственно, ц - динамическая вязкость газа, Я - универсальная газовая постоянная, еу - удельная теплоемкость газа, к -коэффициент теплопроводности газа, ио, ро, 0о, щ, р1, 01, и2, 02 - заданные функции.
Решать задачу необходимо в безразмерных переменных. Введем новые переменные
_ х ~ X _ и _ р ^ 9 х-—, х= —, и — —, р =—, 9 =—,
1 Т ^ Р* 0,
где щ, ря, 0Я - заданные значения.
После подстановки введем новую замену:
х — х, X = X, й — и, р = р, 9 = 9, Тогда модель (1)-(6) в безразмерных переменных будет иметь вид:
Р
ди ди --+ Ьпи—
дх дх
Ц - ьпк А(р0),
Яе дх2 дх '
д9 07 д9 --+ Ьпи —
дх дх
др + ЬЛ—( ир) = 0, дх дх^ 7
ЬП д29 ЬП л Г диЛ 2
+ —-]дии| -ЬПлр9—
(7)
(8)
(9)
(10) (11) (12)
где Бк - число Струхаля, Ре - число Пекле, Яе - число Рейнольдса, к, п - безразмерные коэффициенты, щ, щ , и2, р0, р, 90, 01, 92 - безразмерные функции граничных и начальных условий. Данные константы и функции определяются по формулам
и1р1°уЬ
Рв дх2 Явк ^дх) ' дх' и\ х=0 = и0(х) р \ х=0 = р(х) 9 \ х=0 =9о(х)
и \х=0 = < (х), р\ х=0 = р (X), 9 \х=0 =91 (X), и\х=1=и2 (х), 9\х=1=92(х), х е [0,1], х е [0,1],
ЬП = ^, Рв =
Ь к
Яе = иВ^,
к =
Я
л = ■
и0 (х) = им, < (х) = им, и2 (х) = и^М
ро(х)=
С
р)( х)
ро :
р (х) =
а( х)
90(х)=
90( х)
91(х)=
91(х)
VI/„ч 92( х)
92(х)=-
1
1
1
9
9
9
р
1
1
1
1
2. Метод решения
Как указано во введении, для решения используется подход, основанный на приближении не-
известных функций нейронными сетями. Для его использования необходимо определить квадратич-
ный функционал, построенный на невязках дифференциальных уравнений, а также граничных и начальных условиях.
В работе рассматривается метод нахождения решения как для непрерывной по времени модели, так и для дискретной. В первом случае рассматривается решение системы (7)-(12) в непрерывном времени. Во втором случае уравнения (7)-(12) заменяются дискретными аналогами и поиск решения происходит с использованием неявного метода Рунге-Кутты высокого порядка.
Отметим, что в работах [3-6] для приближения решения системы уравнений используется одна нейронная сеть. В данной работе для приближения каждой из неизвестных функций применяется
собственная нейронная сеть. Основная идея заключается в том, что у каждой из функций и, р, 0 своя зависимость от пространственно-временных переменных. В отличие от работ [3, 6], где используется архитектура с большим количеством слоев и нейронов в них, в текущей работе используется несколько нейронных сетей малой архитектуры, которые будут описаны далее.
Для каждой нейронной сети определяется свой собственный функционал, включающий невязку дифференциальных уравнений всей системы, а также граничные и начальные условия только для приближаемой функции.
Отметим, что решение задачи выполнено в безразмерных переменных.
2.1. Описание метода для непрерывной модели
Для использования метода в случае непрерывной модели определим функционалы качества Л; Jp, ^ для неизвестных и, р, 0, соответствующие системе (7)—(12):
W Nr
Ju = — Е
u Nr Е
ri (xi
W
N.
+WbN
N i=1
f
p NEi
i I xi
Xi)- u1 I x1
r I Xi
—L N0 No i=i
"M -o xi ) - uLI xi
Nb i=i
-П -2
Xi J U2 | Xi
2 л
+Wl§
Nb i=i
-h
Pp | Xi I-P1 Xi
-b,
—L Nl No i=i
2
xL I-Uo(p0
(13)
(14)
W Nr
Je = W Ei
9 Nr i
i г / \ n 2
r11 Xi I +
V _ V /_
Nb e
e.
r2 I Xi
4 a l~b1
Xi )—ex | Xi
Г IX,
2 ^ + Wo No
EL
No i=1
Nb E1
9p I Xi"
e p IXL)—9o IXL
—e21 Xi
(15)
Здесь Up, pp, 0p - приближения неизвестных функций нейронными сетями, ri, Г2, гз - невязки уравнений (1)-(3), Nr, N0, Nb - общее количество точек для невязки уравнений (7)-(9), начального, а также
граничных условий соответственно, Xi = (xi, ti), xi = (xf, tf), Xi = (xjl, tj), xi = (x2, tf) - наборы данных, соответствующие области невязки уравнений (7)-(9), области в момент времени t = 0, а также левой и правой границам соответственно, Wr, W0, Wb - весовые коэффициенты для слагаемых невязки, начальных и граничных условий соответственно.
В данной работе при обучении нейронных сетей используются следующие коэффициенты:
Wr = 1, W0 = 10 , Wb = 10. Их использование необходимо для того, чтобы слагаемые для граничных и начальных условий в (13)-(15) были на порядок больше слагаемого невязки. В противном случае при обучении нейронная сеть будет принимать неизвестные функции константами и решение задачи станет невозможным. Тем не менее для оценки точности решения в работе используется функционал J, который считается как сумма трех функционалов (13)-(15) с единичными весовыми коэффициентами:
J = Ju \wr=w0 =wb=1 + Jp \wr=w0 =wb=1 + Je \wr=w0 =wb=1 • (16)
Таким образом, решение прямой задачи заключается в решении задач минимизации функционалов:
Je ^ min, Jp ^ min, Ju ^ min. (17)
2.2. Описание метода для дискретной модели
Для модели с дискретизацией по времени будем использовать неявный метод Рунге-Кутты высокого порядка для решения. Впервые методы Рунге-Кутты в методе PINN были использованы в работе [3], где было показано, что их использование для решения дискретизированных по времени задач возможно и позволяет получить решение с малой погрешностью метода, снизив при этом размерность пространства задачи.
Неявный метод Рунге-Кутты порядка s для функции двух переменных y(x, t) можно описать следующим образом:
Уп+1 = Уп + X2 bjkj,
j=1 j j
5
k = f (x,tn + c,x,Уп + x 2 a,.k.), i = 1,...,5,
j=i J j
(18) (19)
где уп = у(х, Х„), уп+1 = у(х, + к), т - заданный шаг.
Воспользуемся дискретизацией неизвестных функций при помощи конечной разности вперед:
ди = ип+1 - ип ф = ря+1 -р„ д^ = 9„+1 -9п
дх х ' дх х ' дх х Для неизвестных данных задачи (7)-(12) метод Рунге-Кутты примет вид:
Мп+1 = Un + х 2 bk, kU = fu (x, tn + ctX, Un + X 2 ak, Pn + X 2 üjkp, 9n + X 2 üjk9),
j=1
j=1 j=1 j=1
S SS
Pn+1 = Pn + X 2 bjkp, k,P = fP (x, tn + ctX,Un + X 2 ak, Pn + x 2 a„kp), j=1 j=1
9n+1 =9n +xib]kQ], k,e = fe (x, tn + c, x, Un + X 2 ajkj p x2a1]kj 9 + x2 a^kj), j=1 j=1 j=1 j=1
где fu, fp, fe, как следует из (7)-(12):
rU, dU Sh d2U Shk d , fU (x, t, U, p, 9) = -Sh U — + —^ —5---—( p9 ),
dx p^e dx2 p dx д
f p (x, t, U, p) = -Sh—(Up),
dx
(20) (21) (22)
,.9 , д9 1 ЬП д 9 1 ЬП л (ди | „ ди
/ (х,х,и,р,9) = -ЬПи — +---- +---1 — I -Ькл9 —.
дх р Ре дх2 р Яе к ^ дх) дх
Поскольку начальные значения ип, рп, 0п считаются заданными, удобно выразить формулы (2о)-(22) через них. Тогда функционалы качества можно выразить как
1 N
JUk=20
i=1
0
Up | x, I- U„ I x,
-0
-0
Pp I xi |-Pn I xi
-0
2 r9p (x° )-9n (xf^
s+1 Nb
+W 2 2
j=1 ,=1
-1
Up ( x„ I- U1 ( x„
-1
s+1 Nb
■Wb 22
j=1 i=1
-2
Up ( x,j I U2 (x,j
-2
Jrk = W 2
N
J9k = W 2
,=1
N
-0
Up ( x, I- Un ( x,
-0
Pp ( x0 )-Pn ( x0
2 r9p (x0 )-9n (xf^
у
S+1 N1 9
+ Щ, 2 21 2 j=1,=1
-1
pp (x,j i-pl(x,j
-1
-0
Up ( x, I- U„ (x,
-0
-0
Pp ( x, I-Pn ( x,
-0
9 p (x0x0
2Л
s
s+1 Nl
+ Wb EE2
j=1 i=1
0 p (x\ |-0i (x\
s+1N2
-Wb EE
j=1i=1
0 p ( 4 ) 02 ( 4
ГДе 4 =(X- ,0) , XjJ =(xfl, tn + Cjx), Xy =(xf2, tn + Cjt) .
В данном случае прямая задача сводится к решению задачи о минимизации функционалов:
Jerk ^min, Jrpk ^min, J* ^min. (23)
Для оценки качества решения аналогично функционалу (16) будем использовать следующий функционал качества:
J = Jr \wr=wb =i +Jp \wr=wb=i +Je \wr=wb=i . (24)
В качестве метода решения задачи с дискретизацией будем использовать метод Гаусса-Лежандра. Метод является неявным и А-устойчивым [7]. Для расчета коэффициентов с, в (19) используются корни смещенного полинома Лежандра P(2x - 1), а коэффициенты а- и bj в (18) и (19) рассчитываются по следующим формулам:
c i
aij = J lj (x)dx, bj = J lj (x)dx, 0 0
j . . _ X Xi Л
где lj (x) = П—i =!,-, s.
jxj - xi
Таким образом, можно вывести метод сколь угодно высокого порядка точности. В текущей работе используется метод Гаусса-Лежандра порядка s = 100. Решение задачи на нормированном по времени интервале t 6 [0, 1] будем осуществлять в два шага:
1. Решение задачи на интервале t 6 [0, 0,5]. Начальные условия и0, p0, e0 используются в качестве Un, Pn, 9„ в (20)-(22). В результате решения задачи (23) с шагом т = 0,5 получим решение Un+1, Pn+i, 0n+i в момент времени t = 0,5.
2. Найденные на предыдущем шаге Un+i, Pn+i, 0n+i будем использовать как Un, Pn, 0n в (20) - (22). Таким образом, найдя решение с шагом т=0.5 еще раз, получим решение un+i, Pn+i, 0n+i в момент времени t = 1,0.
Помимо этого, стоит отметить, что согласно (18)-(19) мы также получаем решение в ста промежуточных временных интервалах tn + ст как на первом шаге, так и на втором. Погрешность двух шагов в данном случае будет равна 2t2s = 2т200=2 • 0,5200=1,24 • 10-60.
3. Генерация данных и обучение нейронных сетей
Для обучения нейронных сетей необходимо сгенерировать базу данных. В данном случае под базой данных подразумевается набор точек, в которых будут вычислены невязки уравнений (7)-(9), а также граничные и начальные условия (10)-(12).
В случае непрерывной модели будем воспринимать время как пространственное измерение. Тогда получим двумерную плоскость XOT, в которой необходимо сгенерировать обучающую выборку. Для расчета невязки уравнений было сгенерировано 100 х 100 точек в области Q ={(x, t): 0 < t < 1; 0 < x < 1} при помощи случайной выборки из равномерного распределения. Для расчета граничных условий было аналогичным образом сгенерировано по 200 точек в начале процесса в области Q0 ={(x, t): t = 0; 0 < x < 1}, на левой и правой границах, в Q1 = {(x, t): 0 < t < 1; x = 0} и Q2 = {(x, t): 0 < t < 1; x = 1} соответственно.
Для формирования переходных слоев в решении нейронной сетью выборка точек коллокации в начале обучения генерируется на некотором расстоянии от границ. По мере обучения сети отступ уменьшается путем деления пополам до тех пор, пока не станет равным шагу пространственной сети. На рис. 1 показана сгенерированная обучающая выборка на расстоянии шага пространственной сетки от границ.
Обучающая выборка
^Шт^тФШ
0.0 0.2 0.4 0.6 0.8 1.0
Xi
Рис. 1. Обучающая выборка для непрерывной модели Fig. 1. Training dataset for continuous model
В случае дискретной модели необходимо сгенерировать 250 точек в пространстве Qo ={x: 0 < x < 1}, а также по одной точке на левой и правой границах, x = 0 и x = 1 соответственно. В данном случае также точки коллокации генерируются на некотором расстоянии от границ, после чего отступ уменьшается, пока не станет равен шагу пространственной сетки.
Для обучения нейронных сетей в двух случаях были выбраны архитектуры нейронных сетей, как показано в таблице, где Rtanh(x) = (ex - e~x)/(ex + e_x), RSWish(x) = x/(1 + e_x), Riinear(x) = x.
Архитектуры нейронных сетей
№ слоя Описание слоя Функция активации на выходе слоя Число нейронов в слое
для непрерывного случая для дискретного случая
1 Входной слой - 2 1
2 Скрытый слой Rtanh 64 256
3 Скрытый слой Rtanh 32 128
4 Скрытый слой Rswish 16 16
5 Выходной слой Rlinear 1 101
Использование функций активации, указанных в таблице, показало наилучший результат при решении задачи, что также соответствует данным работы [8].
Обучение нейронных сетей происходило на базе библиотеки Tensorflow [9] языка программирования Python. Для минимизации функций потерь использовался алгоритм Adam [10] с шагом обучения lr = 2 10-4. Все остальные параметры алгоритма являются стандартными для библиотеки Tensorflow. Нейронные сети заданной архитектуры последовательно обучаются на сгенерированных в данном разделе данных путем минимизации соответствующих функционалов: (17) для случая без дискретизации и (23) для случая с дискретизацией.
В зависимости от задачи возможно изменение как архитектуры нейронных сетей, показанной в таблице, так и размера обучающей выборки. При расчете более простых систем число скрытых слоев нейронной сети и нейронов в них для функций активации гиперболического тангенса может быть уменьшено, как и размер базы данных. При расчете более сложных систем, напротив, число скрытых слоев возможно увеличить. Тем не менее авторы полагают, что для многих задач архитектура, описанная в таблице, будет оптимальной. Чрезмерное увеличение сложности моделей может привести к переобучению нейронных сетей, а чрезмерное увеличение базы данных - к нехватке оперативной памяти при вычислениях. Оптимальной точностью при решении авторы считают значение функционалов J = 10-4, Jrk = 10-4.
4. Численный эксперимент
В рамках текущей работы было проведено несколько численных экспериментов с различными параметрами, отвечающими физическим параметрам газов. В разделе будет представлено по одному эксперименту, соответствующему разделам 2.1, 2.2.
4.1. Эксперимент для непрерывной модели
Первый вычислительный эксперимент, для случая непрерывной модели, был решен с использованием метода, описанного в разделе 2.1. Для него были выбраны характеристики, отвечающие параметрам углекислого газа, а также следующие граничные и начальные условия:
к = 0,017
L = 100[м], T = 3600[с], us = 20 Вт
м*К
ц = 5 -10-5 [Па • с], cv = 700
Ps = 2 Дж
кг
м
кг • К
9s = 323[К ], Дж
R = 8,314
мольхК
u0s(х) = 0,5 + 0,1-х2, uss (x) = 0,5 + 0,1- t, u2(x) = 0,6 + 0,1-t,
P0s (x) = 0,9 - 0,1-x2, P1s (x) = 0,9 - 0,1-1, 90 (x) = 1,0 - 0,1-x2, 91 (x) = 1,0 - 0,1-1, 92(x) = 0,9 - 0,1 • t.
После обучения нейронных сетей было получено решение, представленное на рис. 2, а, Ъ, с в моменты времени ^ = 0 с, ^ = 60 с, ^ = 1 200 с и ^ = 3 600 с соответственно.
(25)
(26)
(27)
(28) (29)
a
b
0.4 0.6 х
c d
Рис. 2. Решение задачи (17) с параметрами (25)-(29). Непрерывной линией указано приближение функции нейронной сетью. Точки на границах обозначают граничные условия Fig. 2. Solution of problem (17) with parameters (25)-(29). The continuous line indicates the approximation of the function by a neural network. Dots on the boundaries indicate boundary conditions
Из рис. 2 видно, что полученная функция полностью соответствует начальным и граничным условиям. На левой границе также были сформированы переходные слои, что обусловливается малыми коэффициентами при вторых производных уравнений (7), (9). Низкое значение функционала (16) J = 2-10~5, полученное при решении, говорит о соответствии полученного приближения функций задаче (7)-(12). На расчет в численном эксперименте было затрачено 1,37 часа.
4.2. Эксперимент для дискретной модели
Второй вычислительный эксперимент, для случая с дискретизацией по времени, был решен с использованием метода, описанного в разделе 2.2. Для него были выбраны физические параметры среды, соответствующие газу азоту, а также следующие начальные и граничные условия:
к = 0,022
L = 50[м], T = 1[с], u = 10 Вт
Ps = 1,35
мхК
ц = 1,665 -10-5 [Па - с], cv = 1050
кг
м
Дж кг - К
9s = 333[К ],
R = 8,314
Дж
мольхК
(30)
(31)
(32)
(33)
(34)
и0 (х) = 0,65 + 0,1-х2, и? (х) = 0,65 + 0,1-г, и2 (х) = 0,75 + 0,1-г, р? (х) = 0,9 - 0,1- х2, р? (х) = 0,9 - 0,1- г,
00 (х) = 1,0 - 0,1-х2, 01 (х) = 1,0 - 0,1-г, 02(х) = 0,9 - 0,1 - г.
На первом шаге, согласно методу, решение было получено в моменты времени ^ = 0 с, ^ = 0,5 с, а также во всех ста моментах времени, соответствующих коэффициентам су в таблице Бутчера для метода Гаусса-Лежандра порядка 5 = 100. На втором шаге было получено решение в моментах времени ^ = 0,5, ^ = 1,0 и ста промежуточных моментах времени, соответствующих коэффициентам су. Полученные решения в моменты времени ^ = 0 с, ^ = 0,5 с, ^ = 0,677 с и ^ = 1,0 с представлены на рисунках 3, а, Ъ, с, й соответственно.
1.1
1.0 0.9 0.8 ' 0.7 0.6 0.5 0.4
0.4 0.6
a
t=0.677 С
b
/
• U boundary
— р • Р boundary
— в • вboundary
0.4 0.6 х
0.4 0.6
х
d
Рис. 3. Решение задачи (23) с параметрами (30)-(34). Непрерывной линией указано приближение функции нейронной сетью. Точки на границах обозначают граничные условия Fig. 3. Solution of problem (23) with parameters (30)-(34). The continuous line indicates the approximation of the function by a neural network. Dots on the boundaries indicate boundary conditions
В ходе решения функционал (28) достиг значения Jk = 1 • 10-4. На решение было потрачено 2 часа. Как следует из рис. 3, приближения, полученные нейронными сетями, также соответствуют гранич-
c
ным и начальным условиям. Помимо этого, в решении формируются зоны резкого изменения функций, расположенные возле границ, что обусловливается малыми коэффициентами при вторых производных в уравнении движения (7) и уравнении теплопроводности (9).
Отметим, что на рис. 2, а и 3, а линии начальных условий совпадают с графиками процессов для скорости, плотности и температуры, найденными с помощью нейронной сети в начальный момент времени, что характеризует высокую точность решения задачи.
4.3. Сравнение методов
При сравнении двух методов, описанных в разделах 2.1 и 2.2, было замечено, что при решении одномерных нестационарных задач метод для непрерывной модели показал себя более эффективно с точки зрения времени вычислений. Также было установлено, что для модели с дискретизацией по времени приближение неизвестной функции к начальному условию второго шага может быть затруднительно, если в решении, полученном в конечный момент времени на первом шаге, присутствуют зоны быстрого роста функции. Отметим, что применение метода, описанного в разделе 2.2, является затруднительным при Sh >> 1. Авторы полагают, что причиной этого может являться алгоритм прямого накопления для обучения нейронных сетей. В то же время для непрерывной модели нейронные сети обучаются при помощи метода обратного распространения ошибки.
Тем не менее применение метода, описанного в разделе 2.2, позволяет снизить размерность задачи, что является важным критерием при расчете задач в двумерном и трехмерном случаях, когда необходимо генерировать огромную обучающую выборку, следствием чего могут стать нехватка оперативной памяти и невозможность применения алгоритма.
Стоит отметить, что описанный в разделе 2 подход с приближением каждой неизвестной отдельной нейронной сетью не является громоздким с вычислительной точки зрения при увеличении размерности пространства в задаче, поскольку компоненты неизвестных функций обладают похожей зависимостью и могут быть приближены одной нейронной сетью.
В дальнейшем планируется качественный анализ системы (7)—(12).
Заключение
В данной работе был проведен анализ численного решения системы уравнений Навье-Стокса в случае сжимаемой среды при помощи нейронных сетей. Исследована возможность применения метода PINN с использованием без дискретизации по времени и с ней. Во втором случае для решения системы с дискретизацией был использован метод Рунге-Кутты высокого порядка. Показано, что использование данных методов является численно эффективным и требует сравнительно небольших вычислительных ресурсов. Помимо этого, использование PINN не требует линеаризации и позволяет решать задачу с наличием переходных слоев в решении на равномерной сетке.
В работе представлен эффективный вычислительный алгоритм для решения задач с наличием зон быстрого изменения функции. Кроме того, авторы надеются, что используемый подход обладает потенциалом при решении задач большей размерности и сложности. Применение временной дискретизации позволяет снизить требования к вычислительным ресурсам, что актуально для двумерных и трехмерных задач.
Список источников
1. Кажихов А.В. Избранные труды. Математическая гидродинамика. Новосибирск : Изд-во Ин-та гидродинамики, 2008. 419 с.
2. Рождественский Б.Л., Яненко Н.Н. Система квазилинейных уравнений и их приложения к газовой динамике. М. : Наука,
1978. 688 с.
3. Raissi M., Perdikaris P., Kamiadakis G.E. Physics-informed neural networks: a deep learning framework for solving forward and
inverse problems involving nonlinear partial differential equations // Journal of Computational Physics. 2019. V. 50 (3). P. 686707. doi: 10.1016/j.jcp.2018.10.045
4. Almajid M., Abu-Alsaud M. Prediction of porous media fluid flow using physics informed neural networks // Journal of Petroleum
Science and Engineering. 2021. V. 208. Art. 109205. doi: 10.1016/j.petrol.2021.109205
5. Eivazi H., Tahani M., Schlatter P., Vinuesa R. Physics-informed neural networks for solving Reynolds-averaged Navier-Stokes
equations // Physics of Fluids. 2022. V. 34 (7). Art. 075117. doi: 10.1063/5.0095270
6. Jin X., Cai S., Li H., Karniadakis G.E. NSFnets (Navier-Stokes flow nets): Physics-informed neural networks for the incompressible
Navier-Stokes equations // Journal of Computational Physics. 2021. V. 426. Art. 109951. doi: 10.1016/j.jcp.2020.109951
7. Butcher J.C. Practical Runge-Kutta methods fors cientific computation // The ANZIAM Journal. 2009. V. 50 (3). P. 333-342.
8. Ramachandran P., Zoph B., Le Q.V. Searching for activation functions // arXiv. 2021.
9. Abadi M. et al. TensorFlow: a system for large-scale machine learning // 12th USENIX Symposium on Operating Systems Design
and Implementation Proc. 2016. P. 1-21.
10. Kingma D.P., Ba J. Adam: a method for stochastic optimization // arXiv. 2014.
References
1. Kazhikhov, A.V. (2008) Izbrannye trudy. Matematicheskaya gidrodinamika [Selected Works. Mathematical Hydrodynamics].
Novosibirsk: Institute of Hydrodynamics.
2. Rozhdestvensky, B.L. & Yanenko, N.N. (1978) Sistema kvazilineynykh uravneniy i ikh prilozheniya k gazovoy dinamike
[The system of quasilinear equations and their applications to gas dynamics]. Moscow: Nauka.
3. Raissi, M., Perdikaris, P. & Karniadakis, G.E. (2019) Physics-informed neural networks: A deep learning framework for solving
forward and inverse problems involving nonlinear partial differential equations. Journal of Computational Physics. 50(3). pp. 686-707. DOI: 10.1016/j.jcp.2018.10.045
4. Almajid, M. & Abu-Alsaud, M. (2022) Prediction of porous media fluid flow using physics informed neural networks. Journal
of Petroleum Science and Engineering. 208. Art. 109205. DOI: 10.1016/j.petrol.2021.109205
5. Eivazi, H., Tahani, M., Schlatter, P. & Vinuesa, R. (2022) Physics-informed neural networks for solving Reynolds-averaged
Navier-Stokes equations. Physics of Fluids. 34(7). DOI: 10.1063/5.0095270
6. Jin, X., Cai, S., Li, H. & Karniadakis, G.E. (2021) NSFnets (Navier-Stokes flow nets): Physics-informed neural networks for the
incompressible Navier-Stokes equations. Journal of Computational Physics. 426. Art. 109951. DOI: 10.1016/j.jcp.2020.109951
7. Butcher, J.C. (2009) Practical Runge-Kutta methods for scientific computation. The ANZIAM Journal. 50(3). pp. 333-342.
8. Ramachandran, P., Zoph, B. & Le, Q.V. (2021) Searching for activation functions. arXiv.
9. Abadi, M. et al. (2016) TensorFlow: A system for large-scale machine learning. 12th USENIX Symposium on Operating Systems
Design and Implementation Proceedings. pp. 1-21.
10. Kingma, D.P. & Ba, J. (2014) Adam: A method for stochastic optimization. arXiv.
Информация об авторах:
Кузнецов Кирилл Сергеевич - аспирант Института математических и компьютерных технологий Дальневосточного федерального университета; ассистент департамента математического и компьютерного моделирования Дальневосточного федерального университета (Владивосток, Россия); младший научный сотрудник Института прикладной математики ДВО РАН (Владивосток, Россия). E-mail: [email protected]
Амосова Елена Владимировна - доцент, кандидат физико-математических наук, профессор кафедры математического и компьютерного моделирования Дальневосточного федерального университета (Владивосток, Россия); научный сотрудник Института прикладной математики ДВО РАН (Владивосток, Россия). E-mail: [email protected]
Вклад авторов: все авторы сделали эквивалентный вклад в подготовку публикации. Авторы заявляют об отсутствии конфликта интересов.
Information about the authors:
Kuznetsov Kirill S. (Post-Graduate Student of the Institute of Mathematical and Computer Technologies of the Far Eastern Federal University; Assistant at the Department of Mathematical and Computer Modeling of the Far Eastern Federal University, Vladivostok, Russian Federation; Junior Research Assistant at the Institute of Applied Mathematics, Far Eastern Branch of the Russian Academy of Sciences, Vladivostok, Russian Federation). E-mail: [email protected]
Amosova Elena V. (Associate Professor, Candidate of Physical and Mathematical Sciences, Professor of the Department of Mathematical and Computer Modeling of the Far Eastern Federal University, Vladivostok, Russian Federation; Researcher at the Institute of Applied Mathematics, Far Eastern Branch of the Russian Academy of Sciences, Vladivostok, Russian Federation). E-mail: [email protected]
Contribution of the authors: the authors contributed equally to this article. The authors declare no conflicts of interests.
Поступила в редакцию 26.09.2023; принята к публикации 03.06.2024 Received 26.09.2023; accepted for publication 03.06.2024