Научная статья на тему 'Модель неизотермического химического реактора на основе параметрических нейронных сетей. Гибридный метод'

Модель неизотермического химического реактора на основе параметрических нейронных сетей. Гибридный метод Текст научной статьи по специальности «Математика»

CC BY
103
17
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕИЗОТЕРМИЧЕСКИЙ ХИМИЧЕСКИЙ РЕАКТОР / НАЧАЛЬНО-КРАЕВАЯ ЗАДАЧА / УРАВНЕНИЕ ДИФФУЗИИ / НЕЙРОСЕТЕВОЕ МОДЕЛИРОВАНИЕ / ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ (ИНС) / НАСТРОЙКА ИНС / ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ / ГИБРИДНЫЙ МЕТОД

Аннотация научной статьи по математике, автор научной работы — Васильев Александр Николаевич, Тархов Дмитрий Альбертович, Шемякина Татьяна Алексеевна

Статья посвящена построению приближённого параметрического нейросетевого решения краевой задачи для обыкновенного дифференциального уравнения, описывающего процессы в неизотермическом химическом реакторе. Изучаются свойства приближённого нейросетевого решения задачи в области изменения параметра. Анализируется влияние дополнительной информации о решении, заданной в виде приближённых данных точечных измерений или вычислений, на результат обучения нейронной сети.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Васильев Александр Николаевич, Тархов Дмитрий Альбертович, Шемякина Татьяна Алексеевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Модель неизотермического химического реактора на основе параметрических нейронных сетей. Гибридный метод»

Васильев А.Н.1, Тархов Д.А.2, Шемякина Т.А.3

гСанкт-Петербургский политехнический университет Петра Великого, Санкт-Петербург, д.т.н., профессор кафедры «Высшая математика», [email protected]

2Санкт-Петербургский политехнический университет Петра Великого, Санкт-Петербург, д.т.н., профессор кафедры «Высшая математика», dtarkhov@ gmail. com

3Санкт-Петербургский политехнический университет Петра Великого, Санкт-Петербург, к.ф.-м.н., доцент кафедры «Высшая математика», sh tat@mail. ru

МОДЕЛЬ НЕИЗОТЕРМИЧЕСКОГО ХИМИЧЕСКОГО РЕАКТОРА НА ОСНОВЕ ПАРАМЕТРИЧЕСКИХ НЕЙРОННЫХ СЕТЕЙ. ГИБРИДНЫЙ МЕТОД

КЛЮЧЕВЫЕ СЛОВА

Неизотермический химический реактор, начально-краевая задача, уравнение диффузии, нейросетевое моделирование, искусственная нейронная сеть (ИНС), настройка ИНС, глобальная оптимизация, гибридный метод.

АННОТАЦИЯ

Статья посвящена построению приближённого параметрического нейросетевого решения краевой задачи для обыкновенного дифференциального уравнения, описывающего процессы в неизотермическом химическом реакторе. Изучаются свойства приближённого нейросетевого решения задачи в области изменения параметра. Анализируется влияние дополнительной информации о решении, заданной в виде приближённых данных точечных измерений или вычислений, на результат обучения нейронной сети.

В работе рассматривается макрокинетическая модель неизотермического химического реактора [1]. Процессы теплового взрыва, самовоспламенения, зажигания, распространения волн горения и т.д., происходящие в реакторе, описываются системой квазилинейных

(параболических, эллиптических) уравнений в частных производных или обыкновенных дифференциальных уравнений.

В безразмерных переменных модель химического реактора описывается системой квазилинейных уравнений теплопроводности и диффузии:

=1 Д6+ф( а) ехр—е—

дt 6 ^ ' Р1+ре

д a 1 , , е

—,-уФ(а )ехр1+ве

(1)

где а - относительная концентрация реагирующей компоненты смеси;

О - изменение относительной температуры (безразмерная температура); X - относительное изменение длины реактора (безразмерная координата); Д - оператор Лапласа в безразмерных координатах; У - безразмерная энергия активации; в - безразмерный коэффициент теплопередачи;

6 - безразмерный параметр, называемый числом Франк-Каменецкого; ф(а) - зависимость, характеризующая скорость реакции от концентрации. В работах авторов [2-4] исследовалась нейросетевая модель катализатора: анализ баланса тепла и массы в плоской грануле пористого катализатора при каталитической реакции приводил к краевой задаче для обыкновенного дифференциального уравнения второго порядка, которое является частным случаем стационарной системы дифференциальных уравнений (1)

<.!.\" 1-д-с (2)

В данной работе продолжается исследование частных вариантов модели химических

реакторов - системы уравнений (1) - с помощью нейросетевого моделирования. Далее изучается стационарная задача о тепловом взрыве в плоскопараллельном случае [1] в предположении, что реакция является одностадийной, необратимой, не сопровождается фазовыми переходами, протекает в неподвижной среде. Эта задача интересна тем, что известно точное решение, область существования решения и значения параметра, при которых решение задачи не существует ( 6>6 кр^0-878458 ), - рассматриваем её в качестве модельной для алгоритмов обучения нейронных сетей.

Ищется приближённое решение краевой задачи:

0^+6 ехр (0)=О, ^(0) = 0, 0(1 )=0 (3)

ёх ах

в виде нейросетевого разложения вида

N

0(X,6) = Е с,ехр(-ак(х-хк)2(|\(6-6~к)2),

к=1

параметры которого находятся в процессе поэтапного обучения сети на основе минимизации функционала ошибки J (0)= J0 + J1+Х2 J2, состоящего из невязок в удовлетворении

м -]2,

уравнению J0=^( —0 +6ехр (0)

ёх .

// \2 \2

а- 0

]=1

2

(х,, 6 ,) краевым условиям

J2 = ^(0( х1', 6 ' )-0;) где х, - периодически перегенерируемые тестовые точки из [0;1];

6-

м (ё 0 \

J (-(0 6 )) +(0(1 6 )) и дополнительным условиям в форме

,=Л\ёх /

м

2

х,

^ - \ - I ' - / -1!

тестовые точки из [6тП; 6тах ]; х1' - фиксированные точки, где известны значения искомой функции 0( х(', 6' )=0;; X 1 Х2 - положительные штрафные параметры. Нейросетевой подход применялся с учётом (гибридный метод) и без учёта дополнительной информации, полученной на основе измерений или грубого численного решения в фиксированном наборе точек, учитываемой в слагаемом X2 J2 .

Минимизация функционала J (0) проводилась методом RPгop с перегенерацией М=50 и М=100 тестовых точек каждые 5 шагов работы алгоритма; делалось 200 перегенераций.

Для применения гибридного метода строилось приближённое поточечное решение при значениях параметра: 6 '= 0.5,6 ' = 0.8,6 ' = 0.87 , которое рассматривалось как дополнительные данные для решения задачи.

Мы использовали сети из N=30, N=50, N=100 нейроэлементов. Мы выбирали следующие интервалы изменения параметра 6^[6тП; 6тах] : [0,4;1] и [0.85;0.9].

Мы провели два численных эксперимента, результаты которых приведены в виде графиков, где представлены нейросетевое решение 0(х, 6) с сетью из N элементов (в работе приведены данные для N=30), аналитическое решение 0( х, 6) и функция 0 (х, 6) , найденная в пакете «Mathematica». При этом параметр 6 может принимать значения, при которых точное решение отсутствует.

В первом эксперименте мы применяем нейросетевой подход при значениях параметра 6е[0.4; 1] . При этом рассматриваем случаи:

а) без дополнительных условий (БДУ),

б) с дополнительным условием (ДУ) при значении параметра 6 '= 0.5 ,

в) с дополнительным условием (ДУ) при значении параметра 6 '= 0.8 .

Графики Рис.1 показывают нейросетевое решение 0(х, 6) и аналитическое решение 0(х, 6) при значении параметра 6=6тП = 0.4 в случаях а), б) и в).

Графики Рис.2 показывают нейросетевое решение 0(х, 6) и функцию 0(х, 6) ,

полученную с помощью пакета «Mathematica», при значении параметра 6= 6тах = в случаях а), б) и в).

Рис.1 показывает графики функций при малом значении параметра 6=6тП = 0.4 . Результат получается лучше, чем на Рис.2. Погрешность приближения меньше для варианта с дополнительным условием б) при 6 '= 0.5 .

Рис.2 показывает графики функций с достаточно большим параметром 6=6тах = 1.0 . Точное решение задачи 0(х, 6) не существует при этом значении параметра. Мы получаем приближенную функцию 0 (х, 6) . Результат плохой для всех вариантов а), б), в), хуже, чем на Рис.1. В этом случае пакет «Mathematica» выдает функцию 0( х, 6) , которая не удовлетворяет граничному условию на правом конце отрезка. В то же время нейронная сеть 0(х, 6) даёт более сбалансированную функцию. Мы отмечаем, что можно управлять точностью удовлетворения граничных условий задачи с помощью штрафных множителей.

а, а)

в(х,8), в(х,8), 8 = ¿тш = 0.4 в(х,3), в(х,3), 8 = ¿тах =1

Пусть погрешность (невязка) - это разность между левой и правой частью дифференциального уравнения из постановки (3), вычисленная в определённой точке, например, при х=0.5. Таким образом, нейросетевое решение 0( х, 6), 6е[0.4; 1 ] удовлетворяет уравнению (3) с некоторой погрешностью. Рис.3 показывает график погрешности (невязки) Д(0(х, 6)) в

зависимости от параметра 6^[0.4 ; 1 ] . Результаты вычислений приведены для случаев а), б) и в). Погрешность Д(0(х, 6)) растет, когда параметр 6 принимает значения больше

критического: 6>6 кр^0-878458 . Из книги [1] известно, что в этом случае точного решения задачи 6 не существует. Тогда построенная нейросеть не удовлетворяет уравнению. Резкий рост ошибки указывает на возможное отсутствие точного решения.

б) 6;6 = &=Ъ.5

Д(е(X,6)), 6е[0.4; 1.0], х=0.5 ё(х,5), ё(х,5), ё

Рис.4 показывает график нейросетевого решения О(X, 6) , график аналитического решения О(X, 6) и график поточечного решения О;. Поточечное решение изображено на

графике точечной линией. Мы задаём параметр 6 £[0.4; 1 ], совпадающим с параметром 6 ' для дополнительного условия: б) 6= 0.5 или в) 6= 0.8. В этом случае нейросеть О(X, 6) практически совпадает с аналитическим решением О(X, 6) . Поточечное решение используем в качестве дополнительных данных. Оно значительно отличается от аналитического решения для всех вариантов Рис.4.

Во втором эксперименте мы сужаем интервал изменения параметра и применяем нейросетевой подход для значений параметра 5 е [0.85; 0.9]. Значения параметра 6 близки при

этом к критическому значению 6= 6кр^°.878452 . Как и ранее, рассматриваем три случая:

а) без дополнительных условий (БДУ),

б) с дополнительным условием (ДУ) при значении параметра 6 '= 0.5 ,

в) с дополнительным условием (ДУ) при значении параметра 6 '= 0.87 .

Графики Рис.5 показывают нейросетевое решение 0(х, 6) и аналитическое решение 0(х, 6) при значении параметра 8 = 8тт = 0.85 в случаях а), б) и в).

Графики Рис.6 показывают нейросетевое решение 0(х, 6) и функцию 0(х, 6) , полученную с помощью пакета «Mathematica», при значении параметра 8 = 8тах = 0.9 в случаях а), б) и в).

Рис.5 показывает графики функций при значении параметра 8 =8тт = 0.85 . Результат получается лучше, чем на Рис.6. Погрешность приближения меньше для варианта с дополнительным условием б) при § '= 0.5 _

а) а)

в(х,8), в(х,8), 8 = 8^ = 0.85 в(х,8), в(х,8), 8=8тах = 0.9

Рис.6 показывает графики функций с достаточно большим параметром 8 = 8тах = 0.9.

Точное решение задачи не существует при этом значении параметра. В этом случае мы получаем приближенную функцию 0 (х, 6) . Результат получается плохим для всех вариантов, хуже, чем на Рис.5. В этом случае пакет «Mathematica» выдает функцию 0(х, 6) , которая не удовлетворяет

граничному условию на правом конце отрезка. В то же время нейронная сеть О(X, 6) даёт более сбалансированную функцию. Мы отмечаем, что можно управлять точностью удовлетворения граничных условий задачи с помощью штрафных множителей.

Рис.7 показывает график погрешности (невязки) Д(О(X, 6)) в зависимости от параметра

6е[0.85;0.9] . Рассматривается окрестность контрольной точки, в качестве которой выбирается х=0.5. Нейросетевое решение О( X, 6) , 6^[0.85; 0.9 ] удовлетворяет уравнению из (3) с некоторой погрешностью. Результаты вычислений указаны для случаев а), б) и в).

Погрешность Д(О(X, 6)) растет, если параметр принимает значения больше

критического: 6>6 кр^0.878452 . Известно, что в этом случае точного решения задачи не существует. Резкий рост ошибки указывает на возможное отсутствие точного решения.

а)

б6) 5 = 3' = 0.5

Рис.7. Графики погрешности Рис.8. Графики решений

Д(О(X,6)),6е[0.85;0.9]^=0.5 ё(х,5), ё(х,5), ёг

Рис.8 показывает график нейросетевого решения О(X, 6) , график аналитического решения О(X, 6) и график поточечного решения О;. Поточечное решение изображено на

графике точечной линией. Параметр 6е[0.85; 0.9 ] задается совпадающим с параметром 6 ' для дополнительного условия: б) 6= 0.5 или в) 6= 0.87 .

Рассмотрим случай в) 6= 0.87. Параметр принадлежит рассматриваемой области [0.85; 0.9 ] . Нейросеть б( х, 6) практически совпадает с аналитическим решением 0( х, 6) . Поточечное решение используем в качестве дополнительных данных. Оно значительно отличается от аналитического решения.

Рассмотрим случай б) 6= 0.5. Параметр 6 выходит за интервал рассмотрения [0.85; 0.9 ] . Нейросеть б( х, 6) отличается от аналитического решения 0( х, 6) . При этом отмечается резкий рост ошибки после критического значения параметра, что может служить признаком отсутствия точного решения задачи.

Таблицы 1 и 2 показывают относительные погрешности вычисления для двух экспериментов. Относительная погрешность достаточно мала: в пределах 10-3 % .

Таблица 1.

Относительная погрешность (10 2 %). N = 30

6е[0.4; 1.0 ] БДУ ДУ 6 '= 0.5 ДУ, 6 '= 0.8

в(х,8), в(х,8) = 0.4 0.102 0.041 0.204

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

в(х,8), в(х,8) 8=8 = 1.0 тах 0.143 0.190 0.190

в(х,8), в(х,8) 8 = 0 5 - 0 0

в(х,8), в(х,8) 8 = 0 8 - 0 0.267

Таблица 2.

Относительная погрешность (10-2 %), N = 30

6е[0.85; 0.9 ] БДУ ДУ, 6 '= 0.5 ДУ 6 '= 0.87

в(х,8), в(х,8) 0.110 0 0.022

8=8т1П = 0.85

в(х,8), в(х,8) 0.174 0.259 0.217

8=8 = 0.9 тах

в(х,8), в(х,8) 8 = 0 5 - 1.273 -

в(х,8), в(х,8) 8 = 0 87 - - 0.048

Численные эксперименты показали:

• методы построения нейросетевых моделей сложных систем существенно улучшают нейросетевое решение, если используется дополнительная информация. Её можно получить, например, с помощью приближений на основе традиционных численных методов (даже не очень точных);

• нейронная сеть позволяет построить приближённое решение параметрической задачи. При этом параметр может принимать значения, при которых точного решения задачи не существует. Эффект отсутствия решения проявляется резким ростом ошибки удовлетворения уравнению;

• в сложных задачах, где неизвестен интервал существования решения, нейронные сети позволяют уточнить приближённое решение. Для этого используются дополнительные данные - измерения или численное решение при одном значении параметра. При этом эффект уточнения теряется при приближении к критическому значению параметра. Работа поддержана Российским фондом фундаментальных исследований (гранты №14-0100660 и №14-01-00733).

Литература

1. Худяев С.И. Пороговые явления в нелинейных уравнениях. -М.: Наука, 2003. - 268 с.

2. Васильев А.Н., Тархов Д.А., Шемякина Т.А. Нейросетевая модель решения задачи о катализаторе. Гибридный метод.// Проблемы информатики в образовании, управлении, экономике и технике: сб. статей XIV Междунар. научно-техн. конф. - Пенза: Приволжский Дом знаний, 2014. - С.58 - 62.

3. Васильев А.Н., Тархов Д.А., Шемякина Т.А. Гибридный метод построения параметрической нейросетевой модели катализатора.//«Современные информац. технологии и ИТ-образование». - М.: ИНТУИТ.РУ 2014. Т.1. №1(9). С.476-484.

4. A.N. Vasilyev, D.A. Tarkhov Mathematical Models of Complex Systems on the Basis of Artificial Neural Networks// Nonlinear Phenomena in Complex Systems. - vol. 17, no.3, pp. 327-335 (2014).

5. Васильев А.Н., Тархов Д.А Нейросетевые методы и алгоритмы математического моделирования. - СПб.: Изд-во Политехн. ун-та, 2014. - 582 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.