Научная статья на тему 'Нейросетевой подход к решению некорректных задач теплопереноса'

Нейросетевой подход к решению некорректных задач теплопереноса Текст научной статьи по специальности «Математика»

CC BY
129
43
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
УРАВНЕНИЯ В ЧАСТНЫХ ПРОИЗВОДНЫХ / НЕКОРРЕКТНЫЕ ЗАДАЧИ / НЕЙРОСЕТЕВАЯ МОДЕЛЬ / ОБУЧЕНИЕ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ / ФУНКЦИОНАЛ ОШИБКИ / ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ

Аннотация научной статьи по математике, автор научной работы — Васильев Александр Николаевич, Порубаев Филипп Викторович, Тархов Дмитрий Альбертович

На основе нейросетевой методологии предложен подход к решению некорректной задачи построения температурного поля по приближенно известным данным точечных измерений. Приведены результаты вычислений. Указаны преимущества нейросетевого подхода и возможные обобщения.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Васильев Александр Николаевич, Порубаев Филипп Викторович, Тархов Дмитрий Альбертович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

An approach to the solution of incorrect problem of temperature field evaluation according to approximately known point measurement data is offered on the basis of neural network methodology. Results of neurocomputing are given. Advantages of neural network approach and some possible generalizations are mentioned

Текст научной работы на тему «Нейросетевой подход к решению некорректных задач теплопереноса»

СПИСОК ЛИТЕРАТУРЫ

1. Аксенов, К.А. Имитационное моделирование процессов преобразования ресурсов: Монография [Текст]/К.А. Аксенов, Б.И. Клебанов-Екатеринбург: УГТУ-УПИ, 2008.-198 с.

2. Аксенов, К.А. Динамическое моделирование мультиагентных процессов преобразования ресурсов: Монография [Текст]/К.А. Аксенов, Н.В. Гончарова-Екатеринбург: ГОУ ВПО УГТУ-УПИ, 2006.-311 с.

3. Аврамчук, Е.Ф. Технология системного моделирования [Текст]/ Е.Ф. Аврамчук [и др.]; Под общ. ред. С.В. Емельянова.-М.: Машиностроение; Берлин: Техник, 1988.-520 с.

4. Аксенов, К.А. Интеллектуальная система моделирования «ВРЗГМ.МЗЗ» и объектно-структурный метод технико-экономического проектирования мультисервисных сетей связи [Текст]/К.А. Аксенов// Вестник компьютерных и информационных технологий.-М., 2010.-№ 8.-С. 19-27.

5. Аксенов, К.А. Модель мультиагентного процесса преобразования ресурсов и системный анализ организационно-технических систем [Текст]/К.А. Аксенов// Вестник компьютерных и информационных технологий.-М., 2009.-№ 6.-С. 38-45.

УДК 004.032.26+519.63:517.951

А.Н. Васильев, Ф.В. Порубаев, Д.А.Тархов НЕйРОСЕТЕВОй ПОДХОД

к решению некорректных задач теплопереноса

Данная публикация продолжает исследования в области применения искусственных нейронных сетей (ИНС) для построения математических моделей систем с распределенными параметрами [1-6], описываемых задачами для уравнений с частными производными. Предлагаемая методика применима как в случае классических постановок подобных задач, так и в случае некорректно поставленных задач. Пример такой некорректной задачи - двумерное по пространственным переменным уравнение теплопроводности, в котором вместо начального условия дан набор точечных данных, известных с некоторой погрешностью. А.А. Самарский и П.Н. Вабищевич [7] строили регуляризацию решения такой задачи посредством восстановления начальных условий (при заданных краевых условиях) по набору точечных данных (задача управления). При предлагаемом нейросетевом подходе решение как прямой, так и обратной задачи строится единообразно. Такая задача в одномерном случае успешно решена в [4] с помощью ИНС, данное исследование является обобщением этой задачи на двумерный случай.

Постановка задачи. Поиск решения С (е, у, t) уравнения теплопроводности двумерного по про-

дС д2и д2и

странственным переменным: -= —— +--—

дt де2 дУ2

в области 0:0 < е < 1;0 < у < 1;0 < t < Т. Граничные условия - однородные условия Дирихле: С (0, у, t) = С (1, у, 0 = С (е,0, t) = С (е,1, t) = 0. Однако начальное условие отсутствует, вместо него дан набор «экспериментально измеренных» (например, данные с датчиков) значений функции в некоторых точках: С(е}-, у}-, t]-) = /}-, ] = 1,.., . Точки (е]У, у], t]) также принадлежат указанной области О. Предполагается, что данные /у известны с некоторой погрешностью.

Исследование возможностей рассматриваемого нейросетевого подхода можно разделить на следующие этапы.

• Выбор начального условия С(е, у, 0) = = ф (е, у) и получение аналитического решения Са (е, у, t).

• Генерация значений / (которые являются «зашумленными» значениями полученной выше функции Са (е, у, t) в некотором наборе точек).

• Решение исходной задачи и сравнение полученного приближенного решения с аналитическим.

Такое исследование позволяет оценить возможности метода и его применимость в ситуации, когда проводятся реальные измерения, а закон изменения температуры неизвестен.

Аналитическое решение. Как известно [8], при заданном начальном условии

и(х, у, 0) = ф (х, у) и выбранном краевом условии аналитическое решение (полученное методом Фурье - разделения переменных) им еет вид: иа (х, у, X) =

р X X 4г,т зт(тшх) sm(ro7u)e

-л2 (и2 + т

п=0 т=0

1 1

где Апт = 4||ф( х, у )бш(ппх) sm(лmy)1x1y.

В

о о данном

исследовании в качестве

ф (х, у) была выбрана функция ф (х, у) = = Азт(лпх)зт(лту) с некоторыми натуральными п, т и амплитудой А. Тогда аналитическое решение имеет вид Ка (х, у, X) = = А$т(кпх)ът(т1ту)е-%1{ п 2 + т 2)х.

На рис. 1 и 2 приведе ны изображения функции ф (х, у)при аекито рыхз кач^нях п, т и А.

Генерация . В большей части численных экспериментов значения /у выбирались согласно формуле fj = Ка (ху, у j, Xу) + в , в ней о тсфых к согласно формуле fj = Ка (ху, уу ,^у)(1 + е), где ху, у у, Ху, в являются случайными величинами, равномерно распределенными в некоторых интервалах. Точки ху, у у, Ху выбирались из указанной выше области, в е [-в7, вг ].

Построение приближенного решения. Для построения решения исходной задачи использовалась RBF-сеть [1], в качестве базисной функции был взят гауссиан с,е-к(х-х )2 -т (у-у )2 -1>(Х^ )2 . Таким образом, приближенное решение искалось в виде

и(х,у,X) рррс.е

-к, ( х-х, )2 -mi (у -yi )2 -¡, (X-X, )2

.(1)

,=1

Процесс получения результата сводился к поиску оптимальных весов сети

М?{ р (с,, к1, , ¡1, х,, у{, X,), параметры к,, т,, I, предполагаются положительными.

Подбор весов осуществлялся через мини-(мизацию пфункционала ошибки, который в дан-

def

ной задаче имел вид а (и) = а (и) = а1(и) + 5Ь х

х аь (и) + 5^ ■ аа (и), где и р Wne) - век-

д г

тор весов сети; а1(и) = X {ux (еу, пу, ту) -

у=1

- их (еу, Пу, ту) - иу (еу, Пу, ту )}2 - слагаемое, отвечающее ) дифференциальному уравнению (нижний индекс у функции и обозначает дифференцирование по соответствующей пере-

дь т

менной); аь(и) = X {и2(0,пу,ту) + и2(1,пу,ту) +

ур1 >

+ и2(еу,0,ту) + и2(еу,1,ту)}- слагаемое, отвеча-

Дл Г

ющее граничным условиям; аа (и) р X {и(ху,

,^) - /у}

у,-, X

ур1

слагаемое, отвечающее «экспери-

ментально полученным» значениям; 5Ь, 5(1 > 0-«штрафные» множители.

Здесь в слагаемых а1(и) и аь (и) используются периодически перегенерируемые пробные точки {(у п , т.)}д=1 - в области О, {(0, п, т), (1, пу, т), 0, т), (у 1, ту)}д= 1 - на частях границы. Возможно задание разных законов распределения этих точек: регулярное, случайное равномерное, нормальное и др. [1-3].

На самом деле рассматривается попеременная минимизация одного функционала из набора

Рис. 1. График ф( х, у) р 0^т(лх^т(яу)

Рис. 2. График ф(х, у) р эт(л;х)зт(2лх)

J("те) для фиксированного выбора пробных точек, при этом каждый такой функционал минимизируется не до конца, а производится несколько шагов минимизации, после чего функционал меняется в соответствии с заменой (перегенерацией) пробных точек. Необходимо подчеркнуть, что ищется не минимум функционала J (""), а точка С п на многообразии нейросетевых функций данной архитектуры - п -решение [1] задачи (1): J(С п) < П , при этом число п > 0 достаточно мало для того, чтобы считать построенную модель достаточно точной.

Выбор структуры сети является отдельной проблемой. В данном исследовании используются сети фиксированного размера и растущие сети. (см. также [5].)

Сети постоянного размера. Решение искалось в виде (1), причем значение Пе было фиксировано. Метод локальной оптимизации — метод сопряженных градиентов (Флетчера—Ривса), метод выбора шага — плавающий шаг, наконец, метод глобальной оптимизации — метод рестартов.

Поясним некоторые моменты. Задача поиска минимума подразделяется на две: реализацию поиска локального минимума и реализацию поиска глобального минимума.

Большая часть градиентных методов поиска локального минимума имеет следующий вид.

1. Выбираем начальное значение "0.

2. Сдвигаемся по формуле " к = к _1 + пк Рк, где пк и рк — шаг и направление движения соответственно. При этом рк = gk + Рк рк _1, где gk -вектор антиградиента функционала ошибки. вк в нашем случае вычислялось по формуле (метод

Флетчера-Ривса): рк = , Вк ) .

(Вк _l, £к _1)

3. Пункт 2 повторяем необходимое число раз.

Метод плавающего шага состоит в следующем.

1. Параметры алгоритма у1: у1 > 1; у2: 0 < у2 < 1 и начальный шаг задаются в начале работы всего алгоритма. Обычно выбирают

11 = 2; у2 = 0,5.

2. После того, как найдено очередное направление движения, в качестве начального приближения берется шаг с предыдущей итерации.

3. На очередном шаге вычисляем значение функционала ошибки J("к + пк_1рк).

4. Если это значение меньше предыдущего Jк), то шаг умножаем на у1 и снова вычисляем значение ошибки. Если функционал ошиб-

ки продолжает убывать, то шаг снова умножаем на число у1 и т. д., пока ошибка не начнет возрастать. Тогда предпоследнюю точку (минимум) фиксируем, вычисляем новое направление и повторяем процедуру сначала.

5. Если J (" к +пк _1Рк) больше J (щк), то шаг умножаем на число у2 и продолжаем уменьшение шага, пока ошибка не станет меньше J к). Получившийся шаг фиксируем и вычисляем новое направление.

Метод рестартов (глобальная оптимизация) состоит в следующем.

1. Выбираем начальное значение ""0 из некоторой заданной заранее области.

2. Применяем метод локальной оптимизации. Запоминаем результат.

3. Повторяем пункты 1, 2 до выполнения условий выхода (которые определяются пользователем).

Еще раз отметим, что набор тестовых точек (£, у, п ], ту и т. п. в слагаемых J1, Jъ) не был фиксированным, а через определенное число шагов менялся. Ясно, что это позволило не выбирать параметры Ы, Ыъ слишком большими (что привело бы к чрезмерной трудоемкости вычислений) и при этом не опасаться, что решение будет хорошо лишь в некоторых точках, а между ними будет «вести себя» плохо.

Алгоритм был реализован на языке С++. Произведено большое число вычислений для различных параметров. Большой объем численных экспериментов необходим для того, чтобы подобрать оптимальные значения некоторых параметров, таких, как штрафные множители, число нейронов пе, число пробных точек N и Ыъ , область Ж, из которой случайно выбирается вектор весов .

Отметим, что самым важным из перечисленных параметров является область Ж, правильный ее выбор приводит к значительному ускорению работы алгоритма, а неправильный приводит алгоритм в нерабочее состояние. Приходилось либо опираться на здравый смысл, выбирая центры га-уссианов е, у,, ti из области, подобной О, но в несколько раз большей, показатели в гауссиане -исходя из правила трех сигм, а коэффициенты с^ - исходя из масштаба экспериментальных данных, либо основываться на результатах уже произведенных вычислений.

Следующими по значимости представляются штрафные множители. Они должны обеспечить равновесие между тремя слагаемыми, входящи-

Рис. 3. Восстановленное начальное условие ф(х, у)

ми в функционал ошибки. Опять же, приходилось основываться на результатах численных экспериментов, которые показали, что среднеквадратичная ошибка, соответствующая слагаемому J1 (и

вычисляемая по формуле а1 = на некото-

ром наборе пробных точек) обычно на порядок больше каждой из среднеквадратичных ошибок для двух других слагаемых (и вычисляемых по аналогичным формулам). Отсюда вытекают фор-

мулы для штрафных множителей: 8Ь = 100

N

N

ш"

дd = 100^— (в знаменателе первой из формул

стоит 4Nb, так как Nb - число пробных точек лишь на одной стороне квадратной области изменения координат х, у).

А вот число нейронов пе и числа N и Nb несколько менее значимы. Конечно, хочется сделать их как можно больше, но это приводит к нежелательной трудоемкости вычислений. Впрочем, опыт показал, что уже при пе «100, N « 300,

0,25

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0,15

0,05

Nb « 50 результат вполне удовлетворителен.

Приведем один из полученных результатов.

Значения параметров пе = 20; N = 100; Nb = 20; Nd = 100; А = 0,3; п = т = 1; 8/ = 8Г = 0,0001; Т = 1. Результаты вычислений проиллюстрированы графиками. На рис. 3 -восстановленные начальные данные ф. Налицо схожесть с рис. 1. На рис. 4 и 5 приведены для сравнения одновременно сечения полученного решения и аналитического.

Отметим существенный недостаток этого подхода: случайно выбираются сразу все веса сети, и только потом применяется алгоритм минимизации ошибки. Это означает, что если нам повезло, и мы попали в окрестность искомого минимума, то решение будет построено, иначе - может и не найтись. Однако вероятность попасть в нужную яму слишком мала - мы случайно выбираем точку в 7пе = 203 -мерном пространстве. Для того чтобы все же попасть в «хорошую» яму, необходимо произвести достаточно большое количество рестартов, что приводит к значительным временным затратам.

Растущие сети. Намного эффективнее показал себя так называемый метод растущих сетей. Основная идея состоит в том, что нейроны (в данном случае снова гауссианы) добавляются последовательно, поэтому на каждом шаге производится минимизация функционала, зависящего от меньшего числа переменных, а нейроны, добавленные раннее, остаются при этом «замороженными». Конечно, при этом намного больше вероятность попасть в глобальный минимум. Данный метод позволяет выстроить путь к ип [5].

0,35 0,3 0,25 0,2 0,15 0,1 0,05

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

Рис. 4. Сечение х = у = 0,5; зависимость от времени и(0,5; 0,5; ¿)

// \\

// \\

//

/У \\

// \

' у \ -

// \

\\ -

/ 1 1111

О 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

Рис. 5. Сечениех = 0,5; / = 0; зависимость и(0,5; у; 0)

Рис. 6. Блок-схема добавления нейрона

Здесь возможны разные варианты: можно добавлять нейроны по очереди; можно добавлять не по одному, а сразу несколько; можно после добавления очередного нейрона обучать всю сеть целиком.

В процессе данного исследования была реализована растущая сеть с добавлением нейронов по одному с обучением всей сети после очередного добавления. Добавление же нейрона происходит в точности по тому алгоритму, что описан в разделе «Сети постоянного размера». Приведем для большей наглядности блок-схему алгоритма добавления нейрона (рис. 6).

Из блок-схемы видно, что алгоритм закончит свою работу только тогда, когда заданное число раз (countmax) не будет получена ошибка меньше, чем текущая минимальная.

На блок-схеме не отмечен важный момент: в процессе выполнения шагов минимизации (конкретнее - после каждого шага) производится проверка, не является ли обучаемый нейрон «плохим». Под «плохим» нейроном понимается тот, чей вклад в минимизацию ошибки меньше наперед заданного малого числа или увеличивает ошибку на тестовой выборке (т. е. вычисленного

с помощью перегенерированных тестовых точек). Однако, из опыта, «плохость» нейрона проявляется лишь спустя некоторое число шагов минимизации, что связано с характером зависимости ошибки от весов нейрона. Численные эксперименты данного исследования позволяют сделать предположение о виде этой зависимости (рис. 7).

На рисунке схематично изображено сечение зависимости ошибки от одного из весов (от веса ki). Штриховкой обозначена область значений, в которой антиградиент ошибки указывает в сторону, где нейрон становится тривиальным (а ошиб-

Щ) \

Рис. 7. Качественная зависимость функционала ошибки от одного из весов

Рис. 8. Восстановленное начальное условие ф(х, у)

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,6 0,3 1

Рис. 9. Сечение х = у = 0,5; зависимость от времени и(0,5; 0,5; ?)

ка при этом стремится к значению, вычисленному на сети без этого нейрона и обозначенному на рисунке Ji-1). Стартовав из этой области, алгоритм минимизации через некоторое число шагов обнулит нейрон, о чем и говорилось выше. Опыт показал, что в указанную область случайно выбираемый вектор весов попадает довольно часто, и поэтому для ускорения работы алгоритма такие нейроны необходимо отбраковывать.

Для этого метода тоже справедливы все рассуждения насчет подбора параметров алгоритма и степени их важности, приведенные выше. Для расчета штрафных множителей используются те же формулы.

Приведем некоторые результаты.

1. Значения параметров алгоритма пе = 50; N = 350; ^ = 40; Nd = 100; А = 0,3; п = т = 1; 81 = 0; 8Г = 0,01; Т = 1; Л = 1,3; J 2 = 0,7; соип1:тах = 50. Графики приведены на рис. 8-10.

Обратим внимание, что при несимметричной и довольно большой погрешности (г1 = 0, гг = 0,01) график решения, как и ожидалось, поднялся, причем на величину порядка 8 г, что хорошо видно из рис. 9.

2. Значения параметров те же, за исключением погрешности 81 =8Г = 0,001. Графики приведены на рис. 11-13.

Обратим внимание на необычность результата: решение, полученное из данных с большей погрешностью (п. 1), оказалось лучше решения, где погрешность была меньше. Это странное явление можно связать с качеством «экспериментальных» данных. Как видно, например, из рис. 12, уже

0,35

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,6 0,9 1

Рис. 10. Сечение х = 0,5; t = 0; зависимость и(0,5; у; 0)

Рис. 11. Восстановленное начальное условие ф(х, у)

0,35

0,3

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,3 0,9 1

Рис. 12. Сечение х = у = 0,5; зависимость от времени и(0,5; 0,5; €)

0,35 -1-1-1-1-1-1-1-1-1-

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

Рис. 13. Сечение х = 0,5; t = 0; зависимость и(0,5; у; 0)

при t > 0,3 решение близко к нулю. При этом результат строится при 0 < t < 1. Если значительная часть данных попадет в область t > 0,3 (а данные генерировались случайно и равномерно в промежутке 0 < t < 1), то решение будет восстанавливаться плохо, что, надо полагать, и произошло в данном случае. То есть можно говорить, что алгоритм получает на вход «некачественные» данные, если значительная часть значений / слишком близка к нулю.

Конечно, интересен вопрос, как зависит приближенное решение от числа Nd, т. е. от количества точечных измерений. В данном исследовании также были построены решения при Nd = 50; (что в два раза меньше, чем в п. 1 и 2) с использованием описанных выше алгоритмов. Как ни

странно, результаты не отличаются от уже приведенных.

3. Наиболее интересно восстановление старших мод. Использование описанного в данном разделе метода дало следующие результаты. Значения параметров пе = 200; N = 350; ^ = 40; Nd = 100; А = 0,3; п = 1; т = 2; 8, =8Г = 0,001; Т = 0,2; Л = 1,3; J 2 = 0,7; соиЩтах = 50. Обратим внимание, что Т = 0,2 по указанной в п. 2 причине. Графики приведены на рис. 14 и 15.

Из графиков видно, что характер решения прослеживается, и, казалось бы естественным, что если учить и учить сеть данным алгоритмом,

Рис. 14. Восстановленное начальное условие ф(х, у)

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

Рис. 15. Сечение х = 0,5; t = 0; зависимость и(0,5; у; 0)

то решение будет приближаться и приближаться к истинному. Однако на практике это оказалось не так - решение лучше не становилось даже после длительного обучения сети. Стало понятно, что алгоритм необходимо модифицировать.

4. Такой модификацией явилось решение линейной системы относительно весов с.. Из формулы (1) следует, что можно составить такую систему линейных уравнений

^ = 0, . = 1,.. дс

(2)

для нахождения коэффициентов с. (т. к. в функционал они входят квадратично). Таким образом, решаем систему

Ас = В. (3)

Приведем формулы для матрицы этой системы и ее правой части:

n

м

+

> +

N.

+

]=0

ЛГ,

где

1=0

а,- Л ] = -V; Д^. ^ ){ц (т.-*.) + + к1(4к^] -х,)1-2) + ш;(4т;(Л7- - У1? ~2)}-

В указанных формулах индексы . и к нумеруют нейроны, а индекс ] - пробные или «экспериментальные» точки. Таким образом, х. - вес нейрона, а £^ или х^ - координата.

Алгоритм был изменен следующим образом. После добавления и обучения нескольких первых нейронов (например, первых семи) решалась система (3) . Это позволило получить значительно лучший результат для моды п = 1, т = 2 . Параметры алгоритма те же, что и в предыдущем пункте, за исключением Пе = 50. Графики приведены на рис. 16 и 17.

Особо обратим внимание на то, что число ней-

Рис. 16. Восстановленное начальное условие ф(х, у)

ронов равно всего лишь пятидесяти против двухсот в предыдущем пункте, а решение не только не хуже, но даже значительно лучше, что легко заметить из графиков.

Тем не менее, из п. 3 и 4 видно, что мода п = 1, т = 2 восстанавливается не так хорошо, как мода п = т = 1. Резонно предположить, что последующие моды еще хуже поддаются восстановлению. Попытаемся указать пути решения этой проблемы. Во-первых, из симметрии решения (см., например, рис. 2) можно предположить, что нейроны эффективнее добавлять по два, а не по одному. Развивая эту мысль даль-

Рис. 17. Сечение х = 0,5; I = 0; зависимость и(0,5; у; 0)

л

е

ше, можно менять число добавляемых нейронов от шага к шагу. Во-вторых, крайне необходимо произвести распараллеливание вычислений, что уменьшит временные затраты на метод рестартов в алгоритме добавления нейрона. В-третьих, необходимо более конкретно разобраться, как именно следует выбирать веса сети, как генерировать пробные точки. В данной работе и те и другие генерировались равномерно, что является самым простым вариантом, однако следует рассмотреть и другие распределения: нормальное, Коши и пр.

Перспективы. Укажем также некоторые перспективы рассматриваемой задачи. Наиболее привлекательным и нужным усложнением является введение неточно заданных коэффициентов. К примеру, рассмотрим ту же задачу, что описана в этой статье, только несколько изменим уравне-

ди

ние

( д 2и

дt

■ = г

д 2ил

дх2 ду2

причем будем считать

коэффициент г заданным не точно, а лежащим в некотором интервале г е (гт1п; гтах). Тогда, имея экспериментальные данные, тем не менее, можно восстановить функцию и. Самый простой способ это сделать - включить г в число подбираемых параметров наряду с весами нейронной сети. Более сложный, но и более эффективный метод можно предложить для случая известного начального условия: он состоит в поиске параметризованного решения задачи в виде

и (х, у, ^ г) =

= 1

(х - Xi )2-т, (у - у, )2-I, ^-Ц )2 е-р, (г - ^ )2

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

i=1

г е (г ' г )

V тт ? тах /

с дальнейшим выбором г исходя из экспериментальных данных. Опыт показывает, что при

построении подобных нейросетевых разложений целесообразно использовать гетерогенные ИНС.

В публикации [6] данный вопрос был подробно рассмотрен в одномерном случае для задачи тепломассопереноса в грануле пористого катализатора. На основе нейросетевого подхода был успешно получен результат.

Несомненный интерес представляет исследование других методов оптимизации, применение иных нейросетевых функциональных базисов, использование эволюционных алгоритмов при одновременной настройке весов сети и подборе ее структуры.

Еще одним вариантом развития задачи является рассмотрение неоднородного уравнения, других граничных условий, случая кусочных коэффициентов, учет нелинейностей. Важным представляется исследование многомерных задач со сложной геометрией (заметим, что переход от одномерной задачи к двумерной не привел к «проблеме размерности»).

При решении серии задач с уточняемой постановкой (пополняемые данные) наряду с построением приближенного решения задачи могут быть определены коэффициенты, входящие в ее постановку. Нейросетевой подход успешно работает и в задачах, связанных с оптимизацией формы области, где ищется решение, а также в задачах с многокомпонентными системами с искомой границей раздела сред [1].

Предложенная методика, существенно использующая достоинства нейросетевых разло-;жений [1], применима и в случае неклассических постановок, в частности, при построении регу-ляризаций решений некорректных задач, что и было продемонстрировано в данной статье.

Работа выполнена при поддержке РФФИ - грант 09-08-00934-а.

СПИСОК ЛИТЕРАТУРЫ

1. Васильев, А.Н. Нейросетевое моделирование. Принципы. Алгоритмы. Приложения [Текст]/ А.Н. Васильев, Д.А. Тархов.-СПб.: Изд-во СПбГПУ, 2009.-528 с._

2. Васильев, А.Н. Нейросетевое моделирование в математической физике [Текст]/ А.Н. Васильев//«Нейрокомпьютеры»: разработка, применение.-М.: Радиотехника, 2009.-№5.-С. 25-38.

3. Васильев, А.Н. Нейросетевая методология построения приближенных математических моде-

лей распределенных систем [Текст]/ А.Н. Васильев, Д.А. Тархов//Труды науч.-метод. семинара кафедры высшей математики.-СПб.: Изд-во СПбГПУ, 2008. -Вып.1.-С. 115-170.

4. Васильев, А.Н. Нейросетевые подходы к регуляризации решения задачи продолжения температурных полей по данным точечных измерений [Текст]/ А.Н. Васильев, Д.А. Тархов//«Нейрокомпьютеры»: разработка, применение.-М.: Радиотехника, 2010. -№7.-С.13-19.

5. Васильев, А.Н. Унифицированный процесс моделирования физико-технических объектов с распределенными параметрами [Текст]/А.Н. Васильев, В.П. Осипов, Д.А. Тархов//Научно-технические ведомости СПбГПУ Сер. Физ.-мат. нау-ки.-2010.-№3 (104).-С. 39-52.

6. Васильев, А.Н. Нейросетевое решение задачи о пористом катализаторе [Текст]/А.Н. Васильев, Д.А. Тархов//Научно-технические ведомости

СПбГПУ Сер. Физ.-мат. науки.-2008.-№°6 (67). -С. 110-113.

7. Самарский, А.А. Численные методы решения обратных задач математической физики [Текст]/ А.А. Самарский, П.Н. Вабищевич.-М.: Едиториал УРСС, 2004.-480 с.

8. Тихонов, А.Н. Уравнения математической физики [Текст]/А.Н. Тихонов, А.А. Самарский.-М.: Наука, 1977.-735 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.