Научная статья на тему 'Подход к моделированию элементов магистрального газопровода на основе искусственных нейронных сетей'

Подход к моделированию элементов магистрального газопровода на основе искусственных нейронных сетей Текст научной статьи по специальности «Математика»

CC BY
292
52
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — С А. Терехов, Т А. Мухамадиева, Н Н. Федорова, Е В. Диянкова, С А. Диянкова

Предложен подход к построению нейросетевой имитационной модели газоперекачивающего агрегата. Методика иллюстрируется на примере многопараметрической системы, обладающей внутренней нелинейностью и временной инерцией отклика.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — С А. Терехов, Т А. Мухамадиева, Н Н. Федорова, Е В. Диянкова, С А. Диянкова

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

This Note is devoted to the neural networks modeling of industrial pipeline elements

Текст научной работы на тему «Подход к моделированию элементов магистрального газопровода на основе искусственных нейронных сетей»

2) зб1льшення стшкоси до криптограф1чних атак на одноб1чн1сть та кол1зп завдяки тривалому процесу отримання хеш-значення.

Остання особлив1сть хеш-функци набувае особливо важливого значення в наш час, коли розвиток потуж-ностей обчислювально! техшки в1дбуваеться швидше за розробку нових алгоритм1в шифрування. Сучасш мож-ливост комп'ютерно! техшки дозволяють отримувати i збер1гати велику кiлькiсть обчислених хеш-значень, що робить подальшу задачу розкриття пароля справою юль-кох годин (на отримання в^повщно! юлькоси хеш-значень для запропоновано! хеш-функци необхiдно буде витратити кiлька роюв).

Недолiком тако! системи е можлива непередбачена

поведшка нейронно! мережi тд час навчання i в^-сутшсть конструктивного доведення наведених вище припущень.

ПЕРЕЧЕНЬ ССЫЛОК

1. Menezes A., van Oorschot P., Vanstone S. Handbook of Applied Cryptography, CRC Press 1996.

2. Месси Дж. M. Введение в современную криптографию // ТИИЭР. - 1998. - №5, С. 24-42.

3. Ф. Уоссермен. Нейрокомпьютерная техника. - М.: Мир, 1992.

4. Аведьян Э.Д. Алгоритмы настройки многослойных нейронных сетей // Автоматика и телемеханика. - 1995. - №4. -С.106-118.

5. Горбань А.Н. Обучение нейронных сетей. М.: СП Параграф, 1991.

Надшшла 14.03.2000 Шсля доробки 21.03.2000

УДК 681.32:007

ПОДХОД К МОДЕЛИРОВАНИЮ ЭЛЕМЕНТОВ МАГИСТРАЛЬНОГО ГАЗОПРОВОДА НА ОСНОВЕ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ

С. А. Терехов, Т. А. Мухамадиева, Н. Н. Федорова, Е. В. Диянкова, С. А. Диянкова,

А. В. Квичанский, Р. Ф. Мухамадиев

Предложен подход к построению нейросетевой имитационной модели газоперекачивающего агрегата. Методика иллюстрируется на примере многопараметрической системы, обладающей внутренней нелинейностью и временной инерцией отклика.

This Note is devoted to the neural networks modeling of industrial pipeline elements.

ПРОБЛЕМА

Целью данного исследования является изложение теоретических основ нового подхода к созданию имитационных моделей элементов магистральных газопроводов (на уровне отдельного ГПА, компрессорного цеха и, в перспективе, КС), основанных на искусственных нейронных сетях.

Основной смысл нейросетевых методик моделирования столь же прост, сколь и привлекателен, и может быть сформулирован в виде ряда положений:

- Моделируемая сложная инженерная система описывается набором входных (независимых и/или управляющих) и выходных (зависимых) переменных, а также набором внутренних переменных ее состояния;

- Соотношение между входными и выходными параметрами является некоторой, вообще говоря, не известной вектор-функцией (т.н. системной функцией), заключающей в себя все внутренние особенности системы (например, трудно учитываемые факторы реальной шероховатости труб и особенности конкретного ГПА);

- Эта функция и ее аргументы является экспериментально наблюдаемыми. При этом внутренние переменные могут быть как наблюдаемыми, так и скрытыми от наблюдателя;

- Изменение в (реальном) времени совокупности всех переменных системы составляет ее динамику, определяемую нелинейными связями в системе и внешними условиями - последние включаются в список входных переменных;

- Нейронная сеть обучается имитировать эту динамику, т.е. подменять собой системную функцию. Алгоритм обучения индивидуален для выбранной архитектуры нейросети.

Обучение нейросети может проводиться как в режиме off-line (т.е. по заранее подготовленной таблице "входы - выходы", при этом каждая строка в таблице отвечает значениям всех переменных в некоторый момент времени), так и on-line (нейросеть по известным входам вычисляет прогнозируемые выходы, далее дожидается экспериментальных значений этих выходов, и использует невязку между ними для своего дообучения).

В on-line режиме дообучение (fine-tuning) может проводиться только если отклик нейросети, в некотором смысле, близок к экспериментальному (т.е. учет дрейфа параметров), в противном случае система должна выдать сигнал об аварийном несоответствии расчета и эксперимента.

ИМИТАЦИОННАЯ МОДЕЛЬ ПРОТОТИПА

КОМПРЕССОРНОГО ЦЕХА

Современные устройства, обеспечивающие процесс транспорта природного газа относятся к классу сложных инженерных систем [1]. Функционирование таких систем складывается на основе множества нелинейных физических факторов, среди которых есть как хорошо исследованные факторы [2] (например, физико-химические характеристики газа, механика кранов и др.), так и явления, трудно поддающиеся формальному физико-математическому описанию вследствие многочисленных неопределенностей (например, фактическая шероховатость труб, истечение газа из разрывов и трещин с учетом их реальной геометрии, особенности конкретных газо-перекачивающих агрегатов (ГПА) и пр.).

Перечисленные факторы вступают во взаимодействие, при этом парадоксально, что иногда уточнение математического описания отдельных факторов приводит к ухудшению описания поведения системы в целом. Примеры таких ситуаций можно найти в многочисленной литературе по сложным системам (см, например, [3-4, 17-18] и дальнейшие ссылки в этих книгах).

Одной из альтернатив формальному математическому моделированию систем является имитационное (информационное, кибернетическое, ситуационное) моделирование [17-18]. При кибернетическом подходе исследуемая система заменяется черным ящиком (ЧЯ), внутренняя структура которого не обязательно отвечает структуре системы. ЧЯ имеет те же входные и выходные описательные переменные, что и исходная система, и его главной задачей является внешнее подражание (имитация) работе системы, т.е. правильная передача нелинейной функциональной зависимости входов от выходов.

Имитационное моделирование всегда основывается на экспериментальной информации о системе. Поэтому успешное его применение, прежде всего, возможно в приложениях, богатых экспериментальными данными. К таким отраслям относится и эксплуатация магистральных газопроводов.

Процесс синтеза ЧЯ часто называют также идентификацией системы. Успех при построении ЧЯ определяется не только наличием наблюдаемых данных, но во многом способностью того математического аппарата1, на котором основан ЧЯ, представить все многообразие откликов системы на многообразие воздействий.

Весьма перспективным аппаратом для построения имитационных моделей являются искусственные нейронные сети (ИНС), свойства которых будут более подробно обсуждаться далее. В литературе имеются публикации об успешном использовании нейронных сетей

для прогноза аварий на компрессорных устройствах [5], а также адаптивного управления [14, 19-20] и оптимизации [6].

В работе будет рассмотрен пример построения имитационной модели одной из сложных систем - упрощенной модели группы трех параллельно соединенных ГПА. Имитационная модель основана на адаптивной аппроксимации многомерной системной функции.

Дифференцируемые нейросетевые

аппроксиматоры

Построение аппроксимаций функций многих переменных является одной из важных прикладных задач современной математики и информатики. Особую актуальность при этом приобретают дифференцируемые модели, поскольку они позволяют не только имитировать систему, но и оптимизировать ее по управляющим параметрам [6].

Общая тенденция состоит в использовании суперпозиций простых функций одной переменной и их линейных комбинаций. В работе [7] доказывается возможность приближения непрерывных функций многих переменных при помощи суперпозиций линейной функции и произвольной нелинейной функции одной переменной.

К подобным вычислительным схемам относятся и искусственные нейронные сети (Artificial neural network), [7-10]. В простейшем случае нейронная сеть задается выражением:

N(x, W) = f

I Wm ■ g

m = 1, ...M

Wm 0 ■ 1 +

I Wmkxk

k = 1,. K

f(x) = x , g(x) = 1/(exp (-x) + 1) .

(1)

Это так называемая нейронная сеть прямого распространения (feed-forward neural network) с K входами, одним выходом, единичным порогом и скрытым слоем из M нейронов. На рис. 1 изображена сеть такого типа с двумя входами (K = 2 ) и двумя нейронами на скрытом слое (M = 2 ). Направление стрелок на схеме отражает поток информации и последовательность действий при вычислении функции N .

Параметры W определяются путем обучения, т.е. минимизации некоторого функционала, соответствующего решаемой задаче:

min—» F .

W

(2)

1. В качестве такого аппарата можно было бы рассмотреть, например, многомерные ряды Тейлора и др. Однако широко известны возникающие при этом проблемы, в частности повышение порядка полинома с целью получения уточненного описания приводит лишь к точному запоминанию конечного набора состояний системы с растущими осцилляциями вне точек интерполяции. Ситуация катастрофически ухудшается при значительном шуме в данных.

При построении нейросетевой аппроксимации некоторой функции U = U( x) по конечному набору ее значе-~*(Р) (p)

ний (x , U ) , p = 1, ... P , оптимизируется отклонение нейросети от моделируемой функции, например, в сеточной норме L2:

F = £ (N(X(Р), W) - U(p))2. (3)

p = 1,...P

fN

Txi

Рисунок 1 - Нейронная сеть прямого распространения со скрытым слоем из двух нелинейных нейронов

Задача (1)-(3) решается при помощи стандартных оптимизирующих алгоритмов. Поскольку производные

функции N в (1) по параметрам W достаточно просто вычисляются, то для минимизации (3) можно применить одну из градиентных методик, например, метод BFGS или алгоритм Levenberg - Marquardt, [11-13], а также специализированные методы [15]. При этом вычисление градиента от нейронной сети по ее настраиваемым параметрам - весам связей - требует лишь O(N) операций (конкретно ~3N) против обычного в таких случаях O (N2) . Это свойство нейронных сетей и определяет всю "скрытую" эффективность нейровычислений.

Важным свойством нейронных сетей прямого распространения (1) является их дифференцируемость по входам, разумеется, при условии достаточной гладкости переходных функций. Это позволяет решать при помощи нейронных сетей задачи совместной аппроксимации функции и ее производных. Для этого в оптимизируемый функционал (2) добавляют соответствующие слагаемые. В последующих разделах данной работы подробно рассматривается один важный прикладной класс аппроксимационных задач этого типа.

Моделируемая система

Рассмотрим некоторую модельную систему, отдаленным прототипом которой служит математическая модель группы ГПА, объединенных по параллельной схеме [2].

Каждый из агрегатов (вместе с системой прилегающих трубопроводов) обладает двумя важными свойствами:

- Нелинейность отклика, связанная как с газодинамикой технологических трубопроводов, так и с нелинейностью диаграммы "сжатие-расход" самого ГПА;

- Запаздывание отклика, связанное с конечной скоростью распространения сигналов и "инерциальностью" элементов системы и запасенного газа.

В данной схематичной модели подчеркнем лишь эти два свойства, предельно упростив остальную физику процессов, а именно, будем считать постоянными и температуру в системе, и расход газа через каждый ГПА, ограничившись лишь изменениями давления. Более того, из всех нелинейных факторов выделим (весьма условно) лишь один, связанный с зависимостью избыточного давления на выходе ГПА от числа оборотов нагнетателя, для которой примем нелинейный характер, изображенный ниже на рис. 2.

Рисунок 2 - Модельная нелинейная зависимость эффективности ГПА по избыточному давлению от относительной скорости вращения вала

Все ГПА группы будут различаться по параметрам этой зависимости - положению точки максимальной эффективности, положению точки выхода на насыщение (условно связанного с включением петли обратной связи антипомпажной защитой). Эти параметры каждого ГПА будем считать скрытыми (внутренними параметрами состояния системы). Единственным управляющим параметром будем считать число оборотов вала (в безразмерных единицах).

1.4

1.2

0.8 0.6 0.4 0.2 0

0 2 4 6 8 10 12 14 16 18 20

Рисунок 3 - Задержанный отклик с характерным временем т =3 на ступенчатый сигнал

В качестве модели внутренней инерционности системы "ГПА-технологические трубопроводы" примем функцию отклика в форме линейного фильтра с задержанным временем т:

n

DOUt _ ^ b Pin

Pk _ ^ bmPk - m ,

m _ 1

где b - нормированная Гауссова функция (дискретная) с затуханием т.

Пример преобразованной с задержкой в 3 временные единицы ступенчатой функции Хевисайда показан на рис. 3.

Таким образом, моделируемый отклик j -го ГПА (выходное давление) на внешнее воздействие (входное давление) дается функцией:

Pj(t) _ D(Pjin(t)- K(nj)),

где D - функция-фильтр задержки, а K - коэффициент увеличения давления (сжатия), n - обороты нагнетателя.

Еще раз отметим, что функции D и K содержат "скрытые" переменные и зависимости - время и форма задержки, параметры и форма кривой эффективности. Ниже в модельных вычислительных экспериментах эти зависимости предполагается считать "дрейфующими" во времени.

Для параллельной схемы объединения N ГПА (для определенности, следуя [2], положим N _ 3) и сделанных модельных предположений давление на выходе из системы будет равно среднему значению выходных давлений каждого агрегата (т.е. сумме парциальных

давлений равных поступающих порций газа массой 1/ N с одинаковой температурой в заданном объеме выходного коллектора).

Данные

Будем далее считать данные, выдаваемые описанной в предыдущем пункте моделью экспериментальными, для чего добавим 5% случайную ошибку к входным и выходным давлениям. При этом скрытые параметры модели будем считать не доступными наблюдателю. Для простоты все наблюдаемые физические величины будем измерять в безразмерных единицах.

Рассмотрим динамический процесс эксплуатации моделируемой системы в течение трех суток. Во времени изменяются:

- Внешние параметры - входное давление Р0 . Будем

считать, что изменение входного давления является случайным Пуассоновским процессом [16] со средним временем Ьр и амплитудой колебаний ар (т.е. кроме 5%

шума давление в среднем раз в Ьр секунд принимает

новое случайное значение в диапазоне 1 ± ар );

- Управляющие параметры - обороты вала nj для

каждого нагнетателя. Будем считать, что управляющие воздействия также не предсказуемы и описываются Пуассоновским процессом со средним временем Ьп и

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

амплитудой колебаний ап около своих номинальных

значений (масштаба единицы);

- Внутренние параметры системы - времена задержек Ту и положения точек максимальной эффективности

компримирования ту (т.е. точек максимума на рис.2).

Будем считать, что времена задержек также испытывают Пуассоновский дрейф с соответствующими параметрами , аТ (дрейф задержек моделирует уменьшение инертности при мелких утечках и не учитываемые в задаче колебания расхода).

В итоге, все величины представляются Пуассонов-скими временными рядами, по значениям которых вычисляется выходное давление р , на которое далее налагается 5% шум. Полученное значение и будет рассматриваться, как экспериментально измеренное.

ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ С НЕЙРОСЕТЕВЫМИ МОДЕЛЯМИ

По методике, описанной в предыдущем пункте, были получены временные ряды для параметров модели. Для сокращения времени вычислений при обучении нейро-сети 3-х суточные ряды описывались с частотой сэмплинга 5 секунд.

Таблица 1 - Значения параметров модели

Номинальное значение входного давления Ро 1

Амплитуда колебаний входного давления ар 0,2

Пуассоновское время колебаний входного давления Ьр 3 часа

Амплитуда шума "измерений" входного давления 0,05

Амплитуда шума "измерений" выходного давления 0,05

Агрегат 1

Максимум коэффициента компримирования (РопЬ^ Р1и) 5

Отн. обороты при максимуме (РоиЬ/Р;п) 2

Насыщенное значение (Рои1/P¿n) 3

Отн. обороты при насыщении (РоиЬ/Р;п) 4

Номинальные обороты п 2

Амплитуда управляющих колебаний номинальных оборотов ап 0,2

Пуассоновское время колебаний п Ь 1 час

Номинальное время инерциального запаздывания т 10 мин

Амплитуда колебаний времени инерциального запаздывания ат 2 мин

Пуассоновское время колебаний т 1 час

Агрегат 2

Максимум коэффициента компримирования (РопЬ^ Р1п) 4,5

Отн. обороты при максимуме (РоиЬ/Р;п) 3

Насыщенное значение (Рои1/P¿n) 2,5

Отн. обороты при насыщении (Рои1/P¿n) 4

Номинальные обороты п 2

Амплитуда управляющих колебаний номинальных оборотов ап 0,2

Пуассоновское время колебаний п Ьп 1 час

Номинальное время инерциального запаздывания т 12 мин

Амплитуда колебаний времени инерциального запаздывания ат 2 мин

Пуассоновское время колебаний т Ьт 1 час

Агрегат 3

Максимум коэффициента компримирования (РошГ/Р1п) 5,5

Отн. обороты при максимуме (Рои1/P¿n) 2

Насыщенное значение (РоиЬ/P¿n) 3

Отн. обороты при насыщении (РоиЬ/P¿n) 5

Номинальные обороты п 2

Амплитуда управляющих колебаний номинальных оборотов ап 0,2

Пуассоновское время колебаний п Ь 1 час

Номинальное время инерциального запаздывания т 8 мин

Амплитуда колебаний времени инерциального запаздывания ат 2 мин

Пуассоновское время колебаний т £т 1 час

Численные значения параметров, использовавшихся при моделировании, приведены в таб. 1. Примеры временных рядов, порождаемых исследуемой моделью, представлены ниже на рис. 4.

4

3 2 1 0

3.5 3 2.5 2 1.5

0.5

1 1.5

Output and input

2.5

0.5

1 1.5 2

Rotations

2.5

x 10

1Л.... п "•-Т-Я-Г nj-чГ 1 Jln п nilhin- т

ШТО .........ППГ JL......... il tftfliiy |П...|=!!Ц, ЧЛГТ..... nrnuz: „г......................

JT)4 Гч [Ту........

4

3 2 1 0

4

3.5 3 2.5

11ft rti и,, i ito^i L !Vir ■ '! II JfWw™ it 1 Лн| . л ikjij

ш.....jev вт.....W If ff I Я.....TfWW"! i ¡ЩУЯР ТгТшГ

45

x 10

50 55 60 65 70 Performance on test data.....- desired,.....neural net

10 20 30 40 50

Performance on training data.....- desired,.....neural net

t A Ц ............................ \ iiif-i f

1 f| м iii JURy Щ.............|t 5 | Щ I

1 ш V If ¡¡J 1 f S '■hi'it..................

75

Рисунок 4 - Временные (в секундах) зависимости входного/выходного давления и оборотов валов каждого из трех агрегатов (в условных единицах)

В численных экспериментах отрезок ряда, отвечающий первым двум суткам, использовался для обучения нейросети, а оставшиеся сутки - для тестирования.

Простой нейросетевой предиктор

В первой группе экспериментов использовалась нейронная сеть, имеющая четыре входа (входное давление и три значения оборотов валов нагнетателей) и один выход - выходное давление. Обучение проводилось алгоритмом Кртор [15]. Результаты обучения и тестирования обученной сети приведены на рис. 5

Видно, что нейросистема довольно быстро и хорошо "усвоила" обучающие данные (верхний рисунок) и в целом неплохо справилась с прогнозированием выходного давления в течение последних суток (напомним, что данные для третьих суток никак не использовались при обучении). Однако в ряде ситуаций прогнозируемое значение оказывалось ниже или выше экспериментальных наблюдений, уклоняясь на величину до 15-20%, что ощутимо превышает используемую "экспериментальную" погрешность (5%). Кроме того, прогноз сильно зашумлен.

Существует несколько способов повышения точности прогноза1. Здесь мы остановимся только на одном из них - использовании ранее измеренных экспериментальных значений выходного давления в качестве дополнительных входов в нейросеть.

Рисунок 5 - Результаты обучения и тестирования нейронной сети. Сплошные (серые) линии - выходы нейросети, пунктирные (черные) линии -экспериментальные значения

Предиктор, использующий предысторию выходных значений

Рассмотренная в предыдущем пункте нейросетевая модель работала в "слепом" режиме, т.е. поступающая текущая экспериментальная информация никак не учитывалась.

.............km. .....u..n...., i. L * ЩилРи......

w уv SI j............................. ...../ \p t

t, hours

0 10 20 30 40 50

Performance on training data.....- desired,.....neural net

.........i................ A LkM|{i|............ 1?

Äf i A4 Yyi 1 !i i. ¡4 ' .' Г * .....if..........1.. Д IV f / ; a " 1 П fU ' S j i if 'Wi i J

P . у W w 1 V

t, hours

45 50 55 60 65 70 75

Performance on test data.....- desired,.....neural net

Рисунок 6 - Обучение и тестирование нейронной сети, учитывающей последние наблюдения. Сплошные (серые) линии - выходы нейросети, пунктирные (черные) линии - экспериментальные значения

1.Заметим, что в данном исследовании оптимизация топологии нейросети не производилась.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Однако если в процессе обучения и эксплуатации нейросети подавать на вход не только истинно входные переменные (давление на входе и обороты валов), но и доступные измерения выходного давления в несколько предыдущих моментов времени, то адаптивность модели можно значительно повысить.

В проведенных экспериментах использовались 3 предыдущих значения давления, таким образом, нейросеть имела один выход и 7 входов: P0(t), «i(t), n2(t) ,

n3(t) , P(t - dt) , P(t - 2dt), P(t - 3dt) .

Итогом явилось не только значительное повышение точности прогноза (до 5%), но и кардинальное сокращение шума в прогнозируемых данных (см. рис. 6).

При обучении и тестировании нейросети замерялось также время выполнения вычислений (для ЭВМ Pentium II-300). На этапе тестировании (т.е. в эксплуатационном режиме) время отклика составило 0.02 сек в расчете на один пример, а при обучении - примерно втрое больше. Это предварительно позволяет говорить о десятикратном запасе по отношению к требуемому времени сбора данных ~0.5 сек.

Обсуждение предварительных результатов

Проведенные вычислительные эксперименты показывают, что нейросетевая имитационная модель справляется с главной задачей - представление функции выходных переменных от входных без информации о скрытых параметрах. В процессе обучения нейроны скрытых слоев нейросети автоматически формируют представление о скрытых переменных модели, поскольку вариации этих скрытых переменных отображаются в изменениях выходных переменных.

Учет предыстории выходов в качестве дополнительных входов в нейросеть значительно улучшает качество ее работы.

Для создания промышленной нейросетевой модели элементов магистрального газопровода потребуется решить две главные группы вопросов:

- Получить экспериментальные данные о реальной системе (КЦ, КС), либо надежные данные из расчетов по реалистическим физико-математическим моделям;

- Провести комплексное исследование по выбору и

оптимизации архитектуры нейросети и наборам учитываемых входных и выходных переменных.

Данные направления составят предмет последующих исследований. Авторы благодарят Селезнева В.Е., Ани-симова А.И. и Сергеева Е.А. за полезные обсуждения.

ПЕРЕЧЕНЬ ССЫЛОК

1. С.А.Терехов. Нейросетевые информационные модели сложных инженерных систем. Глава 4 в кн. А.Н.Горбань, В.Л.Ду-нин-Барковский, А.Н.Кирдин, Е.М.Миркес, А.Ю.Новоходько, Д.А.Россиев, С.А.Терехов, М.Ю.Сенашова, В.Г.Царегород-цев. Нейроинформатика. Новосибирск, Наука, 1998.

2. www.licenergy.com

3. А.Ю. Лоскутов, А.С. Михайлов. Введение в синергетику. М. Наука, 1990

4. Т. Шустер. Детерминированный хаос. М. Мир, 1988.

5. W.W. Armstrong, C. Chu, M.M. Thomas. Feasibility of using Adaptive Logic Networks to Predict Compressor Unit Failure. Proc. Battelle Pacific Northwest Laboratories Workshop on Environmental and Energy Applications of Neural Networks, Richland WA, USA, March 30-31, 1995. http://www.den-dronic.com/ papers/Alncomp.zip

6. J. Booker, et al. A Rigorous Framework for Optimization of Expensive Function by Surrogates. NASA ICASE Tech Rep. 9847, 1998

7. Gorban A.N. Approximation of continuous functions of several variables by an arbitrary nonlinear continuous function of one variable, linear function and their superpositions. Appl. Math. Lett. Vol. 11, No. 3, pp. 45-49, 1998.

8. Торбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. Новосибирск: Наука, 1996. - 276 c.

9. Ф.Розенблатт. Принципы нейродинамики. М.: Мир, 1965.

10. Minsky M.L.,Papert S. Perceptrons. MIT Press, Cambridge, MA, 1969

11. Дэннис Дж., Шнабель Р. Численные методы безусловной оптимизации и решения нелинейных уравнений. - М.: Мир, 1988.

12. Levenberg, K. A method for the solution of certain nonlinear problems in least squares. Qty. Appl. Math., v.2, 1944, p.164-168

13. Marquardt, D.W. An algorithm for the estimation of non-linear parameters, SIAM J., v.11, 1963, p.431-441.

14. T.Kohonen. Self-organizing Maps. Springer, 1995

15. Программно-аппаратный комплекс NIMFA для нейросетево-го моделирования. Отчет РФЯЦ-ВНИИТФ, г. Снежинск, 1997.

16. Е.С.Вентцель, Л.А.Овчаров. Теория случайных процессов и ее инженерные приложения. М. Наука, 1991.

17. Р.Шеннон. Имитационное моделирование систем - искусство и наука. М. Мир, 1978.

18. А.Прицкер. Введение в имитационное моделирование и язык СЛАММ. М.Мир, 1987.

19. E.D.Sontag. Neural Nets as System Models and Controllers. Proc. Seventh Yale Workshop on Adaptive and Learning Systems, pp. 73-79, Yale University, 1992. http://www.math.rut-gers.edu/ ~sontag/FTP_DIR/yale.ps.gz

20. E.D.Sontag. Some Topics in Neural Networks and Control. Siemens Corporate Research Tech Rep., 1993. http://www. math.rutgers.edu/ ~sontag/FTP_DIR/93ecc-nn.ps.gz, http:// www.math.rutgers.edu/ ~sontag/FTP_DIR/neural-nets-sie-mens.ps.gz

Надшшла 03.03.2000

i Надоели баннеры? Вы всегда можете отключить рекламу.