Научная статья на тему 'Нейросетевые модели для описания сложных технологических процессов'

Нейросетевые модели для описания сложных технологических процессов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1407
163
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Кузнецов Л. А., Домашнев П. А.

Описана методика построения модели сложного многоэтапного технологического процесса на основе многослойной нейронной сети. Приведены структура нейросетевой модели многоэтапного технологического процесса и алгоритм ее формирования. Рассмотрена методика обучения нейросетевой модели технологического процесса. Показано, что процесс обучения сводится к минимизации функции многих переменных. Получены формулы аналитического пересчета градиента функции потерь, позволяющие применять для обучения сети эффективные методы оптимизации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

NEURONET MODELS FOR COMPLEX PROCESS DESCRIPTION

A methodology for developing a model of a complex multi-stage process based on multi-layer neuron network is described. The neuronet model structure for a multi-stage process and an algorithm for its formation are described. The neuronet model learning procedure is considered. The paper shows that the learning process can be reduced to the minimization of a multivariable function. The equations for analytical recalculation of loss function's gradient are derived that allow the application of effective optimization techniques for network learning.

Текст научной работы на тему «Нейросетевые модели для описания сложных технологических процессов»

УДК 65.015.13:001.57

НЕЙРОСЕТЕВЫЕ МОДЕЛИ ДЛЯ ОПИСАНИЯ СЛОЖНЫХ ТЕХНОЛОГИЧЕСКИХ ПРОЦЕССОВ

Л. А. Кузнецов, П. А. Домашнев Липецкий государственный технический университет

Описана методика построения модели сложного многоэтапного технологического процесса на основе многослойной нейронной сети. Приведены структура нейросетевой модели многоэтапного технологического процесса и алгоритм ее формирования. Рассмотрена методика обучения нейросетевой модели технологического процесса. Показано, что процесс обучения сводится к минимизации функции многих переменных. Получены формулы аналитического пересчета градиента функции потерь, позволяющие применять для обучения сети эффективные методы оптимизации.

ВВЕДЕНИЕ

Для совершенствования технологии производства продукции и управления качеством необходимо детальное изучение явлений, протекающих в ходе производственного процесса. Однако проведение с этой целью активных экспериментов часто либо вообще невозможно из-за вероятных катастрофических последствий, либо экономически невыгодно. В таких случаях технологические процессы исследуют с помощью математического моделирования.

Построение модели производства на основе уравнений физико-химических законов процессов, протекающих на каждом этапе технологического цикла, затруднено, так как они имеют сложную и разнообразную природу и часто в полной мере не могут быть описаны даже системами сложных интегральных и дифференциальных уравнений. Связь между технологией производства и качеством получаемой продукции может быть выявлена с приемлемой точностью статистическими методами по информации, накапливаемой о производстве в ходе его нормального функционирования. Для описания зависимости свойств продукции от технологии производства применяют детерминированные функциональные зависимости вида у = ф (X), где у — одно из свойств продукции, Ф — сложная функция многих переменных, а ;— вектор технологических параметров. Для опреде-

ления вида функции ф используется массив накопленной технологической информации : = = {; | <} е Яр х (п + т), содержащий наборы значений технологических параметров ; = {х1, ..., хп} и значения свойств < = {у1, ..., ут} продукции, полученной при реализации данной технологии. Задача состоит в том, чтобы построить для каждого свойства продукции такое отображение ф: ; о у, при котором значение у (;.), выдаваемое моделью, было бы наиболее близко к значению моделируемого свойства продукции у (;.), полученной при реализации технологии . Традиционно функции ф получают в виде линейных по параметрам регрессионных моделей [1, 2]. Альтернативой им являются нейросетевые модели. В работе [3] рассмотрено использование двухслойных нейронных сетей для моделирования взаимосвязи свойств получаемой продукции и параметров технологии (рис. 1).

Здесь [1, ..., хп — факторы технологического процесса, у1, ..., ут — свойства продукции, ., а.у и ^ к>., . = 1, 2, ] = 1, ..., г., N = 1, ..., г. _ 1 — параметры нейросетевой модели, где г0, г1 и г2 — количество входных сигналов сети и количество нейронов в первом и втором слоях соответственно (г0 = п, г2 = т). Буквами 6. ., ] = 1, ..., г., , = 1, 2 обозначены выходы адаптивных сумматоров каждого нейрона, а буквами 31 ., ] = 1, ... г1 — выходные значения нейронов скрытого слоя.

Топология такой модели может быть сформирована по следующим правилам:

Рис. 1. Модель технологического процесса, характеризуемого п параметрами и выпускаемой продукцией с контролируемыми т

свойствами на основе двухслойного перцептрона с т выходами

• строится двухслойная однородная нейронная сеть, в качестве функции активации выбирается логистическая функция

• число входов модели определяется количеством технологических факторов, все входные сигналы подаются всем нейронам первого (скрытого) слоя;

• число выходов модели соответствует числу контролируемых свойств получаемой продукции; выходными сигналами модели служат сигналы нейронов выходного (второго) слоя, поэтому количество нейронов в этом слое равно числу показателей качества производимой в ходе технологического процесса продукции;

• количество нейронов в первом слое рассчитывается в соответствии с подходом, описанном в работе [3]: оценивается максимально необходи-

Лгшах

мое число связей между нейронами =

= т (1/п + 1)( п + т + 1) + т, а затем рассчитывается максимально необходимое число нейро-

шах шах

нов в первом слое г 1 = Nw /(п + т).

Первоначально параметры модели (коэффициенты синаптических связей , пороговые значения и параметры функций активации а.) инициируются случайными числами в диапазоне

[0; 1]. Расчет оптимальных значений этих параметров называется обучением. В основе обучения лежит использование массива обучающих данных Для проверки качества обучения модели используется массив экзаменующих данных Ж".

Критерий обучения сети имеет вид:

р т

ЕЕ( у. _ ()

. = 1 1 = 1

где р — мощность обучающей совокупности, у~ — действительное значение у-го выхода модели для /-го набора экспериментальных данных, а у. — е го желаемое значение. Способы обучения такой ней-росетевой модели будут рассмотрены далее.

Построенная модель отражает взаимосвязи между факторами технологического процесса и характеристиками качества продукции и позволяет прогнозировать значения всех свойств продукции одновременно. В производственном цикле процесс формирования каждого свойства продукции проходит во взаимодействии с другими процессами и часто оказывает значительное влияние на их протекание и на конечные значения остальных характеристик качества продукции. Двухслойная нейросетевая модель позволяет учитывать это взаимное влияние протекающих процессов. Нейроны скрытого слоя обрабатывают входную информацию и на ее основе формируют новый массив информации для передачи его на следующий слой.

Эта информация участвует в расчете значений каждого выхода модели. Каждый формальный нейрон (или некоторая их совокупность) моделирует один из процессов, протекающих в ходе технологического цикла. Таким образом, значения каждого выхода модели определяется совокупностью результатов этих процессов и параметрами соответствующего формального нейрона выходного слоя.

Функционирование модели, представленной на рис. 1, происходит в два такта по следующим правилам.

• В первый момент времени срабатывают нейроны первого слоя:

61, і = І *1,і, іхі + *1, і, і = 1, ..., и1; (3)

і = 1

31. < = —-Ъг ■ ' = 1.'V

(4)

1 + е

В следующий момент времени рассчитываются значения выходов нейронов выходного слоя:

и1

62, / = X *2,}, ¡Х] + {2, / , / = 1 -» Р (5)

1 = 1

У,

1

1 + е

і = 1...........т.

(6)

НЕИРОСЕТЕВАЯ МОДЕЛЬ СКВОЗНОГО ТЕХНОЛОГИЧЕСКОГО ПРОЦЕССА

Модель (см. рис. 1) отражает влияние применяемой в ходе производства технологии на свойства получаемой продукции. Она описывает конкретное производство и протекающие в нем процессы, оказывающие влияние на конечные свойства продукции. Большинство сложных технологических процессов состоит из нескольких отдельных производств, а конечная продукция получается из сырья путем последовательной его обработки на различных этапах. На этих этапах могут протекать процессы, различные по своей природе и разделенные некоторыми временными периодами. Совокупность этих производств (технологических этапов) представляет собой сквозную технологию.

Если для описания каждого технологического этапа можно воспользоваться двухслойной нейронной сетью, то суперпозиция нейросетевых моделей отдельных этапов составит нейросетевую модель сквозной технологии. В модели, построенной таким образом, непосредственное влияние на

свойства продукции к-го этапа оказывают лишь свойства продукции предыдущего этапа ((к — 1)- го этапа), свойства сырья, используемого на к-м этапе производственного цикла, и технологический режим, выдержанный на нем. Влияние предшествующей реализованной технологии оказывается косвенным и проявляется в свойствах продукции (к — 1)-го этапа, используемой на к-м этапе.

Создание такой модели возможно только после формализации вербального описания сквозного технологического процесса. Для этого подробно рассмотрим схему такого процесса (рис. 2). Пусть сквозной технологический процесс состоит из К фаз (этапов, переделов). На каждом /-м этапе контролируется и измеряется 1/ технологических параметров. Таким образом, множество реальных значений тех-

нологических параметров 7(/) = {т1г-, т2/, ..., множество измеренных значений технологических параметров 8(/) = {ии, и2, ..., и/щ } /-го этапа имеют

1/ составляющих. На каждом этапе производятся полуфабрикаты, М. свойств которых контролируются: <( г) = {\1/ , у2/, ..., у/м }. Часть полуфабрикатов,

полученных на /-м этапе, проходят дальнейшую обработку на (/ + 1)-м этапе производства. Количество свойств этой части продукции /-го этапа обозначим

через м/ (м/ < м/), <(г)' = {\Д, ,..., у/щ', где

Уу е <(/), ] = 1, ..., 0 . Кроме того, на некоторых этапах используется дополнительное сырьё, которое имеет измеряемых характеристик 9(г) = = , v2г•, ..., viL■}. Таким образом, факторы, фор-

мирующие свойства продукции /-й фазы производственного цикла, делятся на три группы:

• свойства полуфабрикатов, произведенных на (/ — 1)-м этапе: 3(/) = {рг1, рг2, ..., рЦ, ^}, р.. =

= У(/_ 1)У , ] = 1 ..., м;_ 1;

• свойства сырья, используемого на /-м этапе про-

и

изводственного цикла: 9< г) = Нр ^ ..., viLi);

• технологические параметры, определяющие режим производства на /-м технологическом этапе, 8(г) = {и/1, и/2, ..., ит,}.

Множество ;(/), описывающее технологию, реализованную на /-й фазе, имеет вид: ;(/) = = {3(/), 9(/), 8(/)} = {х1(/), х2(/), ..., хЯ/(/)}, п, = М

Для удобства подобным же образом обозначим и множество свойств получаемых полуфабрикатов:

<( 0 = {У1(/), У2(/), -., Ум{ (/), у (/), / = 1, -., М" Тех-

221

СШШ 5С1ЕНСЕ5 № 1 • 2004

Рис. 2. Схема .-этапного технологического процесса

нологическая информация о сквозном процессе производства представляет собой совокупность свойств сырья, используемого на каждом этапе производственного цикла, и параметров технологических режимов, реализованных на этих этапах:

; = {9( 1), 8°, И2), 82), Vі'., и(К)} = {х1, х2, ..., хп},

К

где п = І (1 + /^). Продукция, получаемая в ре-

N = 1

зультате реализации технологии ;, имеет т характеристик: < = {у1, у2, ..., ут}, где т = Мк. Для каждой единицы продукции такая информация различна, но структура векторов V, 8 и < постоянна. Поэтому эту информацию можно представить в виде матрицы

Г *1. <11

^ <р)

где ; — вектор значений технологических параметров при производстве і-й единицы продукции, а < — вектор значений свойств і-й единицы продукции.

Предлагается следующий подход к проектированию топологии нейронной сети, описывающей многофазный технологический процесс.

• Каждому этапу технологического цикла в нейро-сетевой модели соответствует однородный двухслойный перцептрон с логистической функцией активации. Выходы нейронов первого слоя передаются всем нейроном второго слоя.

• Количество нейронов выходного слоя /-го пер-цептрона соответствует количеству контролируемых свойств полуфабрикатов, производимых на /-м этапе технологического цикла. В соответствии с введенными выше обозначениями количество нейронов в выходном слое /-го пер-цептрона равно М/. В выходном слое нейросе-тевой модели количество нейронов выбирается равным количеству характеристик выпускаемой продукции р.

• Выходы М/ нейронов /-го перцептрона, соответствующие М/ контролируемым свойствам

полуфабрикатов, производимых на /-м этапе производственного процесса и проходящих дальнейшую обработку на (/ + 1)-м этапе, подаются на входы всем нейронам первого слоя (/ + 1)-го перцептрона. Назовем эти входы перцептрона внутренними. Остальные (М/ — М/) выходов служат выходами нейросетевой модели.

• На входы нейронов первого слоя /-го перцептро-на подаются сигналы, соответствующие свойствам сырья, используемого на /-м этапе производственного процесса, а также сигналы, соот-

ветствующие параметрам технологического режима /-го этапа. Назовем эти входы перцептрона внешними. В соответствии с введенными обозначениями у /-го перцептрона будет (LІ + 1/) внешних входов. Всего /-й перцептрон будет иметь (/г- + 1/ + М/ _ 1) входов.

Нейросетевая модель, сформированная по данным правилам, будет иметь 2К слоев, р =

К _ 1 К

= X (М — М/ ) выходов и Л = X (// + 1/) входов, / = 1 / = 1 представляющих совокупность внешних входов перцептронов, составляющих нейронную сеть.

На рис. 3 приведена нейросетевая модель многоэтапного технологического процесса. Она представляет собой суперпозицию двухслойных моделей (3)—(6) отдельных этапов технологического процесса производства. Полученная нейронная сеть имеет несколько отличий от стандартной нейронной сети:

• она адекватно описывает схему производства, а не является "черным ящиком";

• входные сигналы подаются не только на первый слой нейронов, но и на последующие;

• выходными сигналами сети служат не только выходные сигналы нейронов последнего слоя,

но и выходные сигналы нейронов внутренних слоев;

• сеть должна корректно предсказывать значения выходных сигналов нейронов всех выходных слоев составляющих ее двухслойных сетей, а не только значения выходных сигналов нейронов последнего слоя.

Модель сквозной технологии на основе нейронной сети прогнозирует значения свойств полуфабрикатов, выпускаемых на каждом технологическом этапе, а также значения свойств готовой продукции. Это несколько изменяет критерий и алгоритм обучения нейросетевой модели.

Модели отдельных технологических этапов могут обучаться в отдельности, а потом компоноваться в одну, описывающую сквозную многоэтапную технологию. В этом случае критерий обучения модели каждого этапа имеет вид (2).

Можно обучать модель многоэтапного процесса, не разбивая ее на составляющие. Тогда критерий обучения примет вид:

р к Мк

111 (Укр — у

і = 1 N = 1у = 1

Рис. 3. Нейросетевая модель .-этапного технологического процесса

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где р — мощность обучающей совокупности, К — число этапов технологического процесса (количество двухслойных перцептронов, составляющих нейронную сеть), Мк — число контролируемых свойств продукции, выпускаемой на к-м этапе (количество выходов к-го перцептрона), у кц — реальное значение выхода у'-го нейрона 2к-го слоя, а \куг — его желаемое значение.

ОБУЧЕНИЕ НЕЙРОСЕТЕВЫХ МОДЕЛЕЙ

Нейронная сеть описывается векторной функцией векторного аргумента:

< = ф (с, ;),

где С — вектор настраиваемых параметров сети,

; — вектор входных сигналов, а < — вектор выходных сигналов сети.

Компоненты вектора С делятся на три типа:

• коэффициенты синаптических связей ,., і = = 1, ..., 1,, где 1, — число связей между нейронами;

• пороговые значения ґ., і = 1, ..., 1п, где 1п — количество нейронов в сети;

• параметры активационных функций і = = 1, ..., 1, у = 1, ..., 1п, где 1 — число параметров функции активации (в случае логистической функции (1) 1 = 1).

Цель обучения нейронной сети состоит в нахождении оптимального в смысле выбранного критерия обучения вектора параметров.

Сначала рассмотрим стратегию обучения ней-росетевой модели, представленной на рис. 1.

Критерий (2) можно переписать в следующем виде:

1||< — ф (с, ; )||2, (7)

і = 1

где р — мощность обучающего множества, Хі — і-й вектор значений входных сигналов сети, а < — соответствующий ему вектор желаемых значений выходных сигналов сети.

Тогда соответствующая оптимизационная задача запишется в виде:

Найти псп )(С, ;),

где )(С, ;) = І ||<і — ф(с, ;)||2. (8)

і = 1

Задача (8) является задачей безусловной оптимизации и может быть решена стандартными итерационными методами гладкой оптимизации [4—6]. На каждой к-й итерации необходимо вычислять значение градиента функции ) (С, ;) в точке С(к):

ус )(С(к), ;) = X ус) (С(к), ;/).

/ = 1

Традиционно для этого применяют методы численного вычисления производной [4], причем для вычисления градиента необходимо не менее чем п вычислений значений функции, где п — число переменных. Специфика нейронной сети состоит в том, что число ее настраиваемых параметров велико (от нескольких десятков до тысяч), поэтому вычисление градиента стандартными методами неэффективно.

Для вычисления градиента нейронной сети по ее параметрам применяется метод быстрого дифференцирования, при этом затраты на вычисление градиента всего в 2—3 раза превышают затраты на вычисление значения функции. Применение этого метода основано на представлении сложной функции / многих переменных в виде суперпозиции функций меньшего числа переменных. В этом случае можно воспользоваться правилом дифференцирования сложной функции:

5/($1 ([1 , ..., [л), $2 ([ 1 , , [п)» ••• » $к([ 1 , [п) ) =

5 [/

= X 51 5А.

х 5$,- 5[,-

] = 1 I I

Для каждой из функций А. составляющих/ рассчитываются двойственные переменные р(Аг), которые являются частными производными функции / по А,.: р(А,) = -51-. Зная производную каждой

5А/

из функций составляющих /, можно рассчитать значение " [ / Подробно метод быстрого

дифференцирования описан в работах [7, 8].

Применение метода быстрого дифференцирования позволяет получить формулы для расчета компонент градиента.

Каждый нейрон сети функционирует следующим образом:

Л/

= X "Л — ,

] = 1

Аи/ = М (6и/,

где г — номер слоя, в котором находится нейрон, /. — пороговое значение, х. — у'-й входной сигнал,

П

— коэффициент синаптической связи, 6. — со-

“у “I

стояние нейрона, м(6, я.) — функция активации нейрона, ягІ = (ягі1, ..., аГІМ^) — вектор значений параметров функции активации, а у ГІ — выходной сигнал нейрона, х. = у _ 1)..

Для каждого нейрона сети рассчитываются входная двойственная переменная р™ — переменная точки ветвления и выходная двойственная пере-

вых

менная Р“і — переменная адаптивного сумматора. Для нейронов выходного слоя:

(9)

где у. — желаемое значение выходного сигнала г-го нейрона выходного слоя;

вых вх 5ф(6“І, я“і)

ргІ ргІ

д 6ГІ

Для нейронов скрытых слоев:

1

(10)

вх вых

ргІ = І р(г + 1)у,(г + 1)./'Г І = 1

(11)

где 1 — количество нейронов следующего слоя, которым передается выходной сигнал данного

вых

нейрона, р( и + 1у — двойственная переменная у-го нейрона следующего слоя, а + ^ — коэффици-

ент синаптической связи, соединяющей рассматриваемый нейрон и .-й нейрон следующего слоя;

вых _______ вх д М ( 6“І, ягІ )

Р“і Р“І д 6 .

(12)

Двойственные переменные рассчитываются послойно, от последнего слоя к первому.

Компоненты градиента Ус )(С(к), Х1) для одного набора значений входных сигналов ; рассчитываются по следующим формулам:

5)( с(к), ;/) = вх 5М(6и/> аи/) ^ . (13)

Ри/ 56и/ ^; (13)

5)( С(к), ;) _ _ вх 5М( 6и/> аи/).

д ґГІ

дбгі ’

(14)

д д &К),;) = вх д м ( б“,, я,.,. )

ргІ

дягІ)

д я“І)

(15)

А компоненты градиента по всем набором значений входных сигналов сети — по формулам:

д)( Сч ;) = І д)( сЧ ; ); (16)

д,

“І)

о = 1 д

д )( с( ^ ;) = І д )( С К) , ;);

О = 1

д

д

дя

“І)

дя

(17)

(18)

“І)

Таким образом, для обучения нейронной сети с критерием обучения (8) может быть применена стандартная стратегия нахождения минимума функции многих переменных: для нахождения направления применяются градиентные (метод Коши [5], метод Флетчера — Ривса [6] и др.) или ква-зиградиентные методы (метод ББР [4], метод ВБОЗ [4]), градиент при этом находится по формулам (9)—(18), а для нахождения шага оптимизации могут применяться эффективные методы одномерного поиска — метод квадратичной интерполяции [4], метод кубической интерполяции [5] и др.

Рассмотрим теперь нейросетевую модель, представленную на рис. 3. Для ее обучения также можно применять традиционные методы теории оптимизации, но методика вычисления градиента будет несколько иной из-за специфики модели. Как уже отмечалось, она состоит из К двухслойных сетей, описывающих каждый из этапов технологического процесса. Обозначим через Фк (Ск, Рк, Хк) модель, описывающую к-й этап. Здесь Ск — вектор настраиваемых параметров, Рк — вектор внутренних входов к-й модели, а Хк — вектор ее вне шних входов,

причем рк = Фк _ 1(Ск _ Р рк _ l, ;к - l), к = 2, .", 2К. Тогда:

ф(с, ; = ф.(с., ф. _ 1(с._ 1, ..., (Ф^, ^)),

;к _ 1), ;к),

(19)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где С = (С1, С2, ..., с.), ; = (^1, ;2, -.,;.).

Пусть Ф(/' ■)(С(/ .), Р/, )) — сеть, включающая

в себя модели с /-го по у-й этапы, т. е.

Ф“ ' К л- ^ л) = Ф/С" Ф - 1(С - .........

(Ф(С , р, ;))■ ; _ 1).

261

СОНТНОЬ 5С1ЕНСЕ5 № 1 • 2004

Тогда Ф(С, ;) = Ф(1, К)(С(1< к), .)) и С1 с

с С(1, 2) с С(1, 3) с ". с С(1, К) = С

Критерий оптимизации (7) с учетом выражения (19) можно записать в следующем виде:

X ЕКк — Ф(1, 1 >(&(!, «• ;(1, а)112,

/ = 1 к = 1

где <к/ — желаемое значение выходов нейронов слоя 2к, а ;(1 к) ;• — значения входов сети Ф(1 к)(С(1 к), Х(1 к)) для /-го набора данных. Далее запишем:

ад ^ = X гк«—Ф», к ><&(!. «• ;(1, кх >1г=

/ = 1 к = 1

= X — Ф(1. >(С(1. V ;(1. к')')И =

к = 1 / = 1

= X к)(c■ ; ^

к = 1

где Ґа ,,(С. ;) = 2 К, - ф„, «<С(1, й, ;(1, й,)

І = 1

_ _ }С(1, ») І 5 ЄСЛИ С, Є &(1, »).

а С - {с,.}, с,. - < 0. если с, є &(» + і, . .

Тогда на у-й итерации

У&)(С» ;) = Xvc)(l. к)(^’•

к = 1

Градиент "С)(1 к)(С ^), ;) вычисляется по формулам (9)—(18). Его компоненты, соответствующие параметрам модели к-го этапа, формируются с учетом погрешностей вычислений свойств продукции этапов к, к + 1, ''', К.

ЗАКЛЮЧЕНИЕ

Разработана структура нейросетевой модели, адекватная сложным многоэтапным технологическим процессам. Для анализа одного этапа применима модель на основе двухслойного перцептрона. Она позволяет отразить информацию о процессах формирования свойств полуфабриката в рамках одного технологического этапа (передела). Несколько таких моделей, построенных для различ-

ных этапов технологического процесса и объединенных в одну, составляют нейросетевую модель, описывающую сквозную технологию. Такая модель способна достаточно адекватно отразить полную информацию о влиянии технологических режимов каждого из этапов на свойства готовой продукции и промежуточных полуфабрикатов. Отличительная особенность данной модели — ее гибкость. Каждая из составляющих или участки модели могут рассматриваться независимо от других: в случае изменения условий производства на каком-либо этапе технологии достаточно осуществить параметрическую и (или) структурную адаптацию модели, описывающей этот этап, и затем вновь включить ее в общую схему.

Модели отдельных этапов имеют сходные, заранее известные структуры, что позволяет применять одинаковые алгоритмы обучения и адаптации для каждой модели в отдельности и для суперпозиции моделей.

Процесс обучения нейронной сети сведен к стандартной задаче оптимизации функции многих переменных, а полученные формулы аналитического пересчета градиента функции потерь позволяют применить для обучения сети эффективные методы теории оптимизации.

ЛИТЕРАТУРА

1. Хузне^ов Л. k. Введение в САПР производства проката. — М.: Металлургия, 1991. — 112 с.

2. Хузне^ов -#.kv Логодаев k. Х., Алексеев {. k., Доиашнев Л k. Современные методы обработки данных и управления качеством продукции // Межрегион. сб. науч. тр. "Моделирование и развитие процессов обработки металлов давлением". — Магнитогорск, 2002. Т. 2. — С. 288—295.

3. Хузне^ов Л. k., Доиашнев Л. k. Нейросетевая модель многоэтапного технологического процесса // Сб. науч. тр. ме-ждунар. конф. CCCy/HTCS'2003. — Воронеж, 2003. — С. 191 — 196.

4. Хил.ме.гьйгау Д. Прикладное нелинейное программирование. — М.: Мир, 1975. — 532 с.

5. 1ину 1. Математическое программирование. Теория и алгоритмы. — М.: Наука, 1990. — 488 с.

6. Рейкгейтис Г., Рейвиндран k., Рэгсдег К. Оптимизация в технике: В 2 кн. — М.: Мир, 1986. — Кн. 1. — 345 с.; Кн. 2. — 320 с.

7. Гортань k. Л., Дунин-Гарковский {. Л., Хирдин k. Л. и др. Нейроинформатика. — Новосибирск: Наука. Сиб. пре д-приятие РАН, 1998. — 296 с.

8. Лыйкин ^. ~. Информационная теория идентификации. — М.: Наука, 1995. — 336 с.

S (0742; 52-£0-44 Р-тш7: KM]weWvov@vWM.//peWvN.UM

i Надоели баннеры? Вы всегда можете отключить рекламу.