Научная статья на тему 'Методика нейросетевого моделирования сложных систем'

Методика нейросетевого моделирования сложных систем Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1891
314
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Замятин Н. В., Медянцев Д. В.

Изложена методика нейросетевого моделирования сложных систем. Предложены эффективные алгоритмы решения задач отдельных этапов, в частности модифицированный алгоритм «box%counting», развитие нейронной сети встречного распространения. Изложение сопровождается результатами практического моделирования технологического процесса производства этилена на нефтехимическом предприятии.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Замятин Н. В., Медянцев Д. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Technique of neural modelling of complex systems

Technique of neural modelling of complex systems is presented. Efficient algorithms of solving the problems of separate stages, in particular, modified "box-counting" algorithm of developing neuralnet of counter propagation are proposed. The presentation is accompanied by the results of practical modelling of technological production process of ethylene at petrochemical plant.

Текст научной работы на тему «Методика нейросетевого моделирования сложных систем»

Показано, что в спектре стационарного излучения лазера с идеальной поверхностью волноводного слоя полем паразитных мод можно пренебречь. Однако даже весьма малые шероховатости волно-

водного слоя (~1 нм) приводят к значительному (~30 %) росту мощности паразитного излучения и соответствующему снижению спектральных и шумовых параметров.

СПИСОК ЛИТЕРАТУРЫ

1. Petermann K. Laser Diode Modulation and Noise. - Dortdrecht/Boston/London: Kluwer Academic Publishers, 1988. - 315 p.

2. Розеншер Э., Винтер Б. Оптоэлектроника. - М.: Техносфера, 2004. - 592 с.

3. Полупроводниковые инжекционные лазеры. Динамика, модуляция, спектры: Пер. с англ. / Под ред. У. Тсанга. - М.: Радио и связь, 1990. - 320 с.

4. Камия Т, Оцу М., Ямамото Ё., Такума Х. Физика полупроводниковых лазеров. Пер. с яп. / Под ред. В.Л. Величанского. -М.: Мир, 1989. - 307 с.

5. Аппельт В.Э., Задорин А.С., Круглов Р.С. Трансформация поля в многомодовом оптическом волноводе со случайными нерегулярностями поверхности пленки // Оптика и спектроскопия.

- 2005. - Т. 99. - № 4. - С. 635-643.

6. Ермаков О.Н. Прикладная оптоэлектроника. - М.: Техносфера, 2004. - 416 с.

7. Тамир Т. Волноводная оптоэлектроника. - М.: Мир, 1991. -575 с.

8. Унгер Г.Г. Планарные и волоконные оптические волноводы: Пер. с англ. / Под ред. В.В. Шевченко. - М.: Мир, 1980. - 657 с.

УДК 004.032.26 (06)

МЕТОДИКА НЕЙРОСЕТЕВОГО МОДЕЛИРОВАНИЯ СЛОЖНЫХ СИСТЕМ

Н.В. Замятин, Д.В. Медянцев

Томский университет систем управления и радиоэлектроники E-mail: zam@fet.tusur.ru

Изложена методика нейросетевого моделирования сложных систем. Предложены эффективные алгоритмы решения задач отдельных этапов, в частности модифицированный алгоритм «box-counting», развитие нейронной сети встречного распространения. Изложение сопровождается результатами практического моделирования технологического процесса производства этилена на нефтехимическом предприятии.

Современные объекты автоматизации - сложные многопараметрические нестационарные системы, управление которыми требует разработки специфичных систем управления (СУ). Основа любой СУ - модель объекта управления.

Синтез модели сложной системы - многоэтапный процесс, включающий кроме собственно структурно-параметрической идентификации ряд других не менее важных этапов (сбор и предобработка данных, тестирование, анализ синтезированной модели и т. д.). От выбора конкретных методов, алгоритмов, применяемых на каждом этапе, целиком зависит результат моделирования, адекватность синтезированной модели реальному объекту/процессу. Спектр методов достаточно широк, от классического статистического анализа до аппарата искусственных нейронных сетей (ИНС). Области применения различных методов могут частично или полностью перекрываться, можно с достаточной уверенностью сказать, что нет этапа моделирования, для решения задач которого существует единственно верный и оптимальный метод. Выбор существенным образом зависит от конкретного объекта и целей моделирования.

Когда в качестве объекта моделирования выступает сложная система, и нет необходимости струк-

турного соответствия (моделируется поведение), предпочтительнее оказывается нейросетевой подход. Широкий спектр решаемых задач, в том числе эффективное моделирование сложных нелинейных отображений, возможность обучения и заложенная в самой архитектуре адаптивность, перспективная аппаратная реализация, определяют выбор аппарата нейронных сетей, как основного инструмента при синтезе моделей сложных систем [1-3].

Решение практически важных задач автоматизации реальных сложных технологических процессов (ТП) требует разработки соответствующей методики нейросетевого моделирования. Существует базовый укрупненный алгоритм, определяющий общую последовательность шагов моделирования, на основании которого исследователь, в зависимости от специфики объекта моделирования, собственных предпочтений и практического опыта формирует свой «ритуал» анализа данных, определяет конкретные методики и алгоритмы, применяемые на каждом этапе моделирования. В самом общем виде схему анализа можно представить следующим образом.

Представленная разработанная на основании общей схемы методика была успешно апробирована при моделировании ТП производства этилена

на нефтехимическом предприятии [4]. Соответствующий технологический процесс в упрощенном виде представлен на рис. 2.

Рис. 1. Схема анализа данных

Исходное сырье для ТП в виде прямогонного бензина поступает на печи пиролиза. Высокотемпературный нагрев превращает прямогонный бензин в пирогаз (совокупность углеводородов). Пирогаз в свою очередь поступает на очистку и просушку, а затем газоразделение. Под большим давлением пирогаз сжимается и затем в ректификационной колонне разделяется на фазы: этан-этилено-вую фракцию (ЭЭФ), пропан-пропиленовую, а также фракции более высокого порядка: бутилен-дивиниловую, бутилен-бутадиеновую и др.

т Н2 т Н2 т Н2

т \ \ т \ \ т \ \

ЭЭФ | I 1 , II 1 , III

1 1

С2Н2 С2Н2

Рис. 2. Упрощенная схема технологического процесса производства этилена

ЭЭФ затем поступает в реактор, проходит три зоны, где она взаимодействует с катализатором, гидрируется водородом и подвергается другим технологическим преобразованиям, на выходе получаем полезный продукт в виде сжиженного газа этилена, содержащего некоторое количество примесей, из которых наибольшее влияние на качество оказывает ацетилен. Чем меньше ацетилена в готовом продукте, тем выше его качество.

Технологический процесс производства этилена контролируется и управляется операторами в аппаратной. Основным средством контроля технологического процесса выступают хроматографы. Информация от хроматографов поступает на регистраторы в аппаратной. Анализируя высоту пиков ацетилена химической смеси, сравнивая с контрольными значениями вещества, оператор на основе информации от трех хроматографов, по одному на зону реактора, управляет основными технологическими параметрами производства. В общей сложности порядка 48 параметров включая объем исходного вещества (ЭЭФ), температуру, объем водорода, давление по зонам реактора.

Процесс производства этилена непрерывен и строго регламентирован, к безопасности процесса предъявляются повышенные требования, проведение активного эксперимента на действующем производстве невозможно, что затрудняет сбор данных для построения модели технологического процесса. Износ и старение оборудования реактора и элементов контроля, изменение свойств компонентов технологического процесса приводит к дрейфу параметров ТП, система нестационарна. Из-за отсутствия удобной модели, оперативное управление затруднено и сводится к ведению технологического процесса с некоторым запасом, что приводит к перерасходу сырья и низкому качеству конечного продукта.

Подготовка данных

Специфика сложных систем (недостаток априорной информации, нестационарность, зашумленность), использование модели в СУ, когда на первый план выходит поведенческий аспект, прогностические способности модели, и структурное подобие не важно, определяют тип синтезируемой модели - «черный ящик». Модель системы строится в терминах соотношения между состояниями входов и выходов (входы соответствуют внешним воздействиям на изучаемую систему, выходы её реакциям на них). Необходимая информация может быть получена либо в результате проведения экспериментов с реальной системой, что зачастую сопряжено с определенными трудностями или вообще невозможно, либо в результате наблюдений (пассивного эксперимента) за реальной системой

- наиболее распространенный на практике при анализе сложных систем вариант.

Собранные в результате эксперимента данные, как правило, являются «сырыми», их необходимо обработать: отредактировать пропуски и аномальные выбросы, устранить противоречия, подвергнуть трансформации (ИНС работают только с числовыми данными), устранить незначащие факторы и т. д. Качество собранных данных, их полнота и достоверность во многом определяют модель. Этап подготовки данных включает очистку, трансформацию и понижение размерности исходных данных.

Процедура очистки данных подразумевает редактирование аномалий, восстановление пропущенных значений, фильтрацию и сглаживание, удаление дубликатов и противоречий. При этом используются алгоритмы классической статистики, робастной фильтрации, спектрального и вейвлет анализа, аппарат ИНС [1].

Полученные в результате наблюдений за реальной системой данные упорядочены во времени. К эффективным и достаточно простым методам предварительной очистки упорядоченных данных следует отнести кубические сплайны и преобразование Фурье.

Аппарат ИНС - универсальный инструмент анализа данных, результаты его работы не привязаны к конкретным единицам измерения, нейронная сеть оперирует с числовыми данными, представленными, как правило, в интервале [0; 1]. Интервал масштабирования связан с используемой функцией активации нейронов. В простейшем случае производят линейное масштабирование. Подход не применим, когда в данных присутствуют редкие выбросы. В этом случае при линейной нормировке основная масса значений сосредотачивается в небольшой области интервала масштабирования. Проблема решается заменой экстремальных значений статистическими характеристиками данных (средним и дисперсией) и использованием нелинейного преобразования. Процедура нормировки непосредственно влияет на процесс обучения нейронной сети (главным образом на скорость) и качество обобщения синтезированной модели [1, 5].

Для включения нечисловой информации производится ее кодирование, руководствуясь принципом максимизации энтропии. Выделяют два основных типа нечисловых переменных: упорядоченные или ординальные и категориальные. Исходя из принципа равномерного заполнения единичного интервала закодированными значениями для ординальных переменных используют деление в зависимости от числа примеров каждого класса, численное значение - центр соответствующего отрезка: Дхг=Рг/Р, где Рг - число примеров класса г, Р - общее число примеров. Для категориальных переменных применяют обычно двоичное или биполярное кодирование, при этом учитывается по возможности равномерность загрузки каждого из полученных числовых значений.

Любая реальная система взаимодействует со средой множеством способов. Строя модель системы, из всего множества связей отбирают конечное их число и включают их в список входов и выходов. Сложность в том, что в действительности заранее не известно, какие входные параметры оказывают существенное влияние на выходные целевые параметры, а какие нет. Понижение размерности признакового пространства, устранение незначащих факторов - достаточно сложный и важный этап предобработки данных для нейросетевого анализа.

Значимость параметра определяется силой его взаимосвязи с другими параметрами. Если сильна связь между двумя входными параметрами, то, скорее всего исключение одного из них не окажет существенного влияния на общую информативность выборки. Слабая связь между входным параметром (фактором) и выходом модели служит признаком низкой информативной способности данного фактора. Существует множество различных мер взаимосвязи между переменными. Выбор определенной меры в конкретном исследовании зависит от числа переменных, используемых шкал измерения, природы зависимостей. Наиболее часто на практике в качестве меры линейной зависимости двух пе-

ременных используют коэффициент корреляции Пирсона.

Наличие линейной связи между переменными позволяет сделать предположение о реально более низкой размерности признакового пространства. Один из наиболее простых и распространенных методов понижения размерности - анализ главных компонент (ГК), позволяющий в результате линейного преобразования вместо исходных признаков, получить набор независимых факторов. Один из недостатков метода главных компонент состоит в том, что это чисто линейный метод, он не учитывает некоторые важные характеристики структуры данных, что ограничивает его применимость.

Для более глубокой предобработки входов можно использовать все богатство алгоритмов самообучающихся нейросетей. В частности можно воспользоваться методом нелинейных главных компонент, который реализуется автоассоциативными нейронными сетями с узким горлом [1]. Это многослойные сети прямого распространения, которые обучают выдавать в качестве выходов свои собственные входы, но при этом в промежуточном слое содержится меньше нейронов, чем во входном и выходном слоях. При использовании трехслойной сети с линейными функциями активации получаем нейросетевой аналог метода главных компонент.

Описанные методы позволяют представить исходные входные данные в максимально информативном виде, однако ни как не учитывают зависимость выходов от входов. В предположении о линейной зависимости оценить значимость входов достаточно легко на основе анализа взаимной корреляции, но в этом случае применение нейронных сетей теряет всякую привлекательность, построение линейной регрессионной модели - более простое и эффективное решение. Рекомендуется заранее освободиться от тривиальных линейных зависимостей и использовать для нейроанализа только нелинейную составляющую данных.

Определение информативности входных переменных на основе обученной нейронной сети -процедура спорная, и, безусловно, трудоемкая. Необходимость выбора конфигурации сети, ее обучение, интерпретация полученных результатов занимают много времени. Требование адаптации модели с привлечением новых эмпирических данных делает использование данного метода достаточно проблематичным.

Один из методов редукции пространства входов, учитывающий влияние признаков на отклик и инвариантный к специфике зависимости - алгоритм «box-counting». В соответствии с алгоритмом, значимость входов определяется на основании оценки предсказуемости выходов, обеспечиваемой данным набором входных переменных. Чем выше предсказуемость - тем лучше соответствующий набор входов.

Мерой предсказуемости случайной величины является ее энтропия. В методике «box-counting» энтропия приближенно оценивается по числу заполненных ячеек, на которые разбивается интервал ее возможных значений, качественно, энтропия есть логарифм эффективного числа заполненных ячеек.

Предсказуемость случайного вектора Y, обеспечиваемая знанием другой случайной величины X, дается кросс-энтропией: I(Y,X)=H(Y)+H(X)-

-H(X,Y)=H(Y)-H(Y\X). Качественно, кросс-энтропия равна логарифму отношения типичного разброса значений переменной Y к типичному разбросу этой переменной, но при известном значении

переменной X: I(Y,X) = log • Чем больше

N XY

кросс-энтропия, тем больше определенности вносит знание значения в предсказание значения переменной Y.

Методика дает наиболее общий рецепт определения значимости входов, позволяя также оценивать степень предсказуемости выходов. Остается открытым вопрос о выборе оптимальной комбинации признаков. Полный перебор (2”-1) с расчетом кросс-энтропии в пространстве все более высокой размерности (по мере увеличения числа отобранных признаков) задача уже при небольшом числе переменных достаточно сложная. Для упорядоченного перебора возможных комбинаций предлагается использовать генетический алгоритм, который гарантирует нахождение «хорошего» решения за приемлемое время.

Контроль основных параметров и регулирование ТП получения этилена производится в непрерывном режиме, вся информация с периодичностью в час заносится в соответствующие журналы. ТП определяется 48 доступными непосредственному измерению контролируемыми параметрами, все непрерывные величины. Основная задача - построение модели для определения (прогнозирования) концентрации ацетилена на выходе реактора (оптимизация ТП сводится к минимизации примеси ацетилена в конечном продукте) на основании известных значений других параметров, среди которых объем вещества (ЭЭФ), температура, объем водорода, давление по зонам реактора (рис. 2).

При моделировании использовалась выборка из 374 наблюдений, без дубликатов и противоречивых записей, ограниченность выборки определяется актуальностью и качеством доступных на момент проведения исследования данных. Оценка и фиксация значений основных параметров технологического процесса производится вручную, что определяет достаточно высокую погрешность собранных данных и их «гладкость»: отсутствуют выбросы, пропуски, практически нет необходимости проводить дополнительную обработку и фильтрацию.

Решение задачи затруднено небольшим относительно числа переменных, учитывая их непрерывный характер и достаточно широкую область варьирования, объемом имеющихся данных. При этом на первый план выходит задача оценки информативности входных параметров. В ходе решения задачи для сравнения использовались данные, редуцированные методом главных компонент и модифицированным «box-counting». Оценка проводилась опосредованно по характеристикам синтезированных на основании трех (исходная и полученные в результате работы алгоритмов) выборок моделей. Сравнение кажется не совсем удачным, методы используют разные подходы, если в первом случае в результирующем наборе факторов обычно присутствуют все исходные переменные в виде линейных комбинаций, то во втором из выборки непосредственно удаляются те переменные, влияние которых на выход признается незначимым. Однако в данном исследовании важна, прежде всего, практическая сторона вопроса, результат - адекватность синтезированной модели, к тому же сравнение позволяет сделать некоторые интересные выводы.

Методом главных компонент на основе исходных 47 параметров были выделены 20 факторов, которые описывают 95 % общей дисперсии в имеющихся данных.

Для модифицированного «box-counting» алгоритма входные переменные определяем позиционно в виде бинарной последовательности (для удобства использования ГА), где 1 означает, что данный признак используется. При этом хромосома кодируется соответственно последовательностью из 47 бит. Каждая особь в популяции обладает мерой приспособленности к окружающей среде. В данном случае мера приспособленности определяется кросс-энтропией, подсчитанной на данном наборе признаков и скорректированной на количество переменных (необходимо найти минимальный набор переменных, обладающий максимальной информативностью). Чем больше определенности вносит сочетание признаков в предсказание значения отклика, тем особь лучше приспособлена и тем выше шансы на выживание.

По нескольким запускам ГА был определен оптимальный набор параметров - 26 переменных. Характерно, что попытка сокращения пространства факторов, сформированного методом ГК, не увенчалась успехом, максимальной информативностью обладает набор из всех 20 факторов.

Синтезированные нейросетевые модели, построенные на исходном и редуцированных наборах признаков, близки по основным показателям, несколько выделяется в лучшую сторону модель на выборке, обработанной методом главных компонент.

В наборе переменных, полученном с помощью алгоритма «box-counting» отсутствуют параметры

ТП, однозначно причисляемые экспертами (технологами производства) к значимым. Что позволяет говорить о недостаточной презентативности имеющейся выборки, значимые переменные были отброшены на основании их слабого вклада в определении величины отклика на исследуемом наборе данных. Важно не забывать о том, что информативность переменных при моделировании сложных систем в условиях недостатка априорной информации мы может оценить только по имеющейся выборке. Низкое качество выборки влечет построение модели, возможно достаточно точно описывающей данные, используемые при ее построении, однако неадекватной самой моделируемой системе, что показывает необходимость последующей адаптации.

Синтез модели

Этапы структурного и параметрического синтеза нейросетевой модели тесно связаны. Следует отметить, что применительно к нейросетевому моделированию сами понятия структурного и параметрического синтеза несколько отличаются от того, что подразумевается под ними в эмпирико-статистических методах. Нейронная сеть уже модель. Выбирая топологию сети, количество слоев, нейронов в слое, связи между нейронами, функцию состояния и функцию активации конкретного нейрона, мы определяемся с видом нейросетевой модели, синтезируем структуру. От вида модели зависит выбор метода обучения ИНС, обучение - суть параметрической идентификации, при этом в ходе обучения изменяются веса, могут обнуляться меж-нейронные связи, варьироваться параметры функций активации нейронов, что отображается и на структуре модели.

Для целей моделирования главным образом используют полносвязные многослойные нейронные сети с прямым распространением сигнала и нелинейной функцией активации нейронов скрытых слоев - многослойные персептроны (МСП).

Трехслойная полносвязная сеть, содержащая в скрытом слое радиально-симметричные нейроны -сеть радиально-базисных функций (РБФ-сеть) по своим возможностям близка МСП, а в чем-то даже превосходит [3]. Моделирование произвольной нелинейной функции с помощью всего одного промежуточного слоя избавляет от необходимости решать вопрос о числе слоев. Для обучения используется относительно простой, без рекурсии, алгоритм настройки, за счет чего РБФ-сеть обучается очень быстро (на порядок быстрее МСП). Сеть прекрасно справляется с задачей интерполяции. Однако РБФ-сети более чувствительны к «проклятию размерности» и испытывают значительные трудности, когда число входов велико. Для аппроксимации одной и той же зависимости сети радиально-базисных функций требуется, как правило, больше элементов скрытого слоя в сравнении с МСП. РБФ-сети совершенно не приспособлены экстраполировать

свои выводы за область предъявленных при обучении данных. Перечисленные недостатки сужают область применения сетей с радиальными элементами скрытого слоя, и, в частности, затрудняют их использование при моделировании сложных систем. Эти же недостатки свойственны обобщеннорегрессионным нейронным сетям.

Сеть встречного распространения отлична от МСП и РБФ-сети гибридной структурой и наличием слоя распознавания, при этом данная архитектура традиционно для целей моделирования непосредственно используется редко, выполняя, как правило, вспомогательные функции. В сети встречного распространения объединены два хорошо известных алгоритма: самоорганизующаяся карта Кохонена и звезда Гроссберга. Их объединение ведет к свойствам, которых нет ни у одного из них в отдельности.

Нейроны входного слоя сети встречного распространения служат лишь точками разветвления и не выполняют вычислений. Каждый нейрон входного слоя соединен с каждым нейроном слоя Кохонена (карта Кохонена). Аналогично, каждый нейрон в слое Кохонена соединен с каждым нейроном в слое Гроссберга. Карта Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов, при которой близкие входные векторы активируют один и тот же нейрон Кохонена. Задачей слоя Грос-сберга является получение требуемых выходов.

Слой Кохонена обычно функционирует в духе «победитель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, все остальные выдают ноль. В этом случае каждый нейрон слоя Гроссберга лишь выдает величину веса, который связывает этот нейрон с единственным ненулевым нейроном Кохонена.

Сеть встречного распространения дает кусочнопостоянное представление модели У=¥(Х), поскольку при вариации вектора X в пределах одного кластера на слое соревнующихся нейронов Кохонена возбуждается один и тот же нейрон-победитель. В случае сильно зашумленных данных, такое представление обладает хорошими регуляризирую-щими свойствами. При этом процедура обучения сети встречного распространения заметно быстрее, чем, например, обучение МСП, это определяет применение сети для быстрого моделирования систем, где большая точность МСП вынуждает отдать ему предпочтение в окончательном варианте, но важна быстрая начальная аппроксимация.

Особую ценность сеть встречного распространения представляет для оценки корректности постановки задачи моделирования [2]. Широким классом некорректно поставленных задач являются так называемые обратные задачи. При постановке задачи предсказания реакции исследуемой системы при ее известном состоянии на заданные внешние воздействия, т. е. получения величин У

при заданных X исследователь имеет дело с прямой задачей моделирования. Целью обратной задачи выступает получение входных величин X, соответствующих наблюдаемым значениям выходов У. При моделировании сложных систем соответствующий запрос к модели формулируется, как поиск внешних условий, которые привели к реализовавшемуся отклику системы. Для большинства приложений чисто обратные задачи встречаются относительно редко, обычно имеются дополнительные сведения о системе. Например, кроме измеренного отклика, могут быть известны переменные состояния системы и часть параметров воздействия. В этом случае задача относится к классу комбинированных: по известным значениям части компонент входного X и выходного У векторов восстановить неизвестные компоненты.

Обратные и комбинированные задачи зачастую являются некорректно поставленными, нарушая единственность существующего решения. Прямая задача также может быть некорректной, что является признаком неполноты данных (не все признаки учтены) или следствием сильной зашумленности.

Классическим методом решения некорректных задач является метод регуляризации. Суть метода состоит в использовании дополнительных априорных предположений о характере решения. Обычно в качестве таковых используются требования максимальной гладкости функции, представляющей решение задачи, в случае нейросетевого моделирования регуляризирующие методы сводятся к оптимизации функционала ошибки с аддитивной добавкой, исчезающей по мере улучшения гладкости функции. На практике регуляризация сводится к ограничению структурной сложности нейросете-вой модели, так как при неограниченном увеличении числа нейронов скрытых слоев сеть способна достаточно точно запомнить произвольный обучающий набор, при этом вместо гладкой будет получена «пилообразная» функция, проходящая через все обучающие точки.

В общем случае задача может иметь корректное (единственное и устойчивое решение) решение для некоторых областей множества значений и являться некорректно поставленной для других. Оценка некорректности постановки задачи моделирования (выделения областей некорректности) с помощью сети встречного распространения может быть осуществлена следующим образом:

1) Строится распределение векторов обучающей выборки по кластерам, содержащим близкие по величине параметры наблюдения (карта Кохо-нена).

2) На каждый кластер строится и обучается своя нейронная сеть, оценивается ошибка обучения (обобщения), которая является характеристикой степени некорректности отображения в области данного кластера.

3) Выбирается некоторое пороговое значение ошибки, на основании сравнения с которой по каждому кластеру выносится решение о некорректности решения задачи на подмножестве значений кластера.

Предварительная кластеризация данных и раздельное решение задачи аппроксимации на полученных кластерах позволяет решить проблему выделения областей некорректности и повысить точность модели за счет потенциальной возможности достижения меньшей ошибки обучения (обобщения) для отдельного кластера.

Архитектура на основе сети встречного распространения позволяет автоматизировать процесс синтеза модели сложной системы и его корректировку при поступлении новой информации. На слой Кохонена поступает входной вектор, решается задача соотнесения информации с известными прецедентами в прошлом - задача распознавания ситуации, вектор либо принадлежит существующему кластеру, либо под него формируется новый. Принадлежность кластеру определяет обученную нейронную сеть (условимся, что второй слой вместо одного нейрона - звезды Гроссберга на каждый нейрон Кохонена содержит отдельную нейронную сеть

- МСП), которая отрабатывает полученную информацию, формирование нового кластера определяет синтез новой нейронной сети, ее обучение.

Использование предложенной архитектуры при моделировании ТП получения этилена на имеющихся данных дало два кластера (10 и 90 % выборки соответственно), при этом синтезировать МСП

- решатель с приемлемой ошибкой удалось только на втором. Низкая представительность выборки не позволяет сделать обоснованные выводы относительно характеристик данных первого кластера.

Верификация модели

Использование ошибки обобщения, как критерия качества при выборе оптимальной структуры нейросетевой модели и ее обучении, применение регуляризирующих критериев, способствующих поддержке баланса между сложностью и ошибкой модели, не позволяют в полной мере гарантировать качество модели, ее пригодность для решения задач исследования. Необходима верификация - завершающий этап разработки модели.

Прежде всего, следует оценить адекватность модели. Под адекватностью понимают степень соответствия модели реальному объекту, для описания которого она строится. Учитывая, что модель ориентирована, как правило, на исследование определенного подмножества свойств этого объекта, не объекта целиком, можно считать, что адекватность модели определяется степенью ее соответствия целям исследования. Построение модели сложного объекта управления преследует цель воспроизведения внешнего функционирования, имитации поведения исследуемой системы. Распро-

страненным способом подтверждения адекватности синтезированной модели является проверка соответствующей гипотезы на основе статистических критериев. Процедура оценки основана на сравнении измерений на реальной системе и результатов экспериментов на модели и может проводиться различными способами.

Следующий важный шаг - оценка устойчивости модели. При оценке адекватности модели используется ограниченное подмножество всех возможных значений входных параметров. В связи с этим для обоснования достоверности получаемых результатов моделирования большое значение имеет проверка устойчивости модели - ее способность сохранять адекватность на всем возможном диапазоне входных параметров, а также при внесении изменений в конфигурацию системы. Универсальной процедуры проверки устойчивости модели не существует. В каждом конкретном случае исследователь вынужден прибегать к специфичным методам и руководствоваться здравым смыслом.

Очевидно, что устойчивость является положительным свойством модели, однако если изменение входных воздействий или параметров модели (в некотором заданном диапазоне) не отражается на значениях выходных параметров, то польза от такой модели невелика. В связи с этим возникает задача оценивания чувствительности модели к изменению параметров входных сигналов и внутренних параметров самой системы. Такую оценку проводят по каждому параметру в отдельности.

Оценить чувствительность модели к изменению внутренних параметров, в случае ИНС речь идет, прежде всего, о весовых коэффициентах межней-ронных соединений, можно, используя функционал качества, в простейшем случае - функцию ошибки сети. Хорошая нейросетевая модель обычно имеет по каждому параметру относительный коридор стабильности, в пределах которого функционал качества изменяется незначительно в силу распределения вычислительных функций между нейронами сети.

СПИСОК ЛИТЕРАТУРЫ

1. Ежов А.А., Шумский С.А. Нейрокомпьютинг и его применения в экономике и бизнесе. - М.: МИФИ, 1998. - 224 с.

2. Нейроинформатика / А.Н. Горбань, В.Л. Дунин-Барковский, А.Н. Кирдин, С.А. Терехов и др. - Новосибирск: Наука, 1998.

- 296 с.

3. Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. - М.: Мир, 1992. - 127 с.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Использование в качестве переменных (дополнительных к наборам независимых и зависимых переменных самой задачи) внутренних сигналов нейронной сети позволяет детально анализировать выстроенную ИНС при обучении и целенаправленно ликвидировать узкие места, получать нужные свойства решения [5].

Таким образом, при оценке качества нейросете-вой модели могут быть использованы как методы, разработанные в рамках статистического подхода, так и специфичные для ИНС методы; их совместное применение позволяет провести анализ наиболее полно.

Для модели ТП производства этилена процедура верификации производится при поступлении новой информации и заключается в сравнении ошибки сети с фиксированным малым значением, превышение определяет необходимость подстройки параметров сети. Если данные существенно различаются с используемыми при синтезе начальной модели - формируется новый кластер и нейронная сеть.

Предлагаемая методика не позволяет полностью автоматизировать синтез нейросетевой модели, начиная от этапа сбора и предобработки данных и до принятия решения об адекватности модели. Моделирование на основе модифицированной сети встречного распространения ставит задачи, решение которых сегодня требует привлечения интеллектуальных способностей человека: выбор чувствительности слоя Кохонена, структуры сетей -решателей. Частично решению указанных проблем может способствовать применение эволюционных алгоритмов для структурного и параметрического синтеза нейросетевых моделей.

Следование описанной общей методике, применение эффективных универсальных методов нейросетевого моделирования и эволюционных алгоритмов позволяет облегчить процедуру синтеза модели сложной системы за счет четкого определения последовательности шагов и сужения области выбора применяемых на каждом шаге алгоритмов.

4. Медянцев Д.В. Построение модели химико-технологического процесса // Приборы и системы. Управление, контроль, диагностика. - 2005. - № 7. - С. 24-26.

5. Царегородцев В.Г. Взгляд на архитектуру и требования к нейроимитатору для решения современных индустриальных задач // Нейроинформатика и ее приложения: Матер. XI Всеросс. семин. - Красноярск, 2003. - С. 171-175.

i Надоели баннеры? Вы всегда можете отключить рекламу.