Научная статья на тему 'Алгоритмы оптимизации имитационных моделей сложных систем на основе нейронных сетей'

Алгоритмы оптимизации имитационных моделей сложных систем на основе нейронных сетей Текст научной статьи по специальности «Математика»

CC BY
1050
186
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
CЛОЖНАЯ СИСТЕМА / ИМИТАЦИОННАЯ МОДЕЛЬ / ОПТИМИЗАЦИЯ / АППРОКСИМАЦИЯ / НЕЙРОННАЯ СЕТЬ / МЕТАМОДЕЛЬ / COMPLEX SYSTEM / SIMULATION / OPTIMIZATION / APPROXIMATION / NEURAL NETWORK / METAMODEL

Аннотация научной статьи по математике, автор научной работы — Афонин Павел Владимирович, Ламскова Ольга Юрьевна

Работа посвящена разработке и исследованию алгоритмов глобальной оптимизации для имитационных моделей сложных систем. Рассмотрены проблемы, возникающие при решении задач оптимизации на основе имитационного моделирования. Предложены алгоритмы глобальной оптимизации, в которых применяются метамодели, построенные с помощью нейросетевого подхода. Приведены результаты исследований алгоритмов на трех классических тестовых функциях и апробация для системы банка с несколькими кассами.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

NEURAL NETWORK BASED SIMULATION OPTIMIZATION ALGORITHMS OF COMPLEX SYSTEMS

This paper is dedicated to the developing and researching of metamodel-assisted simulation optimization algorithms. The two global optimization algorithms based on neural network approximation metamodels are proposed. The results of the algorithms implementation for three standard test functions as well as for the bank system with several cash registers are presented.

Текст научной работы на тему «Алгоритмы оптимизации имитационных моделей сложных систем на основе нейронных сетей»

УДК 004. 421. 6

П.В. Афонин, О.Ю. Ламскова АЛГОРИТМЫ ОПТИМИЗАЦИИ ИМИТАЦИОННЫХ МОДЕЛЕЙ СЛОЖНЫХ СИСТЕМ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ*

Работа посвящена разработке и исследованию алгоритмов глобальной оптимизации для имитационных моделей сложных систем. Рассмотрены проблемы, возникающие при решении задач оптимизации на основе имитационного моделирования. Предложены алгоритмы глобальной оптимизации, в которых применяются метамодели, построенные с помощью нейросетевого подхода. Приведены результаты исследований алгоритмов на трех классических тестовых функциях и апробация для системы банка с несколькими кассами.

Сложная система; имитационная модель; оптимизация; аппроксимация; нейронная сеть; метамодель.

P.V. Afonin, O.Y. Lamskova

NEURAL NETWORK BASED SIMULATION OPTIMIZATION ALGORITHMS

OF COMPLEX SYSTEMS

This paper is dedicated to the developing and researching of metamodel-assisted simulation optimization algorithms. The two global optimization algorithms based on neural network approximation metamodels are proposed. The results of the algorithms implementation for three standard test functions as well as for the bank system with several cash registers are presented.

Complex system; simulation; optimization; approximation; neural network; metamodel.

Введение. В настоящее время метод имитационного моделирования является единственным способом описания и построения адекватных моделей для многих сложных систем из различных областей науки и техники [1]. Заключительным этапом моделирования большинства систем является оптимизация функции отклика модели в пространстве значений факторов. Задача оптимизации на основе имитационного моделирования формулируется следующим образом: необходимо найти значения входных переменных (факторов), оптимизирующих основной выходной показатель системы (отклик). При этом предполагается, что функция отклика не может быть вычислена аналитически, но может быть рассчитана с помощью имитационного моделирования, т. е. с помощью проведения имитационного эксперимента с моделью сложной системы.

Ниже обозначены проблемы, возникающие при решении задач оптимизации на основе имитационного моделирования. Рассмотрены подходы к решению таких проблем. Дано описание предлагаемых алгоритмов глобальной оптимизации, в которых применяются метамодели на основе нейросетевого подхода. В заключении, приведены результаты исследований алгоритмов на трех классических тестовых функциях и апробация для системы банка с несколькими кассами.

Основные сложности при решении задач оптимизации на основе имитационного моделирования. Имитационную модель (ИМ) можно определить как механизм преобразования входных параметров в выходные показатели работы моделируемой системы. В этом смысле моделирование является всего лишь функцией стохастической. Явная форма этой функции неизвестна.

Отметим основные сложности, возникающие при решении задач оптимизации на основе имитационного моделирования:

* Работа выполнена при поддержке: РФФИ (гранты № 08-07-00337, № 08-07-00343). 226

1. Проблема многомерного пространства поиска (для многих сложных систем число факторов велико).

2. Проблема длительности прогонов имитационной модели.

3. Необходимость реализации серии прогонов в одной точке пространства поиска, т.к. функция отклика - случайная величина.

Прогон ИМ для некоторых больших систем на языках имитационного моделирования может достигать нескольких часов [1]. Реализация серии прогонов таких систем, необходимой для алгоритма оптимизации, за разумное время не представляется возможным. Наиболее применимым на практике способом решения данной проблемы является использование метамоделей. Метамоделью принято называть приближенную математическую модель, полученную в результате экспериментов с имитационной моделью с целью замещения последней при оптимизации. Основными методами построения метамоделей являются регрессионные модели, кригинг модели и искусственные нейронные сети (НС).

Преимуществами НС являются [2]:

1) хорошая способность аппроксимации сложных зависимостей;

2) простота выбора модели.

Существуют два подхода к использованию метамоделей в алгоритмах оптимизации на основе имитационного моделирования [3]: статический подход (off-line learning) и динамический подход (on-line learning). Статический подход заключается в последовательном применении ИМ, метамодели и блока оптимизации. Сначала реализуют прогон ИМ в точках, которые используются для построения метамодели. Далее к метамодели применяется алгоритм оптимизации. Затем решения (точки в пространстве поиска), которые получены с помощью алгоритма оптимизации, рассчитываются на основе ИМ. В динамическом подходе применяют принцип перестроения метамодели в процессе оптимизации.

Алгоритмы оптимизации на основе имитационного моделирования и нейросетевых метамоделей. Рассмотрим базовый алгоритм глобального поиска [4], который основан на идее построения локальных метамоделей в контексте статического подхода.

Базовый алгоритм на основе локальных метамоделей.

1. Построение глобальной метамодели в заданной области поиска.

2. Определение областей локальных оптимумов с помощью метамодели на основе метода частичного равномерного перебора.

3. Построение локальных метамоделей в областях локальных оптимумов.

4. Оптимизация функции отклика в локальных областях на основе оптимизационного алгоритма и локальных метамоделей (отдельно для каждой локальной области).

5. Расчет полученных решений в локальных областях с помощью имитационной модели.

6. Выбор лучшего решения среди всех локальных областей по результатам расчета с помощью имитационной модели.

В развитие данного подхода рассмотрим два алгоритма глобального поиска [5], которые в качестве метамоделей используют нейронные сети на основе многослойного персептрона.

На рис. 1 представлена иллюстрация к алгоритму определения минимальных значений функции отклика по метамодели (алгоритм 1). Нейронная сеть обучается на основе прогона заданного числа конфигураций системы (точек в пространстве поиска). С помощью метамодели определяется множество точек с приближенным значением функции отклика. Из данного множества выбирается заданное число точек с минимальным значением функции, для которых реализуется прогон ИМ. На основе полученных точных значений функции отклика определяется точка с минимальным значением функции.

Г (у)

функция отклика ИМ функция метамодели

Рис. 1. Определения минимальных значений функции по метамодели (алгоритм 1)

На рис. 2 представлена иллюстрация к алгоритму выявления локальных оп-тимумов по метамодели (алгоритм 2), а на рис. 3 показана блок-схема алгоритма 2.

рункция метамодели

Рис. 2. Выявление локальных оптимумов по метамодели (алгоритм 2)

Рис. 3. Блок-схема алгоритма выявления локальных оптимумов по метамодели

Нейронная сеть обучается на основе прогона заданного числа конфигураций системы. По метамодели определяется множество точек с приближенным значением функции отклика. Точки разделаются на группы по принципу схожести признаков, т.е. выделяются вероятные области локальных оптимумов. Из каждой группы выбирается одна точка с минимальным значением функции отклика, для которой реализуется прогон ИМ. На основе полученных точных значений функции отклика из всех групп выбирается точка с минимальным значением функции.

Результаты исследований алгоритмов на тестовых функциях. Исследование проводились на трех классических тестовых функциях: Ackley, Rastrigin и Rosenbrock в среде МайаЬ 7.1. Построение нейронных сетей осуществлялось с помощью Toolbox Neural Network (среде Ма^аЬ 7.1).

Рассмотрим аналитический вид тестовых функций.

♦ Ackley function:

f I 1 n 1 f

f (x) = -20 • exp

-0.2

exp

1 n 1

—V cos(2^x,) 1 + 20 + e; n~~t I

♦ Rastrigin function:

f (x) = 10 • n + V (100 • (x2 -10 • cos(2^ • xi)));

i=1

♦ Rosenbrock function:

f (x) = V(100• (x„ -x')2 + (x, -1)2).

i=1

Параметры алгоритмов и тестовых функций: число переменных (для всех функций) - 5; число точек для построения метамоделей (обучения НС) - 500; область оптимизации (интервалы по всем переменным): [-1; 1] - для функции Rastrigin, [-3; 3] - для функции Ackley, [-2; 2] - для функции Розенброка; число точек по метамодели для определения областей локальных оптимумов: 59049 -для функций Rastrigin и Ackley кли, 100000 - для функции Rosenbrock; способ расположения точек обучения - произвольным образом в пространстве поиска (области оптимизации) тестовой функции; параметры метамодели (нейронной сети): трехслойный персептрон с 15-ю нейронами в скрытом слое.

Для оценки эффективности разработанных алгоритмов было проведено сравнение результатов с одним из наиболее распространенных алгоритмов глобальной оптимизации - эволюционной стратегией (ЭС) [6]. Результаты исследований представлены в табл. 1.

Таблица 1

Результаты исследований

Тестовая функция № точки по А1 № точки по А2 Число расчетов ЦФ по А2 Число расчетов ЦФ по ЭС Результат по ЭС

Ackley 24 22 1084 1084 2*10-5

Rastrigin 12 7 998 400 0.99

Rosenbrock 2 2 897 1500 3.9*10-2

Анализ результатов показывает, что оба алгоритма находят глобальный минимум для всех тестовых функций на заданном интервале. Алгоритм 2 позволяет сократить число расчетов целевой функции (ЦФ) приблизительно в 1.5 раза по

сравнению с алгоритмом 1. Для функций Rastrigin и Ackley в некоторых случаях алгоритм 2 находит точку глобального минимума быстрее, чем алгоритм 1, т. е. в массиве точек минимумов для алгоритма 2 точка глобального минимума находится ближе к началу массива (№ точки по А2), чем в массиве для алгоритма 1 (№ точки по А1). Следовательно, алгоритм 2 является более эффективным по сравнению с алгоритмом 1.

Для функции Ackley алгоритм 2 находит точное значение глобального минимума при 1084 расчетах ЦФ. При этих же условиях (1084 расчетов ЦФ) ЭС находит значение близкое к оптимальному.

Для функции Rastrigin сходимость ЭС происходит при 400 расчетах ЦФ, но глобальный минимум находится в среднем в одном из трех экспериментов. Алгоритм 1 и алгоритм 2 всегда находят глобальный минимум на заданном интервале.

Для функции Rosenbrock, чтобы получить значение функции, близкое к оптимальному, ЭС необходимо 2000 итераций. Алгоритм 2 находит оптимальное значение в среднем за 89б расчетов ЦФ.

Апробация разработанных алгоритмов для системы банка с несколькими кассами. Рассмотрим имитационную модель системы банка с несколькими кассами (рис. 4). Имеется б касс, в которых могут работать специалисты 7-ми квалификаций. Банк специализируется на двух операциях: прием платежей и операции по вкладам. Закон прихода клиентов в банк - экспоненциальный со средним значением t = 2 мин. по первой операции и t = З мин. по второй операции. Банк открывается в 10:00 утра и закрывается в б вечера, однако кассы продолжают работать до тех пор, пока все клиенты, находившиеся в банке, не будут обслужены.

Рис. 4. Система банка с несколькими кассами

К каждой кассе формируется отдельная очередь, состоящая не более чем из 5-ти человек; 6-ой клиент в очереди вынужден покинуть помещение. При этом банк теряет свой престиж. Прибывший клиент присоединяется к наиболее короткой очереди по своей операции. Возможен переход клиента из длинной очереди в короткую. Закон обслуживания клиентов - нормальный с математическим ожида-

нием (/) и средним квадратическим отклонением (а), зависящими от квалификации специалиста и типа операции (табл. 2). Затраты на кассу составляют 100 руб. в день. Затраты на штраф из-за потери одного клиента составляют 20 руб. Необходимо подобрать специалистов для банковской системы так, чтобы издержки банка были минимальными

Т аблица 2

Параметры имитационной модели

Квалификация 1 операция 2 операция Зар. плата,

специалиста (обслуживание) (обслуживание) у.е./день

д, мин о, мин д, мин о, мин

1 5 0.2 700

2 5.5 0.2 650

3 6 0.2 9 0.5 800

4 6.5 0.2 8.5 0.5 800

5 7 0.2 8 0.5 800

6 7.5 0.5 700

7 7 0.5 750

Для построения метамодели и проведения экспериментов с ИМ были выбраны следующие параметры плана эксперимента: общее число точек плана: п = 117649; число точек обучения: а = 729; число проверочных точек: Ь = 4096; число экспериментов (имитационных прогонов) в одной точке: ъ = 5; способ расположения точек: равномерное; число областей аппроксимации: одна; тип НС: персептрон с одним скрытым слоем; функция активации: для скрытого слоя - сигмоидная, для выходного - линейная; число входов сети: 6 (соответствует числу касс в системе); число нейронов: в скрытом слое - 10, в выходном слое - один; способ обучения НС: метод обратного распространения ошибки.

В результате решения задачи оптимизации на основе алгоритма 1 и алгоритма 2 была найдена одинаковая рассадка специалистов в кассы (рис. 5), при которой издержки банка минимальны. В случае применения алгоритма 1 потребовалось 1000 прогонов ИМ, а случае применения алгоритма 2 - 320 прогонов ИМ. Таким образом, алгоритм 2 оказался эффективнее.

Можно видеть, что для минимизации издержек банку необходимы 3 специалиста 2-ой квалификации и 3 специалиста 6-ой квалификации. При этом минимальные издержки банка составляют 4668 у.е. в день.

6 6 2 2 2 6

Касса 1 Касса 2 Касса 3 Касса 4 Касса 5 Касса 6

Рис. 5. Результат оптимизации (конфигурация ИМ)

Заключение. В работе предложены два алгоритма глобальной оптимизации для имитационных моделей сложных систем на основе метамоделей типа нейронной сети. Программный код алгоритмов реализован в среде МаИаЬ. При исследовании на трех классических тестовых функциях данные алгоритмы показали лучшие результаты по сравнению с алгоритмом глобальной оптимизации - эволюционной стратегией. Также проведена апробация алгоритмов для системы банка с несколькими кассами, в результате чего определены значения факторов имитационной модели, при которых достигается минимальное значение отклика (издержек). По результатам проведенных исследований можно сделать вывод о том, что

алгоритм выявления локальных оптимумов по метамодели (алгоритм 2) оказался эффективнее алгоритма определения минимальных значений функции по метамодели (алгоритм 1). Алгоритм 2 наиболее эффективен в случае, когда в ландшафте функции отклика ИМ глобальный оптимум не является выраженным по отношению к локальным оптимумам.

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Лоу А., Кельтон Д. Имитационное моделирование: Пер. с англ. (3-е изд.) - СПб.: BHV, 2004.

2. Haykin S. Neural Networks - A Comprehensive Foundation. Prentice-Hall, 1994.

3. Jin Y. A comprehensive survey of fitness approximation in evolutionary computation // Soft Computing. - 2005. - Vol. 1, № 9. - P. 3-12.

4. Афонин П.В., Ламскова О.Ю. Алгоритм оптимизации на основе локальных нейросете -вых метамоделей в реализации для банковской системы // Сб. научных трудов научной сессии МИФИ-2008. - М.: МИФИ, 2008. - Т. 3. - С. 122-123.

5. Афонин П.В., Ламскова О.Ю. Алгоритмы оптимизации на основе имитационного моделирования и нейросетевых метамоделей // Труды Международных научно-технических конференций «Интеллектуальные системы» (AIS’08) и «Интеллектуальные САПР (CAD’2008). - М.: Физматлит, 2008. - Т. 3. - С. 30-36.

6. Hansen N., Ostermeier A. Completely derandomized self-adaptation in evolution strategies // Evolutionary Computation. - 2001. Vol. 2, № 9. - P. 159-196.

Афонин Павел Владимирович

Московский Государственный Технический Университет им. Н.Э. Баумана.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

E-mail: pavlafon@yandex.ru.

105005, г. Москва, 2-я Бауманская ул., д.5.

Кафедра компьютерных систем автоматизации производства, к.т.н.

Afonin Pavel Vladimirovich

Bauman Moscow State Technical University.

E-mail: pavlafon@yandex.ru.

7b, ap. 178, Muranovskaya Street, Moscow, Russia.

Department of Computer-aided Manufacturing Systems, Cand.Tech.Sci.

Ламскова Ольга Юрьевна

Московский Государственный Технический Университет им. Н.Э. Баумана.

E-mail: olik13.85@gmail.com.

г. Москва, ул. Красного Маяка, 15/4, кв. 60.

Кафедра компьютерных систем автоматизации производства, соискатель.

Lamskova Olga Yurievna

Bauman Moscow State Technical University.

E-mail: olik13.85@gmail.com.

15/4, ap. 60, Red Lighthouse Street, Moscow, Russia.

Department of Computer-aided Manufacturing Systems; competitor.

i Надоели баннеры? Вы всегда можете отключить рекламу.