Научная статья на тему 'Обучение и двухуровневая нечеткая оптимизация в разработке компьютерно-интегрированных систем'

Обучение и двухуровневая нечеткая оптимизация в разработке компьютерно-интегрированных систем Текст научной статьи по специальности «Математика»

CC BY
70
10
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — А А. Лавров, О И. Лисовиченко, Л, С. Ямпольский

ДДанная статья рассматривает повышение эффективности решения задач смешанной нелинейной целочисленной оптимизации, которые возникают при разработке компьютерноинтегрованных систем, с позиций: (1) трактование этого как, в свою очередь, снова задачи такого же типа, (2) использование комбинированных способов, которые базируются на нейронных сетях и/или нечетком представлении для управления поиском в смешанном (непрерывном/дискретном/ комбинированном) пространстве управляемых переменных (в прикладной задаче) и значений параметров самих поисковых процедур (в задаче второго уровня). Рассматриваются две стадии. На первой выполняется поиск (второго уровня) в пространстве параметров оптимизационных процедур, и собранная при этом информация используется для построения опорной поверхности, которая, в свою очередь, используется для выбора эффективных значений параметров на стадии решения прикладных задач разработки систем.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — А А. Лавров, О И. Лисовиченко, Л, С. Ямпольский

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

This paper views a problem of increasing the efficiency of mixed integer nonlinear optimization (MINLO), arising in computer-integrated system development, from the standpoints of (1) dealing with it as being itself a MINLO problem and (2) using a combined, neural net-based and/or fuzzy set-based setup for guiding the search in a mixed (continuous/integer/composite) space of the controllable variables (in the application problems), and of the algorithm settings (in the second-level problem). Two stages are considered. At the training stage, the (secondlevel) search proceeds in the space of the settings, and the information gathered here is accumulated in the form of a support surface, which is used at the second, application stage for choosing appropriate search settings.

Текст научной работы на тему «Обучение и двухуровневая нечеткая оптимизация в разработке компьютерно-интегрированных систем»

ПЕРЕЧЕНЬ ССЫЛОК

1. AyôpoeiH В., Степаненко О., Луценко А. Д1агностика процессе та керування якютю // Досв1д розробки i застосу-вання САПР в мiкроелектроницi /Mатерiали п'ято! мiжна-родно! науково-техшчно! конференцп CADSM'99. - ËbâiB, Державний ушверситет "Львiвська полiтеxнiка", 1999, С.22-24.

2. Внуков Ю.Н., Аубровин В.И. Методики прогнозирования с использованием теории статистических оценок и статистической классификации //Высокие технологии в машиностроении /Материалы VI международного научно-технического семинара. - Харьков: ХГПУ, 1996, С.26-27

3. Внуков Ю.Н., Аубровин В.И. Алгоритм классификации с использованием дискриминантных функций //Высокие

технологии в машиностроении /Сборник научных трудов ХГПУ. - Харьков: ХГПУ, 1998, С.64-66.

Аубровин В.И., Корецкий Н.Х. Об одном подходе к прогнозированию надежности изделия //Электронное моделирование, 1986, т.8, N 6, ноябрь-декабрь, С.97-98. Бовель Е.И., Паршин В.В. Нейронные сети в системах автоматического распознавания речи //Зарубежная радиоэлектроника. 1998. №4 . C.50-57.

Нейрокомпьютеры и интеллектуальные роботы /под. ред. Амосова Н.М. - Киев: Наукова думка, 1991. - 272 с. Кохонен Т. Ассоциативная память: Пер. с англ. - М.:Мир, 1980.-204 с.

Аубровин В.И. Эвристические алгоритмы классификации// Машиностроитель, 1998, №7, С. 6-9.

Надшшла 04.07.99

УДК 519.854

ОБУЧЕНИЕ И ДВУХУРОВНЕВАЯ НЕЧЕТКАЯ ОПТИМИЗАЦИЯ В РАЗРАБОТКЕ КОМПЬЮТЕРНО-ИНТЕГРИРОВАННЫХ СИСТЕМ

А. А. Лавров, О. И. Лисовиченко, Л. С. Ямпольский

Данная статья рассматривает повышение эффективности решения задач смешанной нелинейной целочисленной оптимизации, которые возникают при разработке компьютерно-интегрованных систем, с позиций: (1) трактование этого как, в свою очередь, снова задачи такого же типа, (2) использование комбинированных способов, которые базируются на нейронных сетях и/или нечетком представлении для управления поиском в смешанном (непрерывном/дискретном/ комбинированном) пространстве управляемых переменных (в прикладной задаче) и значений параметров самих поисковых процедур (в задаче второго уровня).

Рассматриваются две стадии. На первой выполняется поиск (второго уровня) в пространстве параметров оптимизационных процедур, и собранная при этом информация используется для построения опорной поверхности, которая, в свою очередь, используется для выбора эффективных значений параметров на стадии решения прикладных задач разработки систем.

Дана стаття розглядае тдвищення ефективностг ршення задач змгшаног нелшшног щлочисленог оптимгзацп, що вини-кають при розробц комп'ютерно-ттегрованих систем, з позиций: (1) трактування цього як, у свою чергу, знову задачг такого ж типу, (2) використання комбтованих засобгв, що базуються на нейронних с1тках та/або неч1ткому поданш для керування пошуком у змгшаному (неперервному/дискрет-ному/комбтованому) просторг керованих змгнних (у прикладной задачг) та значень параметр1в самих пошукових процедур (у задачг другого ргвня).

Розглядаються дв1 стади. На першт виконуеться пошук (другого ргвня) у просторг параметргв оптим1зацтних процедур, г згбрана при цьому гнформацгя використовуеться для побудови опорноi поверхт, яка, в свою чергу, використовуеться для вибору ефективних значень параметр1в на стадп ргшення прикладних завдань розробки систем.

This paper views a problem of increasing the efficiency of mixed integer nonlinear optimization (MINLO), arising in computer-integrated system development, from the standpoints of (1) dealing with it as being itself a MINLO problem and (2) using a combined, neural net-based and/or fuzzy set-based setup for

guiding the search in a mixed (continuous/integer/composite) space of the controllable variables (in the application problems), and of the algorithm settings (in the second-level problem).

Two stages are considered. At the training stage, the (second-level) search proceeds in the space of the settings, and the information gathered here is accumulated in the form of a support surface, which is used at the second, application stage for choosing appropriate search settings.

1. ВВЕДЕНИЕ

Современные компьютерно-интегрированные системы, представленные, в частности, гибкими автоматизированными производствами, отличаются большой сложностью, размерностью, разнообразием элементов входных и выходных потоков, высокой стоимостью и т.д. Как следствие, разработка таких систем нацелена не только на обеспечение выполнения ими определенного набора функций, но и, прежде всего, на выполнение этих функций наиболее эффективным (с точки зрения некоторого критерия) путем, т.е. коренным образом сопряжена с решением задачи оптимизации. Вследствие чрезвычайно широкого спектра характеризующих эти системы параметров (например, количество станков -целая (дискретная) величина, длительность обработки -непрерывная, типы компоновки - символьные (дискретные) значения), указанная задача является, по своей сути, задачей смешанной нелинейной целочисленной оптимизации. Этот тип задач относится к наиболее сложным в математическом программировании (СНЦО) [8,19].

В ее общей постановке, задача СНЦО ^СНЦО (1)-(5)

направлена на минимизацию целевой функции f при наборе ограничений, среди которых - требование цело-

численности аргументов и/или их принадлежность заданному дискретному множеству:

min f(x, y) (1)

при

g (x, У )> 0 h (x, y) = 0 -n 1

P

снцо:'

x e X сЭД

y e Y сЗ

n 2

(2)

(3)

(4)

(5)

Отдельные подклассы ^СНЦО ' получаемые на основе

предположений о, например, дифференцируемости целевой функции, вогнутости и т.д., могут эффективно решаться (в тех пределах, в которых задача позволяет это сделать вообще) с помощью таких методов, как [5,6,10,11,16,19,22]; методы, представленные в [2,15, 21], нацелены на более общие постановки задачи; существует несколько программных пакетов, направленных на практическое решение данной задачи [23,27]. Однако никакой из распространенных алгоритмов не решает задачу ^СНЦО в ее наиболее общей форме [13].

К сожалению, на практике распространены задачи СНЦО, в которых аналитическое представление целевой функции не известно, а предположения о дифферен-цируемости/вогнутости и т.д. не выполняются; такая ситуация особенно часто имеет место, когда для анализа реальной системы используются физические или имитационные методы. В таких случаях обычно используются различные модификации поисковых методов [25,28,29].

Эффективность процесса поиска зависит не только от правильного выбора стратегии в зависимости от типа задачи, но и, в значительной мере, в рамках одной и той же стратегии - от установок, влияющих на выбор значений, направлений шага (особенно если расчет целевой функции требует больших временных затрат). В связи с этим возникает задача повышения эффективности поискового алгоритма.

Настоящая статья подходит к указанной задаче с позиции трактовки самого процесса поиска как объекта оптимизации второго уровня, и в этом контексте применяет концепцию, предложенную в [18], на область компьютерно-интегрированных систем. Этот аспект -оптимизации второго уровня - сам имеет природу СНЦО; его использование нацелено на улучшение показателей существующих поисковых процедур, в приобретении и автоматическом обучении новым стратегиям, при самоадаптации в интеллектуальных системах.

Раздел 2 дает краткое описание подхода. Раздел 3 описывает обобщенную схему поиска, а также аппарат, основанный на нечетких множествах и направленный на обработку некоторых специальных аспектов принятия решений в процессе решения задач ^СНЦО . Раздел 4

описывает действия в рамках оптимизации второго уровня.

Статья завершается кратким обсуждением некоторых прикладных аспектов и возможными дальнейшими расширениями подхода.

2. ОБОСНОВАНИЕ И ОБОБЩЕННОЕ

ОПИСАНИЕ ПОДХОДА

Краткое описание подхода. Основная интуиция подхода может быть неформально выражена в следующих утверждениях:

Утверждение 1: Для получения эффективной стратегии поиска целесообразно использовать (например, в виде образцовых (обучающих) примеров) накопленную информацию о завершенных оптимальных или близких к ним поисковых процессах.

Утверждение 2: Ввиду того, что информация, характеризующая процесс поиска, становится доступной постепенно, после каждой итерации, имеет смысл пересматривать соответствующим образом параметры поиска в рамках одного и того же поискового акта, по мере того, как эти новые параметры лучше согласуются с актуальными данными о свойствах решаемой задачи.

Утверждение 3: Опыт, накапливаемый в процессе решения задач, следует использовать для корректировки вспомогательных мета-знаний, используемых при назначении параметров поиска.

(Поскольку конкретный вид функции [ в ^СНЦО

(см.(1)) не известен заранее, мы не можем говорить об оптимальном поисковом алгоритме в строгом смысле, а нацелены на повышение его эффективности в среднем (в отличие от минимаксной эффективности)).

Под оптимизацией второго уровня в дальнейшем понимается оптимизация процесса поиска.

В наиболее общем представлении, предлагаемый подход объединяет две стадии: обучение и применение (рис.1). На стадии обучения задается набор образцовых прикладных задач и область допустимых значений параметров поиска; эти задачи решаются, причем каждая может подлежать решению несколько раз, при различных установках параметров (значения которых выбираются в рамках оптимизации второго уровня). На основе полученных результатов строится опорная поверхность, связывающая различные установки с эффективностью решения (основанием стадии обучения, таким образом, является Утверждение 1).

Стадия применения соответствует реальному использованию системы оптимизации. На этой стадии с помощью опорной поверхности для каждой задачи выбирается наиболее подходящее сочетание параметров. После этого стартует собственно процесс решения, в процессе которого исходные установки могут корректироваться на основе результатов промежуточных итераций (что реализует Утверждение 2). После решения текущей при-

кладной задачи опорная поверхность также может корректироваться на основе дополнительных данных об эффективности процесса поиска (см. Утверждение 3). Таким образом, решение каждой прикладной задачи Р.

связано с набором вспомогательных действий ЛБ. (см.

рис. 1. Стадия применения: Решение задач второго уровня), который, в свою очередь, включает две фазы: выбор установок (до решения Рг ), и подстройка опорной поверхности (после решения Рг ).

Задачи -образцы

Подстраивание установки

{

к «

образцовы адач -> о н в 8 s Й к ^ к

не ° 8 & в с

е о, о П

Решение прикладных задач

f 3 Л 0 А д

Л J7L ля J7l

Решение задач второго уровня

Стадия обучения

Стадия применения

q(Яy)> 0; h(x,y) = 0;

n 4

x e X сЭД y e Yс 3n5

(n4<n1); (n5<n2)

и числовые ограничения, вытекающие из (7), (8), т.е. {Eqs.(7), (8), (9)} ^ {Eqs.(2), (3), (4), (5)}

Поскольку поиск сопровождается манипулированием полными значениями переменных из w, мы будем в дальнейшем непосредственно использовать эти, комбинированные, переменные.

Содержание оптимизации второго уровня

Формально, оптимизация на втором уровне связана с минимизацией функции затрат E (определяемой в терминах времени вычисления, числа итераций и т.д.) путем варьирования параметров поиска:

min E(a) (10)

P

озо

при p(a)

(11)

Рисунок 1 - Иллюстрация стадий применения оптимизации второго уровня

Особенности Р^НЦО в реальных приложениях

Целевая функция. Если А в (1) определяется зависимостью ''вход-выход'' имитационной модели, она может быть представлена как композиция известной аналитической функции д (обычно непрерывной и дифференцируемой) и неизвестной векторной функции г, соответствующей модели (тогда входы модели соответствуют аргументам г ):

Ах,У) = 4(г(х,у)) . (6)

Природа переменных. Как уже было сказано, пользователь часто имеет дело с переменными, имеющими сложную семантику:

= (м>.[, ..., ^пз) , Уwj - комбинированное (7)

(например, переменная ''компоновка производственной системы'' принимает значения ''радиальная'', "линейная", и т.д.). Ограничения, представляющие такие переменные, задаются предикатами (8):

(8)

С( х, у, w)

и, фактически, А = А(X,у, w) . Комбинированные (внешне имеющие ''нечисловую'' природу) ограничения (7), (8) сводятся к наборам числовых (бинарных/целочисленных/непрерывных) ограничений во внутреннем представлении процедуры поиска. Таким образом, ограничения (2),(3),(4),(5) объединяют изначально явно заданные ограничения (9)

где а - вектор подстраиваемых параметров поиска,

а = (а.,..., аи ) , и р (а) - ограничения, задающие их 1 а

допустимые сочетания.

Решение конкретной задачи Рг предполагает наличие

соответствующей стратегии Б; эффективность решения Рг с помощью Б зависит от параметров а = (а^ ..., аи^) ,

т.е. Б = Б(а) . Примерами таких параметров могут быть:

- коэффициенты, связывающие длину шага с оценками производных (в методах типа Ньютона);

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

- коэффициенты в эвристических формулах, связывающих граничные значения числа итераций, после которых текущий симплекс должен быть перестроен (в симплексных методах), с размерностью пространства поиска (см. (4) в общем определении задачи СНЦО);

- число точек в случайной выборке, используемой для начальной локализации области поиска (см. (5));

- температурные коэффициенты в методах типа моделируемого отжига;

- тип эвристик, используемых во встроенном процессе принятия решений (см. (7)).

Таким образом, переменные а в (11) имеют следующий вид:

1 < г <п : а. е ЭД ,

г г '

п + 1 < г < па : а. е 3 ,

г 3 г '

П3 + 1 < г < пп : а. - комбинированное.

Следовательно, рОЗО также является задачей СНЦО, где (10 ) соответствует (1) (и структура целевой функции Е не известна), и (11) соответствует (9), (7),(8) и, как следствие, (2),(3),(4),(5); одна итерация в минимизации Е соответствует полному решению прикладной задачи.

a

3. РЕАЛИЗАЦИЯ ПОИСКА В СМЕШАННОМ

ПРОСТРАНСТВЕ

Обобщенная схема поиска

Нам необходимо разработать среду, позволяющую применять основные компоненты известных приемов решения задач СНЦО в обобщенном случае, при наличии комбинированных переменных. Частично это достигается использованием нечеткого представления компонент принятия решений в поисковых процедурах. Хотя для оптимизации и на уровне решения прикладной задачи, и на втором (мета-) уровне могут применяться специализированные методы, мы будем использовать для удобства эвристическую обобщенную схему, частными случаями которой является большинство поисковых процедур.

Указанная схема объединяет действия двух типов:

(I) обобщенная выборка и кластеризация,

(II) серии локальных оптимизационных действий.

Полученная в результате стратегия поиска включает

действия одного или обоих типов, выполняемые как два последовательных этапа, либо объединяемых в более сложные чередующиеся последовательности.

Действия первого типа включают случайный поиск, реализацию плана факторного эксперимента, локализацию региона потенциального расположения оптимума, кластеризацию, и т.д.

Действия второго типа могут включать, помимо процедур тип ветвей-и-границ, внешней аппроксимации, также и компонент типа метода сопряженных направлений или квазиградиентные схемы.

В последнем случае, например, новая точка г (12). ъ = < х, у, те)

= (*1.....*„1,У^...,Уп2, ^1,..., ™п3) (12)

После шага в смешанном пространстве из точки , задается обобщенным выражением (13).

Дъ) = Д ъ0 + аУД ъ0)) (13)

Для представления выбора точки, обеспечивающей минимум функции ъ = ъ о + а УД Ъо) , используем специальную комбинированную среду; каждая точка г получается в результате решения задач нечеткой оптимизации [13,30,31] в рамках так называемой нечеткой оболочки (см. ниже). Возможность использования понятий ''направление'' и ''длина'' в смешанном пространстве достигается благодаря введению частичного упорядочения значений переменных из ш .

Нечеткая среда

Базовая идея. Чтобы избежать хранения всех сочетаний комбинированных переменных, представляемых уравнением (7), будем рассматривать опорную поверхность как обобщенно представленную специальной нечеткой оболочкой. Конкретная поверхность реконструируется на базе этой оболочки. Такая оболочка объе-

диняет четкие аналитические функции и нечеткие компоненты. (В общем случае, она может выполняться на нейронных сетях, продукционных правилах, и т.д.; мы ограничимся рассмотрением только нечеткого подхода, поскольку он сохраняет возможность прямого распространения на него аспекта оптимизации.)

Специальные понятия. Пусть С будет множеством характеристик прикладной задачи; примеры: размерность (целое число), соотношение количества численных и комбинированных переменных (рациональное число), свойств поверхности (унимодальность и т.д.), разреженность, наклон, и т.д. (значения лингвистических переменных).

Прикладная задача Р ' характеризуется вектором сР' .

Множество С может быть представлено в виде

С = С1 и С2 , где С1 - множество характеристик, явно

или косвенно представленных в постановке задачи, и С2 - множество характеристик, получаемых из результатов в промежуточных точках поиска.

Пусть Ус обозначает множество всех векторов с , У^

обозначает множество векторов, полученных как проекции с на множество С с С .

Аналогично, А обозначает множество подстраиваемых

параметров поиска, и А с А ; УА и У^ - множества

А А

соответствующих векторов. Если В - множество, то ¥(В) обозначает множество нечетких подмножеств множества В .

Нечеткая оболочка. Нечеткая оболочка О - это тройка О = (Б, О, Я), где Б = {dj} - множество аналитических функций, О = {gj} - множество нечетких ограничений, и Я = {г^} - множество нечетких правил.

Каждый элемент di е Б - это функция di :

УС(4УА{^), где С^с С и А(^ с А ; функции dI

обычно аппроксимируют зависимость оптимальных параметров поиска от характеристик задачи при фиксированных значениях комбинированных переменных.

Каждый

gj е О

gl с Р(УС^') х УА^'))и Р(УА(gг)x УА(, где С(^)с С и (g )

А 'с А ; первое множество из приведенного выше объединения состоит из нечетких множеств, характеризующих совместимость параметров поиска и характеристик задачи; второе множество охватывает нечеткие множества, оценивающие близость фактических и аналитически (т.е. с помощью функций из Б) рекомендуемых установок.

элемент

это

Каждый элемент г^ е К имеет форму ЕСЛИ Ql ТО

, при е Е(УС(Гк)) и е Е(УЛ(гк)) и ¥(Б) и Е(в) ,

(г ) (г )

где С к с С и Л к с Л . Левая часть, 2 , оценивает

применимость правила; первый элемент в содержит

множества нечетких правил, характеризующих уровень совместимости установок и характеристик задачи; второй и третий элементы в 22 оценивают совместимость

этих характеристик с аналитическими функциями из Б и ограничениями из в , соответственно.

Получение нечеткой оболочки. Функции Б строятся на стадии обучения на базе стандартных методов регрессионного анализа, при фиксированных значениях переменных ш. Нечеткие правила формируются как аппроксимация поверхности отклика нейронной сети, обученной с использованием образцовых пар ''(задача)-(параметры поиска)'' (см. раздел 4).

Нечеткая оптимизация для поиска в смешанном пространстве

При заданной нечеткой оболочке О = (Б, С, К) и прикладной задаче Р. , вектор установок поиска определяется как решение следующей задачи нечеткой оптимизации:

а* = а^шт (цв(ср , а), цв(а, а), цК(ср , а*)),

а г г

где а = й (ср )

и d* = argmax (тт(ц„(cp , d ), (a, d (cp )))) d. i i

4. ОПТИМИЗАЦИЯ ВТОРОГО УРОВНЯ Типы опорной поверхности

Тип опорной поверхности определяется содержанием информации, собранной в ходе оптимизации второго уровня. Опорная поверхность может быть аппроксимацией (а) функции, связывающей оптимальные установки с характеристиками задачи, и (б) функции затрат, зависящей от характеристик задач и параметров поиска.

В первом случае находятся оптимальные установки а для решения каждой из образцовых задач данного множества, после чего строится функция а*(с), связывающая оптимальные установки поиска с набором характеристик задачи. После этого, на стадии применения, из

а*( с) определяются готовые оптимальные сочетания.

Во втором случае накапливается статистика о ходе решения различных задач (причем не обязательно при условии наиболее эффективного процесс решения каждой из них) и, после введения оценки относительных

затрат e , строится регрессионная зависимость e(а, с) . После этого для каждой прикладной задачи Pf находится набор оптимальных установок ар , как решение

подзадачи min e(a, ср ) .

a pi

Отличие между приведенными выше двумя случаями состоит также и в том, как используется промежуточная информация: в первом случае можно подстраивать модель а*( с) если имеются данные об оптимальных установках, в то время как во втором случае можно подстраивать e(а, с) , исходя из эффективности при каждом текущем наборе установок. В дальнейшем, с целью упрощения, а также большего акцента на контексте

оптимизации, используется поверхность а* прежде всего первого, ориентированного на оптимизацию, вида.

Стадия обучения

Основная структура. На стадии обучения задается множество P = {P1, ...,Pn} образцовых задач. Для каждой задачи pi оптимизационная задача второго уровня PОЗО решается независимо, с использованием обобщенной схемы (см. раздел 3):

[min EP (a)] P :•! a г' L . (14)

инд I

1при p( a) J

По результатам решения (14) строится функция а*(с) . Очевидно, такая схема применима только на подготовительной стадии, при обучении. На стадии применения, как только оптимальное решение прикладной задачи найдено, повторение поиска только с целью нахождения установок, которые могли бы быть эффективнее, не будет рациональным (за исключением случаев, когда дополнительное обучение ''на лету'' является дополнительной целью).

Возможные расширения. В пределах каждой допустимой области (x,y) задачи Pi можно выбрать набор

локальных подобластей, в качестве представительного множества фрагментов потенциальной поверхности отклика. Для каждой пары "(стратегия)-(прикладная задача)" находится оптимум функции f в каждой подобласти, после чего рассчитывается интегральная эффективность поиска.

На основе результатов предварительной стадии выполняется исходная кластеризация типов задач с использование различных фрагментов одной и той же поверхности.

Каждый класс (категория) задач K. может связываться с представительным множеством задач P. : P. = {(P. 1/к. 1),..., (Pin./kin.)} , где каждой задаче

приписан вес; тогда функция затрат определяется из

EK (a) = У k ■ Ep (a) .

i J ij l

Для каждого K. решается следующая задача (т.н. задача оптимизации категории):

г min Ek (a)

P : \ a г' катег

L при p (a)

На подмножестве W с W строится множество R = {Rj, ...,Rm} отношений частичного порядка (VR. :

R. с W x W ), а также функция H : Vc ^ R , которая назначает каждой задаче отношение R. такое, что e квазивогнута вдоль каждой цепочки в R. .

Стадия применения

Основная структура. Эта стадия охватывает весь жизненный цикл системы после этапа обучения. Как было сказано, она состоит из последовательных пар "(решение прикладной задачи)-(набор вспомогательных действий)''. Содержание двух основных составляющих множества действий AS. (рис.1) в зависимости от типа

используемой опорной поверхности представлено ниже: AS с использованием ''оптимум-ассоцированной

опорной поверхности'' а*

Фаза выбора установок:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Назначение текущего множества установок a*P. на основе подстановки параметров очередной прикладной задачи cPt в a*(c)

Затем, в ходе решения очередной прикладной задачи P., приведенная выше фаза может быть повторена по

мере доступности дополнительных характеристик из

1. построение модели r*(x,y,w) на основе результатов реального эксперимента в последней точке на предыдущем шаге;

2. решение вспомогательной задачи Po^min E(a)) в отношении внутренней

задачи (ориентированной на моделирование конечной задачи) min q(r*(x,y,w))

x,y

3. вычисление поправок (a*(c))

4. изменение a*(c)

С2.

происходил при тех же значения комбинированных переменных: в этом случае модель строится с использование стандартных регрессионных подходов. В более общем случае, с построением нечеткой оболочки, модель формируется только если затраты на ее построение существенно ниже по сравнению со стоимостью имитационных прогонов. Следует заметить, что в общем случае может быть построена структурно более простая модель Р функции Д, без промежуточных

Шаг 2 предназначен для получения оптимального сочетания параметров поиска, при которых текущая прикладная задача могла быть решена с использованием аналитического приближения г* поверхности отклик вместо реальной имитационной модели 1. Это позволяет выполнять многочисленные поисковые серии за более короткий промежуток времени. Данный шаг выполняется если г* достаточно хорошо аппроксимирует г, что проверяется путем сравнения статистически оцененной погрешности с заданным граничным значением.Таким образом, оптимизация второго уровня в строгом смысле используется только на моделируемых фрагментах поверхности отклика.

Л5 с опорной поверхностью е, ориентированной на затраты

Фаза подстройки (после решения текущей прикладной задачи Р' при установках а*Р'):

Первый шаг описанной выше фазы подстройки использует частичную информацию о поверхности отклика имитационной модели с целью построения статистической модели соответствующего фрагмента (г*). Эта фаза выполняется при условии, что поиск

решение вспомогательной задачи min e(a,cP)

a

результат - a *(Pi) - назначается в качестве начальной установки.

Фаза выбора установок:

Фаза подстройки (после решения текущей прикладной задачи P. при установках a*P.):

1. расчет поправок (е(a, cpi))

2. изменение e(a ,c)

ЗАКЛЮЧЕНИЕ

В случае смешанной нелинейной целочисленной оптимизации, при недифференцируемой алгоритмически заданной целевой функции, общая организация и параметры процесса оптимизации могут служить объектами оптимизации второго уровня. Такая оптимизация охватывает варьирование параметров и/или стратегий поиска, а также действия по подстройке модели эффективных установок. В этом контексте, определенные шаги принятия решений в условиях неопределенности выполняются нечеткими компонентами, которые, к тому же, обеспечивают взаимодействие с другими внешними или встроенными интеллектуальными компонентами в режиме реального времени.

Дальнейшие исследования включают разработку ана-

логичных процедур на базе квазиградиентных методов, анализ и кластеризацию типовых форм поверхности отклика в задачах оптимизации гибких производств, и т.д.

ПЕРЕЧЕНЬ ССЫЛОК

1. R. W. Becker and G. V. Lago, "A Global Optimization Algorithm'', Proceedings of the 6th Allerton Conference o Circuits and Systems Theory, Monticello,USA, 1970, pp.3-12.

2. M. Bremicker, P. Y. Papalambros and H. T. Loh, "Solution of Mixed-Discrete Structural Optimization Problem witha New Sequential Linearization Algorithm'', Computers \& Structures, 4 (37), 1990, pp.451-461.

3. M. A. Duran and I. E. Grossmann, "An Outer-Approximation Algorithm for a Class of Mixed-Integer Nonlinear Programms'', Mathematical Programming, 36, 1986, pp.307-339.

4. R. Fletcher, Practical Methods of Optimization, John Wiley \& { Sons Ltd., 1990.

5. R. Fletcher and S. Leyffer, "Solving Mixed Integer Nonlinear Programs by Outer Approximation'', Mathematical Programming, 66, 1994, pp. 327-349.

6. R. Fletcher and S. Leyffer, Nonlinear Programming without a Penalty Function, Dundee University Numerical Analysis Report, NA/171, 1997.

7. O. E. Flippo and A.H.G. Rinnoy Kan, "Decomposition in General Mathematical Programming'', Mathematical Programming, 60, 1993, pp. 361-382.

8. C. A. Floudas, Nonlinear and Mixed Integer Optimization, Oxford University Press. Oxford, 1995.

9. L. R. Foulds, Optimization Techniques: An Introduction, Springer Verlag New York Inc., 1981.

10. M. Geoffrion, "Generalized Benders Decomposition'', Journal of Optimization Theory and Applications, 10, 1972, pp. 237260.

11. O. K. Gupta and V. Ravindran, "Branch and Bound Experiment in Convex Nonlinear Integer Programming'', Management Science, 31, 1985, pp. 1533-1546.

12. R. Hooke and T. A. Jeeves, "Direct Search'' Solution of Numerical and Statistica Problems'', J.Assoc.Comput.Mach. 2(8), 1961, pp.212-229.

13. J. Kandel, Fuzzy Mathematical Techniques with Applications, Addison-Wesley, 1986.

14. Kallrath and J. M. Wilson, Business Optimisation Using Mathe-matica Programming, Houndmills: Macmillan Press Ltd., 1997.

15. G. R. Kocis and I. E. Grossmann, "Global Optimization of Non-convex Mixed-Intege Nonlinear Programming (MINLP) Problems in Process Synthesis'', Ind. Eng. Chem. Res., 8 (27), 1988, pp. 1407-1421.

16. F. Korner, A New Branching Rule for the Branch and Bound Algorithm for Solving Nonlinear Integer Programming Problems'', BIT, 28, 1988, pp. 701-708.

17. T. M. Mitchell, Machine Learning, McGraw-Hill, 1997.

18. Lavrov, Process of Mixed Nonlinear Optimization as Subject o Optimization. Proceedings of International Symposium on Computational an Optimization Algorithms, Techniques and Applications (World Multiconferenc on Systemics, Cybernetics and Informatics (SCI-98), Orlando, USA,1998, pp. 359-366.

19. S. Leyffer, Deterministic Methods for Mixed Integer Nonlinear Programming, PhD Thesis, University of Dundee, Scotland, 1993

20. S. Leyffer, Generalized Outer Approximation, Dundee University Numerica Analysis Report, NA/178, 1997.

21. R. L. Salcedo, "Solving Nonconvex Nonlinear Programming and Mixed-Integer Nonlinear Programming Problems with Adaptive Random Search'', Ind. Eng. Chem. Res., 31, 1992, pp. 262-273.

22. M. A. Schumer,"Adaptive Step Size Random Search'', JIEEE Transactions on Automatic Control, 3 (13), 1968, pp. 270276.

23. A. Schweiger, A. Rojnuckarin, C. A. Floudas, MINOPT: A Software Package for Mixed-Integer Nonlinear Optimization, Dept. of Chemica Engineering, Princeton University, Princeton, 1996.

24. V. Schweiger, R. J. Buehler, and O. Kempthorne, "Some Algorithms for Minimizing a Function of Several Variables'', J. Soc. Ind. Appl. Math., 1 (2), 1964, pp. 74-92.

25. M. Simmons, Nonlinear Programming for Operations Research, Englewood Cliffs: Prentice-Hall, Inc., 1975.

26. A. Torn, ''Clustering Methods in Global Optimization'', In: N. K. Sinha and L. A. Tel'ksnys (eds.) Second IFAC Symposium on Stochastic Control, Vilnius, pp. 138-143.

27. J. Viswanathan and I. E. Grossmann, "A Combined Penalty Function and Outer-Approximation Method for MINLP Optimization'', Comp. Chem. Eng., 14 (7), 1990, pp. 769-782.

28. J. Wilde, Optimum Seeking Methods, Englewood Cliffs: Prentice-Hall, Inc., 1964.

29. D. J. Wilde and C. S. Beightler, Foundations of Optimization, Englewood Cliffs: Prentice-Hall, Inc., 1967.

30. H. J. Zimmermann, Fuzzy Set Theory - and Its Applications, Klu-wer, Nijhoff Publishing, 1985.

31. H. J. Zimmermann, Description and Optimization of Fuzzy Systems, Int. J. General Syst., 4 (2), 1975, pp. 209-215.

Hafliftmja 27.08.99

УДК 621.658.52.011.56.

УСЛОВИЯ РЕАЛИЗАЦИИ ПАССИВНЫХ МЕТОДОВ УПРАВЛЕНИЯ ОРИЕНТАЦИЕЙ ДЕТАЛЕЙ ПРИ АВТОМАТИЗИРОВАННОЙ СБОРКЕ

А. Л. Симаков

В работе найдены условия реализации и границы применимости методов управления ориентацией собираемых деталей при автоматизированной сборке, основанных на применении пассивных адаптивных устройств. Условия определяют ограничения на структуру и значения параметров основных элементов пассивной системы управления ориентацией соединяемых деталей.

In this work the applying conditions and spheres of controlling the parts performance in atomized assembling are represented. These methods are based on using passive adaptive devices. The conditions define the structure and parameter values limits of main elements that constitute passive system controlling the performance of parts being assembled.

Одним из перспективных направлений автоматизации сборочных операций является применение методов управления ориентацией собираемых деталей для компенсации погрешностей позиционирования, характерных для сборочных систем. При этом возможны варианты использования как адаптивных, так и пассивных методов управления ориентацией собираемых деталей [1]. Реализация активных методов управления ориентацией деталей связана с разработкой следящих систем по отклонению положения детали от номинального, основанных на различных физических принципах [2]. Управление ориентацией деталей без использования

i Надоели баннеры? Вы всегда можете отключить рекламу.