Научная статья на тему 'Генетический алгоритм компоновки на основе обобщенного критерия'

Генетический алгоритм компоновки на основе обобщенного критерия Текст научной статьи по специальности «Математика»

CC BY
650
63
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Генетический алгоритм компоновки на основе обобщенного критерия»

эффективным является использование многоточечного скрещивания, так как это обеспечит большее разнообразие стрингов, что в данном случае весьма важно.

Так как при таком методе генерации решений существует возможность попадания в область локально-оптимальных решений, что для данной задачи будет характеризоваться тем, что для большого числа поколений не будет выполняться условие попарной совместной оптимальности стрингов (признаков), целесообразно использовать оператор мутации с некоторой вероятностью рт.

Литература

1. Ефимов Ю.Н. Распознавание изображений с использованием оптимальных признаков АВТ.-1992.-№2.-С. 69-75.

2. 1531115 СССР. Устройство для распознавания образов/ Ефимов Ю.Н. -заявлено 08.10.87// Открытия. Изобретения. Пром. образцы. Товар. знаки.-1989.-№47.- С. 162.

3. 1799359 СССР. Устройство для распознавания образов/ Ефимов Ю.Н. -заявлено 12.12.89//Открытия. Изобретения. Пром. образцы. Товар, знаки.-1992.-№4,- С.195.

4. Holland. I. Adaptation in Natural and Artifical Systems. University of Michigan Press, Ann Arbor, 1975.

5. Курейчик В. М. Применение генетических методов для компоновки схем СБИС. сб. Интеллектуальные САПР №4, 1994.

6. Хант Э. Искусственный интеллект, «Мир», М. 1978.

7. Rosenblatt F. The perceptron: A probalistic model for information storage and organization •n the brain, Psychol. Rev., 65, 386-408, 1958.

8. Rosenblatt F. Principles of neurodynamics, Baltimore, 1962, (Русский перевод: Розенблатт Ф., Принципы нейродинамики, «Мир», М., 1966).

9. Selfridge О. Pandemonium. A paradigm for learning, в сб. «Proceedings of the Symposium on the Mechanization of Tought Processes» под ред. Blake D., Utteley A., London, 1959.

10. McCulloch W., Pitts W. A logical calculus of the ideas imminent in nervous activiti, Bull. Math. Biophys., 5, 115-137. (Русский перевод в сб. «Автоматы» под ред. Маккарти Дж. и Шеннона К., ИЛ. М., 1956).

11. Hebb D. The organization of behavior, New York, 1948.

УДК 658.512

Рябец M.H.

Генетический алгоритм компоновки на основе обобщенного критерия

Введение

Компоновка один из наиболее важных этапов проектирования интегральных схем (ИС). Роль компоновки, как и сложность ее выполнения, возрастает в связи со значительным Увеличением числа используемых элементов ИС, минимизации их размеров, требованиями к повышению быстродействия ИС. Процесс компоновки представляет собой задачу °птимального разбиения графа G =(X,U) (Х-множество вершин, U-множество ребер), т.е. задачу комбинаторно логического типа, связанную с полным перебором различных Вариантов разбиения [1]. Таким образом, основной трудностью является тот факт, что Решение задачи компоновки обычными методами ведет к необходимости хранения больших Массивов информации и значительным затратам машинного времени. В данной работе предлагается вариант построения алгоритма компоновки, который позволяет частично преодолеть указанные трудности.

Постановка задачи

Предлагаемый алгоритм компоновки также базируется на задаче оптимального разбиения графа. Основное отличие заключается в том, что полный перебор вариантов разбиения заменяется направленным перебором. Это возможно реализовать при помощи генетических алгоритмов, оперирующих не со всеми решениями, а только с лучшими, образующими популяцию Р(п) (п - номер поколения популяции). Направленный перебор осуществляется при помощи селекции - отбора нескольких особей с наилучшими значениями целевой функции.

В процессе компоновки возникает необходимость анализ многих технических характеристик компонуемых элементов. Это приводит к необходимости использования нескольких критериев. Многокритериальность задачи компоновки в данном алгоритме достигается при помощи метода обобщенного аддитивного критерия. Таким образом, на этапе селекции для каждого критерия определяется оценка функции качества Р(х^, где I - номер анализируемого критерия. Наилучшими будут являться те решения, для которых:

Здесь I- количество экспертных оценок применяемых критериев. Применение обобщенно - аддитивного критерия позволяет несколько разрешить проблему компромисса ( какому критерию отдать предпочтения ). Практически наиболее важными критериями компоновки являются:

задержки распространения сигналов; электромагнитотепловая (ЭМТ) совместимость элементов;

- число внешних связей;

- суммарная длина соединений.

1. Задать размер I исходной популяции Р(0). Значение I определяется в зависимости от числа элементов в задаче компоновки.

2. Задать число циклов (поколений) п. Количество поколений влияет на качество получаемого решения и время решения задачи.

3.Задать вероятность применения генетических операторов. Применение генетических операторов позволяет получить новую популяцию решений - потомков. Основными являются оператор кроссинговера (ОК) выполняющий “скрещивание” родительских решений, и оператор мутации (ОМ) для получения изменчивости популяции. Практически вероятность кроссинговера выбирается низкой (порядка 0.02...0.09), а мутации более высокой (в диапазоне 0.2...0.6), однако эти значения могут варьироваться в зависимости от размера популяции.

4. Сгенерировать случайным образом исходную популяцию Р(1); 1 = 0.

5. Применить кроссинговер к выбранным из Р(0 парам хромосом.

6. Применить мутацию к популяции Р(0.

7. Вычислить целевые функции особей из Р(1).

8. Произвести селекцию по значению целевой функции, определяющему необходимое качество решения по критериям задачи. Вероятность прохождения решений в следующую популяцию тогда будет:

шах

Реализация алгоритма

где - “пороговая” целевая функция текущей популяции Р(0.

9. Полученная популяция РО+1) становится исходной, и цикл повторяется с п.5 все время, пока 0+1 )<п (т.е. пока не будет получена популяция Р(п)).

10. Полученные в результате селекции популяции Р(п) решения будут являться наилучшими.

Заключение

На сходимость решения оказывают влияние значения вероятностей ОК и ОМ. Размер популяции I принят фиксировании. Примененный алгоритм является простым генетическим алгоритмом (ПГА). Произвести его более подробное исследование возможно при помощи системы исследования генетических алгоритмов (СИГА) [2].

Литература

1. В.М.Курейчик. Математическое обеспечение конструкторского и технологического проектирования с применением САПР. М.: Радио и связь, 1990

2. Известия ТРТУ, N0 3 Материалы всероссийской научно-технической конференции с участием зарубежных представителей “Интеллектуальные САПР - 95” Таганрог, 1996.

Y/tK 658.512

S. Dergatchev

GENETIC APPROACH TO TRAINING NEURAL NETWORKS: APPLICATION TO A FORECAST OF STOCK MARKET VOLATILITY

Abstract: This paper describes the ANN method of derivatives pricing and reports on experiments to evolve suitable parameterizations of given ANN architecture. In the literature, when interest rate, the mean rate of return and the volatility of the underlying asset follow general stochastic processes, the exact solution is usually not available. In particular, we shall illustrate how genetic algorithms, as numerical approach, can be potentially helpful in dealing with derivatives. Genetic algorithms have been applied to training of ANN. The best evolved network found by basic genetic algorithms are compared with least squares regression of actual values. We have demonstrating the utility of evolutionary optimization in a concrete application.

Introduction.

Artificial neural networks have the ability to approximate arbitrarily well a large class of functions' ANN’s, therefore, have at large potential to capture complex nonlinear relationships between a group of variables, which simple linear models are unable to capture. A typical training method for the ANN modeling is some manner of supervised learning on a training sample, of which lhe familiar backpropagation is an exaple. It is almost certain, however, that in many optimization Problems for which ANN’s are considered to be appropriate architectures for search over mappings, state space will exhibit many local optima, rendering gradient-descent methods such as backpropagation unreliable. In response to this problem of local optima, techniques of evolutionary optimization such as genetic algorithms have been applied to the training of ANN’s. Genetic algorithms, another biologically inspired evolutionary proccss, provide an adaptive, robust, parallel, and randomized searching technique in which a population of solution evolves over a sequence of generations to a globally optimal solution2 Based on fitness function, good solutions are selected for reproduction using two genetic recombination operators: crossover and mutation. In neurogenetic systems, the two components may interact in many ways to overcome a neural network limitation.

i Надоели баннеры? Вы всегда можете отключить рекламу.