Научная статья на тему 'ПРИМЕНЕНИЕ ПОШАГОВОГО МЕТОДА ОБУЧЕНИЯ ДЛЯ ЭВОЛЮЦИОННОГО АЛГОРИТМА В ЗАДАЧАХ МНОГОКРИТЕРИАЛЬНОЙ ОПТИМИЗАЦИИ'

ПРИМЕНЕНИЕ ПОШАГОВОГО МЕТОДА ОБУЧЕНИЯ ДЛЯ ЭВОЛЮЦИОННОГО АЛГОРИТМА В ЗАДАЧАХ МНОГОКРИТЕРИАЛЬНОЙ ОПТИМИЗАЦИИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
35
14
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МНОГОКРИТЕРИАЛЬНАЯ ОПТИМИЗАЦИЯ / ПАРЕТО-ФРОНТ / ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ / ГАУССОВА СМЕСЬ / ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ ПАРЕТО-ОПТИМАЛЬНОЕ МНОЖЕСТВО / ПОШАГОВОЕ ОБУЧЕНИЕ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Тань Лиго, Новикова Светлана Владимировна

ЦЕЛЬ. Статья посвящена разработке нового метода аппроксимации Парето-оптимального множества для задач многокритериальной оптимизации на основе модификации эволюционных алгоритмов. В задачах многокритериальной оптимизации требуется определить неизвестные вектора параметров модели, удовлетворяющие сразу нескольким оптимизационным критериям, часто противоречащим друг другу. Одним из подходов является применение принципа Парето, когда в качестве решения принимается не единственный вектор, а множество векторов - точек многомерного пространства поиска, являющихся наилучшими с точки зрения оного из критериев. Результирующий набор оптимальных точек составляет так называемое Парето-оптимальное множество (ПОМ). Определение элементов такого множества не составляет труда в случае дискретных задач, однако в непрерывных случаях определение ПОМ является проблематичным. В работе предлагается метод решения данной задачи. МЕТОДЫ. В работе предложен пошаговый эволюционный метод аппроксимации ПОМ на основе модификации эволюционного генетического алгоритма многокритериальной оптимизации с применением этапов обучения и забывания. В качестве базового генетического алгоритма аппроксимации Парето-оптимального множества на этапе обучения использован метод Гауссовой смеси. На этапе забывания происходит удаление тех компонентов смеси, которые являются неперспективными с точки зрения оптимизации. Таким образом, эволюционный поиск становится целенаправленным, количество вычислений резко сокращается по сравнению с классическим генетическим многомерным методом. РЕЗУЛЬТАТЫ. В результате проведения серии из 31 вычислительного эксперимента на шести тестовых наборах многокритериальных задач проведено исследование точности и количества вычислений для предложенного алгоритма, и двух классических алгоритмов SMEA и MDESL для проведения сравнительного анализа по двум метрикам - IGD и HV. Анализ сравнительной эффективности проведен по усредненным значениям метрик по каждой серии экспериментов. Предложенный алгоритм показал наилучшие результаты для всех шести тестовых наборов согласно метрике IGD, и для трех из шести тестовых наборов согласно метрике HV. ЗАКЛЮЧЕНИЕ. Доказано преимущество предлагаемого метода перед известными эволюционными алгоритмами нахождения приближенных значений оптимальных в смысле Парето точек. Показано, что точность аппроксимации выше, а количество вычислений меньше, чем в сравниваемых методах для используемых наборов данных двух- и трехкритериальной оптимизации с различными видами Парето-фронтов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Тань Лиго, Новикова Светлана Владимировна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

APPLICATION OF THE STEP LEARNING METHOD FOR THE EVOLUTIONARY ALGORITHM IN PROBLEMS OF MULTI-CRITERIA OPTIMIZATION

THE PURPOSE. The article is devoted to the development of a new method for approximating the Pareto-optimal set for multiobjective optimization problems based on the modification of evolutionary algorithms. In multicriteria optimization problems, it is required to determine unknown vectors of model parameters that satisfy several optimization criteria at once, often contradicting each other. One of the approaches is the application of the Pareto principle, when not a single vector is taken as a solution, but a set of vectors - points of a multidimensional search space, which are the best from the point of view of one of the criteria. The resulting set of optimal points is the so-called Pareto-optimal set (POS). Determining the elements of such a set is not difficult in the case of discrete problems, however, in continuous cases, the definition of POM is problematic. The paper proposes a method for solving this problem. METHODS. The paper proposes a step-by-step evolutionary method for approximating the POM based on a modification of the evolutionary genetic algorithm for multicriteria optimization using learning and forgetting stages. The Gaussian mixture method was used as the basic genetic algorithm for approximating the Pareto-optimal set at the training stage. At the stage of forgetting, those components of the mixture that are unpromising from the point of view of optimization are removed. Thus, the evolutionary search becomes purposeful, the number of calculations is sharply reduced in comparison with the classical genetic multidimensional method. RESULTS. As a result of a series of 31 computational experiments on six test sets of multicriteria problems, a study was made of the accuracy and number of calculations for the proposed algorithm, and two classical algorithms SMEA and MDESL for comparative analysis by two metrics - IGD and HV. Comparative efficiency analysis was carried out using the averaged values of the metrics for each series of experiments. The proposed algorithm showed the best results for all six test sets according to the IGD metric, and for three of the six test sets according to the HV metric. CONCLUSION. The advantage of the proposed method over the known evolutionary algorithms for finding approximate values of optimal points in the sense of Pareto is proved. It is shown that the approximation accuracy is higher, and the number of calculations is less than in the compared methods for the used data sets of two- and three-criterion optimization with different types of Pareto fronts.

Текст научной работы на тему «ПРИМЕНЕНИЕ ПОШАГОВОГО МЕТОДА ОБУЧЕНИЯ ДЛЯ ЭВОЛЮЦИОННОГО АЛГОРИТМА В ЗАДАЧАХ МНОГОКРИТЕРИАЛЬНОЙ ОПТИМИЗАЦИИ»

УДК 004.021

ПРИМЕНЕНИЕ ПОШАГОВОГО МЕТОДА ОБУЧЕНИЯ ДЛЯ ЭВОЛЮЦИОННОГО АЛГОРИТМА В ЗАДАЧАХ МНОГОКРИТЕРИАЛЬНОЙ ОПТИМИЗАЦИИ

Тань Лиго1, Новикова2 С.В.

1Харбинский политехнический университет, г. Харбин, Китай 2Казанский национальный исследовательский технический университет им. А.Н. Туполева, г. Казань, Россия

SVNovikova@kai.ru

Резюме: ЦЕЛЬ. Статья посвящена разработке нового метода аппроксимации Парето-оптимального множества для задач многокритериальной оптимизации на основе модификации эволюционных алгоритмов. В задачах многокритериальной оптимизации требуется определить неизвестные вектора параметров модели, удовлетворяющие сразу нескольким оптимизационным критериям, часто противоречащим друг другу. Одним из подходов является применение принципа Парето, когда в качестве решения принимается не единственный вектор, а множество векторов - точек многомерного пространства поиска, являющихся наилучшими с точки зрения оного из критериев. Результирующий набор оптимальных точек составляет так называемое Парето-оптимальное множество (ПОМ). Определение элементов такого множества не составляет труда в случае дискретных задач, однако в непрерывных случаях определение ПОМ является проблематичным. В работе предлагается метод решения данной задачи. МЕТОДЫ. В работе предложен пошаговый эволюционный метод аппроксимации ПОМ на основе модификации эволюционного генетического алгоритма многокритериальной оптимизации с применением этапов обучения и забывания. В качестве базового генетического алгоритма аппроксимации Парето-оптимального множества на этапе обучения использован метод Гауссовой смеси. На этапе забывания происходит удаление тех компонентов смеси, которые являются неперспективными с точки зрения оптимизации. Таким образом, эволюционный поиск становится целенаправленным, количество вычислений резко сокращается по сравнению с классическим генетическим многомерным методом. РЕЗУЛЬТАТЫ. В результате проведения серии из 31 вычислительного эксперимента на шести тестовых наборах многокритериальных задач проведено исследование точности и количества вычислений для предложенного алгоритма, и двух классических алгоритмов SMEA и MDESL для проведения сравнительного анализа по двум метрикам - IGD и HV. Анализ сравнительной эффективности проведен по усредненным значениям метрик по каждой серии экспериментов. Предложенный алгоритм показал наилучшие результаты для всех шести тестовых наборов согласно метрике IGD, и для трех из шести тестовых наборов согласно метрике HV. ЗАКЛЮЧЕНИЕ. Доказано преимущество предлагаемого метода перед известными эволюционными алгоритмами нахождения приближенных значений оптимальных в смысле Парето точек. Показано, что точность аппроксимации выше, а количество вычислений меньше, чем в сравниваемых методах для используемых наборов данных двух- и трехкритериальной оптимизации с различными видами Парето-фронтов.

Ключевые слова: многокритериальная оптимизация; Парето-фронт; генетические алгоритмы; Гауссова смесь; эволюционные алгоритмы, Парето-оптимальное множество; пошаговое обучение.

Для цитирования: Тань Лиго, Новикова С.В. Применение пошагового метода обучения для эволюционного алгоритма в задачах многокритериальной оптимизации // Вестник Казанского государственного энергетического университета. 2022. Т. 14. №3 (55). С. 114125.

APPLICATION OF THE STEP LEARNING METHOD FOR THE EVOLUTIONARY ALGORITHM IN PROBLEMS OF MULTI-CRITERIA OPTIMIZATION

Tan Liguo1, SV. Novikova2

1Harbin Institute of Technology Harbin, China 2Kazan National Research Technical University named after A.N. Tupolev, Kazan, Russia

SVNoviko va@kai.ru 114

Abstract: THE PURPOSE. The article is devoted to the development of a new method for approximating the Pareto-optimal net for multiobjective optimization problems based on the modification of evolutionary algorithms. In multicriteria optimization problems, it is required to determine unknown vectors of model parameters that satisfy several optimization criteria at once, often contradicting each other. One of the approaches is the application of the Pareto principle, when not a single vector is taken as a solution, but a set of vectors - points of a multidimensional search space, which are the best from the point of view of one of the criteria. The resulting set of optimal points is the so-called Pareto-optimal set (POS). Determining the elements of such a set is not difficult in the case of discrete problems, however, in continuous cases, the definition of POM is problematic. The paper proposes a method for solving this problem. METHODS. The paper proposes a step-by-step evolutionary method for approximating the POM based on a modification of the evolutionary genetic algorithm for multicriteria optimization using learning and forgetting stages. The Gaussian mixture method was used as the basic genetic algorithm for approximating the Pareto-optimal set at the training stage. At the stage of forgetting, those components of the mixture that are unpromising from the point of view of optimization are removed. Thus, the evolutionary search becomes purposeful, the number of calculations is sharply reduced in comparison with the classical genetic multidimensional method. RESULTS. As a result of a series of 31 computational experiments on six test sets of multicriteria problems, a study was made of the accuracy and number of calculations for the proposed algorithm, and two classical algorithms SMEA and MDESL for comparative analysis by two metrics - IGD and HV. Comparative efficiency analysis was carried out using the averaged values of the metrics for each series of experiments. The proposed algorithm showed the best results for all six test sets according to the IGD metric, and for three of the six test sets according to the HV metric. CONCLUSION. The advantage of the proposed method over the known evolutionary algorithms for finding approximate values of optimal points in the sense of Pareto is proved. It is shown that the approximation accuracy is higher, and the number of calculations is less than in the compared methods for the used data sets of two- and three-criterion optimization with different types of Pareto fronts.

Keywords: multiobjective optimization; Pareto front; genetic algorithms; Gaussian mixture model; evolutionary algorithms; Pareto optimal set; step by step learning.

For citation: Tan Liguo, Novikova SV. Application of the step learning method for the evolutionary algorithm in problems of multi-criteria optimization. KAZAN STATE POWER ENGINEERING UNIVERSITY BULLETIN. 2022;14;3(55):114-125.

Введение

Во многих оптимизационных задачах желаемый результат описывается не единственным критерием, а вектором желаемых критериев-свойств. В случае, когда невозможно сформировать единый сверточный критерий в виде, например, линейной комбинации всех требуемых свойств, мы сталкиваемся с задачей многокритериальной оптимизации [1], которая требует одновременной оптимизации двух или более целевых функций. Цели обычно противоречат друг другу, т. е. оптимизация только одной цели может ухудшить другие, что делает невозможным получение единственного решения, оптимального для всех критериев задачи.

Метод Парето-оптимизации предполагает определение набора оптимальных решений, каждое из которых является наилучшим для одного из критериев. Полученный набор затем предоставляется лицу, принимающему решения, для окончательного выбора. Такой набор несравнимых между собой оптимальных решений называется Парето-оптимальным множеством (ПОМ), а образ ПОМ в целевом пространстве образует так называемый фронт Парето [2].

Для определения Парето-оптимального множества для дискретных задач можно использовать, например, простейший метод конусов, или ортантов, который позволяет определить набор дискретных точек ПОМ простым перебором. Однако в случае непрерывных задач для определения ПОМ применяются более сложные методы. В частности, большое распространение получили различные варианты генетических алгоритмов, или многокритериальных эволюционных алгоритмах (МЭА), позволяющие получать сколь угодно близкое приближение к реальной непрерывной поверхности ПОМ.

Так как МЭА, как любой алгоритм случайного поиска, предполагает ненаправленную оптимизацию изначально выбранных векторов (начальной популяции) с многократным итерационным повторением процедур скрещивания, мутации и отбора, основным недостатком МЭА является большой объем вычислений.

Литературный обзор

Оптимизационные задачи рассматриваются в многочисленных работах в различных научно-технических областях: энергетике [3], двигателестроении [4], экологии [5]. Для их решения используются как классические, так и эволюционные (генетические) алгоритмы [6], основным недостатком которых являются большие вычислительные затраты.

За последние три десятилетия были приняты многочисленные попытки сократить вычислительные затраты эволюционных методов за счет априорной информации о начальной популяции.

В существующих МЭА, основанных на обучении, многие авторы предпринимали попытки извлечения знаний из свойства регулярности ПОМ, чтобы сделать эволюционный поиск направленным. Свойство регулярности ПОМ доказано в работе [7]. В связи с этим становится возможным представление ПОМ непрерывной многокритериальной задачей с m целями в виде кусочно-непрерывного ^-^-мерного многообразия при условии выполнения критерия Каруша-Куна-Таккера. Основываясь на данном утверждении, многие авторы применяли для оценки ПОМ разнообразные методы машинного обучения с учителем или без учителя, такие как гауссовский процесс [8], байесовские сети [9], генеративно-состязательные сети [10], ограниченная машина Больцмана [11] и самоорганизующиеся карты [12].

Однако любые модели машинного обучения в рамках МЭА всегда сопровождаются большими вычислительными затратами из-за следующих двух аспектов:

- итерационные методы в процессе обучения сами по себе требуют больших вычислительных затрат [13],

- как правило, для получения приемлемого результата модель машинного обучения перебирает все элементы популяции посредством нескольких итераций [14], при этом оптимальный набор хромосом сильно отличается от наборов начальной популяции [1 5].

Помимо итерационной стратегии, огромные вычислительные затраты связаны с повторным обучением [12]. Некоторые решения, которые отбираются после этапов скрещивания и мутации, на новой итерации анализируются алгоритмом повторно несмотря на то, что они не могут предоставить новые знания для модели. Чтобы уменьшить вычислительные затраты, естественной и разумной идеей является применение алгоритмов с меньшим количеством итераций при каждом обучении. Чжан и др. [12] предложили использовать самоорганизующуюся карту Кохонена (SOM) на популяции решений только с одной итерацией в каждом поколении, тогда как как другие решения будут применяться повторно для обучения SOM. Ли и др. [16] предложили стратегию обучения, при которой обучение происходит только в том случае, если сходство между популяциями двух последовательных поколений превышает пороговое значение. Ченг и др. [1 7] предложил метод случайной группировки для уменьшения количества Гауссовых моделей, где все найденные недоминируемые решения в пространстве решений отображаются в целевом пространстве. Ли и др. [18] включили многообразное обучение в многокритериальную оптимизацию, которая применяется как метод нелинейного уменьшения размерности для извлечения геометрических свойств структуры низкоразмерных многообразий, встроенных в многомерное пространство. Несмотря на вышеупомянутые усилия, излишние вычислительные затраты из-за повторов итераций или повторного обучения, особенно на завершающих этапах, когда совокупность решений приближается к оптимальному по Парето набору, все еще существуют.

В данной работе предлагается аппроксимировать Парето-оптимальное множество с помощью модели пошагового обучения на основе кластеризации потоков данных [1 9]. Основная идея заключается в следующем: модель инкрементного обучения, основанная на модели Гауссовой смеси (МГС), аппроксимируется начальной популяцией. После инициализации все новые решения, генерируемые в ходе эволюционного процесса, воспринимаются как поток данных, который вводится в модель пошагового обучения для обнаружения многообразной структуры ПОМ и управления эволюционным поиском. Модуль обучения используется для получения новых знаний из вновь созданных высококачественных решений-потомков в одном эволюционном цикле в пакетном режиме, в то время как модуль забывания используется для постепенного удаления информации, предоставленной относительно плохим решением.

Материалы и методы

В качестве модели обучения применяется модель Гауссовой смеси (Gaussian mixture model - GMM). Алгоритм GMM основан на обучении без учителя, и обладает широкими возможностями моделирования для формирования плавных аппроксимаций плотностей вероятности произвольной формы [20]. Модель GMM с К компонентами (обозначаются как Ck, k =1, 2,..., К) в пространстве размерности D описывается следующим образом:

p( x | 0) = I nkN (x|», X k)

k=1

N (x\Mk, Xk) =

1

к

In = 1,

k=1

(2n)D/2 |X,

|1/2

: exp

2( x ~Hk)T X k "1( x ~Hk)

(1)

щ > 0

здесь ©={%, Ць к=1,...,К - набор компонентов (гауссианов) модели,

описывающий распределение Гаусса для каждой из к компонент. Параметры каждой компоненты: кк - вероятность смешивания, определяет вероятность того, что некий элемент х принадлежит к-тому гауссиану смеси; цк - среднее значение, определяет центр гауссиана; 2к - ковариационная матрица, определяет разброс гауссиана. Модель пошагового обучения на основе ОМЫ направлена на аппроксимацию Парето-оптимального множества с меньшими вычислительными затратами. Модель состоит из двух взаимозависимых модулей: модуля обучения и модуля забывания.

Модуль обучения. Основной задачей модуля является получение знаний из новых высококачественных с точки зрения значения целевых функций, решений. Ввиду того, что между соседними эволюционными поколениями существует небольшое количество различных решений, особенно на более позднем эволюционном этапе [21], все новые качественные решения-потомки могли быть получены из одного и того же родительского компонента. Таким образом, задача обучения трансформируется в задачу слияния компонентов. Алгоритм 1 описывает псевдокод создания нового компонента путем слияния М высококачественных дочерних решений, называемых потоком данных 5 = {х1, х2, . . . ,хМ}, полученных в процессе последнего по времени шага эволюции. Сначала обновляется внешний архив А, содержащий поток данных 5 (строка 1). Затем создается новый компонент из М новых высококачественных решений-потомков, его параметр задается в виде строки 2. После этого определяются пары компонентов с кратчайшим евклидовым расстоянием между средними векторами. Такие пары объединяются в одно целое (строка 3), а параметр объединенного компонента задается как строка 4. На завершающем этапе происходит переобозначение номеров компонентов.

Алгоритм 1. Модуль обучения.

Входные данные: внешний архив А с набором компонентов ©={лк, 2к}, к=1,...,К. Поток

данных 5 = {х1; х2, . . . ,хМ}, размер популяции N._

Результат: внешний архив А с набором компонентов ©.

1. А^АиБ

2. Создание нового компонента С0 с параметрами:

м

£ Хт

M

»o

_ m=1

; Xo = I.

N " " M

3. Определить пары компонентов для последующего слияния: (а, ß) ^ arg min |^-^Ц

a,ß,a Ф ß

4. Слияние компонентов. Перенумерация.

Щ = Щ + Щ

Т _Па

XY =

\Ха+{Ма-МуХ

(»а

»Г =

»Г J

П а»а Пß» ß

Па +nß

П

+ -

ß\Xß+(»ß-»r)(»ß-»r)Tj

Па +nß

Па +nß

Модуль забывания. Предназначен для удаления информации из внешнего архива А, соответствующей относительно плохому решению х*. Информация об удаленном решении сохраняется в компоненте Ск модели ОМЫ. Алгоритм 2 представляет псевдокод модуля забывания. Модуль удаляет х* и затем обновляет набор параметров модели. В алгоритме 2 после удаления х* из внешнего архива А (строка 1) рассматриваются две стратегии обновления набора параметров модели ©: если компонент Ск пуст, он удаляется (строка 3). В противном случае параметры компоненты Ск обновляются как показано в строке 5, где Ек- ожидаемый вектор компоненты Ск, Ек=АПк, 1< к <К, К- размер популяции.

Алгоритм 2. Модуль забывания.

Входные данные: решение х*, внешний архив А с набором компонентов ©={%, ^к, Ек}, к=1,..., К.

Результат: внешний архив А с набором компонентов ©.

1. A^A\{x*}

2. IF Ck =0 THEN

3. удалить компонент Ck , установить K=K-1

4. ELSE

5. обновить компонент Ck :

Ек - p(x*| к) Екук - x * p(x*| k)

—-; ик —-;

k N-l Ek - px*| k)

^k —

Ek2 k- p(x*1 k)( x * -Ик)(x * -Ик)T

Ek - P(x*1 k)

6. END IF

Многокритериальный эволюционный алгоритм с пошаговой моделью обучения

Основная идея предлагаемого алгоритма (Multiobjective Evolutionary algorithm with an Incremental Learning Model - MEILM) заключается в интеграции инкрементальной модели обучения на основе GMM в модель МЭА для более эффективного получения знаний. Модель инкрементального обучения использует поток решений, последовательно генерируемых в ходе эволюции, в качестве обучающих данных для аппроксимации Парето-оптимального множества и установления отношений соседства между решениями. Параметры модели обновляются всякий раз, когда новые высококачественные решения-потомки объединяются или удаляются из текущей популяции, а полученная модель модифицируется для снижения вычислительных затрат, в отличие от пакетного подхода, который используется в настоящее время. На основе обученной модели операция генерирования решений-потомков создает новые пробные решения для всего Парето-фронта. Псевдокод многокритериального эволюционного алгоритма MEILM с пошаговой моделью обучения приведен в псевдокоде Алгоритма 3.

На первом этапе случайным образом инициализируется начальная популяция P в пространстве переменных решения, внешний архив А совпадает с P (строка 1). Затем создается начальная модель GMM с К компонентами (набор параметров компонент: ©={%, lik, 2k}, k=1,...,K)с использованием классического EM-алгоритма (Expectation-Maximization algorithm) (строка 2). В эволюционном цикле каждый индивидуум x' из P в свою очередь развивается, его пул спаривания Q конструируется из той же самой компоненты с вероятностью s, либо или всей совокупности с вероятностью (1-е) соответственно (строка 4). Пробное решение ts' порождается дифференциальным оператором эволюции, описанном в [22], при этом родители выбираются случайным образом из его пула спаривания Q

(строка 6)._

Алгоритм 3. Основная структура эволюционного алгоритма с пошаговым обучением_

Входные данные: размер популяции N, максимальное количество эволюционных

поколений т, количество компонент K._

Результат: Популяция Р.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1: Задание начальной популяции и внешнего архива Р^{х1, x2,.xN}, A^P 2: Инициализация модели обучения {Ck}, k=1,.,K и множества параметров ©.

3: WHILE критерий окончания процесса не достигнут DO 4: установить пул спаривания Q для каждого элемента х' из Р как:

Ck если RAND() < е [P в противном случае

с

где k представляет элемент х' из Ck2_RAND() - случайное число из отрезка [0;1] 5: FOR i= 1 to N DO

6: Сгенерировать пробное решение-потомка ts' по методу дифференциальной эволюции. 7:Определить наихудшее решение х* согласно выбранному критерию. Если х*^ ts', присоединить пробное решение tsi к потоку данных S. 8: [A, ©] ^ Алгоритм2(А, ©, х*)

9: END FOR_

10: [А, ©] ^ Алгоритм1(А, ©, S)

11: P ^ A, передать набор параметров © внешнего архива A в популяцию Р. 12: END WHILE

Затем на основе механизма естественного отбора SMS-EMOA [23] в популяции определяется относительно плохое решение х*. Если это решение не совпадает с пробным ts', пробное решение ts' помещается в поток данных S (строка 7). После этого набор параметров модели 0 и внешний архив А обновляются на основе Алгоритма 2. Когда эволюция завершится для каждого индивидуума, используется Алгоритм 1 для обновления модели и внешнего архива всеми новыми высококачественными дочерними решениями из S. Результат перемещается в популяцию Р. После окончания работы Алгоритм 3 возвращает конечную популяцию, представляющую собой приближение Парето-оптимального множества решений.

Результаты

Для оценки эффективности предложенного многокритериального эволюционного алгоритма MEILM с пошаговой моделью обучения были проведены сравнительные вычислительные эксперименты. Для сравнения использованы две современные модели обучения, основанные на МЭА: самоорганизующийся многоцелевой эволюционный алгоритм (Self-Organizing Multiobjective Evolutionary Algorithm - SMEA) [12] и многокритериальный дифференциальный эволюционный самообучающийся алгоритм (Multiobjective Differential Evolutionary Self-Learning algorithm - MDESL) [14]. В алгоритме SMEA в процессе обучения для установления соседства используются самоорганизующиеся карты (SOM). Алгоритм MDESL для извлечения знаний об отношениях соседства применяет кластеризацию k-средних для последующего спаривания объектов. Алгоритм кластеризации k-средних сопровождается высокими вычислительными затратами за счет использования итеративной стратегии.

В качестве эталонных задач использованы наборы тестов GLT [24]. Особенности каждого набора отражены в таблице 1.

Были выбраны следующие настройки параметров для каждого из алгоритмов с учетом особенностей тестовых наборов данных GLT:

1) Общие параметры

• Численность популяции: N=100 для двукритериальной, и N=105 для трехкритериальной оптимизации.

• Размерность переменных (объектов): n=10. Максимальное количество эволюционных поколений: Т =300.

• Число запусков тестов: 31 запуск каждого экземпляра теста.

• Условие остановки: все алгоритмы прекращают выполнение после 100 000 вычислений функции.

2) Параметры предложенного алгоритма MEILM

• Количество компонентов: Kmax=8.

• Вероятность использования: е =0,6.

• Константа кроссовера и дифференцирования: CR =1, F = 0,7.

3) Параметры алгоритма SMEA

• Структура SOM: размерность карты 1-D, количество нейронов 1*100 для двукритериальной оптимизации, 2-D и 7*15 для трехкритериальной соответственно.

• Начальная скорость обучения: т0=0,9.

• Размер окрестности соседства: Т =5.

• Вероятность ограничения спаривания: в =0,7.

4) Параметр алгоритма MDESL

• Максимальное количество кластеров: Kmax=10.

• Длина истории: Н =5.

• Константа кроссовера и дифференцирования: CR =1, F =0,6.

Таблица 1

Характеристики тестовых наборов GLT, использованных в экспериментах_

Тестовы й набор Тип задачи Целевые функции Особенности Парето-фронта

GLT №1 Двух-критериальная Д(х) = (1 + д(х))хг /2(х) = ( 1 + д(х) ) ( 2 - X! - sign(cos(2^) ) ) д (х) = ^ (х — s i п (2 лх + —л) ) Линейный с разрывами

Продолжение таблицы 1

GLT №2 Двух-критериальная Д(х) = (1 + д(х))(1 - собСО^л)) /2(х) = (1 + 5(х))(10-5т(0,5х1;т)) д (х) = ^ (х; — Б 1 П (2 7ГХ! + —7) ) Нелинейный выпуклый

GLT №3 Двух-критериальная А(х) = (1 + д (х))х! Г( — + д ( х) )( — — — 9 х^ , е сл и Д (х) < 0 , 5 /2(Х) " {( — + д (х) —|1),е сл и Д (х) > 0, 5 д (х) = ^ (х — Я ' П (2 7х! + —7) ) Нелинейный выпуклый

сGLT №4 Двух-критериальная АО) = (1 + д{х))х1 А( х) = ( — + д (х) ) ( 2 — 2 х0° 5 х С052( 2 х^ 5л)) д (х) = ^ (х — Я ' П (2 77х + —7) ) Нелинейный выпуклый с разрывами

GLT №5 Трех-критериальная А(х) — (1 + (?(х))(1 — соз(0,5х17г))(1 — соз(0,5х17г)) /2(х) = (1 + <?(х))(1 — СО5(0,5х17Г))(1 — 51я(0,5х17г)) /з(х) = (1 + 5(х))(1-51Я(0,5х17Г)) д (х) = ^ (х — Я ' П (2 77х + —7) ) Нелинейный выпуклый

GLT №6 Трех-критериальная А(х) — (1 + 5(х))(1 - С05(0,5х17г))(1 - ««(О^тт)) /2(х) = (1 + д(х))(1 - со5(0,5х1тг))(1 - 51я(0,5х17)) /з(х) = ( — + д (х) )( ——5 т( 0, 5 х^) ) — 51<?Я(С05(4Х17)) д (х) = ^ (х — Б 1 П (2 77х + —7) ) Нелинейный выпуклый с разрывами

Для количественной оценки качества полученных в результате приближений Парето-фронтов использованы два показателя качества: инвертированное расстояние между поколениями (IGD) [3] и гиперобъем (НУ) [25]. Ориентир оптимальности представляется вектором г*=( г*, г2*... гт*), где г*=тах £(.х)+1, у=1...т, т - число целевых функций задачи.

Если обозначить набор точек, оптимальных по Парето, в истинном Парето-фронте как Р*, а приближенный аппроксимированный Парето-фронт как Р, то метрика 10Б рассчитывается как:

£ С1 (X*, Р)

ЮБ(Р*, Р) = х*еР* Р *--(2)

Здесь й(х*,Р) - минимальное расстояние между равномерно распределенными оптимальными точками х* и любой точкой приближения Р, |Р*| - мощность Р*. Чем меньше значение 10Б, тем лучше приближение Р аппроксимирует реальный Парето-фронт Р*.

Метрика НУ рассчитывается как разница между аппроксимируемыми точками Р и опорными точками г* в целевом пространстве. Мера рассчитывается как:

НУ(Р,г*) = уоь[ ир[/;(х),г ]х ...[/и(X),гт]) (3)

Здесь г*=( г¡*, г2*... гт*) - точка ориентира оптимальности в целевом пространстве, доминирующая для любой Парето-оптимальной точки, УОЦ-) - мера Лебега. Чем больше значение НУ, тем лучше приближение Р аппроксимирует реальный Парето-фронт.

Результаты численных экспериментов.

Предложенный алгоритм МЕ^М сравнивался с алгоритмами SMEA и MDESL, каждый из которых запускается 31 раз независимо на заданных наборах тестов. Средние значения метрик 10Б и НУ приведены в таблицах 2 и 3 соответственно.

Таблица 2

Среднее значение метрики 10Б после 31 независимого запуска наборов тестов GLT

Тестовый набор SMEA MDESL МЕ1ЬМ

GLT №1 1.488е-02 1.482е-01 1.926е-03

GLT №2 4.027е-02 9.149е-01 3.533е-02

GLT №3 2.038е-02 9.410е-02 4.998е-03

GLT №4 4.871е-01 6.102е-01 5.765е-03

GLT №5 9.899е-02 5.236е-02 2.992е-02

GLT №6 6.335е-02 4.157е-02 2.456е-02

Таблица 3

Среднее значение метрики НУ после 31 независимого запуска наборов тестов GLT

Тестовый набор SMEA MDESL MEILM

GLT №1 3.434e+00 3.212e+00 3.371e+00

GLT №2 2.182e+01 2.166e+01 1.981e+01

GLT №3 3.955e+00 3.942e+00 3.949e+00

GLT №4 4.843e+00 3.661e+00 4.993e+00

GLT №5 7.926e+00 7.966e+00 7.969e+00

GLT №6 7.934e+00 7.957e+00 7.961e+00

Из таблиц 2 и 3 видно, что предложенный алгоритм МЕ1ЬМ показал наилучшие результаты для всех шести тестовых наборов согласно метрике ЮБ, и для трех из шести тестовых наборов согласно метрике НУ. То есть в 9 случаях из 12 алгоритм МЕТЬМ показал свое преимущество перед классическими алгоритмами 8МЕЛ и МБЕЗЬ. Алгоритм 8МЕЛ показал лучшие результаты в трех случаях, тогда как МБЕЗЬ. демонстрировал средние или низкие результаты во всех сериях экспериментов.

Результаты экспериментов также показывают, что фронты аппроксимации, полученные с помощью МЕТЬМ, имеют наилучшее разнообразие и близость на наборах тестов GLT среди всех трех алгоритмов сравнения. На рисунке 1 показаны рассчитанные аппроксимирующие Парето-фронты со средними значениями ЮБ, полученные двумя лучшими с точки зрения среднего ранжирования в таблицах 2 и 3 алгоритмами МЕТЬМ и 8МЕЛ. Рассчитанные по алгоритму МЕТЬМ фронты аппроксимации сходятся к реальным Парето-фронтам во всех случаях, в то время как аппроксимирующие фронты, рассчитанные по алгоритму БМЕЛ, не полностью сходятся на наборах данных GLT4- GLT6. Кроме того, фронты алгоритма 8МЕЛ имеют пропуски сегментов реальных Парето-фронтов. Таким образом, производительность МЕТЬМ намного лучше, чем 8МЕЛ при визуальном сравнении.

Рис. 1. Рассчитанные аппроксимирующие Fig. 1. Estimated Pareto Fronts with IGD

Парето-фронты со средними значениями IGD means in 31 independent runs of the GLT test

в 31 независимом прогоне наборов тестов GLT sets for the MEILM and SMEA algorithms. для алгоритмов MEILM и SMEA.

Рисунок 2 демонстрирует зависимость показателя эффективности IGD от количества эволюционных поколений сравниваемых алгоритмов. Видно, что предложенный алгоритм MEILM требует наименьшего из всех алгоритмов количества вычислений. Это доказывает, что эффективность поиска MEILM превосходит алгоритмы сравнения для всех тестовых наборов СЬТ, особенно для набора СИТ№4.

Evolutionary Generations (х20)

Evolutionary Generations (х20)

Evolutionary Generations (x20) GLT6

Evolutionary Generations (x2Q)

Evolutionary Generations (x20)

Evolutionary Generations (x20)

Рис. 2. Эволюция средних значений IGD и Fig. 2. Evolution of IGD means and соответствующих стандартных отклонений corresponding standard deviations across GLT в наборах тестов GLT. test sets.

Заключение

Предложенный в работе алгоритм MEILM позволяет получать аппроксимацию Парето-оптимальных множеств с помощью модели пошагового обучения с лучшей производительностью и одновременно меньшими вычислительными затратами, чем другие эволюционные алгоритмы. Преимущества MEILM обусловлены модульной структурой алгоритма, состоящего из модуля обучения с использованием модели Гауссовой смеси, и модуля забывания, что позволяет вести целенаправленный поиск наилучших в смысле Парето решений. Сравнение классических эволюционных алгоритмов SMEA и MDESL с разработанным алгоритмом MEILM продемонстрировало значительное превосходство последнего с точки зрения сходимости и разнообразия, измеряемых значениями IGD и HV, при меньших вычислительных затратах.

Литература

1. Богданова П.А., Сахаров Д.М., Васильева Т.В. Обзор методов многокритериальной оптимизации в задачах принятия решений // Инновационные аспекты развития науки и техники. 2021. №6.

2. Катенди Б.А., Умнов Е.А., Умнов А.Е. Оптимизация формы множества Парето в задачах многокритериального программирования. Review of Business and Economics Studies. 2018;6(1):5-16. https://doi.org/10.26794/2308-944X-2018-6-1-5-16.

3. Труфакин С.С. , Пантелеев В.И., Русина А.Г., Совбан Е.А. Использование матриц чувствительности перетоков мощности при оптимизации долгосрочных режимов энергетических систем // Вестник КГЭУ. 2019. №4 (44) С. 87-93.

4. Башин К.А., Торсунов Р.А., Семенов С.В. Методы топологической оптимизации конструкций, применяющиеся в аэрокосмической отрасли // Вестник ПНИПУ. Аэрокосмическая техника. 2017. №4 (51).

5. Гатин Р.Р., Новикова С.В., Моисеев Г.В. Исследование применимости моделей различной структуры для решения обратных задач определения пороговых концентраций металлов в питьевой воде, безопасных для населения // Вестник Казанского государственного энергетического университета. 2022. Т. 14. №2 (54). С. 71-81.

6. Петров Т.И., Сафин А.Р., Низамиев М.Ф., Басенко В.Р. Применение генетического алгоритма при разработке программного обеспечения для перебора материалов при оптимизации синхронных двигателей // Вестник Казанского государственного энергетического университета. 2022. Т. 14. №2 (54). С. 96-105.

7. Q. Zhang, A. Zhou, and Y. Jin, "RM-MEDA: A regularity model-based multiobjective estimation of distribution algorithm," IEEE Transactions on Evolutionary Computation, vol. 12, no. 1, pp. 41-63, feb 2008.

8. Фарунцев С.Д. Метод декомпозиции задач оптимизации в реальном времени для многоуровневых химико-технологических систем на основе идентификации компромиссных множеств // Динамика систем, механизмов и машин. 2019. Т. 7. № 2. С. 161-170. DOI: 10.25206/2310-9793-7-2-161-170.

9. H. Karshenas, R. Santana, C. Bielza, and P. Larranaga, "Multiobjective estimation of distribution algorithm based on joint modeling of objectives and variables," IEEE Transactions on Evolutionary Computation, vol. 18, no. 4, pp. 519-542, 2014.

10. C. He, S. Huang, R. Cheng, K. C. Tan, and Y. Jin, Evolutionary Multiobjective Optimization Driven by Generative Adversarial Networks (GANs)," IEEE Transactions on Cybernetics, pp. 1-14, oct 2020.

11. V. A. Shim, K. C. Tan, C. Y. Cheong, and J. Y. Chia, Enhancing the scalability of multi-objective optimization via restricted Boltzmann machinebased estimation of distribution algorithm, Information Sciences, vol. 248, pp. 191-213, 2013.

12. H. Zhang, A. Zhou, S. Song, Q. Zhang, X. Z. Gao, and J. Zhang, A Self- Organizing Multiobjective Evolutionary Algorithm, IEEE Transactions on Evolutionary Computation, vol. 20, no. 5, pp. 792-806, oct 2016.

13. Лебедева, А. В., Пакулина, А. Н. Практикум по методам вычислений. Часть 1. СПб.: СПбГУ, 2021. 156 с. (Lebedeva, A. V., Pakulina, A. N. Practicum on computational methods. Part 1. - St. Petersburg: St. Petersburg State University, 2021. - 156 p.)

14. X. Li, H. Zhang, and S. Song, "A self-adaptive mating restriction strategy based on survival length for evolutionary multiobjective optimization," Swarm and Evolutionary Computation, vol. 43, pp. 31-49, 2018.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

15. J. Sun, H. Zhang, A. Zhou, Q. Zhang, K. Zhang, Z. Tu, and K. Ye, "Learning from a stream of nonstationary and dependent data in multiobjective evolutionary optimization," IEEE Transactions on Evolutionary Computation, vol. 23, no. 4, pp. 541-555, 2019.

16. X. Li, H. Zhang, and S. Son. MOEA/D with the online agglomerative clustering based self-adaptive mating restriction strategy. Neurocomputing, vol. 339, pp. 77-93, apr 2019.

17. R. Cheng, Y. Jin, K. Narukawa, and B. Sendhoff. A multiobjective evolutionary algorithm using Gaussian process-based inverse modeling. IEEE Transactions on Evolutionary Computation, vol. 19, no. 6, pp. 838-856, 2015.

18. K. Li and S. Kwong. A general framework for evolutionary multiobjective optimization via manifold learning. Neurocomputing, vol. 146, pp. 65-74, 2014.

19. S. Calinon and A. Billard. Incremental learning of gestures by imitation in a humanoid robot," in HRI 2007 - Proceedings of the 2007 ACM/IEEE Conference on Human-Robot Interaction - Robot as Team Member, 2007, pp. 255-262.

20. Пахомова, А. А. Применение алгоритма EM для гауссовой смеси / А. А. Пахомова, А. Д. Ли // Научный взгляд в будущее. 2020. Т. 1. № 18. С. 29-34. DOI 10.30888/2415-7538.2020-18-01-028.

21. H. Zhang, J. Sun, T. Liu, K. Zhang, and Q. Zhang, "Balancing exploration and exploitation in multiobjective evolutionary optimization," Information Sciences. 2019. V. 497. pp. 129-148, sep 2019.

22. R. Storn and K. Price. Differential Evolution - A Simple and Efficient Heuristic for Global Optimization over Continuous Space. Journal of Global Optimization, 1997.

23. N. Beume, B. Naujoks, and M. Emmerich. SMS-EMOA: Multiobjective selection based on dominated hypervolume. European Journal of Operational Research, vol. 181, no. 3, pp. 1653-1669, sep 2007.

24. F. Gu, H. L. Liu, and K. C. Tan. A multiobjective evolutionary algorithm using dynamic weight design method. International Journal of Innovative Computing, Information and Control, vol. 8, no. 5 B, pp. 3677-3688, 2012.

25. Пантелеев Андрей Владимирович, Крючков Александр Юрьевич Модификация метаэвристического метода фейерверков для задач многокритериальной оптимизации на основе недоминируемой сортировки // Научный вестник МГТУ ГА. 2019. №3. c. 67-78.

Авторы публикации

Тань Лиго - PhD, доцент лаборатории космических исследований и физических наук Харбинского политехнического университета. E-mail: tanli guo @mail.ru.

Новикова Светлана Владимировна - док-р.техн.наук, профессор кафедры прикладной математики и информатики Казанского национального исследовательского технического университета им. А.Н. Туполева - КАИ (КНИТУ-КАИ). e-mail: SVNovikova@kai.ru.

References

1. Bogdanova PA, Sakharov DM, Vasilyeva TV. Overview of multi-criteria optimization methods in decision-making problems. Innovative aspects of the development of science and technology. 2021. №6.

2. Katendi B.A., Umnov E.A., Umnov A.E. Optimization of the Shape of the Pareto Set in the Problems of Multi-criterial Programming. Review of Business and Economics Studies. 2018;6(1):5-16. https://doi.org/10.26794/2308-944X-2018-6-1-5-16.

3. Trufakin S.S., Panteleev V. I., Rusina A. G., Sovban E. A. Use of power flow sensitivity matrixes in optimizing long-term modes of energy systems. KAZAN STATE POWER ENGINEERING UNIVERSITY BULLETIN 2019:4 (44):87-93

4. Bashin KA, Torsunov RA, Semenov SV. Methods of topological optimization of structures used in the aerospace industry. Bulletin of the PNRPU. Aerospace engineering. 2017;4(51).

5. Gatin RR., Novikova SV., Moiseev GV. Investigation of the applicability of models of various structures for solving inverse problems of determining threshold concentrations of metals in drinking water that are safe for the population. KAZAN STATE POWER ENGINEERING UNIVERSITY BULLETIN. 2022;14;2(54):71-81.

6. Petrov T. ISafin., A.R., Nizamiev, M.F.. Basenko V.R. Application of genetic algorithm in the development of software for selecting materials in the optimization of synchronous motorsk. KAZAN STATE POWER ENGINEERING UNIVERSITY BULLETIN. 2022;14;2(54):96-105.

7. Q. Zhang, A. Zhou, and Y. Jin. RM-MEDA: A regularity model-based multiobjective estimation of distribution algorithm. IEEE Transactions on Evolutionary Computation, vol. 12, no. 1, pp. 41-63, feb 2008.

8. Faruntsev S.D. Decomposition method for real time optimization tasks in multilevel chemical-technological systemsbased on identification of compromise sets. Dynamics of systems, mechanisms and machines. 2019. V. 7. No. 2. pp. 161-170. DOI: 10.25206/2310-9793-7-2-161170.

9. H. Karshenas, R. Santana, C. Bielza, and P. Larranaga. Multiobjective estimation of distribution algorithm based on joint modeling of objectives and variables. IEEE Transactions on Evolutionary Computation. 2014;18(4):519-542, 2014.

10. C. He, S. Huang, R. Cheng, K. C. Tan, and Y. Jin. Evolutionary Multiobjective Optimization Driven by Generative Adversarial Networks (GANs). IEEE Transactions on Cybernetics, pp. 1-14, oct 2020.

11. V. A. Shim, K. C. Tan, C. Y. Cheong, and J. Y. Chia. Enhancing the scalability of multi-objective optimization via restricted Boltzmann machinebased estimation of distribution algorithm. Information Sciences. 2013;248:191-213, 2013.

12. H. Zhang, A. Zhou, S. Song, Q. Zhang, X. Z. Gao, and J. Zhang. A Self- Organizing Multiobjective Evolutionary Algorithm. IEEE Transactions on Evolutionary Computation. 2016;20(5):792-806.

13. Lebedeva A.V., Pakulina A. N. Practicum on computational methods. Part 1. St. Petersburg: St. Petersburg State University, 2021. 156 p.

14. X. Li, H. Zhang, and S. Song. A self-adaptive mating restriction strategy based on survival length for evolutionary multiobjective optimization. Swarm and Evolutionary Computation. 2018;43:31-49.

15. J. Sun, H. Zhang, A. Zhou, Q. Zhang, K. Zhang, Z. Tu, and K. Ye. Learning from a stream of nonstationary and dependent data in multiobjective evolutionary optimization. IEEE Transactions on Evolutionary Computation. 2019;23(4):541-555, 2019.

16. X. Li, H. Zhang, and S. Song. MOEA/D with the online agglomerative clustering based self-adaptive mating restriction strategy. Neurocomputing. 2019;339:77-93.

17. R. Cheng, Y. Jin, K. Narukawa, and B. Sendhoff. A multiobjective evolutionary algorithm using Gaussian process-based inverse modeling. IEEE Transactions on Evolutionary Computation. 2015;19(6):838-856, 2015.

18. K. Li and S. Kwong. A general framework for evolutionary multiobjective optimization via manifold learning. Neurocomputing.2014;146:65-74.

19. S. Calinon and A. Billard. Incremental learning of gestures by imitation in a humanoid robot in HRI 2007 - Proceedings of the 2007 ACM/IEEE Conference on Human-Robot Interaction - Robot as Team Member. 2007, pp. 255-262.

20. Pakhomova A. A, A. D. Li. Application of the EM algorithm for a Gaussian mixture. Scientific outlook into the future. 2020;1(18):29-34. DOI 10.30888/2415-7538.2020-18-01-028.

21. H. Zhang, J. Sun, T. Liu, K. Zhang, and Q. Zhang. Balancing exploration and exploitation in multiobjective evolutionary optimization. Information Sciences. 2019;49:129-148.

22. R. Storn and K. Price. Differential Evolution - A Simple and Efficient Heuristic for Global Optimization over Continuous Spaces. Journal of Global Optimization, 1997.

23. N. Beume, B. Naujoks, and M. Emmerich.SMS-EMOA: Multiobjective selection based on dominated hypervolume. European Journal of Operational Research.2007;181(3):1653-1669.

24. F. Gu, H. L. Liu, and K. C. Tan. A multiobjective evolutionary algorithm using dynamic weight design method. International Journal of Innovative Computing, Information and Control. 2012;8(5):3677-3688.

25. Panteleev A. V., Kryuchkov A. Yu. Modification of the fireworks metaheuristic method for multicriteria optimization problems based on non-dominated sorting. Scientific Bulletin of MSTU GA. 2019;3:67-78.

Authors of the publication Tan Liguo -Harbin Institute of Technology. E-mail: tanliguo@mail.ru.

Svetlana V. Novikova - Kazan National Research Technical University named after A.N. Tupolev - KAI (KNRTU-KAI). e-mail: SVNovikova@kai.ru.

Получено 07.09.2022г.

Отредактировано 08.09.2022г.

Принято 08.09.2022г.

i Надоели баннеры? Вы всегда можете отключить рекламу.