Научная статья на тему 'Модульный гибридный меметический алгоритм поиска условного глобального экстремума функций многих переменных'

Модульный гибридный меметический алгоритм поиска условного глобального экстремума функций многих переменных Текст научной статьи по специальности «Математика»

CC BY
266
45
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МЕМЕТИЧЕСКИЙ АЛГОРИТМ / УСЛОВНЫЙ ГЛОБАЛЬНЫЙ ЭКСТРЕМУМ / МЕМ / ГИБРИДНЫЙ АЛГОРИТМ / МОДУЛЬНЫЙ АЛГОРИТМ / ГАРМОНИЧЕСКИЙ ПОИСК / ДИФФЕРЕНЦИАЛЬНАЯ ЭВОЛЮЦИЯ / АЛГОРИТМ ОПЫЛЕНИЯ ЦВЕТОВ

Аннотация научной статьи по математике, автор научной работы — Пантелеев Андрей Владимирович, Письменная Виктория Александровна

В работе предложен гибридный меметический алгоритм поиска условного глобального экстремума функций. Данный алгоритм сочетает в себе свойства модульности и адаптивности, что обеспечивает алгоритму гибкость, настраиваемость и позволяет уменьшить степень влияния параметров. На основе предложенного алгоритма реализован комплекс программ на языке C#. Его эффективность продемонстрирована на широко распространенных тестовых задачах поиска глобального условного экстремума функций многих переменных.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

This paper presents a hybrid memetic algorithm for finding a conditional global extremum of functions. The algorithm combines such characteristics as modularity and adaptability which provides flexibility and controllability of the algorithm and reduces the influence of parameters. On the basis of the proposed algorithm the software complex is formed in the C# language. The method effectiveness is demonstrated on several well-known model examples of finding a conditional global extremum for functions of several variables.

Текст научной работы на тему «Модульный гибридный меметический алгоритм поиска условного глобального экстремума функций многих переменных»

Civil Avition High TECHNOLOGIES

Vol. 19, № 02, 2016

УДК 519.85, 517.972.8

МОДУЛЬНЫЙ ГИБРИДНЫЙ МЕМЕТИЧЕСКИЙ АЛГОРИТМ ПОИСКА УСЛОВНОГО ГЛОБАЛЬНОГО ЭКСТРЕМУМА ФУНКЦИЙ МНОГИХ ПЕРЕМЕННЫХ

A.B. ПАНТЕЛЕЕВ, В.А. ПИСЬМЕННАЯ

В работе предложен гибридный меметический алгоритм поиска условного глобального экстремума функций. Данный алгоритм сочетает в себе свойства модульности и адаптивности, что обеспечивает алгоритму гибкость, настраиваемость и позволяет уменьшить степень влияния параметров. На основе предложенного алгоритма реализован комплекс программ на языке C#. Его эффективность продемонстрирована на широко распространенных тестовых задачах поиска глобального условного экстремума функций многих переменных.

Ключевые слова: меметический алгоритм, условный глобальный экстремум, мем, гибридный алгоритм, модульный алгоритм, гармонический поиск, дифференциальная эволюция, алгоритм опыления цветов.

ВВЕДЕНИЕ

Меметические алгоритмы (МА) представляют собой гибрид эволюционных методов оптимизации и улучшающих процедур локального поиска. Они основаны на понятии «мема», введенного Р. Докинзом и определенного как «единица передачи культурной информации, распространяемая от одной особи к другой посредством имитации, научения и др.» [1]. Термин «меметический алгоритм» (МА) был впервые предложен P. Moscato [2], где он рассматривал МА как гибрид генетического алгоритма и процедуры индивидуального обучения для уточнения решения задачи.

В работе представлен гибридный меметический алгоритм, который сочетает в себе свойства модульности и адаптивности, что позволяет обеспечивать гибкость и настраиваемость алгоритма, а также снизить степень влияния параметров алгоритма на его сходимость. Разработан комплекс программ, реализующий модульный гибридный меметический алгоритм, который для решения задачи локального улучшения использует методы дифференциальной эволюции [3, 4], алгоритмы опыления цветков [5] и гармонического поиска [6, 7]. С помощью разработанного комплекса решены распространенные задачи поиска условного глобального экстремума функций многих переменных.

В рамках решения сложных прикладных задач условной оптимизации меметические алгоритмы широко используются в различных областях и, как правило, показывают более точные результаты, чем классические эволюционные методы [8].

1. ПОСТАНОВКА ЗАДАЧИ

Дана целевая функция f(х) = f(х1,х2,...,xn), определенная на множестве допустимых решений D с Rn. Требуется найти условный глобальный минимум функции f (х) на множестве D, т.е. такую точку х* e D, что f (х*) = min f (х), где х = (х1, х2,...,xn)T ,

xeD

D = {х | х e [at,bt], i = 1,2,...,n}.

Задача поиска максимума функции f (х) сводится к задаче поиска минимума путем замены знака перед функцией на противоположный: f (х*) = max f (х) = -min[-f (х)].

XED xеD

Функция f (х) может быть многоэкстремальной, поэтому искомое решение в общем случае неединственное.

Vol. 19, № 02, 2016

Civil Avition High TECHNOLOGIES

2. СТРАТЕГИЯ ПОИСКА РЕШЕНИЯ

Гибридный меметический алгоритм представляет собой синтез нескольких методов оптимизации, объединенных в адаптивный оптимизационный кластер. Основу описанного алгоритма составляют следующие модули:

1) модуль генерации особей, необходимый для создания множества начальных особей (точек, решений), на основе которого далее будут созданы популяции;

2) модуль группировки, разделяющий множество начальных особей на популяции;

3) модуль сдвига; в процессе функционирования данного модуля происходит развитие популяций согласно алгоритмам методов оптимизации, которые ассоциированы с каждой из популяций. В текущей версии алгоритма предлагается использовать следующие популяцион-ные алгоритмы глобальной условной оптимизации для реализации модуля сдвига: гармонический поиск [6, 7], дифференциальная эволюция [3, 4, 8], алгоритм опыления цветов [5];

4) модуль обучения; данный модуль оперирует текущим положением особи в популяции для обучения остальных особей. В процессе работы модуля обучаемая особь сдвигается в сторону учителя (обучающей особи) с учетом заданного коэффициента обучения;

5) модуль имитации; данный модуль оперирует множеством векторов сдвига, полученных в результате реализации модуля сдвига и описывающих перемещение особи, для имитации поведения особей. В процессе работы модуля имитирующая особь повторяет сдвиг имитируемой особи с учетом заданного параметра имитации;

6) модуль локальной настройки; данный модуль позволяет выводить особь (решение) из области притяжения локального экстремума за счет реализации процесса обмена особями между популяциями;

7) модуль глобальной настройки; позволяет выводить текущие решения из области притяжения локального экстремума за счет смешивания и перегруппировки популяций.

3. АЛГОРИТМ

Шаг 1. Задание параметров алгоритма.

Задать параметры алгоритма: ITERmax - максимальное число итераций; OPA - число используемых алгоритмов оптимизации, каждый из которых ассоциирован с популяцией

xldJ =(,г,x2d,г,...,x'd,г) } , где id = 1,...,OPA - номер популяции, N'd - количество

h=i

особей в популяции с номером id; N'ITER, i = 1,..., OPA - число итераций алгоритма оптимизации, ассоциированного i -й популяцией.

Задать параметры модуля обучения (Teaching): prT е [0;1] - вероятность обучения;

е [0;1] - коэффициент обучения.

Задать параметры модуля имитации (Imitation): prI е [0;1] - вероятность имитации; ^I е [0; 1] - коэффициент имитации.

Задать параметры модуля локальной настройки (Local Tuning): freqL е N - частоту; bL е [0; 1] - порог.

Задать параметры модуля глобальной настройки (Global Tuning): freqG е N - частоту; bG е [0; 1] - порог. Положить множество значений средней приспособленности особей всех популяций Avertotal = 0 и средней приспособленности в популяции с номером

id = 1,...,OPA.

Научный Вестник МГТУ ГА_Том 19, № 02, 2016

Civil Avition High TECHNOLOGIES Vol. 19, № 02, 2016

Oa , , ...NA

Шаг 2. Генерация особей. Сгенерировать NA = ^ N'A точек P = {x1} , равномерно

id=1 1=1

распределенных на множестве D .

Шаг 3. Группировка особей в популяции.

3.1. Положить id = 1.

id ^ Nid

3.2. Случайным образом выбрать из множества P N'A точек хЛ, xh,..., x A и положить

P ={x'1С"

3.3. Положить Рор'ё = Р.

3.4. Положить Р = Р \ Р, ¡ё = ¡ё +1. Если ¡ё > ОРА, то перейти к шагу 4. В противном случае - к шагу 3.2.

1 OPa NA , d Л

Шаг 4. Добавить в множество Avertotal величину —--XX f ( x' ,1 ), a в каждое мно-

^^ N'd id=1 i=1 id=1

1 nA

жество Aver'J. величину —' S f (x'd'' ) •

NA i=1

Шаг 5. Задать номер текущей итерации iter = 1, перейти к шагу 6. Шаг 6. Модуль сдвига.

6.1. Положить id = 1.

6.2. ПОЛОЖИТЬ Pop'drev = (v}} = Pop'd .

6.3. Выполнить N'frpgp, итераций алгоритма оптимизации, ассоциированного с популяцией под номером id.

6.4. Найти множество векторов сдвига для текущей популяции

A,d ={,=xd • - xdv}}.

Nid

6.5. Найти множество приращений целевой функции Af = ($/ '' = f (x'd,I )- f (x'd'ev)} A

для текущей популяции.

6.6. Положить id = id +1. Если id > OPA, то перейти к шагу 7. В противном случае - к шагу 6.2.

1 OPaNA / d А

Шаг 7. Добавить в множество Avertotal величину ор--XX f ( x' ,г ), a в каждое мно-

ÏK......

i d id=1 i=1

id=1

nA

1 NА

жество Аувг'^ величину —ц-• X / (х'ё,').

NА '=1

Шаг 8. Модуль обучения.

8.1. Положить ¡ё = 1.

8.2. Положить ' = 1.

8.3. Сгенерировать случайную величину р ~ Я(0,1), где Я(0,1) - равномерное распределение на интервале (0,1) . Если р < ргт , то перейти к шагу 8.4. В противном случае -к шагу 8.7.

Том 19, № 02, 2016_Научный Вестник МГТУ ГА

Vol. 19, № 02, 2016 Civil Avition High TECHNOLOGIES

8.4. Найти номер особи, ближайшей к текущей: j* = Arg min dE (x'd,i, x'd J), где

dE (xi, xJ )= ± (xj - xj )2.

k=1

8.5. Найти положение обученной особи по формуле х = х1й,1 + • (х1",1 - х1",1

8.6. Если / (х )< / ( х'",1 ), то заменить х'",1 на х .

f (x)< f (x'd,j),

8.7. Положить i = i +1. Если i > N'A, то перейти к шагу 8.8. В противном случае -к шагу 8.3.

8.8. Положить id = id +1. Если id > OPA, то перейти к шагу 9. В противном случае - к

шагу 8.2.

Шаг 9. Модуль имитации.

9.1. Положить id = 1.

Nid

9.2. Найти сумму всех приращений целевой функции btotal f = ^ min {о, 8f/,г},

г =1

где 5d= f (xid)- f (x'drev). Если 8total f = 0, то положить вероятности имитации i -го

вектора сдвига pri = —-j и перейти к шагу 9.4. В противном случае перейти

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

na

к шагу 9.3.

9.3. Найти вероятности имитации i -го вектора сдвига по формуле prx • min {0,5f }.

"total, f

9.4. Положить i = 1.

9.5. Сгенерировать случайную величину p ~ (0,1). Если p < pr}, то перейти к шагу 9.6. В противном случае - к шагу 9.11.

9.6. Сгенерировать случайную величину p ~ (0,1). Положить j = 1.

9.7. Если p < prJ, то перейти к шагу 9.9. В противном случае - к шагу 9.8.

9.8. Положить p = p - prj, j = j +1 и перейти к шагу 9.7.

9.9. Найти положение особи после имитации по формуле x = x'd,1 + ^7 • 8d,j , где

gid ,i = xid ,'■ - xld''

x prev

9.10. Если f (x)< f (x'd,I), то заменить x'd,I на x.

9.11. Положить i = i +1. Если i > N'A, то перейти к шагу 9.12. В противном случае -к шагу 9.5.

9.12. Положить id = id +1. Если id > OPA, то перейти к шагу 10. В противном случае -

к шагу 9.4.

Шаг 10. Модуль локальной настройки.

10.1. Если iter -[iter / freqL] = 0 (где [•] - целая часть от деления), то перейти к шагу

10.2. В противном случае - к шагу 11.

10.2. Задать множества Good = 0 и Bad = 0 - «хороших» и «плохих» групп соответственно. Положить id = 1.

Civil Avition High TECHNOLOGIES

Vol. 19, № 02, 2016

10.3. Определить величину r - gr gr

Ave,

gr

Aver*'lter-1 - Aver*'Iter

, где • - количество элементов мно-

Averid Mer-1

жества. Если r < bL, то добавить id в множество Bad, в противном случае - в множество Good.

10.4. Положить id = id +1. Если id > OPA, то перейти к шагу 10.5. В противном случае -к шагу 10.3.

10.5. Если |Good| = OPA, то перейти к шагу 11. В противном случае - к шагу 10.6.

10.6. Если |Bad| = OPA, то выбрать два случайных номера idlc и idC из множества Bad и перейти к шагу 10.8. В противном случае - к шагу 10.7.

10.7. Выбрать случайный номер id\ из множества Good и idC из множества Bad.

10.8. Найти элементы xg = Arg min f (x) и xb = Arg max f (x) и поменять их местами.

1 2 xePop' c xsPop' c

Шаг 11. Модуль глобальной настройки.

11.1. Если iter - [iter / freqG ] = 0, то перейти к шагу 11.2. В противном случае - к шагу 12.

Aver'ter-1 - Averiter

11.2. Определить величину r =-—-toa- . Если r < bG, то перейти к шагу 11.3.

AveCr-

В противном случае - к шагу 12.

11.3. Положить P = Pop1 и... и PopOPA , id = 1.

id ~ С .-.n'A

11.4. Случайным образом выбрать из множества P N'A точек и положить I3 = {хЛ } .

11.5. Положить Popld = P.

11.6. Положить P = P \ P , id = id +1. Если id > OPA, то перейти к шагу 12. В противном случае - к шагу 11.4.

Шаг 12. Положить iter = iter +1. Если iter > ITERmax, то перейти к шагу 13, в противном случае - к шагу 6.

Шаг 13. Выбор решения. В качестве решения взять х* = Arg min f (х).

ХЕ Pop1 U... PopOPA

На основе предложенного алгоритма разработано программное обеспечение для поиска глобального минимума функций. Среда разработки - Microsoft Visual Studio, язык программирования - C#.

4. РЕКОМЕНДАЦИИ ПО ВЫБОРУ ПАРАМЕТРОВ МЕТОДА

Максимальное количество итераций ITERmax определяет, как долго будет продолжаться поиск новых решений. Рекомендуемое значение параметра: ITERmax = 100 200.

Число используемых алгоритмов оптимизации OPA соответствует количеству популяций особей. Рекомендуемое значение данного параметра: OPA = 3 ■ 5 .

Значения параметров вероятности обучения и имитации prT и pr}, близкие к 1, значительно увеличивают расход вычислительных ресурсов и время работы алгоритма. Рекомендуемые значения параметров: prT = 0,5 - 0,7, prj = 0,4 - 0,6.

Чем меньше значения параметров и ^, тем тщательнее исследуется множество допустимых решений. Рекомендуемые значения параметров: = 0,4 - 0,6, = 0,5 - 0,7 .

Том 19, № 02, 2016_Научный Вестник МГТУ ГА

Vol. 19, № 02, 2016 Civil Avition High TECHNOLOGIES

Чем меньше частота локальной настройки freqL, тем чаще происходит обмен особями между разными популяциями. В свою очередь, чем меньше значение параметра частоты глобальной настройки freqG, тем чаще может происходить формирование новых популяций. Рекомендуемые значения параметров: freqL = 10■ 15, freqL = 20■ 25 .

Чем меньше значение параметра bL, тем больше популяций помещаются в множество Good. Порог глобальной настройки bG определяет частоту обновления популяций. Рекомендуемое значение данного параметра: bL = 0,3 - 0,5, bG = 0,4 - 0,5 .

5. ТЕСТОВЫЕ ПРИМЕРЫ. АНАЛИЗ ЭФФЕКТИВНОСТИ МЕТОДА

Во всех примерах, приведенных ниже, проводились серии из 100 решений одной и той же задачи с одними и теми же значениями параметров. Для полученной выборки

— 1 100

{/1,/2,. .,/100} вычислялись выборочное среднее / =-X/ и среднеквадратическое откло-

100 ¿=1

- - 1 V0 ■ - 2

нение а/ = V ^100, 5100 =—X (/ - /) .

99 ¿=1

Пример 1. Функция Растригина: /(х,у) = 20 + х2 + у2 -10(соз2пх + со$2жу), область поиска Б = [-100;100]х[-100;100]. Точное решение: х* = у* = 0, /(х\у*) = 0. Результаты решения примера отражены в табл. 1.

Таблица 1

Влияние параметров меметического алгоритма. Функция Растригина

Параметры алгоритмов f fnauM 0

Memetic ITERmax = 50; OPA = 3; prT = 0,6; St = 0,5; pr1 = 0,6; Ъ = 0,5; freqL = 10; bL = 0,5; freqG = 20; bG = 0,5 0,00013 0 0,00153

HS Nlter = 20; HMS = 100; HMCR = 0,8; PAR = 0,2; bw = (50;50)

DE M = 20; NP = 20; F = 0,8; CR = 0,9

FPA N Uer = 20; n = 25; p = 0,8; у = 0,1; ^ = 1,5

Memetic ITERmax = 100; OPa = 3; рт = 0,6; ^ = 0,5; pr} = 0,6; Si = 0,5; freqL = 10; bL = 0,5; freqG = 20; bG = 0,5 0 0 3,24 10-9

HS N lter = 50; HMS = 100; HMCR = 0,8; PAR = 0,2; bw = (50;50)

DE M = 50; NP = 20; F = 0,8; CR = 0,9

FPA N lter = 50; n = 25; p = 0,8; у = 0,1; ^ = 1,5

Memetic ITERmax = 50; OPa = 3; prT = 0,3; St = 0,3; prt = 0,3; Si = 0,3; freqL = 10; bL = 0,5; freqG = 20; bG = 0,5 0,00151 2,36 10-6 1,17 10-5

HS Nlter = 20; HMS = 100; HMCR = 0,8; PAR = 0,2; bw = (50;50)

DE M = 20; NP = 20; F = 0,8; CR = 0,9

FPA N lter = 20; n = 25; p = 0,8; у = 0,1; ^ = 1,5

Civil Avition High TECHNOLOGIES

Vol. 19, № 02, 2016

Пример 2. Функция Швефеля: /(х,у) = -837,9658 — х- — у - у |, область по-

иска Б = [—100;100]х[—100;100]. Точное решение: х* = у* = 420,96, ¡(х\у*) = —837,9658. Результаты решения примера отражены в табл. 2.

Таблица 2

Влияние параметров меметического алгоритма. Функция Швефеля

Параметры алгоритмов f fHauM a

Memetic ITERmax = 50; OPA = 3; prT = 0,6; St = 0,5; pr1 = 0,6; Si = 0,5; freqL = 10; bL = 0,5; freqG = 20; bG = 0,5 -765,865 -829,432 56,124

HS N lter = 20; HMS = 100; HMCR = 0,8; PAR = 0,2; bw = (50;50)

DE M = 20; NP = 20; F = 0,8; CR = 0,9

FPA Nner = 20; n = 25; p = 0,8; у = 0,1; X = 1,5

Memetic ITERmax = 100; OPa = 3; рт = 0,6; St = 0,5; pr} = 0,6; Si = 0,5; freqL = 10; bL = 0,5; freqG = 20; bG = 0,5 -833,194 -837,958 5,835

HS Nlter = 50; HMS = 100; HMCR = 0,8; PAR = 0,2; bw = (50;50)

DE M = 20; NP = 20; F = 0,8; CR = 0,9

FPA NUer = 50; n = 50; p = 0,8; y = 0,1; ^ = 1,5

Memetic ITERmax = 50; OPa = 3; prT = 0,6; ST = 0,5; prt = 0,6; Si = 0,5; freqL = 5; bL = 0,3; freqG = 15; bG = 0,3 -815,904 -837,594 27,393

HS N lter = 20; HMS = 100; HMCR = 0,8; PAR = 0,2; bw = (50;50)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

DE M = 20; NP = 20; F = 0,8; CR = 0,9

FPA Nner = 20; n = 25; p = 0,8; у = 0,1; X = 1,5

Данные, приведенные в табл. 1 и 2, свидетельствуют об эффективной работе описанного алгоритма. Приемлемые результаты решения задач достигаются за небольшое количество итераций.

ЗАКЛЮЧЕНИЕ

В работе предложен модульный гибридный меметический алгоритм для решения задачи поиска условного глобального экстремума функций. Реализован комплекс программ, позволяющий применять разработанный алгоритм для различных функций, а также проводить анализ эффективности его работы. Эффективность метода продемонстрирована на нескольких модельных примерах, обладающих как простой, так и сложной структурой линий уровня.

СПИСОК ЛИТЕРАТУРЫ

1. Dawkins R. Universal Darwinism in D.S. Bendall (ed.), Evolution: From Molecules to Men. - Cambridge: Cambridge University Press. 1983. P. 403-425.

2. Moscato P. On Evolution, Search, Optimization, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms // Caltech Concurrent Computation Program (report 826). Pasadena, California, USA. 1989.

3. Storn R., Price K. Differential evolution - a Simple and Efficient Heuristic for Global Optimization over Continuous Spaces // Journal of Global Optimization, Kluwer Academic Publishers. Vol. 11. 1997. P. 341-359.

Vol. 19, № 02, 2016

Civil Avition High TECHNOLOGIES

4. Пантелеев A.B., Дмитраков И.Ф. Применение метода дифференциальной эволюции и его модификаций в задаче поиска оптимального управления дискретными детерминированными системами // Научный вестник МГТУ ГА. - 2011. - № 169 (7). - С. 5-12.

5. Yang X.-S. Flower Pollination Algorithm for Global Optimization // Unconventional Computation and Natural Computation. 2012. Lecture Notes in Computer Science. Vol. 7445. P. 240-249.

6. Chukiat Worasucheep. A Harmony Search with Adaptive Pitch Adjustment for Continuous Optimization // International Journal of Hybrid Information Technology. 2011. Vol. 4. No. 4. P. 13-24.

7. Geem Z.W., Kim J.H., Loganathan G.V. A New Heuristic Optimization Algorithm: Harmony Search // Simulations. 2001. Vol. 76. P. 60-68.

8. Пантелеев A.B., Метлицкая Д.В., Алешина E.A. Методы глобальной оптимизации. Метаэвристические стратегии и алгоритмы. - М: Вузовская книга, 2013. - 244 c.

MODULAR HYBRID MEMETIC ALGORITHM FOR FINDING A CONDTIONAL GLOBAL EXTREMUM FOR FUNCTIONS OF SEVERAL VARIABLES

Panteleev A.V., Pismennaya V.A.

This paper presents a hybrid memetic algorithm for finding a conditional global extremum of functions. The algorithm combines such characteristics as modularity and adaptability which provides flexibility and controllability of the algorithm and reduces the influence of parameters. On the basis of the proposed algorithm the software complex is formed in the C# language. The method effectiveness is demonstrated on several well-known model examples of finding a conditional global extremum for functions of several variables.

Key words: memetic algorithm, conditional global extremum, meme, hybrid algorithm, modular algorithm, harmony search, differential evolution, flower pollination algorithm.

REFERENCES

1. Dawkins R. Universal Darwinism in D.S. Bendall (ed.), Evolution: From Molecules to Men. Cambridge: Cambridge University Press, 1983. Pp. 403-425.

2. Moscato P. On Evolution, Search, Optimization, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms. Caltech Concurrent Computation Program (report 826). Pasadena, California, USA. 1989.

3. Storn R., Price K. Differential evolution - a Simple and Efficient Heuristic for Global Optimization over Continuous Spaces. Journal of Global Optimization, Kluwer Academic Publishers. Vol. 11. 1997. Pp. 341-359.

4. Panteleev A.V., Dmitrakov I.F. Primenenie metoda differencial'noj ehvolyucii i ego modifikacij v zadache poiska optimal'nogo upravleniya diskretnymi determinirovannymi sistemami (Application of the differential evolution method and its modifications in the problem of finding optimal control of discrete deterministic systems). Scientific Bulletin of MGTU GA. 2011. No. 169 (7). Pp. 5-12. (in Russian).

5. Yang X.-S. Flower Pollination Algorithm for Global Optimization. Unconventional Computation and Natural Computation. 2012. Lecture Notes in Computer Science, Vol. 7445. Pp. 240-249.

6. Chukiat Worasucheep. A Harmony Search with Adaptive Pitch Adjustment for Continuous Optimization. International Journal of Hybrid Information Technology. 2011. Vol. 4. No. 4. Pp. 13-24.

7. Geem Z.W., Kim J.H., Loganathan G.V. A New Heuristic Optimization Algorithm: Harmony Search. Simulations. 2001. Vol. 76. Pp. 60-68.

8. Panteleev A.V., Metlitskaya D.V., Aleshina E.A. Metody global'noi optimizatsii. Metae-vristicheskie strategii i algoritmy. (Global optimization methods, Metaheuristic strategies and algorithms), Moscow, Vuzovskaya kniga, 2013, 244 p. (in Russian).

Civil Avition High TECHNOLOGIES

Vol. 19, № 02, 2016

СВЕДЕНИЯ ОБ АВТОРАХ

Пантелеев Андрей Владимирович, 1955 г.р., окончил МГТУ им. Н.Э. Баумана (1978). Доктор физико-математических наук, профессор, заведующий кафедрой математической кибернетики факультета «Прикладная математика и физика» Московского авиационного института (Национального исследовательского университета), автор более 150 научных публикаций и 34 книг. Области научных интересов - методы синтеза оптимальных нелинейных систем управления, методы оптимизации, электронный адрес: [email protected].

Письменная Виктория Александровна, 1991 г.р., окончила МАП (2014), аспирантка факультета «Прикладная математика и физика» Московского авиационного института. Области научных интересов - методы оптимизации, метаэвристические алгоритмы, электронный адрес: [email protected].

i Надоели баннеры? Вы всегда можете отключить рекламу.