БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Garey M.R. and Johnson D.S. Computers and Intractability: A Guide to the Theory of NP-Completeness // W.H. Freeman. - 1979.
2. Потарусов Р.В., Курейчик В.М. Проблема одномерной упаковки элементов // Известия ТРТУ. - 2006. - № 8 (63). - C. 88-93.
3. Курейчик В.В., Заруба Д.В., Запорожец Д.Ю. Применение генетического алгоритма решения задачи трехмерной упаковки // Известия ЮФУ. Технические науки. - 2012. - № 7 (132). - С. 8-14.
4. Курейчик В.М., Потарусов Р.В., Гонкалвес Ж. Бионические методы упаковки блоков.
- Таганрог: Изд- во ТТИ ЮФУ, 2009. - 120 с.
5. Гладков Л.А., Курейчик В.В., Курейчик В.М., Сороколетов П.В. Биоинспирированные методы в оптимизации. - М: Физматлит, 2009. - 384 с.
6. Потарусов Р.В. Гибридный параллельный группирующий генетический алгоритм для решения задачи упаковки блоков // Известия ЮФУ. Технические науки. - 2008. - № 4 (81).
- С. 42-45.
7. Потарусов Р.В. Гибридный генетический поиск для задачи упаковки блоков // Известия ЮФУ. Технические науки. - 2007. - № 2 (77). - С. 30-35.
8. Kureichik V.V., Kureichik V.M., Sorokoletov P.V. Analysis and a survey of evolutionary models // Journal of Computer and Systems Sciences International. - 2007. - Т. 46, № 5. - С. 779-791.
Статью рекомендовала к опубликованию д.т.н., профессор Я.Е. Ромм.
Курейчик Виктор Михайлович - Федеральное государственное автономное образовательное учреждение высшего профессионального образования «Южный федеральный университет»; e-mail: kur@tgn.sfedu.ru; 347928, г. Таганрог, пер. Некрасовский, 44; тел.: 88634393260; кафедра дискретной математики и методов оптимизации; зав. кафедрой; д.т.н.; профессор.
Kureichik Victor Mikhailovich - Federal State-Owned Autonomy Educational Establishment of Higher Vocational Education “Southern Federal University”; e-mail: kur@tgn.sfedu.ru; 44, Nekra-sovskiy, Taganrog, 347928, Russia; phone: +78634393260; the department of discrete mathematics and optimization methods; head of department; dr. of eng. sc.; professor.
УДК 681.325
Б.К. Лебедев, В.Б. Лебедев
ОПТИМИЗАЦИЯ МЕТОДОМ КРИСТАЛЛИЗАЦИИ РОССЫПИ АЛЬТЕРНАТИВ (КРА)*
Разработана новая парадигма мультиагентного метода интеллектуальной оптимизации, базирующаяся на моделировании коллективного интеллекта. Платформой для организации эволюционной процедуры поиска является интегральная россыпь альтернатив на базе сгенерированного множества решений. В процессе эволюционной коллективной адаптации производится вычленение из множества вариантов наиболее приспособленных альтернатив (кристаллизация). Метод кристаллизации россыпи альтернатив (КРА) может быть использован для решения широкого круга комбинаторных задач. Для усиления различия вероятностей выбора альтернатив предлагается модифицированная формула расчета вероятностей. Рассмотренный алгоритм в полной мере применим для пересекающихся множеств альтернатив агентов. Проведены экспериментальные исследования, подтвердившие эффективность предложенной парадигмы.
Метод кристаллизации россыпи альтернатив; коллективный интеллект; адаптивное поведение, самоорганизация; оптимизация.
* Работа выполнена при частичной поддержке РФФИ (проекты: № 13-01-00596, № 12-01-00100).
B.K. Lebedev, V.B. Lebedev
OPTIMIZATION BY THE CRYSTALLIZATION OF ALTERNATIVES FIELD
(CAF)) METHOD
The new paradigm a multiagents method of the intellectual optimization, based on modelling of collective intelligence is developed. A platform for the organization of evolutionary procedure of search is the integrated scattering of alternatives The new paradigm a multiagents method of the intellectual optimization, based on modelling of collective intelligence is developed. A platform for the organisation of evolutionary procedure of search is the integrated field of alternatives on the basis of the generated set of decisions. In process of evolution collective adaptation exarticulation from set of variants of the most adapted alternatives (crystallization) is made. The method of crystallization of alternatives field (CAF) can be used for the decision of a wide range of combinatory problems. For strengthening of distinction ofprobabilities of a choice of alternatives the modified formula of calculation of probabilities is offered. The considered algorithm to the full is applicable for crossed sets of alternatives of agents. Experimental researches are spent. Confirmed efficiency of the offered paradigm.
Method of crystallization of alternatives field (CAF)); collective intelligence; adaptive behavior; self-organizing; optimization.
Введение. Сущность рассматриваемых в работе комбинаторных задач заключается в том, что решение представляет комбинацию уникальных компонент, каждая из которых выбирается из, как правило, конечного набора конкурирующих между собой вариантов компонент. Целью является поиск оптимальной комбинации вариантов компонент, которые обеспечивают наилучшее решение задачи. Большинство известных алгоритмов [1-3] используют традиционные итерационные улучшающие структуры, основанные на слепом случайном поиске. Основным недостатком, присущим этому подходу, является вхождение алгоритмов в локальный оптимум, часто далекий от глобального. В настоящее время активно разрабатывается научное направление с названием «Природные вычисления» (Natural Computing), объединяющее математические методы, в которых заложены принципы природных механизмов принятия решений. В работе, наряду с метаэвристиками, на которых построены роевые алгоритмы, используется метаэвристика, учитывающая тенденцию к использованию альтернатив (вариантов компонентов) из наилучших найденных решений [4-8]. В процессе эволюционной коллективной адаптации методами дискриминантного анализа формируются оценки приспособленности альтернатив. Приспособленность альтернатив рассматривается как вероятность ее использования в формируемом решении. Совокупность данных об альтернативах и их оценках составляет россыпь альтернатив (РА), дискриминантный анализ альтернатив в процессе эволюционной коллективной адаптации назван по аналогии с процессами вычленения объектов (формирования кристаллов) кристаллизацией. Другими словами, в процессе эволюционной коллективной адаптации производится вычленение из множества вариантов наиболее приспособленных альтернатив. Отсюда название метода оптимизации - метод кристаллизации россыпи альтернатив (КРА), (Crystallization of alternatives field (CAF)).
Представление решения. В методе кристаллизации россыпи альтернатив (Crystallization of alternatives field (CAF)) каждое решение формируется (представляется) множеством агентов A={ai | i=1,2,...,na}, где na - число агентов. Каждому агенту ai соответствует множество альтернативных состояний Si={sij\j=1,2,...,nsi}, где nsi - число состояний агента ai. Каждый агент ai может находиться в одном из альтернативных состояний. Решение Rk определяется совокупностью альтернативных состояний множества агентов. Обозначим как альтернативное состояние агента ai в решении Rk. Тогда Rk ={ski | i=1,2, ...,na}.
Примером такой задачи может служить задача построения дерева Штейнера [9]. Пусть задан ортогональный граф 0=(У,Е). Дерево Штейнера нужно построить на множестве вершин V* с¥. Задача решается в два этапа. На первом этапе, на множестве V* алгоритмом Прима строится минимальное связывающее дерево (МСД) Я=Я \1 =1,2,...,п-1}; Я=(уь у) - ребро МСД. Для каждого ребра Я1 на графе 0=(У,Е) формируется набор 8=Г(Я1) альтернативных вариантов маршрутов. 81=(^'1к\к =1,2, ...,т}. S={SI \ I =1,2, ...,п-1} - множество наборов.
На втором этапе построения МДШ в каждом наборе SI выбирается вариант маршрута, обеспечивающий построение МДШ. В рассмотренной задаче агентами являются ребра, а альтернативами - варианты маршрутов.
Обозначим оценку решения Як как/к. Под россыпью альтернатив (РА) решения в работе понимается структура данных, несущая информацию об альтернативах агентов в данном решении и об оценке этого решения. Алгоритм оперирует с множествами решений и реализует эволюционную стратегию случайного направленного поиска решения. В процессе поиска множество оценки решений трансформируется в интегральные оценки альтернатив. На каждом шаге в соответствии с интегральными оценками альтернатив производится генерация новых решений и пересчет интегральных оценок. При этом происходит рост оценок лучших альтернатив и снижение оценок худших альтернатив. Происходит процесс аналогичный кристаллизации. Лучшие альтернативы, обеспечивающие лучшие решения, как бы выкристаллизовываются (вычленяются) в процессе эволюционного поиска.
Представим решение Як в виде совокупности векторов Хк={Хк\ 1=1,2,...,па}, которую назовем РА. Каждый векторХк ={х,к\ ]=1,2,...,пя} соответствует агенту а,. Размерность вектора Хк определяется числом возможных состояний агента а,. В векторе Хк только один элемент х,к, соответствующий состоянию /,, в котором находится агент а,, имеет значение, отличное от нуля, и это значение равно оценке /к этого решения. Остальные элементы вектора Хк имеют нулевые значения
Таким образом, в векторе Хк хранится информация о состоянии, реализованном агентом а, в решении Як, и об оценке/к этого решения (рис. 1).
Алгоритм оптимизации методом кристаллизации россыпи альтернатив.
1. Генерация начального множества решений Я путем выбора агентами случайным образом, альтернатив. Расчет оценок всех решений.
2. Сужение сгенерированного множества решений Я до заданного размера, путем отбрасывания худших решений. Определение у сформированного множества решений Я1={Як \ к=1,2, ...,пк} решения с лучшим значением оценки/ и худшим значением - /. Формирование РА Хк для каждого решения множества Я1.
3. Формирование интегральной россыпи альтернатив (ИРА) X1 путем объединения всех россыпей альтернатив Хк.
3.1. Пусть агентом а, альтернатива была выбрана в п, решениях Я1.
Если п,?0, то элементы х*, ИРА Х*={Х*\ 1=1,2, ...,па}, X*i ={х*,,\]=1,2, ...,пх,} принимают значения, вычисляемые по формуле:
х *,, =г(Ек Хук)/пу , (1)
где у - управляющий параметр, который подбирается экспериментально.
Фактически х*, является средним значением оценок решений, в которых агентом а, была реализована альтернатива 5,.
3.2. Если п,=0, то производится коррекция (дополнение) ИРА. (Обоснование необходимости коррекции приведено ниже). Выбирается параметр Q, лежащий в границах / ^</#. Сущность коррекции заключается в том, что всем элементам х*,, ИРА, соответствующим альтернативам с нулевым значением п,, присваивается значение у^.
Пример. Произведем интеграцию решений и построим ИРА множества решений Я1 ={Я1, Я2, Я3}. Агентами в каждом из решений реализованы следующие альтернативы. Я1: а1 -2, а2 -5, а3 -4, а4 -1. Я2: а1 -4, а2 -3, а3 -2, а4 -1. Я3: а1 -2, а2 -5, а3 -4, а4 -3. /1 =7,/2 =6,/3 =11. РА множества решений {Я1, Я2, Я3} представлены на рис. 1. Лучшее значение оценки решения/#=11, худшее значение f=6. Выбирается параметр Q, лежащий в границах/<@</#. Пусть Q =8.
х„ 1 0 7 1 0 1 0 1 0 ] X12 1 0 0 0 б 0 1 X,3 0 1 11 1 0 1 0 1 0
X21 1 0 0 1 0 1 0 1 7 ] X22 1 0 0 б 0 0 1 X23 0 1 0 1 0 1 0 1 11
X31 X33
1 0 0 1 0 1 7 1 0 ■J X32 1 0 б 0 0 0 1 0 1 0 1 0 1 11 1 0
X41 X43
1 7 0 1 0 1 0 1 0 -1 X42 1 б 0 0 0 0 1 0 1 0 1 11 1 0 1 0
Рис. 1. Россыпи альтернатив решений {Я1, Я2, R3}
Произведем расчет значений элементов х*р ИРА по формуле 1. п11=0, х*п= 0. п12=2, х*12= (7+0+11)/2=9. п13=0, х*13=0. п14=1, х*14= 6. п15=0, х*15= 0. ИРА представлена на рис.2 Производим коррекцию ИРА. Всем элементам с нулевым значением присваиваем значение Q =8 (рис. 3). Первые три пункта составляют подготовительный этап работы алгоритма. Начиная с пункта 4, выполняется итерационная процедура эволюционного поиска решения.
4. Формирование распределения вероятностей выбора альтернатив агентами. Сущность этой операции заключается в том, что всем элементам х*р ИРА ставится в соответствие значение вероятности рр выбора агентом а,■ состояния і'р. Расчет вероятностей осуществляется по формуле:
Рр = х*р /(Т х*р). (2)
Рассмотрим расчет вероятностей альтернатив для первого агента р11= р13= р15= 8/ (8+9+8+6+8)= 8/39. р12=9/39, р14=6/39.
После расчета вероятностей альтернатив для остальных агентов нашего примера (ИРВА) Хр примет вид (рис. 4) .
X*lt
X*2k
X*3k
X*4k
0 9 0 б 0
0 0 б 0 9
0 б 0 9 0
б,5 І 0 І 11 І 0 І 0
X*lt
X*2k
X*3k
X*4k
8 9 8 б 8
8 8 б 8 9
8 б 8 9 8
б,5 І 8 І 11 І 8 І 8
Рис. 2. Начальная ИРА
Рис. 3. ИРА после коррекции
Каждый вектор Х?, является распределением вероятности выбора альтернативы агентом а,.
я1
ХРг
Ж,
8/39 9/39 8/39 6/39 8/39
8/39 8/39 6/39 8/39 9/39 1
8/39 6/39 839 9/39 1 8/39
6.5/41.5 8/41.5 11/41.5 8/41.5 8/41.5
Рис. 4. Интегральная россыпь вероятностей альтернатив (ИРВА)
Вернемся к пояснению действий, производимых в пункте 3.4. После построения начальной ИРА отдельные элементы могут иметь нулевые значения. Это значит, что соответствующие им вероятности, рассчитываемые по формуле (2), будут иметь нулевые значения и соответствующие альтернативы будут исключены из рассмотрения в самом начале процесса поиска. Чтобы не допустить исключения альтернатив из рассмотрения, производится коррекция начальной ИРА, т.е. всем элементам с нулевым значением присваиваем значение Q, лежащее в границах f<Q</
5. На базе ИРВА X формируется множество решений Я2. Агентами выбираются альтернативы случайным образом, но в соответствии распределениями вероятностей, задаваемыми ИРВА Х?.
6. Сужение сгенерированного множества решений до заданного размера, путем отбрасывания худших решений. Выбор лучшего решения среди множеств Я1 и Я2. Если выполнено заданное число итераций, то переход к пункту 10, в противном случае переход к пункту 7.
7. Формирование РА Хк для каждого решения множества Я2. Формирование ИРА X 2 путем объединения всех РА, соответствующих множеству решений Я2.
8. Объединение ИРА X1 с ИРА X 2. X1= X 1иХ 2. Объединение производится по следующему правилу.
( х*, )1=(( х*г])1+ ( х*г])2)/2.
Таким образом, формируется среднее значение параметра х*,.
9. Производится уменьшение значений элементов ИРА по формуле
х* = р• х*--х г р х 1р
где р - коэффициент обновления (0.93-0.99).
Этот пункт (прием) выполняется исходя из следующих соображений. Поскольку худшие альтернативы выбираются реже и их оценки меньше лучших, то интегральные оценки лучших альтернатив растут быстрее худших. Периодическое уменьшение значений элементов ИРА приводит к ускоренному снижению оценок худших альтернатив, фактическому обнулению худших интегральных оценок и, следовательно, к уменьшению вероятности выбора соответствующих им альтернатив. Переход к пункту 4.
10. Завершение работы алгоритма. Фиксация и вывод лучшего решения.
Модификации алгоритма. Платформой для организации эволюционной процедуры поиска является ИРА на базе сгенерированного множества решений Я1={Як | к=1,2,...,щ}, где Як ={^сг | г=1,2,.,па}. Поэтому нет необходимости в построении для каждого решения индивидуальной РА. В работе индивидуальная РА решения используется как виртуальное описание для изложения сущности предложенного метода оптимизации. Процесс генерации каждого решения заключается в генерации вектора Як ={^сг | г=1,2, ...,па} и расчете оценки/ решения. А затем на базе этой информации строится ИРА для множества решений.
Для усиления различия вероятностей выбора альтернатив предлагается модифицированная формула расчета вероятностей. В ИРА отыскивается элемент с минимальным значением (х*фтп Выбирается параметр ц<(х*,)тЫ. Модифицированная формула имеет вид
Рг, = (х*г, - (х*у - Я)).
Рассмотренный алгоритм, в полной мере, применим для непересекающихся множеств альтернатив агентов, то есть
(УК) 8 п 8 =0], 8^0, 80
Существует довольно обширный класс задач, у которых (3 і,ґ)[Бі п Б ^0]. Частным является случай, когда все агенты имеют один и тот же набор альтернатив (Vі,ґ)[Бі = Б]. При этом возможны три случая. Первый: любая альтернатива может быть выбрана только одним агентом. Например, задача размещения (в общем случае задача о назначениях). Второй: для каждой альтернативы задается число агентов, которые могут ее реализовать. Например, задача разбиения. Третий: пусть множество агентов разбито на подмножества; в пределах каждого подмножества агентов альтернатива может бать реализовано только одним из агентов.
Дл такого рода задач при формировании решения используется модификация рассмотренного алгоритма, суть которой заключается в том, что при последовательном выборе агентами альтернатив, каждый последующий агент учитывает результаты выбора альтернатив предыдущими агентами.
Пусть при формировании решения, заключающегося в выборе агентами альтернатив, множеством агентов А1 альтернативы выбраны, а множеством агентов А2 - нет. Выбор альтернатив агентами осуществляется случайным образом на основе ИРВА. Пусть осуществляется выбор альтернативы агентом а,еА2. При этом оказывается, что некоторое множество альтернатив Б1, выбранное агентами А1, не может быть использовано агентом аі. В этом случае эти альтернативы исключаются из рассмотрения агентом а,. Пусть Б2і множество альтернатив доступных агенту а,. Пусть Р1, сумма вероятностей выбора альтернатив множества Б2і агентом а,. хранящиеся в ИРВА Хр. Поскольку ряд альтернатив был исключен, то эта сумма будет меньше единицы. В связи с этим значения вероятностей выбора агентом аі доступных альтернатив множества Б2і нормируется, так, чтобы их сумма была равна единице. Пересчет осуществляется по формуле:
рр= рр/ Р!г. (3)
Исследованию подвергались алгоритмы для решения комбинаторных задач [5-10]. В целом, для задач, каноническая постановка которых изначально представлялась в виде РА, алгоритмом КРА были получены решения на 2 % лучше по качеству и с меньшими временными затратами. Для анализа точности получаемых решений был синтезирован ряд примеров с априори известным оптимальным значением целевой функции. В рамках нового подхода вероятность получения оптимального решения составила 0.9. Общая оценка временной сложности лежит в пределах О(п2).
Заключение. Разработана новая парадигма мультиагентного метода интеллектуальной оптимизации, базирующаяся на моделировании коллективного интеллекта. Рассмотрены ключевые моменты анализа альтернатив в процессе эволюционной коллективной адаптации, названной по аналогии с процессами вычленения объектов (формирования кристаллов) кристаллизацией. Такой подход является эффективным способом поиска рациональных решений для задач оптимизации, допускающих интерпретацию в виде россыпи альтернатив. Алгоритм КРА был успешно применен для решения сложных комплексных задач оптимизации. Типичный пример решения подобной задачи - задача планирования кристалла СБИС, задача размещения, задача построения кратчайших связывающих сетей, задача синтеза математических выражений, обучения и распознавания образов. Экспериментальные исследования показали, что алгоритмы на основе предлагаемого подхода могут давать лучшие результаты, чем при использовании методов пчелиной и муравьиной колоний по отдельности.
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. МакКоннеллДж. Основы современных алгоритмов. - М.: Техносфера, 2004.
2. Курейчик В.М., Лебедев Б.К., Лебедев О.Б. Поисковая адаптация: Теория и практика.
- М.: Физматлит, 2006.
3. Лебедев О., Курейчик В., Лебедев Б. Адаптация в задачах проектирования топологии. LAP LAMBERT Academic Publishing GmbH@Co/KG. 2012.
4. Лебедев Б.К., Лебедев О.Б. Моделирование адаптивного поведения муравьиной колонии при поиске решений, интерпретируемых деревьями // Известия ЮФУ. Технические науки. - 2012. - № 7 (132). - С. 27-34.
5. Курейчик В.М., Лебедев Б.К., Лебедев О.Б. Гибридный алгоритм разбиения на основе природных механизмов принятия решений // Искусственный интеллект и принятие решений. - 2012. - С. 3-15.
6. Лебедев В.Б. Метод пчелиной колонии в комбинаторных задач на графах // Тринадцатая национальная конференция по искусственному интеллекту с международным участием КИИ-212. Труды конференции. - М.: Физматлит, 2012. - Т. 2. - С. 4l4-422.
7. Лебедев О.Б. Трассировка в канале методом муравьиной колонии // Известия ЮФУ. Технические науки. - 2009. - № 4 (93). - С. 46-52.
8. Лебедев О.Б. Планирование СБИС на основе метода муравьиной колонии // Известия ЮФУ. Технические науки. - 2010. - № 7 (108). - С. 67-73.
9. Лебедев О.Б. Построение дерева Штейнера на основе метода муравьиной колонии // Труды конгресса по интеллектуальным системам и информационным технологиям «AlS-IT’09». Научное издание в 4-х т. Т. 1. - М.: Физматлит, 2009. - С. 58-65.
Статью рекомендовал к опубликованию д.т.н., профессор Я.Е. Ромм.
Лебедев Борис Константинович - Федеральное государственное автономное образовательное учреждение высшего профессионального образования «Южный федеральный университет»; e-mail: lbk@tsure.ru; 347928, г. Таганрог, пер. Некрасовский, 44; тел.: 88634371743; кафедра систем автоматизированного проектирования; профессор.
Лебедев Владимир Борисович - кафедра системного анализа и телекоммуникаций; доцент.
Lebedev Boris Konstantinovich - Federal State-Owned Autonomy Educational Establishment of Higher Vocational Education “Southern Federal University”; e-mail: lbk@tsure.ru; 44, Nekra-sovsky, Taganrog, 347928, Russia; phone: +78634371743; the department of computer aided design; professor.
Lebedev Vladimir Borisovich - the department of system analysis and telecommunications; associate professor.
УДК 681.3
А.А. Кажаров, В.М. Курейчик
ИСПОЛЬЗОВАНИЕ ШАБЛОННЫХ РЕШЕНИЙ В МУРАВЬИНЫХ
АЛГОРИТМАХ*
Роевой интеллект описывает коллективное поведение децентрализованной самоорганизующейся системы. В работе предложена модификация муравьиного алгоритма, позволяющая находить более качественные решения за меньшее время. Разработан метод создания шаблона решения, основанного на идее хранения блочных решений. Шаблон может динамически изменяться с течением времени, при этом происходит уменьшение времени работы каждой итерации. Использование шаблона позволяет суживать пространство поиска. Экспериментальные исследования показали эффективность предложенного модифицированного муравьиного алгоритма по сравнению со стандартным.
Муравьиные алгоритмы; роевой интеллект; задача о коммивояжере; ЗК; ЫР-задача; генетические алгоритмы; шаблоны.
*
Работа выполнена при частичной поддержке РФФИ (проекты: № 13-07-12091, № 12-07-00062).