Научная статья на тему 'Адаптация случайного поиска методом направляющего конуса'

Адаптация случайного поиска методом направляющего конуса Текст научной статьи по специальности «Математика»

CC BY
905
211
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СЛУЧАЙНЫЙ ПОИСК / АДАПТАЦИЯ / НАПРАВЛЯЮЩИЙ КОНУС / CASUAL SEARCH / THE ADAPTATION / A DIRECTING CONE

Аннотация научной статьи по математике, автор научной работы — Каладзе В. А.

Разработаны адаптивные алгоритмы случайного поиска, предназначенные для настройки параметров фильтрации динамической предикторной модели. Адаптация процедуры поиска проводится на уровне стратегий пробного анализа, его параметров и рабочих стратегий поискового алгоритма. Сформированные поисковые стратегии позволяют находить оптимум в локальных и глобальных условиях. Проверка эффективности разработанных поисковых процедур проводилась на тестовых функциях, в том числе и специально разработанных. Проанализированы результаты вычислительного эксперимента, проведенного в специализированной предметноориентированной программной среде

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ADAPTATION OF CASUAL SEARCH BY THE METHOD OF THE DIRECTING CONE

The adaptive algorithms of casual search intended for adjustment of parametres of a filtration dynamic predictive model are developed. Adaptation of procedure of search has taken place at level of strategy of the trial analysis, its parametres and working strategy of search algorithm. The generated search strategy allow to find an optimum in local and global conditions. Efficiency of the developed search procedures was checked on test functions, including specially developed. Results of the computing experiment which was passing in the specialised subject-oriented program environment are analysed

Текст научной работы на тему «Адаптация случайного поиска методом направляющего конуса»

УДК 681.5

АДАПТАЦИЯ СЛУЧАЙНОГО ПОИСКА МЕТОДОМ НАПРАВЛЯЮЩЕГО КОНУСА

В.А. Каладзе

Разработаны адаптивные алгоритмы случайного поиска, предназначенные для настройки параметров фильтрации динамической предикторной модели. Адаптация процедуры поиска проводится на уровне стратегий пробного анализа, его параметров и рабочих стратегий поискового алгоритма. Сформированные поисковые стратегии позволяют находить оптимум в локальных и глобальных условиях. Проверка эффективности разработанных поисковых процедур проводилась на тестовых функциях, в том числе и специально разработанных. Проанализированы результаты вычислительного эксперимента, проведенного в специализированной предметноориентированной программной среде

Ключевые слова: случайный поиск, адаптация, направляющий конус

Рассмотрим задачу параметрической адаптации системы, как задачу многомерного поиска экстремума, в данном случае минимума, в пространстве векторов с декартовой метрикой. В большинстве практических ситуаций целевая функция задачи поисковой оптимизации имеет несколько локальных минимумов в допустимой области и, естественно, возникает необходимость отыскания наименьшего из них, т. е. глобального минимума. Решению подобных задач не отвечают традиционные стратегии локальной оптимизации, разработанные на детерминированной основе, когда для выбора направления поиска используются вариационные или эвристические принципы, процедуры которых учитывают локальные свойства экстремума.

Решение задач глобального поиска наиболее перспективно с помощью специальных поисковых алгоритмов, основанных на случайных стратегиях [1]. Из процедур такого класса в настоящее время наиболее известны генетические алгоритмы. Они не отличаются корректным математическим

обоснованием, их нельзя сформировать на основе классических приёмов фундаментальной

математики, что вызывает известный скептицизм у профессиональных математиков. Г енетические

алгоритмы, как и другой современный вычислительный комплекс - искусственные

нейронные сети, копируют, а точнее, проецируют на компьютерные технологии информационные

основы биологии. Такой синергетический подход позволяет в обход корректной формализации процедур и доказательств их сходимости

использовать лишь статистическую

целесообразность их реализации, обеспеченную возможностями современной вычислительной техники.

Другими словами, использование большого объёма памяти и высокой скорости расчётов позволяет этим вычислительным процедурам, сформированным по форме устойчивой биологической структуры, в результате большого числа повторяющихся простых расчётов получить приемлемые оценки искомых характеристик.

Каладзе Владимир Александрович - МИКТ, канд. техн. наук, доцент, e-mail: wakaladze@vandex.ru

При этом, что вполне естественно, именно генетические алгоритмы являются наиболее подходящей процедурой настройки нейросетевых параметров. Связано это не только с общим суббиологическим подходом в формировании этих структур, но и с недетерминированностью процессов, в них протекающих.

Однако направленность поиска только на отыскание экстремума без учёта условий, отражающих смысловое содержание задачи, приводит в этих вычислительных комплексах к весьма большому объёму эпох (шагов), необходимому для получения приемлемых по адекватности и точности искомых оценок.

К наиболее управляемым по своим характеристикам процедурам случайного поиска относятся алгоритмы статистического поиска [1, 2], разработанные школой Л. А. Растригина. Они, с одной стороны, эффективно работают в области локальных стратегий [3], отвечая условию локального улучшения [4]. С другой стороны, их стратегии обеспечивают возможность выхода из зоны локального экстремума, что позволяет использовать их как процедуры глобального поиска.

Методологически математическая процедура адаптации параметров системы, как и поисковой оптимизации, сводится к исследованию проблемы минимизации целевой функции Q в некоторой выпуклой области Б нормированного пространства Е варьируемых переменных. Функция цели

полагается выпуклой числовой функцией, функционалом, отображающим область Б на

множество неотрицательных чисел. Эта

формулировка позволяет применить технику конусов допустимых направлений [5, 6], как выпуклых подмножеств множества Б, для решения задач минимизации в конкретных задачах адаптации, например, в случайном поиске.

Конус допустимых направлений используется для характеризации точек минимума функционала, заданного на множестве нормированного векторного пространства. Определение точки минимума здесь связывается с пустотой пересечения нескольких конусов допустимых направлений. Установлено [6], что это условие

является необходимым и достаточным для выпуклых множеств, к которым по построению относится конус допустимых направлений.

В рассматриваемой задаче адаптации случайного поиска конус допустимых направлений с вершиной в текущей точке х, будет рассматриваться как замкнутое непустое множество, имеющее внутреннее осевое направление. Аналитически такие множества описываются ограничениями, в т. ч. и координатными, типа нестрогих неравенств.

Техника конусов допустимых направлений предназначена для установления признаков наилучшего приближения в нормированном пространстве. В нелинейном унимодальном случае [7], в частности, для квадратичной функции цели она позволяет на каждом шаге получать необходимое условие локального улучшения.

Конус допустимых направлений, в процедуре случайного поиска, назовём его направляющим конусом [2], предназначен для отыскания направления к критической точке целевой функции, которую будем определять как минимальную. Направляющий конус осуществляет пошаговую адаптацию направления поиска путём подбора допустимого множества пробного анализа.

Шаг случайного поиска, не связанный с выбором наилучшего направления в направляющем конусе, а выполняющийся в предыдущем направлении, удовлетворяющем условию локального улучшения, считается пассивным и определяется как сдвиг допустимого множества.

ПОСТАНОВКА ЗАДАЧИ

Сформулируем задачу поисковой адаптации для идентификации многопараметрической системы ^ (хь ..., хп) с минимизирующим

многоэкстремальную целевую функцию Q(x1, ..., хп) критерием эффективности. Отметим, что рассматривается задача моделирования (т.н. обратная физическая задача), но без потери общности для оценки поведения системы (прямой задачи).

Пусть набор структурных параметров адаптируемой системы будет представлен п-мерным вектором х = (х], ..., хп) е X с Е, который одновременно является вектором варьируемых переменных поисковой процедуры общего вида

х+1 = ъ + Д+1 (Q(x,е)), (1)

минимизирующей целевой функционал Q(x], ..., хп).

В случайном поиске для выбора направления движения к цели, определяемой критерием эффективности, используются генерации вектора

е е Хп - случайного п-мерного вектора единичной длины, определяемого плотностью распределения рх(е). Решающая функция Я(х, е) процедуры (1) связывает направление рабочего шага Ах и его величину, устанавливаемую многомерным числовым оператором А, через соотношение Я = А Ах .

Выбор направления рабочего шага случайного поиска в допустимой для поиска области Б нормированного пространства X связан с

принятием решения на основе результатов пробного анализа. Для реализации адаптивных свойств поиска на этом этапе параметризуем его информационную структуру - распределение вероятности выбора пробного шага, включением в неё настраиваемого параметра в виде п-мерного вектора т = (т1,..., тп), определённого в пространстве параметров системы. Этот вектор задаёт осевое, в некотором смысле, среднее направление конуса с вершиной в х,, который содержит всевозможные направления для пробных шагов в текущей точке поиска. Кроме того, вектор т определяет направление рабочего шага поиска. Это значит, что задаётся многомерное распределение рх (е, т) и Ах = Ах (рх (е, т)).

Рассматриваемое обучение в условиях статистической неопределённости является адаптацией поисковой процедуры и представляет собой численную аппроксимацию закона распределения выбираемого направления в каждой точке траектории поиска. Таким образом, определены верхние уровни адаптации поисковой процедуры [8]. Предложенный подход позволит определить допустимое множество значений случайных векторов {е} и правило их выбора. Следовательно, адаптация процедуры случайного поиска связана с пошаговым обучением решающей вектор-функции Я (х, е), направление которой также определяется вектором т, получаемым по данным пробного анализа. Кроме того, на базе получаемой в ходе обучения информации, появляется возможность формирования оператора А на уровне настройки рабочего шага поиска, идеология которого должна отвечать как требованиям стратегии отыскания зоны глобального минимума так и локальной стратегии получения эффективной оценки его местоположения.

Из предыдущего значения х, в (1) с помощью

поправки Яг+1 (х, е) формируется новая оценка х,+1, являющаяся итеративным приближением, текущей

^ _______________________________________*

оценкой оптимального вектора параметров х , такого что х* = шт Q(х). Получаемые в процессе поиска оценки будем рассматривать как точки траектории поиска в пространстве варьируемых параметров.

ПРОБНЫЙ АНАЛИЗ

Направление (/' + 1)-го шага процедуры адаптивного случайного поиска (АСП) определяется по результатам q случайных пробных шагов

^- = gё'/ (] = 1, q ) постоянной величины g,

выполненных в текущей точке х, . С этой целью на

векторах определяются значения функции

I J ,=1

й+1 = Q (х + gё11+l) У/',

цели

(2)

где е' - различные реализации случайного вектора е, выполненные в соответствии с распределением рх (е, т), а число q связано с конкретной разновидностью пробного анализа, выбираемой в зависимости от уровня шума и сложности рельефа функции Q. Подход к выбору q идейно близок к определению величины окна усреднения в алгоритме скользящего среднего.

В работах [9, 10] предложены методики, которые позволяют получить аналитические оценки эмпирической функции плотности. Так в [9]

проведено оценивание выборочной функции

распределения для временных участков

стационарности нестационарных процессов на основе уравнения Фоккера-Планка-Колмогорова, а в [10] использование прямого и обратного уравнений Колмогорова для дуальной пары задач поиска и адаптации позволяет аппроксимировать функцию плотности вероятности адаптивной процедуры

поиска. Результаты этих работ удобно применять для выявления свойств и возможностей рекуррентных алгоритмов. В данной работе предлагается численная аппроксимация плотности в виде направляющего конуса, основанная на логике работы самого алгоритма. С вычислительной точки зрения конус направлений необходим для поддержания наилучшего, по опыту предыдущих шагов, направления поиска.

ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЯ-КОНУСА

Поскольку получение и использование закона распределения в аналитической форме на практике довольно затруднительно, то на практике и в вычислительном эксперименте его удобно аппроксимировать численной моделью, как в данном случае - направляющим конусом пробного анализа случайного поиска с наглядными и легко реализуемыми числовыми характеристиками. Распределение рх (е, т) по способу формирования, что следует из сказанного ранее, связано с конусом, внутри которого генерируются направления пробных векторов.

В условиях задачи параметрической идентификации, сформулированной в данном случае, для однозначного применения результатов численной аппроксимации искомого распределения достаточно получения оценок его первых двух моментов. Эта возможность естественным образом используется и в его численно-геометрической аппроксимации в виде направляющего конуса. В этом случае оценка первого начального момента, определяемая как наиболее вероятное значение элемента распределения - среднего вектора е+ для

набора пробных векторов {е/ ^ , определяется по

I -)г=1

правилу моды, в данном случае - по наилучшей пробе или по правилу статистического градиента. Второй момент распределения оценивается величиной рассеяния относительно этого направления, т.е. оценку среднеквадратического

отклонения определяет величина вершинного угла конуса. Вместе с тем, существует возможность получения численной аппроксимации плотности распределения векторов пробного анализа px (e) = px (e, Д, s2) в форме значений этой функции на множестве пробных векторов.

Сама генерация пробных случайных векторов Є осуществляется на основе базовой случайной величины с законом распределения, отвечающим условиям задачи. В любом случае на начальных шагах поиска и при резкой смене его направления, что обычно происходит при переходе через критические и характеристические точки поверхности целевой функции, рекомендуется начинать с генерации случайных значений, отвечающих равномерному распределению.

В данной модификации алгоритма направление решающей функции поиска определяется на каждом шаге i вектором m, представляющим скорректированную модальную оценку направления поиска, которое зависит от предыстории процесса поиска и является наилучшим по эффективности относительно направлений на предыдущих шагах.

Вектор mi+1 в момент времени i определяется по результатам текущего пробного анализа, представленного модальным вектором g + = ge +, и

с учётом mi_p,..., mi_1 є Mp -значений вектора m

на предыдущих шагах, где p - глубина адаптивной памяти случайного поиска (p < n). В этом случае проводится адаптация закона распределения проб px (e, m), поскольку вектор m используется как осевой вектор направляющего конуса на следующем шаге при проведении пробного анализа.

Раствор и, соответственно, вершинный угол конуса формируются подстройкой границ конуса с помощью определения min и max углов направляющих косинусов векторов памяти Mt p. В результате адаптируемая плотность px (e, m) в общем случае получается не симметрической.

Рис. 1. Траектория АСП с направляющим конусом Алгоритм адаптивного случайного поиска (АСП) сформирован на основе использования двух стратегий поиска: локальной, все процедуры

которой направлены на отыскание зоны оптимума и

получение оценки аргумента минимума функции цели, и глобальной, пробный анализ которой позволяет преодолеть характеристическую точку функции Q(х), определяющую «перевал», за которым отсутствует влияние покидаемого локального минимума.

На Рис. 1 схематично продемонстрировано перемещение точки поиска по траектории в пространстве параметров по ходу выполнения стратегии отыскания местоположения локального оптимума. На рисунке представлена плоская проекция траектории, в которой не отражено более сложное пространственное перемещение точки, но подчёркнута важная деталь - направление поиска совпадает с антиградиентным направлением в данной точке поверхности функции цели. Тем не менее, и в условиях глобальной части поиска при оптимально подобранной величине рабочего шага вполне реально столкнуться с аналогичной траекторией. В этом случае на роль вектора-градиента целевой функции можно взять градиент огибающей склона функции.

РАСЧЁТ ОСЕВОГО НАПРАВЛЕНИЯ КОНУСА Поскольку реальная система работает в обстановке помех, то необходимо принимать меры по снижению влияния искажающего шума на оценку решающей функции поиска. С этой целью в пошаговую стратегию поиска добавляется определённый консерватизм в выборе направляющего вектора. Для этого в процессе адаптации процедуры учитывается осреднённое направление пробного шага и информация адаптивной памяти, а количество q пробных шагов связывается не только с неопределённостью положения оптимума, но в большей степени с уровнем искажающего шума. Однако такая стратегия приемлема для поиска локального экстремума, поскольку своей инерционностью она усиливает регулярные свойства поиска, снижая его глобальные возможности.

Вектор т+ формируется как

средневзвешенная сумма вектора g+ и векторов памяти р:

- при высоком уровне помех

т, = г |^+ + X(1 - г) т,~* ^ 5 = 1 р (3)

- при невысокой интенсивности шума

тг = (1 - г) т- + г^+ (4)

Использовать высокую инерционность (3) имеет смысл лишь при поиске в зоне локального экстремума, когда надо стабилизировать движение поиска в направлении оптимума, особенно при достаточно сильной шероховатости склона экстремума. Способ осреднения (4) закономерно применять в глобальной стратегии или, когда траектория АСП представляет собой достаточно гладкую кривую. Если уровень помех низкий и склон гладкий, то можно положить г = 1.

Адаптивная память случайного поиска М,■р

формируется из векторов {т_к =1,

представлявших направления предыдущих рабочих шагов поиска. Определение качества векторов памяти процедуры осуществляется проверкой условия

Q (тг - к) £ Q (тг - 5) к, 5 = 1 р +1 . (5)

Если неравенство (5) справедливо хотя бы в одном случае, то т,-к сохраняется в адаптивной памяти процедуры. В противном случае для сохранения величины объёма памяти вектор исключается из неё. Одновременно из векторов М1р формируется массив точек траектории поиска {Т,}.

По массиву точек {Т,} пространства варьируемых переменных можно восстановить траектории поиска, и вернуться в нужную точку оценок параметров при необходимости начать новую ветвь поиска.

Для различения необходимости применения локального и глобального способа поиска на каждом шаге с помощью проверки неравенства

Q (8++1) £ Q (т,-5) 5 = 0 р (6)

исследуются всевозможные ситуации, возникающие в процессе поиска.

АДАПТАЦИЯ ПОИСКА

В схеме пробного анализа эмпирически выявлены ситуации, которые определяют правила проведения анализа.

1) Если неравенство (6) для ^1 выполняется хотя бы в 75% случаев (вероятность 0.75), то используемая стратегия АСП продолжает выполняться.

2) Если же вероятность улучшения получаемых оценок соответствует интервалу (0.75, 0.5), то раствор вершинного угла направляющего конуса увеличивается в 1.2 раза для улучшения свойств поиска в условиях повышенной зашумлённости измерений и шероховатости склона данного экстремума функции цели. В этом случае пробный анализ проводится в направляющем конусе с неизменной величиной пробного шага, но их количество возрастает.

3) Невыполнение условия (6) более чем в половине вариантов сравнения означает необходимость смены локальной (чаще всего) стратегии поиска на глобальную.

В этом случае находится путь через «перевал», характеристическую точку целевой функции, для выхода из зоны притяжения локального экстремума увеличением величин g пробных шагов. Величина g пробного шага поиска определяется в зависимости от характера склона экстремума и рельефа функционала Q при работе в зоне локального экстремума, или от уровня «перевала», если возникает необходимость покинуть зону локального экстремума.

Изменение |^/ || осуществляется умножением пробных векторов |я/| на случайную величину

I -)г=1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

из диапазона [1.5, 3.0] в направляющем конусе с углом, увеличенным в 1.5 раза.

ОПРЕДЕЛЕНИЕ КАЧЕСТВА ПОИСКА Если результаты пробного анализа не позволяют выбрать наилучшее направление поиска в связи с незначительными изменениями функции цели, то проверяется предположение об экстремальности найденной точки. Создавшаяся ситуация отвечает условию пустоты множества пересечений конусов направлений в данной точке.

При отсутствии сведений об оптимальности данной точки применяется стратегия глобального поиска, позволяющая покинуть зону притяжения данного экстремума. В этом случае либо определяется начало новой ветви поиска - делается возврат в точку траектории, из которой началось смещение в зону локального минимума, либо из текущей точки проводится пробный анализ и осуществляется движение с величинами шагов достаточными для преодоления «перевала» экстремума и продолжения поиска оптимальной точки. Для этого при выборе величин пробного и рабочего шагов может применяться техника «больших шаров».

Проверкой факта вхождения в зону экстремума может служить условие локального улучшения в форме Коши

(Щ, т_1 )<£кпг.

Оценкой удовлетворительной работы поиска является как сама величина Q так и мера убывания Q, определяемая с помощью к - вектора коэффициентов качества поиска:

)

Ki = min

k = 1, p .

ВЫБОР ВЕЛИЧИН РАБОЧЕГО и ПРОБНОГО ШАГОВ

Величины шагов АСП в окрестности оптимума определяется процедурой стохастической аппроксимации, а поскольку оценка направления на минимум определяется с помощью проб, то принимаются условия Кифера-Вольфовица [11], которые удобно записать покомпонентно в пространстве Е для величин шагов в виде соотношений, определяющих требования достижения любой точки пространства и сходимости процедуры:

¥ ¥ / Л 2

а,,8, >0 Xа, = ¥ XI ~

,=1 ,=1 V 8

В практических расчётах значения а, и 8, с учётом исполнения требования сходимости процедуры выбирают из последовательностей

при очевидных ограничениях

ае (0.5,1], (3> 0, (a-b) > 1, вытекающих из условий Роббинса и Монро [4].

При движении к оптимуму в зоне его притяжения, но вдали от его окрестности, используются пассивные шаги (по типу наискорейшего спуска).

При выходе из зоны локального экстремума величина рабочего шага поиска выбирается из условий

ГРАФИЧЕСКАЯ ИНТЕРПРЕТАЦИЯ ПОВЕРХНОСТИ Q

Качественное выполнение научных исследований требует чёткого понимания, как методики, так и самого процесса изучения проблемы. Экспериментальные компьютерные исследования, проводимые в форме вычислительного эксперимента, в большинстве случаев используют многошаговые методы, а это приводит к необходимости получения информации на каждом шаге процедуры. Применяемые с этой целью графические способы интерпретации поверхности целевой функции должны обеспечивать пусть не полное, но в большинстве случаев достаточно обоснованное представление о ходе вычислительного эксперимента.

В ходе вычислительного эксперимента использовался 3Б-интерпретатор [12], с помощью которого строится графическое представление поверхности функции Q, на основе данных, полученных в процессе поиска.

ТЕСТОВЫЕ ФУНКЦИИ

Поскольку теоретическое исследование сходимости таких процедур весьма затруднительно, то выводы делаются на основе проведения экспериментальных исследований свойств

поисковых процедур на соответствующих тестовых функциях.

Следует учитывать, что глобальные стратегии алгоритмов поисковой оптимизации, ориентированы на поиск оптимума у глобально унимодальных функций (функций, огибающие которых

унимодальны), имеющих на своих склонах локальные экстремумы.

Для оценки сходимости процедуры в «овражных» условиях алгоритм АСП, как традиционно сложилось для алгоритмов случайного поиска, исследовался на функции Розенброка (Rosenbrock's saddle) со сложным параболическим оврагом

n I \

TF2 (x) = X (100(x+1 - x2) + (Xi -1)2) i=1

и на глобально унимодальной функции Растригина (Rastrigin's function)

TF

n

(x) = z (

xi - k cos18xi

i=1

Поскольку у функции ТЕ3 имеется несколько глобальных минимумов равного уровня (при п = 2

их пять), симметрично расположенных в районе начала координат, для поверки поведения АСП в сложной окрестности глобального минимума исследования проводились и на глобально

унимодальной функции TF7 (Caterina's function) [12] с единственным глобальным минимумом

n 2

TF7 (X) = X ( X + sin (kxj + sin (kxj + sin (kxj + sin kxt)))) i=1

аналитическая запись которой позволяет варьировать сложностью склонов функции.

к = 5.

Рис. 2. График функции Т¥7

ВЫЧИСЛИТЕЛЬНЫЙ ЭКСПЕРИМЕНТ ПО ОПРЕДЕЛЕНИЮ УСЛОВИЙ СХОДИМОСТИ ПОИСКА

Экспериментальные исследования

подтвердили работоспособность алгоритма, его эффективность в условиях отыскания оптимума глобально унимодальной функции и функции с овражным рельефом дна, что значительно усложняет поиск экстремума, находящегося на «дне оврага», поскольку регулярные локальные технологии здесь теряют свою эффективность, а глобальные - выводят точку поиска из зоны экстремума.

Во всех тестовых опытах область исследований О эффективности процедуры отыскания окрестности оптимума определялась по условию | х,| < 1 общему для всех трёх тестовых функций. Вместе с тем оценивались и особенности движения по склону функции до вхождения в область О. Из начальных точек, удалённых от начала координат на расстояние р е [3, 5], средняя оценка скорости вхождения в область О колебалась от 18 до 40 шагов в зависимости от вида тестовой функции.

В таблице указаны средние показатели начального формирования направляющего конуса

Тестовая функция TF2 TF3 tf7

Число шагов 5 12 12

В эти данные включено и число шагов выбора устойчивого направления, которое в случае TF2 сравнивалось с антиградиентным, для других функций эта дифференциальная оценка представлялась излишне сложной.

Движение по дну оврага, осуществляемое по локальным стратегиям, на участках с мало изменяющимся направлением (TF2 и TF3), где использовались пассивные шаги, дополнялось

линейным пересчётом, что значительно (в зависимости от длины участка) увеличивало скорость поиска. Количество шагов в сравнении с прохождением участка параболического поворота равной длины составляло от 1/3 до 1/5 в

зависимости от инерционности овражной стратегии поиска на данном участке.

В зависимости от рельефа склонов функции цели, при варьировании параметра k, меняется число шагов необходимых для вхождения в область Q, содержащую местоположение глобального

экстремума, как оптимальной точки задачи. Особенно это заметно на TF7: при k = 3 число шагов равно 35, при k = 5 число шагов равно 51. Для сохранения возможности сравнения результатов отдельных опытов (чистота эксперимента), по возможности выдерживались однотипные условия проведения опытов. Так размерность задач, в которых не исследовались особенности поиска в зависимости от размерности пространства выбиралась одинаковой, которая при

необходимости указывалась в выходных формах.

К основным параметрам поиска, настройкой которых проводится адаптация процедуры АСП под характеристики задачи и текущие условия задачи, относятся: величина рабочего шага, число пробных шагов, величина вершинного угла конуса направлений и процедура выбора осевого

направления.

Литература

1. Растригин Л. А. Статистические методы поиска. М.: Наука, 1968. 376 с.

2. Растригин Л.А. Системы экстремального управления. М.: Наука, 1974. 632 с.

3. Каладзе В. А. Оценка неопределённости в

алгоритмах адаптации. Воронеж: труды 8-й Межд. нар. науч. конф. Информатика: проблемы, методология,

технологии, т. 1. ВГУ, 2008. С. 242-246.

4. Поляк Б.Т., Цыпкин Я.З. Условия сходимости алгоритмов стохастической аппроксимации. // Автоматика и телемеханика. - 1973. № 3. С. 35-47.

5. Красносельский М.А., Рутицкий Я.Б. Выпуклые функции и пространства Орлича. Гос. издат. физ.-мат. лит., Москва, 1958, 271с.

6. P.-J. Laurent. Approximation et optimization. Paris, Hermann, 1972. 496 p. (рус. перевод: П.-Ж. Лоран. Аппроксимация и оптимизация. М.: Мир, 1975. 496 с.)

7. Brosowski B. Nichtlineare Approximation in normierten Vektorraumen, Tagung, Oberwolfach, Juli 1968. S. 24-28.

8. Каладзе В.А. Многоуровневые адаптивные алгоритмы случайного поиска. Кандидатская диссертация. Рига, 1974. 133 с.

9. Орлов Ю.Н., Осминин К.П. Кинетические уравнения для прогнозирования нестационарных временных рядов. М.: Препринт ИПМ им. М.В. Келдыша, РАН, 2008.

10. Каладзе В.А. Исследование потенциальных характеристик случайного поиска как механизмов адаптации. // Системы управления и информационные технологии. Москва-Воронеж. - 2008. № 2 (32). С. 28-32.

11. Kiefer J., Wolfowitz J. Stochastic Estimation of the Maximum of a Regression. “AMS”, v.23, 1952. P 18-24.

12. Ганцева Е.А., Каладзе В.А., Тюкачёв Н.А. Тестовые функции случайного поиска. Воронеж: труды первой Всеросс. конф. Критические технологии вычислительных и информационных систем, МИКТ, 2011. С.108-120.

Международный институт компьютерных технологий (г. Воронеж)

ADAPTATION OF CASUAL SEARCH BY THE METHOD OF THE DIRECTING CONE V.A. Kaladze

The adaptive algorithms of casual search intended for adjustment of parametres of a filtration dynamic predictive model are developed. Adaptation of procedure of search has taken place at level of strategy of the trial analysis, its parametres and working strategy of search algorithm. The generated search strategy allow to find an optimum in local and global conditions. Efficiency of the developed search procedures was checked on test functions, including specially developed. Results of the computing experiment which was passing in the specialised subject-oriented program environment are analysed

Key words: casual search, the adaptation, a directing cone

i Надоели баннеры? Вы всегда можете отключить рекламу.