Научная статья на тему 'Параметрическая оптимизация систем. Методы решения экстремальных задач'

Параметрическая оптимизация систем. Методы решения экстремальных задач Текст научной статьи по специальности «Математика»

CC BY
1192
98
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Хнаев Олег Анатольевич, Пчелинцев Илья Алексеевич

Приводятся необходимые сведения для поиска минимума функций одной и нескольких переменных, имеющие существенный интерес при решении экстремальных задач. Рассматриваются общая схема поиска минимума функции нескольких переменных методом спуска, метод покоординатного спуска Гаусса–Зейделя и градиентные методы.I

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

n this article it is given necessary information for search of a minimum of functions of one and several variables which are of interest at a solution the extreme of problems. There is considered a method of a co-ordinate descent of Gauss-Zejdelja and gradient methods, the general scheme of search of a minimum of function of several variables by a descent method.

Текст научной работы на тему «Параметрическая оптимизация систем. Методы решения экстремальных задач»

Таким образом, можно выделить отличительные особенности каждой из рассмотренных диаграмм:

- как на диаграмме вариантов использования, так и на DFD есть понятие внешней сущности;

- в обеих диаграммах не следует изображать внешние сущности, не взаимодействующие непосредственно с системой;

- обе диаграммы ориентированы на отображение взаимодействия внешних сущностей с системой;

- на DFD нельзя изобразить обобщение внешних сущностей через другие, что возможно на диаграмме вариантов использования.

Список литературы

1. Арлоу, Д. UML 2 и Унифицированный процесс. Практический объектно-ориентированный анализ и проектирование : пер. с англ. / Д. Арлоу, И. Нейштадт. -2-е изд. - СПб. : Символ-Плюс, 2007. - 624 с.

2. Калашян, А. Н. Структурные модели бизнеса: DFD-технологии / А. Н. Калашян, Г. Н. Калянов. - М. : Финансы и статистика, 2003. - 256 с. - (Прикладные информационные технологии).

УДК 519.6

ПАРАМЕТРИЧЕСКАЯ ОПТИМИЗАЦИЯ СИСТЕМ. МЕТОДЫ РЕШЕНИЯ ЭКСТРЕМАЛЬНЫХ ЗАДАЧ

О. А. Хнаев, И. А. Пчелинцев

Приводятся необходимые сведения для поиска минимума функций одной и нескольких переменных, имеющие существенный интерес при решении экстремальных задач. Рассматриваются общая схема поиска минимума функции нескольких переменных методом спуска, метод покоординатного спуска Гаусса-Зейделя и градиентные методы.

In this article it is given necessary information for search of a minimum of functions of one and several variables which are of interest at a solution the extreme ofproblems. There is considered a method of a co-ordinate descent of Gauss-Zejdelja and gradient methods, the general scheme of search of a minimum offunction of several variables by a descent method.

Задача однокритериальной оптимизации определяется как задача нахождения экстремумов функции на множествах конечномерного векторного пространства, определяемых линейными и нелинейными ограничениями (равенствами и неравенствами). Первые оптимизационные задачи относятся к сфере экономики; от англ. «programming» - планирование, составление планов или программ. Результатом ее решения являются наилучшие, в некотором смысле, структура и значения параметров системы. Определение оптимальных значений параметров системы при заданной ее структуре называется параметрической оптимизацией; выбор оптимальной структуры системы -структурной оптимизацией.

Каждую задачу о максимизации можно заменить эквивалентной ей задачей минимизации: следует лишь, сохранив неизменными ограничения, изменить знак всех коэффициентов функции цели. Так что задачу оптимизации можно сформулировать следующим образом: среди элементов x, образующих множество X, найти x*, что f (x*) = min f (x). Корректная постановка

задачи оптимизации предполагает задание:

- допустимого множества X =|x | qj (x) < 0, j = 1, mj с Rn ;

- целевой функции, т.е. отображения f: X ^ R ;

- критерия поиска f (x) ^ min .

v ' xeX

Укажем следующие возможные случаи задачи оптимизации, имеющие наибольшее практическое значение:

- найти x* е X : f (x*) = min f (x);

xeX

- если Elx*, то найти inf f (x).

xeX v '

Если минимизируемая функция не является выпуклой, то часто ограничиваются поиском локальных минимумов (в некоторой окрестности x0 имеет место: f (x )> f (x0)) или максимумов (f (x )< f (x0)).

Если допустимое множество X = Rn , то задача сведется к безусловной оптимизации; в противном случае - задаче условной оптимизации [1].

В случае унимодальной целевой функции экстремум единствен: он же будет и глобальным. Если целевая функция многоэкстремальна, то основная задача при глобальном поиске связана с выявлением тенденций ее глобального поведения.

Среди существующих методов поиска выделяются детерминированные, случайные (стохастические) и комбинированные. По размерности допустимого множества выделяются методы одномерной и многомерной оптимизации.

Если целевая функция f (x) и ограничения qj (x), j = 1, m являются

линейными функциями, то оптимизационная задача - задача линейного программирования (термин введен в 1949 г. Дж. Данцигом при изучении теоретических и алгоритмических задач, связанных с оптимизацией линейных функций при линейных ограничениях); если целевая функция или ограничения являются нелинейными - задача нелинейного программирования.

Если f (x) и qj (x), j = 1, m, - выпуклые функции, то полученную задачу называют задачей выпуклого программирования; если X с Z - задачей целочисленного (дискретного) программирования.

Если при решении оптимизационной задачи требуются вычисления целевой функции лишь в точках приближений, то такие методы решения называются прямыми; если требуются вычисления и первых частных производных функций, то - методами первого порядка; в методах второго порядка требуются вычисления и вторых частных производных (определение гессиана целевой функции). Среди аналитических методов решения оптимизацион-

ных задач особую роль играют метод множителей Лагранжа и условия Куна-Таккера (необходимые и достаточные условия оптимальности для решения задач нелинейного программирования); используются также графические и численные методы. Особое место среди методов решения оптимизационных задач занимают динамическое и стохастическое программирование. Выбор метода решения задач, естественно, определяется классом задачи [2].

Рассмотрим задачу определения минимума функции двух переменных:

f (xmin, x е R2 .

Здесь точка x = (xb х2) лежит на плоскости xxOx2. Введем третью координату x3 так, чтобы ось координат 0x3 была перпендикулярна к плоскости xj0x2 (рис. 1). Уравнению x3 = f (x1,x2) соответствует поверхность в трехмерном пространстве. В некоторой окрестности точки x * локального минимума f (x) поверхность x3 = f (x1,x2) имеет форму чаши (рис. 1).

x *(х *J, X *2 )

Рис. 1

Если функция f (x) в R2 имеет единственную точку локального экстремума x *(x*1,x*2) (она называется мономодальной), то ее линии уровня f (x1, x2) = C = const располагаются так, как это показано на рис. 2.

Нередко функции являются мультимодальными, имеющими ряд изолированных точек минимума.

Поиск точек x * локального минимума функции f (x) в соответствии с предыдущим сводится к определению последовательности точек (приближений к решению) j x(k) 1 (k = 0,1,...), сходящейся к точке x * .

/ (*1> х2 )= С3

(С < С2 < Сз )

Рис. 2

Последовательность значений функции / (х(к)) должна быть монотонно убывающей и ограниченной снизу:

/ (х(0))> / (х(1))> ••• > / (х(к ))> ••• > / (х *).

В случае двух переменных поиск минимума напоминает спуск на дно чаши (отсюда - «методы спуска»). Во всех методах поиска экстремума сначала выбирается начальная точка последовательности х(0). Дальнейшие приближения х(к) определяются соотношениями

х(к+1)= х(к)+t(к^(к) (к = 0,1,2,...),

¡(к)

(1)

где - вектор направления спуска; скалярная величина t(к) является решением задачи одномерной минимизации

/(хк) + tS(k)

>шт, t е Я.

(2)

Таким образом, задача поиска минимума функции нескольких переменных сводится к последовательности задач одномерной минимизации (2) по переменной t на отрезках п-мерного пространства, проходяших через точки

х(к) в направлении векторов ¡(к).

Методы спуска различаются выбором вектора спуска и способом решения задачи одномерной минимизации.

При решении последовательности задач (1) можно ограничиться методом сканирования для поиска минимума функции одной переменной. Выбрав

(0)

произвольно начальную точку х и размер начального шага по переменной t, в методе сканирования можно получить различные точки минимума муль-тимодальной функции.

X

2

X

Если функция / (х) мономодальна, то независимо от выбора начальной точки траектория поиска должна привести к единственной точке локального минимума этой функции [3].

Метод покоординатного спуска Гаусса-Зейделя. Здесь произвольно выбирается начальная точка х(0) из области определения функции /(х).

Приближения х(к) определяются соотношениями (1), где ) - единичный вектор, совпадающий с каким-либо координатным направлением (например,

если ) параллелен х1, то ) ={1,0,0,...0}, если он параллелен х2,

то ) = {0, 1, 0, ..., 0} и т.д.); величина t(к) является решением задачи одномерной минимизации (2) и может определяться методом сканирования.

В частности, для функции двух переменных, исходя из начальной точки х(0) = (х|0),х20)), находят точку X(0) = (х|0),Х20)) минимума функции одной переменной /(х1,х20)); /(х(0))< /(х(0)). Затем находят точку минимума х(1) функции / (.Х:(0), х2) по второй координате. Принимая исходной точкой х(1) (при фиксированной ее второй координате), находится точка минимума X(1)=( Х1(1), Х(1)) функции / (х1, х2:)) одной переменной х1;

/(х(1))< /(х(1))< /(х(0)). Точку х(2) получим, минимизируя целевую

функцию /(Х^, х2) по координате х2, фиксируя координату Хс1(1) точки х(1), и т.д. (рис. 3).

(С1 < С2 < С3)

С3

Рис. 3

х

2

Х

Условием прекращения вычислительной процедуры при заданной точности е является

х(к+1)_ х(к)

<е .

(3)

Градиентные методы. Здесь исходя из начальной точки х(0) строится последовательность приближений х(к+1) = х(к) + t(к^(к) (к = 0,1,2,...), где ) -единичный вектор, сонаправленный с направлением вектора-градиента функции / (х) в точке х(к):

(к) = V/ П

=

(V/ (

(к)

^ (к+1)

Точку х ' определяют из решения задачи одномерной минимизации

функции /(х(к) + tS(k)) по переменной t в направлении вектора 8(к):

/ (хк+1 ) = /(

(к )+ (к )S(k )\ =

= / ( + ^

ип / (

еД \

(к) + ts(k)

= шт / (х4"' + tS^

tЕR

(4)

Задача (4) численно решается методом сканирования. Вычислительная процедура осуществляется до выполнения неравенства (3).

Такой метод поиска локального максимума функции / (х) называется

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

методом крутого восхождения или при движении в антиградиентном направлении (поиск минимума) - методом наискорейшего спуска.

О (к) (к+1)

В двумерном случае отрезок ломаной, соединяющий точки х и х (к = 0, 1, ...), параллелен вектору-градиенту функции /(х) в точке х(к), перпендикулярному к линии уровня функции / (х1, х2) = С , проходящей через точку х(к) (рис. 4).

( < С2 < Сз )

X

2

X

Рис. 4

Приведенные методы с большой эффективностью использовались при выполнении научно-исследовательских работ в соответствии с тематическим планом вуза.

Список литературы

1. Данилов, А. М. Сложные системы: идентификация, синтез, управление / А. М. Данилов, И. А. Гарькина. - Пенза : ПГУАС, 2011. - 308 с.

2. Демидович, Б. П. Основы вычислительной математики / Б. П. Демидович, И. А. Марон ; под ред. Б. П. Демидовича. - М. : Гос. изд-во физ.-мат. лит., 1960. -659 с.

3. Гарькина, И. А. Аналитические и численные методы решения уравнения и систем / И. А. Гарькина, А. М. Данилов, Н. С. Султанова ; под ред. д-ра техн. наук, проф. А. М. Данилова. - Пенза : ПГАСА, 2001. - 73 с.

УДК 004.942

ФРАКТАЛЬНЫЙ АНАЛИЗ МНОГОКАНАЛЬНЫХ БИОМЕДИЦИНСКИХ СИГНАЛОВ

А. А. Черепков, А. В. Кузьмин

Данная работа посвящена изучению многоканальных сигналов на предмет их фрактальной природы. Была выявлена зависимость результатов анализа от состояния здоровья человека. Также была разработана программа, способная самостоятельно анализировать сигналы различного происхождения для определения их фрактальной размерности.

The scientific work is devoted to studying of multichannel signals and their fraktal nature. Dependence of results of the analysis on a state of health of the person was revealed. Also the program capable independently to analyze signals of a various origin for determination of their fraktal dimension was developed.

Термин фрактал (от лат. «fractus» - дробный) был предложен Бенуа Мандельбротом в 1975 г. для обозначения нерегулярных «структур, состоящих из частей, которые в каком-то смысле подобны целому» [1, с. 5]. Многие объекты в природе обладают фрактальными свойствами, например, побережья, облака, деревья, кровеносная система и система альвеол человека.

Однако самоподобие - это хотя и необходимое, но далеко не достаточное свойство фракталов. Главная особенность фракталов заключается в том, что их размерность не укладывается в привычные геометрические представления. Фракталам характерна геометрическая «изрезанность». Поэтому используется специальное понятие фрактальной размерности, введенное Ф. Хаус-дорфом [2].

Фракталы имеют различное представление, они могут быть плоским изображением, трехмерной моделью [3], числовой последовательностью, сигналом [4]. Столь необычная природа фракталов заинтересовала не одно поколение ученых. Было решено изучить способы анализа сигналов на предмет их фрактальной размерности.

i Надоели баннеры? Вы всегда можете отключить рекламу.