Научная статья на тему 'Анализ оптимизационных методов и критериев оптимальности, использующихся в оптимизационных моделях при оценке и выборе параметров технологических схем угольных шахт'

Анализ оптимизационных методов и критериев оптимальности, использующихся в оптимизационных моделях при оценке и выборе параметров технологических схем угольных шахт Текст научной статьи по специальности «Математика»

CC BY
136
17
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
КРИТЕРИЙ ОПТИМАЛЬНОСТИ / ОПТИМИЗАЦИЯ / ПАРАМЕТРЫ / УГОЛЬНЫЕ ШАХТЫ

Аннотация научной статьи по математике, автор научной работы — Агейкин А.В., Агафонова Алла Борисовна, Аверчева Н.А., Агафонов В.В.

Рассмотрены основные оптимизационные методы и критерии оптимальности, которые на современном этапе развития оптимизационных моделей используются при оптимизации параметров угольных шахт

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Анализ оптимизационных методов и критериев оптимальности, использующихся в оптимизационных моделях при оценке и выборе параметров технологических схем угольных шахт»

© A.B. Агейкин, А.Б. Агафонова,

H.A. Аверчева, B.B. Агафонов, 2012

УДК 622.013

А.В. Агейкин, А.Б. Агафонова, H.A. Аверчева, В.В. Агафонов

АНАЛИЗ ОПТИМИЗАЦИОННЫХ МЕТОДОВ И КРИТЕРИЕВ ОПТИМАЛЬНОСТИ, ИСПОЛЬЗУЮЩИХСЯ В ОПТИМИЗАЦИОННЫХ МОДЕЛЯХ ПРИ ОЦЕНКЕ И ВЫБОРЕ ПАРАМЕТРОВ ТЕХНОЛОГИЧЕСКИХ СХЕМ УГОЛЬНЫХ ШАХТ

Рассмотрены основные оптимизационные методы и критерии оптимальности, которые на современном этапе развития оптимизационных моделей используются при оптимизации параметров угольных шахт.

Ключевые слова: критерий оптимальности, оптимизация, параметры, угольные шахты.

Анализ методов, использующихся в том или ином прикладном аспекте при оптимизации параметров шахт в настоящее время показал, что их условно можно разделить на следующие основные группы:

1. Методы линейного программирования с моделями общей задачи линейного программирования, линейного программирования в условиях определенности (детерминированная постановка), параметрического линейного программирования, дробно-линейного программирования, целочисленного линейного программирования.

В настоящее время существуют две основные группы методов решения задач линейного программирования:

• симплексный метод и его модификации;

• метод внутренней точки и его модификации

2. Методы безусловной оптимизации (минимизации) — методы нелинейного программирования. Методы решения задач безусловной минимизации (оптимизации) большинство авторов делят на три группы:

• первая группа — методы нулевого порядка решения задач безусловной

минимизации. К ним относятся такие методы, в которых вычисляются и используются только значения минимизируемой функции:

• метод конфигурации (Хука-Дживса);

• метод деформируемого многогранника (Нелдера — Мида)

• метод Розенброка;

• метод Пауэлла;

• адаптивный метод случайного поиска;

• метод сопряженных направлений;

• методы одномерной оптимизации;

вторая группа — методы первого

порядка (градиентные методы) решения задач безусловной минимизации. К ним относятся методы, в которых вычисляются первые частные производные минимизируемой функции;

• метод градиентного спуска с постоянным шагом;

• метод наискорейшего градиентного спуска;

• метод Флетчера — Ривса (метод сопряженных градиентов);

• методы переменной метрики (метод Дэвидона — Флетчера — Пауэлла (ДФП), метод Бройдена — Флетчера — Шэнно и др.);

• метод Гаусса — Зейделя и другие;

• метод покоординатного спуска,

третья группа — методы второго порядка решения задач безусловной минимизации. К ним относятся такие методы, в которых вычисляются вторые частные производные минимизируемой функции;

• метод Ньютона;

• метод Ньютона — Рафсона;

• метод Ёевенберга — Марквардта.

3. Методы одномерной оптимизации включают:

• метод дихотомии;

• метод золотого сечения;

• метод Фибоначчи;

• метод равномерного поиска и их модификации

4. Методы нелинейного программирования с моделями условной оптимизации (сепарабельное программирование, геометрическое программирование).

5. Методы динамического программирования.

Методы линейного программирования

В краткой форме с помощью знаков суммирования модель линейного программирования может быть сформулирована следующим образом:

Определить оптимальные значения переменных х1,..., хп, максимизирующие целевую функцию

п

2 = Е СХи .

7=1

при выполнении системы линейных ограничений неравенств

< Ь,;

< 7=1

1 = 1, т; Х} > 0; 7 = 1, п.

Модели параметрического линейного программирования

На практике значения коэффициентов и свободных членов задачи линейного программирования реально изменяются в некоторых пределах (интервалах). Найдя оптимальный проект некоторой экономической задачи при фиксированных значениях С1, ау, Ь,, по-

лученных из опыта, необходимо каким-либо способом определить, в каких допустимых пределах можно их изменить, чтобы проект оставался оптимальным. Это и составляет предмет параметрического линейного программирования.

Алгоритмическая структура общей схемы достаточно трудоемка. Но в некоторых частных случаях, нередко встречающихся в практике проектирования горнотехнических систем, вычислительная процедура существенно упрощается и вычисление оптимальных решений для всего диапазона изменений параметра X лишь немного сложнее решения задачи при фиксировании X.

Модели дробно-линейного программирования

В общем виде математическая постановка задачи дробно-линейного программирования заключается в том, чтобы максимизировать целевую функцию 7:

тах 2 = ^———

7=1

при ограничениях:

> Ьи ( = );

I '=1

Х' > 0; ' = 1,П.

где с, ¿', Ь, ау — известные постоянные коэффициенты, причем Х > 0.

=1

Целочисленное линейное программирование

Целочисленность и дискретность возникают из-за физической неделимости объектов. Если, например, в задаче рассматривается планирование производства неделимых видов, количество панелей, горизонтов и т.д., то применение методов решения задач целочисленного линейного программирования нецелесообразно по при-

чине сложности методов их решения, так как в этих случаях более оправдано применение методов решения с последующим округлением полученных нецелочисленных значений переменных до их целочисленного значения.

Модель общей целочисленной задачи линейного программирования может быть представлена следующим образом.

Определить оптимальные значения целочисленных переменных х1, х2,...,хп, максимизирующих (минимизирующих) целевую функцию

2 = С1Х1 + С2 Х2 + ... + СпХп

при выполнении системы линейных ограничений неравенств:

п

Xах - ъ> 1 =1'...'т

¡=1

<1 - Х) - и ) = 1,...,п х] — целое; х} > 0

Целочисленные задачи линейного программирования можно разделить следующим образом:

1. Полностью целочисленные (все переменные целочисленные).

2. Смешанные (частично целочисленные) (часть переменных целочисленных, остальная часть — нецелочисленные).

3. С булевыми переменными.

Методы решения целочисленных задач

линейного программирования разделяются на три основные группы, принципиально разнящиеся по подходу к задаче:

1. Методы отсечения;

2. Комбинаторные методы;

3. Приближенные методы.

Методы и модели нелинейного программирования (условная оптимизация)

Общая задача нелинейного программирования заключается в определении экстремума целевой функции многих переменных при заданных ограничениях в виде равенств и (или) не-

равенств. Ограничения могут быть линейными и (или) нелинейными. Но общепринятой является постановка, в которой исключаются из рассмотрения следующие специальные случаи:

1. Переменные принимают лишь целочисленные значения (нелинейное целочисленное программирование).

2. Ограничения включают как параметр время, при этом используются дифференциальные уравнения (оптимальное управление, динамическая оптимизация).

Экстремальные задачи (задачи оптимизации), в которых либо целевая функция, либо ограничения, либо и то, и другое нелинейны, называются задачами нелинейного программирования.

Математическая постановка или модель задач нелинейного программирования может быть сформулирована следующим образом:

определить оптимальные значения переменных х1, х2,...,хп, минимизирующих целевую функцию:

/ (х1, х2,..., х),..., хп )

при выполнении т линейных и (или) нелинейных ограничений неравенств:

Ь1 (х1, х2,..., хп) = 0; 1 = 1,т

и (р — т) линейных и (или) нелинейных ограничений неравенств

з{ (Х1, x2,..., хп )> 0;

1 = т + 1, р; х! > 0; 1 = (1, п).

Применительно к задачам выбора и обоснования проектных решений в горном деле рассматриваются некоторые весьма важные частные случаи, когда целевая функция сепарабельная или квадратичная.

Сепарабельное программирование. Метод кусочно-линейной аппроксимации

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Функция Р(х^ 1, х^ 1,...,х^п,) называется сепарабельной, если она может быть представлена в виде суммы функ-

ций, каждая из которых является функцией одной переменной:

F = (x1,..., x„ ) = ±fj (x).

j=i

Приближенным методом решения задачи нелинейного программирования с сепарабельными функциями является метод кусочно-линейной аппроксимации.

Геометрическое программирование

Геометрическое программирование является разделом нелинейного программирования и применяется особенно в области технического проектирования и других областях.

Геометрическое программирование — теория и методы отыскания наименьших значений функций специального вида, называемых позиномами.

Модель задачи геометрического программирования может быть сформулирована следующим образом:

Определить оптимальные значения искомых переменных, минимизирующих функцию:

ming(Xi, x2,..., Xn).

При выполнении системы ограничений:

Li (xi, X2,..., xn)< b,; i = 1,m; x} > 0.

Практически рассматриваются задачи, не содержащие ограничений, например:

1 i

g(x, y) = x3 + 2x2y+ xy2.

Методы безусловной минимизации (оптимизации) функций многих переменных

Математическая постановка (модель) задач нелинейного программирования без ограничений (равенств или неравенств), представляющая собой задачу безусловной минимизации (оптимизации), может быть сформулирована следующим образом:

определить оптимальные значения переменных x = (x1, x2,..., xn ) минимизирующие целевую функцию min f(x) = min f(x1, x2,..., xn),

xeX xeR

где f(x) — функция многих переменных, непрерывна и дифференцируема (не менее 2-го порядка); X — некоторое подмножество n-мерного евклидова пространства En, XcEn.

Методы решения задач безусловной минимизации (оптимизации) большинство авторов делят на три группы:

• первая группа — методы нулевого порядка решения задач (безусловной минимизации. К ним относятся такие методы, в которых вычисляются и используются только значения минимизируемой функции;

• вторая группа — методы первого порядка (градиентные методы) решения задач безусловной минимизации. К ним относятся методы, в которых вычисляются первые частные производные минимизируемой функции;

• третья группа — методы второго порядка решения задач безусловной минимизации. К ним относятся такие методы, в которых вычисляются вторые частные производные минимизируемой функции.

Методы безусловной минимизации нулевого порядка функций многих переменных

В этих методах для определения направления спуска не требуется вычислять производные целевой функции. Направление минимизации в этом случае полностью определяется последовательными вычислениями значений функции. Критерий оптимальности может быть задан не в явном виде, а системой уравнений. В этом случае аналитическое или численное определение производных становится очень сложным, а иногда невозможным. Для решения таких практических задач оптимизации могут быть успешно применены методы нулевого порядка.

_Критерии оптимальности

КЛАССИЧЕСКИЕ

1. Максиминный критерий Вальда

2. Критерий Байеса-Лапласа

3. Минимаксный критерий Сэвиджа ПРОИЗВОДНЫЕ

1. Критерий Гурвица

2. Критерий Ходжа-Лемана

3. Критерий Гермейера_

Методы безусловной минимизации первого порядка

Методы первого порядка, использующие значения первой производной функции, являются градиентными методами и представляют собой одну из наиболее распространенных групп методов поиска безусловного экстремума. Все они используют значения градиента функции ¡(х).

Методы безусловной минимизации второго порядка

Методы безусловной минимизации (оптимизации) второго порядка используют вторые частные производные минимизируемой функции многих переменных Дх). Напомним, что градиентные методы, включая метод наибольшего спуска, используют линейную аппроксимацию целевой функции

/(х) « Ф(х) = /(х") + /'(х")(х - х").

Все методы второго порядка являются прямым обобщением извест-

ного метода Ньютона отыскания корня уравнения ф(х) = 0, где ф(х) — скалярная функция скалярного аргумента.

Классификация критериев оптимальности (принятия решений) в условиях неопределенности информации и принятия решений при риске приведены в таблице

Анализ критериев оптимальности показал, что в условиях детерминированной постановки следует ориентироваться на NPV («Чистый дисконтированный доход»), а в условиях неопределенности информации и принятия решений при риске на минимаксный критерий Сэвиджа (динамическая или вероятностная постановка), который рассчитан на самую пессимистическую стратегию и обеспечивает минимальный риск при принятии решения по обоснованию основных параметров угольных шахт.

- СПИСОК ЛИТЕРАТУРЫ

1. Швецов А.Н. Агентно-ориентированные системы: от формальных моделей к промышленным приложениям, 2008.

2. Прангишвили И.В. Энтропийные и другие системные закономерности. Вопросы управления сложными системами. М.: 2003 — 428 с.

3. Методология ГОЕГО. http://www.moy-univer.ru/metodologiya-idefo. ЕЕИ

КОРОТКО ОБ АВТОРАХ -

Агейкин A.B.— студент,

Агафонова Алла Борисовна — старший преподаватель, Аверчева H.A.— студент, Агафонов B.B. — аспирант,

Московский государственный горный университет, ud@msmu.ru.

i Надоели баннеры? Вы всегда можете отключить рекламу.