Научная статья на тему 'Петербургская научная школа жесткой оптимизации (история и обзор основных научных результатов)'

Петербургская научная школа жесткой оптимизации (история и обзор основных научных результатов) Текст научной статьи по специальности «Математика»

CC BY
174
34
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЖЕСТКИЕ СИСТЕМЫ (STIFF) / STIFF SYSTEMS / ЖЕСТКАЯ ОПТИМИЗАЦИЯ / STIFF OPTIMIZATION / МАТЕМАТИЧЕСКОЕ ПРОГРАММИРОВАНИЕ / MATHEMATICAL PROGRAMMING / ЧИСЛЕННЫЕ МЕТОДЫ / NUMERICAL METHODS / КОМПЬЮТЕРНОЕ МОДЕЛИРОВАНИЕ / COMPUTER SIMULATION

Аннотация научной статьи по математике, автор научной работы — Черноруцкий Игорь Георгиевич

Дан краткий экскурс в историю развития теории жесткой оптимизации в работах ученых петербургской (ленинградской) школы. Показано, что основные результаты вытекают из общей теории жестких динамических систем. Приведены основные результаты в области решения жестких задач математического программирования.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

St. Petersburg scientific school of stiff optimization (history and review of main scientific results)

Brief description of history of development of stiff optimization problem decision by St. Petersburg (Leningrad) school is presented. It is established that main results are derived from basic theory of stiff dynamic systems. Main results of mathematical programming of stiff problems are stated.

Текст научной работы на тему «Петербургская научная школа жесткой оптимизации (история и обзор основных научных результатов)»



Математическое моделирование: методы, алгоритмы, технологии

УДК 681.3.06

И.Г. Черноруцкий

петербургская научная школа жесткой оптимизации

(история и обзор основных научных результатов)

I.G. Chernorutskiy

st. Petersburg scientific school of stiff optimization

(history and review of main scientific results)

Дан краткий экскурс в историю развития теории жесткой оптимизации в работах ученых петербургской (ленинградской) школы. Показано, что основные результаты вытекают из общей теории жестких динамических систем. Приведены основные результаты в области решения жестких задач математического программирования.

ЖЕСТКИЕ СИСТЕМЫ (STIFF). ЖЕСТКАЯ ОПТИМИЗАЦИЯ. МАТЕМАТИЧЕСКОЕ ПРОГРАММИРОВАНИЕ. ЧИСЛЕННЫЕ МЕТОДЫ. КОМПЬЮТЕРНОЕ МОДЕЛИРОВАНИЕ.

Brief description of history of development of stiff optimization problem decision by St. Petersburg (Leningrad) school is presented. It is established that main results are derived from basic theory of stiff dynamic systems. Main results of mathematical programming of stiff problems are stated.

STIFF SYSTEMS. STIFF OPTIMIZATION. MATHEMATICAL PROGRAMMING. NUMERICAL METHODS. COMPUTER SIMULATION.

Проблема жесткости в компьютерном моделировании — достаточно общая. В данной статье основное внимание уделяется жестким задачам математического программирования. В теории конечномерной оптимизации (математического программирования) уже давно появились термины «овраг» или (в англоязычной литературе) «гребень», «долина». Они всегда связывались с геометрией поверхностей отклика минимизируемых (максимизируемых) функционалов и с соответствующими вычислительными трудностями.

В настоящее время уже трудно установить, когда впервые было указано на явление овражности (жесткости), как на типичную практическую ситуацию, затрудняющую работу классических оптимизирующих процедур. Во всяком случае, уже в

начале компьютерной эры в 1959 г. в фундаментальном труде A.A. Фельдбаума «Вычислительные устройства в автоматических системах» были, по существу, рассмотрены все основные признаки овражной ситуации, включая явление «заклинивания» (что соответствует англоязычному термину jamming) и понятие многомерного дна оврага. Широкую известность проблема овражности приобрела после работ И.М. Гель-фанда и М.Л. Цетлина (1961-1962), посвященных методам управления техническими системами и применению поисковых процедур в системах автоматической оптимизации. Эти исследования привели к созданию известного «метода оврагов». В 1967 г. Л.А. Растригин обобщил метод оврагов на общий случай овражной ситуации, когда размерность дна оврага может

превышать единицу. Следующий шаг в изучении проблемы был предпринят в монографии Л.А. Растригина «Системы экстремального управления» (1974), где в связи с общими вопросами применения поисковых методов параметрической оптимизации в системах экстремального управления рассмотрены различные аспекты овражной ситуации и, в частности, построены простейшие модели овражных экстремальных объектов. Соответствующие вопросы явно или неявно обсуждались и в работах зарубежных авторов (Д. Химмельблау, М. Бокс, Д. Уайлд, Р. Брент и др.).

Существенный вклад в теорию жесткой оптимизации внесли публикации 1977—1979 гг. научной группы, возглавляемой профессором Ю.В. Ракитским, в которых впервые начало развиваться научное направление, связанное с изучением общей проблемы жесткости в задачах численного моделирования. Позже появились работы, целиком посвященные проблеме жесткости в задачах математического программирования [1—15]. В этих работах показано, что с вычислительной точки зрения основные оптимизационные проблемы определяются специальной формой плохой обусловленности, тесно связанной с известной концепцией жесткости систем обыкновенных дифференциальных уравнений, описывающих траектории наискорейшего спуска гладких минимизируемых функционалов. Поэтому и употребляются термины «жесткая оптимизация», «жесткие функционалы» и т. п.

Исторически регулярные исследования по теории жесткой оптимизации берут свое начало с опубликованной в издательстве «Наука» в 1979 г. пионерской монографии [4]. Ей предшествовала важная небольшая книга [5] из области компьютерного моделирования, где были обозначены основные проблемы теории жестких систем и пути их разрешения.

В этих работах впервые была разработана общая теория систем, описываемых жесткими дифференциальными моделями, включающая асимптотическую теорию жестких систем и основы теории минимизации жестких функционалов. Собственно

проблемы оптимизации в указанных книгах являлись, если угодно, «вторичными», «подчиненными».

Данные публикации были замечены в научном сообществе и любой серьезный современный учебник по численному анализу и компьютерному моделированию содержит обязательные ссылки на эти работы. Научным редактором и инициатором издания монографии [4] в издательстве «Наука» являлся крупный ученый и известный автор учебников по численным методам академик РАН Н.С. Бахвалов.

Несмотря на важность полученных и опубликованных к 1980 г. результатов, проблема ими не исчерпывалась. Необходимо было развивать «оптимизационную часть». Оставался нерешенным целый ряд существенных вопросов, связанных с развитием отдельного направления — теории жестких оптимизационных задач, а также общих принципов построения методов и алгоритмов параметрической оптимизации по жестким целевым функционалам. Кроме того, представляла практический интерес разработка проблемно-ориентированного алгоритмического и программного обеспечения, учитывавшего специфику отдельных классов задач и структурные особенности применяемых критериев качества. При построении таких методов и алгоритмов должны были учитываться такие естественные для приложений сопутствующие факторы сложности, как невыпуклость минимизируемых функционалов, их негладкость, а в ряде случаев и высокая размерность вектора варьируемых параметров. Такие исследования были проведены и были получены значительные для теории и практики результаты. Таким образом, стало возможным говорить о формировании еще одного нового научного направления компьютерного моделирования, связанного с исследованием проблем жесткой оптимизации. Это направление в основном развивалось силами петербургской школы жесткой оптимизации.

Полученные результаты нашли отражение в докторской диссертации И.Г. Черно-руцкого [8], а также в монографии [9], изданной в том же году.

По результатам дальнейшего развития основных положений нового научного направления были выпущены книги [10, 13]. Монографическое издание [13] позиционируется также как современное учебное пособие при подготовке специалистов по компьютингу (computing). Книга и ее автор являются призерами издательской программы «300 лучших учебников для высшей школы в честь 300-летия основания Санкт-Петербурга».

В указанных работах была создана теория конечномерной оптимизации по жестким целевым функционалам. Разработаны новые высокоэффективные автоматизированные программные пакеты для оптимального параметрического синтеза. разработана теория построения и применения новых классов методов оптимизации. Введено базовое понятие функции релаксации для матричных градиентных методов. На ее основе предложены новые методы оптимизации, в т. ч. в пространствах высокой размерности, и доказано их превосходство над существующими методами при решении задач с жесткими функционалами. разработаны методы обобщенного покоординатного спуска.

Были получены существенные результаты и в области компьютерных систем поддержки принятия решений. Эти исследования естественным образом опираются на результаты теории жестких систем и теории оптимизации по жестким целевым функционалам. В алгоритмическом плане процедура принятия решения в целом ряде случаев сводится к некоторой цепочке оптимизационных задач, что и позволяет применять соответствующие методы. По результатам этих работ опубликованы монографии [12, 14].

Эти книги также используются как учебные пособия при подготовке студентов в области системного анализа, принятия решений, интеллектуальных и экспертных систем.

В 2011 г. опубликована монография [15], целиком посвященная проблемам компьютерной оптимизации.

В отличие от предыдущих изданий в этой книге присутствует большой раздел по теории оптимизации в общих функциональных пространствах. На основе пред-

ставленного материала теория и методы «жесткой оптимизации», разработанные автором для задач конечномерной оптимизации, могут быть перенесены на задачи, сформулированные для бесконечномерных пространств.

Разработанные трудами ученых петербургской школы теория, методы и алгоритмы конечномерной оптимизации применялись при решении практических задач.

В течение десяти лет Университетом (профессора Ю.В. Ракитский, С.М. Устинов, И.Г. Черноруцкий, доцент В.А. Зим-ницкий и др.) проводился цикл научных исследований для химической промышленности в интересах предприятия ОНПО «Пластполимер». Основные решаемые задачи были связаны с построением математических моделей процессов полимеризации и химических реакторов (задачи параметрической идентификации) с целью повышения эффективности управления технологическими процессами, а также с оптимизацией действующих промышленных установок по производству полимеризационных материалов. Кроме того, разработанные в результате проводимых исследований теория, методы и алгоритмы позволили успешно решать задачи оптимального проектирования запоминающих устройств на плоских магнитных доменах (профессора Т.К. Кракау и И.Г. Черноруцкий, доцент В.В. Амосов), моделирования артериальной сосудистой системы человека и животных методами электрогидравлических аналогий (профессор И.Г. Черноруцкий, ст. преподаватель H.H. Черноруцкая), построения подсистем оптимизации паровых и газовых турбин (профессор И.Г. Черноруцкий) и др.

В разное время и при разных обстоятельствах полученные результаты обсуждались с академиками РАН H.H. Моисеевым, Н.С. Бахваловым, К.С. Демирчяном, членом-корреспондентом РАН П.А. Буты-риным, профессорами В.А. Городецким, В.Я. Катковником, А.А. Первозванским, Л.А. Растригиным, Б.В. Пельцвергером (США) и многими другими ведущими учеными в области компьютерной математики и компьютерного моделирования.

ОСНОВНЫЕ НАУЧНЫЕ РЕЗУЛЬТАТЫ,

ПОЛУЧЕННЫЕ В ОБЛАСТИ КОМПЬЮТЕРНОЙ ОПТИМИЗАЦИИ

Проблема

плохой обусловленности — жесткости

1. Обоснована необходимость выделения плохо обусловленных (жестких) оптимизационных задач в отдельный класс. Эта необходимость объясняется, с одной стороны, значительными вычислительными трудностями при их решении стандартными средствами, а, с другой — экспериментально установленным фактом типичности овражной ситуации для большинства реальных задач.

2. Выявлены и в явном виде сформулированы следующие основные причины появления жестких экстремальных задач:

• частные структурные особенности решаемой задачи, например, некорректность задачи решения уравнения Винера—Хопфа, играющего важную роль во многих разделах общей теории компьютерного моделирования;

• наличие фактора агрегированности аргументов минимизируемого функционала и отсутствие регулярных методов выделения агрегатов;

• жесткость систем обыкновенных дифференциальных уравнений, описывающих динамику нестационарных объектов оптимизации;

• специальные структуры расширенных целевых функционалов, получаемых при учете ограничений методами штрафных функций и модифицированных функций Лагранжа;

• специальные структуры обобщенных целевых функционалов при решении многокритериальных оптимизационных задач на основе линейных и минимаксных (мак-симинных) сверток.

3. Построено формальное описание явления плохой обусловленности, оказывающееся более конструктивным для теории оптимизации по сравнению с общим определением, опирающимся на теорию жестких систем. Введено новое понятие степени жесткости, отличное от обычно используемого спектрального числа обусловленности

матрицы Гессе и более точно отражающее возникающие в процессе оптимизации вычислительные трудности. В частности, показано, что из высокой степени жесткости всегда следует плохая обусловленность матрицы Гессе, а обратное, вообще говоря, неверно. Последнее обстоятельство обычно игнорировалось не только в учебной, но и в научной литературе, что не позволяло адекватно оценивать трудность решаемой задачи и эффективность применяемых алгоритмов при минимизации невыпуклых целевых функционалов. Показана регулярность введенных формальных моделей жестких функционалов: для случая квадратичных функционалов доказано совпадение «дна оврага» с линейной оболочкой собственных векторов матрицы Гессе, отвечающих «малым» собственным значениям.

4. Разработаны алгоритмические методы распознавания овражной ситуации, играющие роль критериев жесткости. Построена процедура, позволяющая по результатам работы метода простого градиентного спуска (ПГС) указать нижнюю границу для степени жесткости минимизируемого функционала, что имеет первостепенное значение при оценке трудности решаемой задачи и при автоматизации процесса выбора алгоритма конечномерной оптимизации. Кроме того, предложена альтернативная методика оценки степени жесткости на основе прямого спектрального разложения матрицы Гессе с учетом погрешностей вычислений. Указаны качественные признаки плохой обусловленности задачи, выражающиеся в регистрации ложных локальных минимумов.

5. Разработана специальная методика интегрирования жестких дифференциальных систем уравнений для целей идентификации кинетических моделей полиме-ризационных процессов, позволившая на несколько порядков сократить время однократного анализа моделей по сравнению со стандартными жестко-ориентированными процедурами.

6. Проведен анализ стандартного алгоритмического обеспечения в области конечномерной оптимизации (включая ньютоновские методы, методы доверительной

окрестности, квазиньютоновские методы и методы сопряженных градиентов), показавший актуальность задачи его совершенствования по следующим основным направлениям:

• построение общих процедур решения плохо обусловленных (жестких) задач, сохраняющих эффективность в условиях невыпуклости целевых функционалов;

• построение проблемно-ориентированных реализаций алгоритмов, рассчитанных на конкретные схемы конечномерной оптимизации, характерные для отдельных классов задач конкретной предметной области;

• построение методов решения плохо обусловленных задач конечномерной оптимизации большой размерности;

• разработка элементов структурного синтеза и принципов построения минимальных параметрических представлений искомых непрерывных зависимостей на основе методов удаления переменных.

Покоординатные стратегии оптимизации

1. На основе анализа явления заклинивания метода циклического покоординатного спуска (ЦПС) в условиях овражной ситуации показано, что заклинивание вызывается не столько наличием изломов в поверхностях уровня негладких целевых функционалов (что обычно отмечается в литературе), сколько дискретным представлением информации в компьютере.

2. Построен и исследован класс новых эффективных методов оптимизации — методов обобщенного покоординатного спуска (ОПС).

3. Доказана теорема об устойчивости линейных оболочек изолированных групп собственных векторов матрицы Гессе целевого функционала, позволяющая сформулировать и доказать теоремы, выражающие принцип частичной локальной декомпозиции задачи оптимизации при реализации методов ОПС. В результате показано, что применение методов ОПС для решения жестких оптимизационных задач, по существу, реализует принцип «разделения движений». Исходная плохо обусловленная задача локально аппроксимируется несколькими хо-

рошо обусловленными задачами, что резко повышает эффективность процедуры оптимизации в целом.

4. Доказана теорема о сходимости методов ОПС для широкого класса невыпуклых функционалов, что подтверждает тезис о высокой степени универсальности соответствующих алгоритмов.

5. Разработаны методы масштабирования и адаптивной нормализации основных переменных оптимизационной задачи с учетом конечной величины машинного эпсилон. Применение указанных методов позволяет в среднем в 1,5—2 раза сократить вычислительные затраты и предотвратить появление возможных сбойных ситуаций.

6. Построены общие реализации алгоритмов ОПС (алгоритмы SPAC1, SPAC2) на основе конечноразностных двусторонних аппроксимаций производных с адаптивной настройкой шагов дискретности.

7. Разработаны общие реализации алгоритмов ОПС на основе рекуррентных алгоритмов оценивания параметров линейных регрессионных моделей. В качестве базовых методов используются рекуррентный метод наименьших квадратов и модифицированный алгоритм Качмажа. Применение указанных процедур исключает необходимость прямого вычисления производных при реализации методов ОПС и представляется весьма перспективным для снижения общей трудоемкости решения задачи.

8. Разработаны специальные схемы реализации методов ОПС для следующих классов прикладных задач:

• идентификация нелинейных детерминированных объектов на основе функциональных рядов Вольтерра;

• идентификация стохастических объектов на основе корреляционных методов;

• синтез статистически оптимальных систем автоматического управления;

• идентификация нелинейных динамических систем;

• оценка состояний динамических систем (задача о наблюдении);

• идентификация возмущающих сил;

• управление технологическим процессом серийного выпуска изделий по критерию вероятности выхода годных;

• обеспечение максимального запаса работоспособности системы по заданному списку выходных параметров;

• задачи оптимального управления.

Указанные специальные реализации

методов оПС позволяют за счет учета конкретных структурных особенностей критериев качества, применяемых в перечисленных задачах, существенно сократить трудоемкость построения матриц Гессе целевых функционалов.

Приведенные результаты по применению разработанных процедур оПС позволяют утверждать, что по сравнению с традиционными методами нелинейной оптимизации методы оПС дают существенное расширение класса эффективно решаемых прикладных задач. При этом наблюдается как качественный эффект (решение задач, не решаемых известными методами), так и количественный — существенно меньшие временные затраты на решение задачи по сравнению с показателями работы стандартных оптимизирующих процедур.

Градиентные методы

1. Для класса матричных градиентных методов введено новое понятие функции релаксации, позволяющее с единых позиций оценивать эффективность градиентных оптимизирующих процедур, а также синтезировать новые методы, ориентированные на специальные классы плохо обусловленных (жестких) оптимизационных задач. Получены соотношения, позволяющие по произвольно заданной функции релаксации строить соответствующие поисковые процедуры.

2. Доказана теорема об условиях релак-сационности произвольного матричного градиентного метода. На основе понятия функции релаксации рассмотрена геометрическая интерпретация релаксационных свойств градиентных методов, позволяющая строить области релаксационности, а также оценивать скорость убывания значений минимизируемых функционалов.

3. Дан анализ классических матричных градиентных схем: простого градиентного метода, метода Ньютона, метода Маркуардта—Левенберга. Показано, что

функция релаксации дает практически исчерпывающую информации о свойствах и возможностях соответствующей поисковой процедуры.

4. Рассмотрен новый класс методов с экспоненциальной функцией релаксации (ЭР-методы), естественным образом обобщающих классические методы спуска по антиградиенту, методы Ньютона, а также методы Маркуардта—Левенберга. В отличие от указанных методов, ЭР-методы имеют функции релаксации, целиком расположенные в области релаксационности, что существенно повышает вычислительную эффективность градиентных методов и облегчает процедуру настройки параметра, характеризующего норму вектора продвижения в пространстве поиска.

Доказаны теоремы, устанавливающие сходимость ЭР-методов для широкого класса невыпуклых функционалов и гарантирующие квадратичную скорость сходимости в предположении сильной выпуклости целевого функционала.

5. Построены реализации ЭР-методов (алгоритмы КЕЬЕХ). Дан анализ влияния погрешностей на релаксационные свойства ЭР-методов, что позволило указать области эффективного применения соответствующих алгоритмов. Модульная структура алгоритма КЕЬЕХ дает возможность воспользоваться развитой методикой аппроксимации матриц вторых производных с целью повышения эффективности решения конкретных классов задач теории управления.

6. Построены новые методы конечномерной оптимизации с большим числом управляемых параметров по функционалам со слабозаполненными и структурированными матрицами Гессе. В качестве основы для создания соответствующих оптимизирующих процедур предложены новые матричные градиентные схемы с чебышев-скими функциями релаксации. Построено рекуррентное соотношение, позволяющее сохранять свойство разреженности матриц и упакованные формы их хранения в памяти компьютера на протяжении каждого цикла процесса оптимизации. исследованы релаксационные свойства методов и особенности их реализации. Построен базовый алгоритм

КЕЬСИ. Даны характеристики сходимости алгоритма КЕЬСИ и проведено его сравнение с методами сопряженных градиентов (СГ). Получена оценка скорости сходимости метода СГ, а также выражение для «коэффициента выигрыша» алгоритмов класса КЕЬСИ по сравнению со стандартными методами СГ в зависимости от размерности решаемой задачи, ее обусловленности и степени разреженности соответствующей матрицы Гессе. Показано, что уже для относительно небольших степеней обусловленности при достаточно больших размерностях выигрыш, получаемый алгоритмом КЕЬСИ, может быть весьма значительным. Разработаны общие рекомендации по применению процедур КЕЬЕХ, КЕЬСИ и ОПС в задачах теории управления.

7. Разработана тактика решения общей конечномерной оптимизационной задачи с помощью построенного нового алгоритмического обеспечения.

Методы уменьшения размерности вектора аргументов минимизируемых функционалов

1. Доказан принцип квазистационарности производных (ПКП) для линейных систем с симметричными матрицами, что позволило указать условия применимости ПКП и обосновать методы практического определения линейных связей, устанавливающихся вне пограничного слоя между фазовыми переменными жестких дифференциальных систем.

2. На основе структуры асимптотических связей сформулирована и доказана теорема о понижении размерности пространства поиска решаемой оптимизационной задачи. Получена оценка для степени овражности результирующего целевого функционала, определенного в (п — 1)-мерном пространстве. Доказана теорема об асимптотическом понижении размерности пространства поиска оптимизационной задачи при произвольной размерности дна оврага.

3. Доказанные утверждения позволили обосновать процедуру иерархической оптимизации в последовательности подпространств пониженной размерности. Получены выражения для коэффициентов чувствительности решения оптимизацион-

ной задачи к изменению собственных чисел соответствующей матрицы Гессе; получены соотношения, устанавливающие внутренний механизм переноса погрешностей в задании исходных данных на окончательный результат. Предложен пример, иллюстрирующий на конкретном числовом материале смысл и эффективность методов иерархической оптимизации.

4. Построен общий алгоритм иерархической оптимизации М1О. Указаны области рационального применения алгоритма МЮ.

5. Разработаны оригинальные методы исключения переменных на основе спектрального разложения матрицы Гессе в точке оптимума целевого функционала. Показано, что эффективность обычно применяемого метода, основанного на удалении «малых» составляющих оптимального вектора аргументов, существенно зависит от степени жесткости (обусловленности) целевого функционала. В результате применения такого подхода, например для упрощения избыточных структур оптимизируемых систем, могут получаться структуры, неоптимальные как по количеству составляющих их элементов, так и по качеству функционирования.

6. Предложен новый алгоритм исключения избыточных переменных, аналогичный гауссовскому методу исключения со специальным выбором ведущего элемента. В результате вариации управляемого вектора производятся только в пределах «дна» оврага, где общий показатель качества (критерий оптимальности) меняется относительно слабо. Реализация такого подхода позволяет на основе квадратичной модели критерия оптимальности системы указать максимальное число исключаемых параметров и оценить ожидаемое при этом ухудшение качества. Оставшиеся после исключения переменные соответствующим образом корректируются. Предложенный метод, в отличие от классического подхода, инвариантен относительно выбора масштабов управляемых переменных и степени овражности критерия оптимальности.

7. Разработана методология применения рассматриваемого подхода для удаления переменных в задаче наименьших квадратов.

На классическом тестовом примере продемонстрировано преимущество спектрального метода исключения по сравнению с классическим методом пошаговой регрессии, не позволяющим решить указанную задачу.

8. Обоснована целесообразность применения разработанного подхода в задачах структурного синтеза, а также при построении минимальных параметрических представлений искомых непрерывных зависимостей, например в таких задачах теории управления, как задачи идентификации нелинейных детерминированных объектов с использованием моделей Вольтерра, а также задачи идентификации и синтеза, приводящие к интегральным уравнениям Фредгольма 1-го рода (уравнения Винера— Хопфа), решаемым на основе алгебраических методов.

Методы принятия решений.

Теория многокритериальной оптимизации

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1. Разработаны интерактивные (диалоговые) методы решения многокритериальных задач выбора вариантов при наличии неявно заданных функций полезности. Методы основаны на реализации разработанных поисковых процедур нелинейного программирования в пространстве весовых коэффициентов сверток Джоффриона. Построенные новые методы и соответствующие алгоритмы позволяют осуществлять эффективный процесс выбора вариантов по многим критериям на основе дополни-

тельной информации пользователя специального вида. При этом исходное множество допустимых альтернатив может быть произвольным (нечисловым) абстрактным множеством. Последнее обстоятельство позволяет говорить о создании принципиально нового подхода в области многокритериальной оптимизации.

2. Разработаны теория и методы решения многокритериального выбора на основе упорядочений, более сильных, чем отношения предпочтения Парето (методы t-упорядочения).

Выборочный список учебников и монографий, содержащих ссылки на публикации и основные результаты ученых петербургской школы, представлен книгами [16-25].

Перечень научных статей, содержащих ссылки на работы ученых петербургской школы в области оптимизации, можно найти, например, по базам данных ресурса еИЬгагу. — более 600 ссылок за последние пять лет. он свидетельствует о широкой известности полученных научных результатов и об их востребованности в самых различных областях науки, техники и промышленности. Примечательно, что многие результаты вошли в современные стандартные учебники, содержащие разделы по компьютерному моделированию и оптимизации и принятые в качестве основной литературы во многих ведущих университетах России, например [18, 23, 24].

СПИСОК ЛИТЕРАТУРЫ

1. Черноруцкий, И.Г. Методы параметрической оптимизации в задачах идентификации [Текст] / И.Г. Черноруцкий //Научно-технические ведомости СПбГПУ. Информатика. Телекоммуникации.Управление. —СПб.: Изд-во Политехи. ун-та, 2009. —№ 2(76). —С. 151—156.

2. Черноруцкий, И.Г. Параметрические методы синтеза систем управления [Текст] / И.Г. Черноруцкий // Научно-технические ведомости СПбГПУ. Информатика. Телекоммуникации. Управление. —СПб.: Изд-во Политехн. ун-та, 2009. — № 2(76). —С. 111—115.

3. Черноруцкий, И.Г. Алгоритмические проблемы жесткой оптимизации [Текст] / И.Г. Черноруцкий //Научно-технические ведомости

СПбГПУ. Информатика. Телекоммуникации. Управление. —СПб.: Изд-во Политехн. ун-та, 2012. —№ 6(162). —С. 141—152.

4. Ракитский, Ю.В. Численные методы решения жестких систем [Текст] / Ю.В. Ракитский, С.М. Устинов, И.Г. Черноруцкий. —М.: Наука, 1979. — 208 с.

5. Ракитский, Ю.В. Численные методы решения жестких систем обыкновенных дифференциальных уравнений [Текст] / Ю.В. Ракитский, С.М. Устинов, И.Г. Черноруцкий. —Л.: Изд-во ЛПИ, 1977. — 84 с.

6. Черноруцкий, И.Г. Функции релаксации градиентных методов [Текст] / И.Г. Черноруцкий //Научно-технические ведомости СПбГПУ.

Информатика.Телекоммуникации.Управление. -СПб.: Изд-во Политехн. ун-та, 2012. -№ 3(150). -С. 66-72.

7. Черноруцкий, И.Г. Некоторые стандартные схемы параметрической оптимизации [Текст] / И.Г. Черноруцкий // Научно-технические ведомости СПбГПУ. Информатика. Телекоммуникации. Управление. -СПб.: Изд-во Политехн. ун-та, 2012. -№ 6(162). -С. 128-133.

8. Черноруцкий, И.Г. Плохо обусловленные задачи параметрической оптимизации в системах управления: Дис. ... д-ра техн. наук [Текст] / И.Г. Черноруцкий. - Л.: ЛПИ им. М.И. Калинина, 1987.

9. Черноруцкий, И.Г. Оптимальный параметрический синтез. Электротехнические устройства и системы [Текст] / И.Г. Черноруцкий. - Л.: Энергоатомиздат, 1987. - 128 с.

10. Черноруцкий, И.Г. методы оптимизации [Текст] / И.Г. Черноруцкий. -СПб.: Изд-во СПбГТУ, 1998. - 108 с.

11. Черноруцкий, И.Г. Методы принятия решений [Текст] / И.Г. Черноруцкий. -Л.: Изд-во ЛПИ, 1990. - 92 с.

12. Черноруцкий, И.Г. методы оптимизации и принятия решений [Текст] / И.Г. Черноруцкий. - СПб.: Лань, 2001. - 382 с.

13. Черноруцкий, И.Г. методы оптимизации в теории управления [Текст] / И.Г. Черноруцкий. - СПб.: Питер, 2004. - 256 с.

14. Черноруцкий, И.Г. Методы принятия решений [Текст] / И.Г. Черноруцкий. - СПб.: БХВ-Петербург, 2005. - 408 с.

15. Черноруцкий, И.Г. Методы оптимизации. Компьютерные технологии [Текст] / И.Г. Черно-

руцкий. - СПб.: БХВ-Петербург, 2011. - 384 с.

16. Иванов, В.В. Методы вычислений на ЭВМ [Текст] /В.В.Иванов. - Киев: Наук. Думка, 1986. - 584 с.

17. Первозванский, А.А. Курс теории автоматического управления [Текст] /А.А. Первозванский. - М.: Наука. Гл. ред. физматлит, 1986. -616 с.

18. Бахвалов, Н.С. Численные методы [Текст] /Н.С. Бахвалов, Н.П. Жидков, Г.М. Кобельков. - М.: Наука. Гл. ред. физматлит, 1987.

- 600 с.

19. Черноруцкий, Г.С. Следящие системы автоматических манипуляторов [Текст] / Г.С. Черноруцкий, А.П. Сибрин, В.С. Жабреев.

- М.: Наука, 1987. - 272 с.

20. Крутько, П.Д. Алгоритмы и программы проектирования автоматических систем [Текст] / П.Д. Крутько [и др.]. - М.: Радио и связь, 1988. - 306 с.

21. Федоренко, Р.П. Введение в вычислительную физику [Текст] / Р.П. Федоренко. - М.: Изд-во Моск. физ.-техн. ин-та, 1994. - 528 с.

22. Уткин, Л.В. Анализ риска и принятие решений при неполной информации [Текст] / Л.В. Уткин. - СПб.: Наука, 2007. - 404 с.

23. Петровский, А.Б. Теория принятия решений [Текст] / А.Б. Петровский. - М.: Изд. центр «Академия», 2009. - 400 с.

24. Калиткин, Н.Н. Численные методы [Текст] / Н.Н. Калиткин. - СПб.: БХВ-Петербург, 2011. - 592 с.

25. Демирчян, К.С. Моделирование и машинный расчет электрических цепей [Текст] / К.С. Демирчян, П.А. Бутырин. - М.: Высш. школа, 1988. - 336 с.

REFERENCES

1. Chernorutskii I.G. Metody parametricheskoi optimizatsii v zadachakh identifikatsii / Nauchno-tekhnicheskie vedomosti SPbGPU. Informatika. Telekommunikatsii. Upravlenie. — St.-Petersburg: Izd-vo Politehn. un-ta, 2009. —№ 2(76). -S. 151-156. (rus)

2. Chernorutskii I.G. Parametricheskie metody sinteza sistem upravleniia / Nauchno-tekhnicheskie vedomosti SPbGPU. Informatika. Telekommunikatsii. Upravlenie. — St.-Petersburg: Izd-vo Politehn. un-ta, 2009. —№ 2(76). —S. 111—115. (rus)

3. Chernorutskii I.G. Algoritmicheskie problemy zhestkoi optimizatsii / Nauchno-tekhnicheskie vedomosti SPbGPU. Informatika. Telekommunikatsii. Upravlenie. — St.-Petersburg: Izd-vo Politehn. unta, 2012. —№ 6(162). —S. 141 — 152. (rus)

4. Rakitskii Iu.V. Chislennye metody reshe-niia zhestkikh sistem. —Moscow: Nauka, 1979.

- 208 s. (rus)

5. Rakitskii Iu.V. Chislennye metody resheniia zhestkikh sistem obyknovennykh differentsial'nykh uravnenii. -Leningrad: Izd-vo LPI, 1977. — 84 s. (rus)

6. Chernorutskii I.G. Funktsii relaksatsii gradi-entnykh metodov / Nauchno-tekhnicheskie vedomosti SPbGPU. Informatika. Telekommunikatsii. Upravlenie. — St.-Petersburg: Izd-vo Politehn. unta, 2012. —№ 3(150). —S. 66—72. (rus)

7. Chernorutskii I.G. Nekotorye standartnye skhemy parametricheskoi optimizatsii / Nauchno-tekhnicheskie vedomosti SPbGPU. Informatika. Telekommunikatsii. Upravlenie. —St.-Petersburg: Izd-vo Politehn. un-ta, 2012. —№ 6(162). —S. 128—133. (rus)

8. Chernorutskii I.G. Plokho obuslovlennye za-dachi parametricheskoi optimizatsii v sistemakh up-

ravleniia: Dis. d-ra tehn. nauk. — Leningrad: LPI im. M.I. Kalinina, 1987. (rus)

9. Chernorutskii I.G. Optimal'nyi paramet-richeskii sintez. Elektrotekhnicheskie ustroistva i sistemy. — Leningrad: Energoatomizdat, 1987.

— 128 s. (rus)

10. Chernorutskii I.G. Metody optimizatsii. — St.-Petersburg: Izd-vo SPbGTU, 1998. — 108 s. (rus)

11. Chernorutskii I.G. Metody priniatiia resh-enii. —Leningrad: Izd-vo LPI, 1990. — 92 s. (rus)

12. Chernorutskii I.G. Metody optimizatsii i priniatiia reshenii. — St.-Petersburg: Lan', 2001.

— 382 s. (rus)

13. Chernorutskii I.G. Metody optimizatsii v teorii upravleniia. — St.-Petersburg: Piter, 2004.

— 256 s. (rus)

14. Chernorutskii I.G. Metody priniatiia resh-enii. — St.-Petersburg: BKhV-Peterburg, 2005.

— 408 s. (rus)

15. Chernorutskii I.G. Metody optimizatsii. Komp'iuternye tekhnologii. — St.-Petersburg: BKhV-Peterburg, 2011. — 384 s. (rus)

16. Ivanov V.V. Metody vychislenii na EVM.

— Kiev: Nauk. Dumka, 1986. — 584 s.

17. Pervozvanskii A.A. Kurs teorii avtomat-

icheskogo upravleniia. — Moscow: Nauka. Gl. red. fizmatlit, 1986. - 616 s. (rus)

18. Bakhvalov N.S. Chislennye metody.- Moscow: Nauka. Gl. red. fizmatlit, 1987. - 600 s. (rus)

19. Chernorutskii G.S., Sibrin A.P., Zhabreev

V.S. Slediashchie sistemy avtomaticheskikh manipu-liatorov. — Moscow: Nauka, 1987. — 272 s. (rus)

20. Krut'ko P.D. i dr. Algoritmy i programmy proektirovaniia avtomaticheskikh sistem. — Moscow: Radio i sviaz', 1988. — 306 s. (rus)

21. Fedorenko R.P. Vvedenie v vychislitel'nuiu fiziku. — Moscow: Izd-vo Mosk. Fiz.-tekhn. in-ta, 1994. — 528 s. (rus)

22. Utkin L.V. Analiz riska i priniatie reshenii pri nepolnoi informatsii. — St.-Petersburg: Nauka, 2007. — 404 s. (rus)

23. Petrovskii A.B. Teoriia priniatiia reshenii.

— Moscow: Izd-vo tsentr «Akademiia», 2009.

— 400 s. (rus)

24. Kalitkin N.N. Chislennye metody. — St.-Pe-tersburg: BKhV—Peterburg, 2011. — 592 s. (rus)

25. Demirchian K.S., Butyrin P.A. Modeliro-vanie i mashinnyi raschet elektricheskikh tsepei.

— Moscow: Vyssh. shkola, 1988. — 336 s. (rus)

ЧЕРНОРУЦКИЙ Игорь Георгиевич — директор Института информационных технологий и управления, заведующий кафедрой информационных и управляющих систем Санкт-Петербургского государственного политехнического университета, доктор технических наук, профессор. 195251, Россия, Санкт-Петербург, ул. Политехническая, д. 21. E-mail: [email protected]

CHERNORUTSKIY, Igor G. St. Petersburg State Polytechnical University . 195251, Politechnicheskaya Str. 21, St.-Petersburg, Russia. E-mail: [email protected]

© Санкт-Петербургский государственный политехнический университет, 2013

i Надоели баннеры? Вы всегда можете отключить рекламу.