Научная статья на тему 'Многокритериальная оптимизация на основе нейро-нечеткой аппроксимации функции предпочтений лица, принимающего решения'

Многокритериальная оптимизация на основе нейро-нечеткой аппроксимации функции предпочтений лица, принимающего решения Текст научной статьи по специальности «Математика»

CC BY
330
112
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МНОГОКРИТЕРИАЛЬНАЯ ОПТИМИЗАЦИЯ / ANFIS

Аннотация научной статьи по математике, автор научной работы — Карпенко А. П., Моор Д. А., Мухлисуллина Д. Т.

Рассматривается прямой адаптивный метод многокритериальной оптимизации на основе аппроксимации функции предпочтения лица, принимающего решение, с помощью аппарата нейро-нечеткого вывода. Приводятся результаты исследования эффективности метода при решении 2-х и 3-х критериальных тестовых задач.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Многокритериальная оптимизация на основе нейро-нечеткой аппроксимации функции предпочтений лица, принимающего решения»

электронное научно-техническое издание

НАУКА и ОБРАЗОВАНИЕ

Эя № ФС 77 - 30569. Государственная регистрация №0420900025. ISSN 1994-0408

Многокритериальная оптимизация на основе нейро-нечеткой аппроксимации функции

предпочтений лица, принимающего решения

# 06, июнь 2010

авторы: Карпенко А. П., Моор Д. А., Мухлисуллина Д. Т.

dmitry moor amail. ru karpenkoanog. ru I).Mukhlisullina@,mail. ru

МГТУ им. Н.Э.Баумана

Введение

В задаче многокритериальной оптимизации, или задаче многокритериального принятия решений (МКО-задачи) предполагается заданной вектор-функция Ф(Х) = (ф1( X), ф2( X),..., фт( X)), которая определена на множестве допустимых значений (множестве альтернатив) DX вектора варьируемых параметров X. Лицу, принимающему решение (ЛИР), желательно найти такую альтернативу, которая минимизирует (для определенности) все компоненты этой вектор-функции ф1( X ),ф2( X),..., фт( X),

называемые частными критериями оптимальности.

В статье рассматривается метод решения МКО-задачи, который относится к классу адаптивных методов [1]. Каждая итерация этих методов включает в себя фазу анализа, выполняемую ЛИР, и фазу расчетов, выполняемую системой многокритериальной оптимизации (МКО-системой).

Ио характеру информации, получаемой МКО-системой от ЛИР на фазе анализа, выделяются несколько классов адаптивных методов. В данной работе рассматриваются

прямые адаптивные методы [1]. Эти методы основаны на том, что ЛПР может непосредственно выполнять оценку предлагаемых МКО-системой альтернатив (например, в терминах «лучше», «хуже», «одинаково»).

В основе прямых адаптивных методов решения МКО-задачи, лежит предположение о существовании «функции предпочтений ЛПР» Ц/(X). Эта функция определена на множестве DX и выполняет его отображение на множество действительных чисел R. При этом задача многокритериальной оптимизации сводится к выбора вектора X* е DX такого, что

max^(X) = X*), XеDX.

Предполагается, что при предъявлении ЛПР вектора параметров X, а также соответствующих значений всех частных критериев оптимальности фх(X),ф2(X),...,фт(X), ЛПР может оценить соответствующее значение своей функции

предпочтений Ц/(X).

В работе [2] предложен класс прямых адаптивных методов решения МКО-задачи, основанных на аппроксимации функции предпочтений ЛПР Ц/(X). Использование нейронных сетей для аппроксимации функции Ц/(X) рассмотрено в работах [3, 4]. В данной работе аппроксимация функции предпочтений ЛПР Ц/(X) выполняется с помощью аппарата нейро-нечеткого вывода ANFIS (Adaptive Neuro-Fuzzy Inference System) [5].

Гибридные нейро-нечеткие системы находят существенно более широкую область применения, чем другие методы синтеза нечетких множеств и нейронных сетей [5]. Это связано с тем, что такие системы позволяют наиболее полно использовать «сильные» стороны нечетких систем (интерпретируемость накопленных знаний) и нейронных сетей (способность обучаться на данных). Характерной чертой гибридных систем является то, что они всегда могут быть рассмотрены как системы нечетких правил, при этом настройка функций принадлежности в предпосылках и заключениях правил на основе обучающего множества производится с использованием алгоритмов обучения нейронных сетей. Такие системы не только используют априорную информацию, но могут приобретать новые знания, являясь логически «прозрачными».

В первом разделе работы приводится постановка МКО-задачи. Во втором разделе представлена схема метода решения задачи. В третьем разделе обсуждается алгоритм и

программная реализация метода. Четвертый раздел посвящен исследованию эффективности нейро-нечеткой аппроксимации функции предпочтений ЛПР. В заключение формулируются основные выводы.

1 Постановка МКО-задачи

Пусть X - вектор варьируемых параметров задачи. Множеством допустимых значений вектора X является ограниченное и замкнутое множество DX = П П D, где

П = {X | к- < л. < л+.,/ е [1: п]} а Rn - «технологический» параллелепипед допустимых значений вектора параметров; множество D формируют ограничивающие функции gj (X), так что D = {X | gj(X) > 0, у = 1,2,...} с Я"; Я" - "-мерное арифметическое

пространство.

Векторный критерий оптимальности Ф(Х) = ф2(X),...,фm(X)) со

значениями в критериальном пространстве Ят определен в параллелепипеде П. ЛПР стремится минимизировать на множестве DX каждый из частных критериев

оптимальности фх( X), ф2( X),..., фт( X) , что условно записывается в виде

тш Ф (X) = Ф (X*), X е DX, (1)

где X * - искомое решение МКО-задачи. Полагаем, что все частные критерии оптимальности тем или иным образом нормализованы, так что фх (X) е [0,1], I е [1: т].

Обозначим р(X, Л) операцию свертки частных критериев оптимальности, где Ле DЛ с Ят - вектор весовых множителей; DЛ = {А. | > 0, ^ = 1, / е[1: т]}-

множество допустимых значений этого вектора.

При каждом фиксированном векторе Л е DЛ метод скалярной свертки сводит

решение задачи (1) к решению однокритериальной задачи глобальной условной оптимизации (ОКО-задачи)

Отметим, что в случае аддитивной свертки р(X, Л) вектор X * принадлежит множеству эффективных по Парето векторов [1]. Для произвольной скалярной свертки вектор X *, полученный в результате решения задачи (2), вообще говоря, не принадлежит множеству Парето.

Обозначим DФ - критериальное множество (множество достижимости) задачи, т.е. множество, в которое векторный критерий оптимальности отображает множество DX. Ограничимся случаем, когда множество достижимости DФ задачи (1) является выпуклым. Тогда при каждом Ле ЦЛ решение задачи (2) единственно, и это условие (2) ставит в соответствие каждому из допустимых векторов Л единственный вектор X *, а также соответствующие значения частных критериев оптимальности

фх(X ),ф2(X ),...,фт(X ) [1]. Данное обстоятельство позволяет полагать, что функция предпочтений ЛПР определена не на множестве DX, а на множестве ЦЛ:

у : Л^ R.

В результате МКО-задача сводится к задаче выбора вектора Л* е ЦЛ такого, что

таху (Л) = у (Л*), Л е ЦЛ. (3)

Поскольку обычно т << п, переход от задачи (1) к задаче (3) важен с точки зрения уменьшения вычислительных затрат.

Если используется аддитивная свертка и множество достижимости Цф является

выпуклым, то выражение (2) задает взаимно однозначное отображение множества ЦЛ на фронт Парето задачи Ц*ф [1]. При этом, как отмечалось, для любого ЛеЦЛ вектор X*, являющийся решением задачи (2), принадлежит множеству Парето Ц*]{ .

Отметим, что если вместо аддитивной свертки используется свертка Джоффриона, то взаимно однозначное отображение множества ЦЛ на множество Цф имеет место и в случае, когда множество достижимости Цф не является выпуклым [6].

Величину у будем считать лингвистической переменной со значениями от

о

«Очень-очень плохо» до «Отлично». Ядро нечеткой переменной у обозначим у , так что

о

значению переменной у «Очень-очень плохо» соответствует у = 1, а значению «Отлично» - у = 9 .

В результате МКО-задача сводится к задаче отыскания вектора Л* е ЦЛ,

о

обеспечивающего максимальное значение дискретной функции у (Л) :

таху(Л) = у/(Л ) = у , ЛеД. (4)

л Л

2 Метод решения задачи

Общая схема рассматриваемого метода является итерационной и состоит из следующих основных этапов [7].

Этап «разгона» метода. МКО-система некоторым образом (например, случайно) последовательно генерирует k векторов Л1, Л2,..., Лk и для каждого из этих векторов

выполняет следующие действия:

1) решает ОКО-задачу

шах^(X, Л.) = (р(X*, Л.), X е Бх, i е[1: к]; (5)

2) предъявляет ЛПР найденное решение X*, а также соответствующие значение всех частных критериев оптимальности ф1 (X*), ф2 (X*),..., фш (X*);

3) ЛПР оценивает эти данные и вводит в МКО-систему соответствующее значение

о

своей функции предпочтений у (Лг-) .

Первый этап. На основе всех имеющихся в МКО-системе значений Л1,Л2,...,Лк вектора Л и соответствующих оценок функции предпочтений у (Л 1), у(Л 2),..., у (Л к ) МКО-система выполняет следующие действия:

1) строит функцию у1(Л), аппроксимирующую функцию у (Л) в окрестности точек Л1, Л2,..., Лк;

2) отыскивает максимум функции у 1 (Л) - решает задачу

таху 1 (Л) = у (Л*), Ле DЛ;

3) с найденным вектором Л* решает ОКО-задачу вида (5) - находит вектор параметров и соответствующие значения частных критериев оптимальности, а затем предъявляет их ЛПР; ЛПР оценивает указанные данные и вводит в систему

соответствующее значение своей функции предпочтений у(Л1).

Второй этап. На основе всех имеющихся в системе значений Л1,Л2,...,Лк,Л1 вектора Л и соответствующих оценок функции предпочтений

у (Л1), у (Л 2),..., у (Л к ), у(Л*) МКО-система выполняет аппроксимацию функции

(//(Л) в окрестности точек Л15Л2,...,Лк,Л* - строит функцию у2(Л) и т.д. по схеме

первого этапа до тех пор, пока ЛПР не примет решение о прекращении вычислений.

На каждой итерации ЛПР может выполнить «откат» с целью изменения введенных ранее оценок своей функции предпочтений [3].

3 Алгоритм и программная реализация метода

Входами системы нечеткого вывода являются значения весов частных критериев оптимальности - нечеткие термы X к, г, j = 1,2,..., к е [1: т]. Выходной переменной

о

системы нечеткого вывода является лингвистическая переменная у, ядро которой у принимает значения 1, 2,..., 9.

Взаимосвязь между входными и выходными переменными описывается нечеткими правилами вида

ЕСЛИ <значения входных переменных>, ТО <значение выходной переменной>. Совокупность значений указанных нечетких входных переменных, выходных лингвистических переменных, а также правил нечетких продукций образуют нечеткую базу знаний.

Используется адаптивная нейро-нечеткая система вывода функционально

эквивалентная системам нечеткого вывода Сугено. Вывод выполняется за два шага. На первом шаге осуществляется формирование базы знаний и системы нечеткого вывода Сугено, а также грубая настройка модели /(Л). На втором шаге производится тонкая

настройка модели /(Л), заключающаяся в подборе таких параметров функций принадлежности, которые минимизируют различие между экспериментальной и желаемой» моделями.

3.1 Формирование базы знаний и системы нечеткого вывода Сугено. Положим, что выполнено N экспериментов по определению значений лингвистической переменной у . Пусть в п1 этих экспериментов переменная у приняла значение у , в п2

опытах - значение /2 и т.д. до п9 и у9. Соответствующие входные векторы Л обозначим Л. . =(Я.,.Д,Я.^.2,...,Я.^.„)еDл, где г е ] е[1:п.].

Матрицу знаний |Л ]к, i е [1:9], j е [1: п. ], к е [1: ш]} можно представить в виде

следующей системы логических высказываний

ЕСЛИ (Л = Лш) и (Л = Я,112) И ... И (Л„ = Я, ^) ИЛИ

(Л = Л,,2,1) и Я = Я,.,2,2) И ... И (Ят = Л,^) ИЛИ

(Л = Лщ д) И (Л2 = Л,.,п, ,2) И ... И (Яш = Л,ч,ш), ТО . С использованием операций объединения и пересечения множеств эта система высказываний может быть переписана в более компактном виде

U

П = К,)

k=1

, i е [1:9].

1=1

База знаний Сугено отличается от базы знаний Мамдани лишь тем, что заключения правил задаются не нечеткими термами, а линейной функцией входов [5].

Во введенных обозначениях нечеткий логический вывод Сугено включает в себя следующие операции.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1) Фаззификация. Для данного вектора Л определяем значение многомерной функции принадлежности

где w. - веса нечетких правил; V, Л - символы логических операций «ИЛИ», «И»; jf,k е [0,1] - функция принадлежности весового множителя Лк терму Л1]к.

2) Агрегирование - это операция определения степени истинности условий по каждому из правил системы нечеткого вывода. При вычислении значений функции принадлежности J (Л) в качестве операций «И», «ИЛИ», «импликация» используем операции prod, max, min соответственно.

3) Активизация - нахождение степени истинности каждого из подзаключений правил нечетких продукций. Во-первых, находятся значения степеней истинности ci всех

заключений правил нечетких продукций. Это выполняется с использованием метода min-активизации. Во-вторых, осуществляется расчет обычных (не нечетких) значений выходных переменных каждого правила.

4) Аккумуляция - нахождение функции принадлежности для каждой из выходных лингвистических переменных. В данной задаче эта операция фактически отсутствует, поскольку расчеты осуществляются с обычными действительными числами у 1.

5) Дефаззификация - нахождение обычного (не нечеткого) значения для каждой из выходных лингвистических переменных. Для дефаззификации используется метод центра тяжести для одноточечных множеств:

Ё су>

У =

1=1

Ё с

Здесь п - общее количество активных правил нечетких продукций, в подзаключениях у которых присутствует выходная лингвистическая переменная у1.

3.2 Настройка параметров функций принадлежности. Тонкая настройка модели у (Л) (параметрическая идентификация модели) заключается в настройке параметров функций принадлежности на основе обучающего множества с помощью нейронных сетей.

Система вывода АОТК реализуется в виде нейроподобной структуры, состоящей из пяти слоев (рис. 1).

Рис. 1. Структура нейро-нечеткой сети А№1Б

Нейроны первого слоя служат для представления термов входных переменных. При конкретных (заданных) значениях входов на выходе слоя формируются значения функций принадлежности /л1(Х1),..., и4(Я2).

Нейроны второго слоя исполняют роль антецедентов (посылок) нечетких правил. Выходами этого слоя являются степени истинности предпосылок wi каждого правила

базы знаний системы.

Нейроны третьего слоя служат для нормализации степеней выполнения правил.

Выход wi i-го нейрона этого слоя представляет собой отношение степени истинности

предпосылки i-го правила к сумме степеней предпосылок всех правил.

Четвертый слой предназначен для вычисления заключений правил. Здесь

где {pi, qi, г }- набор параметров данного слоя (так называемые параметры вывода).

Пятый слой выполняет агрегирование результата, полученного по различным правилам. Единственный нейрон этого слоя вычисляет выходное значение сети.

Для обучения сети АОТК в работе используется гибридный градиентный метод [5].

Для оценки погрешности нечеткой нейронной сети строится функция ошибки

представляющая собой среднеквадратическое отклонение между фактическими

значениями выходной переменной у/(Лi) и точечной оценкой Ц/(Лi), полученной на

основе нечеткого вывода. Здесь а, Ь - параметры функций принадлежности первого слоя нечеткой нейронной сети; р, ц, г - параметры четвертого слоя нечеткой нейронной сети.

3.3 Генерация нечетких правил. В процессе решения задачи система вывода АОТК имеет возможность приобретать новые знания, поэтому база знаний не остается фиксированной, а модернизируется по мере поступления экспериментальных данных. Поэтому топология нечеткой нейронной сети также меняется по мере приобретения новых знаний. Для модификации топологии нечеткой нейронной сети используется процедура, предложенная в работе [5].

Пусть исследуемый объект имеет на входе и-мерный вектор х, на выходе - число у. Пусть кроме того «истинное» описание объекта имеет вид

где Д.х) - неизвестная функция, е - случайная аддитивная помеха. Предположим, что может быть реализован эксперимент, заключающийся в регистрации N наборов значений

= Р,\+ + Г,

(6)

У = f (х) + е,

< л.. >, /=1,...,^ При этом компоненты вектора х, измеряются без ошибок, значение величины N при необходимости допускает модификацию.

Алгоритм построения системы вывода имеет следующий вид.

ШАГ 1. Из ш, (ш < К) произвольных наборов значений < дг,,г7, > составляется начальная база знаний модели.

ШАГ 2. Для каждого нового экспериментального набора < д\, V- > определяется прогнозируемое значение у величины у. ШАГ 3. Проверяется неравенство

где £ - заданная константа, определяющая погрешность аппроксимации. При выполнении

неравенства база знаний системы пополняется.

ШАГ 4. Проверяется выполнение правила останова. Если это правило выполнено, то алгоритм завершается; если правило не выполнено, алгоритм переходит к шагу 2.

Исследование выполнено для двух двумерных двухкритериальных задач и одной трехмерной трехкритериальной тестовых задач.

Задача 1. Двухкритериальная задача 1, имеющая выпуклый фронт Парето:

П :ЕСЛИх,естьх,ихпестьхпи...их естьх ,ТОу = у ,г = 1,...,т.

г 1 г 1 2 г2 п гп^ у у г^ 11

4 Оценка эффективности метода

ф^) = (х -5)2 + х22 +10; ф2(X) = х2 + (х2 -5)2 + 20; Вх = {X | 0 < хг < 5, г = 1,2}. Задача 2. Двухкритериальная задача 2 (невыпуклый фронт Парето) [8]:

/ (X) = 1 + 9х2; Dх = {X |0 < хг < 1, г = 1,2}. Задача 3. Трехкритериальная задача 3 (выпуклый фронт Парето):

ф (X) = (х - 5)2 + х22 + х32 +10; ф2 (X) = х2 + (х2 - 5)2 + х32 + 20;

ф3^) = х^ + х22 + (х3 - 5)2 + 5;

Dх = {X|0<хг <5,г = 1,2,3}.

Частные критерии оптимальности нормализованы следующим образом:

ф х)=^ЬФГ£[01].

1 фшах фШ1П

Здесь ф™" = min ф1(X), фшах = шахф1(Х); X е DX, 1 е^Ш.

Приняты следующие обозначения:

• tconv, tpref - время решения задачи (2) и (3) соответственно;

• tother - прочее время;

• titer - время выполнения одной итерации метода, titer = t+t pmf + ^;

• sa - ошибка аппроксимации, вычисляемая по формуле (6).

Эксперименты выполнены на персональном компьютере, имеющем следующие значения основных параметров: процессор - Intel Core2 Duo E8400; 3.00 ГГц; оперативная память - 2.00 Гбайт.

4.1 Задача 1 (МКО-задача 1). Критериальное множество МКО-задачи 1 представлено на рис. 2. Исследование выполнено для k = 3 «разгонных» значений Л1, Л2,..., Лk вектора Л. В процессе экспериментов ЛПР полагало, что «отличным» значениям его функции предпочтений соответствуют следующие значения критериев оптимальности: ф1 е 0,190 0,225, ф2 е 0,270 0,310.

Процесс решения задачи иллюстрирует таблица 1, где r - номер итерации, серым цветом выделены «разгонные» итерации; Х2 = 1 - Я1.

Рис. 2. Множество достижимости DФ МКО-задачи 1

Вид функции у(Л) после 7 итераций представляет рис. 3. Здесь и далее светлые кружки соответствуют значениям функции предпочтений ЛПР на промежуточных итерациях метода, которые образуют правые части нечеткой базы знаний.

Таблица 1. Результаты решения МКО-задачи 1

г Л & ф2 у Г conv t, 1

1 0.00 0.97 0.00 1 1.47

2 0.79 0.04 0.63 4 1.48

3 0.55 0.20 0.30 9 1.48

4 0.65 0.11 0.42 7 1.49 6.12 7.65 0

5 0.55 0.19 0.30 9 1.48 4.84 6.34 0

6 0.55 0.19 0.30 9 1.50 5.50 7.03 0

7 0.55 0.19 0.30 9 1.46 5.98 7.49 0

ю

------"1 -------

Е

7

г

1 * / 1 * / * «

'1 М* ■ 1

* 1 к 1 1 Г 1

0 0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 8 0.9 1 А]

Рис. 3. Функция предпочтений ЛПР у/(А): МКО-задача 1; число «разгонных» точек к = 3; 7-я итерация

Оптимальное решение было найдено всего за пять итераций (в этой и последующих задачах в число итераций включаются и «разгонные» итерации). Отметим, что в исследовании [7] оптимальное решение этой же задачи было найдено за восемь итераций.

На рис. 4 представлена структура полученной нейро-нечеткой сети Здесь

и далее для удобства слой 2 и слой 3 (см. рис. 1) объединены в один слой, узлы которого показаны синими кружками.

ш(Х0

Н Ь)

т ^

Рис. 4. Структура нейро-нечеткой сети А№1Б

4.2 Задача 2 (МКО-задача 2). На рис. 5 представлено критериальное множество МКО-задачи 2. В процессе экспериментов ЛПР полагало, что «отличным» значениям его функции предпочтений соответствуют следующие значения критериев оптимальности:

ф1 е 0,020 - 0,030, ф2 е 0,210 0,225. ф2

1

0 9 0.8 0.7 0 6 0 6

0 4 0.3 0.2

01 0

Рис. 5. Множество достижимости DФ МКО-задачи 2

Решение этой задачи потребовало семь итераций (для сравнения, в работе [7] для этого потребовалось 11 итераций). Процесс решения задачи иллюстрирует таблица 2, а результат решения - рис. 6. В данной задаче количество узлов первого слоя получилось равным семи (рис. 7).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Таблица 2. Результаты решения МКО-задачи 2

Г Л Ф. ф2 У г сот грге/ г, ¡гвг

1 0.24 0.04 0.19 6 2.12

2 0.00 1.00 0.00 1 1.97

3 0.57 0.03 0.20 7 2.73

4 1.00 0.00 0.29 2 1.34 6.34 7.75 0

5 0.76 0.00 0.29 3 3.22 4.30 7.56 0

6 0.64 0.02 0.21 8 2.62 4.08 6.72 0

7 0.67 0.02 0.22 9 3.04 3.37 6.44 0

8 0.70 0.02 0.23 9 2.58 4.21 6.82 0

9 0.69 0.02 0.23 9 2.74 3.93 6.71 0.0040

10 0.69 0.02 0.23 9 2.80 3.36 6.20 0.0172

ю

\ 1 I

5 * ' !

о 0-1 0 2 0 3 0 4 0.5 0.5 0.7 0.0 0.9 1 Л!

Рис. 6. Функция предпочтений ЛПР у/(Л): МКО-задача 2; число «разгонных» точек k = 3 ; 10-я итерация

На рис.7 представлена структура полученной нейро-нечеткой сети А№1Б.

Рис.7. Структура нейро-нечеткой сети А№1Б

4.3 Задача 3 (МКО-задача 3). Критериальное множество МКО-задачи 3 представлено на рис. 8.

При k = 3 «разгонных» точках решение задачи потребовало девять итераций (в исследовании [7] решение этой же задачи потребовало 14 итераций). Процесс решения задачи иллюстрирует таблица 3. Вид функции у(Л1,Я2) после 13 итераций представляет рис. 9 (напомним, что А3 = 1 — А1 — А2). На рис. 10 изображены линии уровня этой функции.

Рис. 8. Множество достижимости DФ МКО-задачи 3

Таблица 3. Результаты решения МКО-задачи 3

Г А А2 Ф1 ф2 ф3 У t сот Хрте/ г Хет ^ а

1 0.14 0.45 0.36 0.16 0.19 6 2.11 0 0 0

2 0.35 0.27 0.20 0.26 0.19 8 2.08 0 0 0

3 0.21 0.46 0.31 0.14 0.23 8 2.10 0 0 0

4 0.22 0.58 0.32 0.08 0.35 7 2.04 14.75 23.26 0

5 0.19 0.80 0.43 0.02 0.56 3 2.20 7.47 16.67 0

6 0.23 0.47 0.29 0.13 0.26 8 2.03 11.69 21.32 0

7 0.37 0.27 0.19 0.26 0.21 8 2.00 15.28 24.88 0

8 0.36 0.25 0.20 0.27 0.19 7 2.11 19.06 28.79 0

9 0.35 0.31 0.21 0.23 0.22 9 2.04 11.79 22.32 0

10 0.34 0.33 0.21 0.22 0.23 9 2.13 14.41 26.01 0

11 0.22 0.47 0.30 0.14 0.25 8 2.14 12.45 24.10 0

12 0.34 0.32 0.21 0.22 0.22 9 2.12 17.88 29.52 0

13 0.33 0.31 0.22 0.23 0.21 9 2.08 19.42 31.03 0

У(Л)

ю в

б 4 2 0

и

1

Рис. 9. Функция предпочтений ЛПР у (Л) : МКО-задача 3; число «разгонных» точек к = 3 ; 13-я итерация

Рис. 10. Линии уровня функции предпочтений ЛПР Ц/(Л) : МКО-задача 3; число «разгонных» точек к = 3; 13-я итерация

На рис. 11 изображена структура полученной нейро-нечеткой сети А№1Б.

Рис.11. Структура нейро-нечеткой сети А№1Б

На рис. 12 показана зависимость времени выполнения одной итерации алгоритма от номера итерации. Из рисунка видно, что время выполнения итерации слабо зависит от ее номера. Здесь левая шкала относится к МКО-задаче 3, правая шкала - к МКО-задаче 1 и МКО-задаче 2.

35

30

25

20

10 9.5

В.5

- 7.5

6.5

5.5

15

м ■ м - КО-злд'ча 1 №мдпй 2 КОоддичи 3 ---

\ —-- ^.....

Д....... \ V А ¿Г^/ £ /

\ .....

\ \ 7

1

12Э45673 9 10

Рис. 12. Время выполнения одной итерации 1иег как функция номера итерации к

Заключение

Разработан прямой адаптивный метод решения МКО-задачи, основанный на аппроксимации функции предпочтений ЛПР с помощью аппарата нейро-нечеткого вывода. Выполнено исследование эффективности метода, показавшее перспективность его развития. Метод реализован в виде Ма1ЬаЬ программы PREF-ANFIS.

Результаты исследования показывают, что для всех трех рассмотренных МКО-задач аппроксимация функции предпочтений ЛПР с помощью нечеткой логики позволяет найти решение задачи не более чем за 10 итераций. По сравнению с методом на основе нечеткой аппроксимации функции предпочтений ЛПР, рассмотренным в работе [7], данный метод позволяет получить решение МКО-задачи за меньшее число итераций. Это можно объяснить следующим образом. Теорема Ванга, являющаяся теоретической

основой аппроксимации функций с помощью аппарата нечетких множеств, не накладывает никаких ограничений на параметры функций принадлежности переменных. В то же время в методе, рассмотренном в исследовании [7], такие ограничения наложены, что, естественно, сказывается на качестве аппроксимации. Таким образом, нейро-нечеткий вывод предоставляет собой более гибкий механизм для аппроксимации функции предпочтений. Другим достоинством данного метода является то, что время, необходимое для выполнения итерации в этом случае меньше по сравнению со временем, которое требуется для решения МКО-задач методом, предложенным в работе [7].

Литература

1. Лотов А.В. Введение в экономико-математическое моделирование / А.В. Лотов.-М.: Наука, 1984.-392 с.

2. Карпенко А.П. Один класс прямых адаптивных методов многокритериальной оптимизации / А.П. Карпенко, В.Г. Федорук // Информационные технологии.- 2009.-№5.- С. 24-30.

3. Карпенко А.П. Нейросетевая аппроксимация функции предпочтений лица, принимающего решения, в задаче многокритериальной оптимизации / А.П. Карпенко, Д.Т. Мухлисуллина, В.А. Овчинниокв // Информационные технологии.- 2010 (в печати).

4. Мухлисуллина Д.Т. Исследование погрешности нейросетевой аппроксимации функции предпочтений лица, принимающего решения. [Электронный ресурс] / Д.Т. Мухлисуллина // Электронное научно-техническое издание: наука и образование. - 2009.- №12. (http://technomag.edu.ru).

5. Круглов В.В. Искусственные нейронные сети. Теория и практика / В.В. Круглов, В.В. Борисов.- М.: Горячая линия - Телеком, 2002. - 382 с.

6. Черноруцкий И.Г. Методы принятия решений / И.Г. Черноруцкий. - СПб.: БХВ-Петербург, 2005.-416 с.

7. Карпенко А.П. Многокритериальная оптимизация на основе нечеткой аппроксимации функции предпочтений лица, принимающего решения / А.П. Карпенко, Д.А. Моор, Д.Т. Мухлисуллина // Электронное научно-техническое издание: наука и образование.-2010.- №1 (http: //technomag.edu. ru/doc/ 135375.html).

8. Лобарева И.Ф. Многоцелевая оптимизация формы лопасти гидротурбины / И.Ф. Лобарева, С.Г. Черный, Д.В. Чирков, В.А. Скороспелов, П.А. Турук // Вычислительные технологии, Том 11, №5, 2006. С.63 - 76.

9. Леоненков А. Нечеткое моделирование в среде МАТЬАВ и FuzzyTECH / А. Леоненков.- СПб.: БВХ-Петербург, 2005.- 736 с.

10. Штовба С.Д. Введение в теорию нечетких множеств и нечеткую логику / С.Д. Штовба.- Режим доступа: http//www.matlab.exponenta.ru, свободный.

11. Штойер Р. Многокритериальная оптимизация. Теория, вычисления и приложения / Р. Штойер.- М.: Радио и связь, 1992.- 504 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.