ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ ©
УДК004.93
МОДЕЛИ ПОКАЗАТЕЛЕЙ ДЛЯ АНАЛИЗА И СРАВНЕНИЯ СВОЙСТВ НЕЙРОННЫХ И НЕЙРОНЕЧЕТКИХ СЕТЕЙ ПРИ РЕШЕНИИ ЗАДАЧ ДИАГНОСТИКИ И ПРОГНОЗИРОВАНИЯ
СУББОТИН С. А._____________________________
Разрабатывается комплекс моделей показателей, позволяющих оценивать такие свойства нейронных и нейронечетких моделей, как нелинейность, автономность, обобщение, робастность, симметрия, уверенность в принятии решения, эквивалентность, адаптивность, чувствительность. Предложенные показатели могут быть использованы для сравнения и выбора нейромоделей при решении задач диагностики и прогнозирования.
1. Введение
Искусственные нейронные и нейронечеткие сети являются одной из наиболее перспективных технологий для построения моделей в задачах неразрушающей диагностики и прогнозирования состояния сложных технических объектов и систем [1-3].
Однако большое разнообразие известных методов синтеза и моделей нейросетей выдвигает перед разработчиком диагностической системы проблему выбора наилучшей нейромодели из множества возможных или синтеза оптимальной нейромодели.
Традиционно используемые критерии точности (ошибки), а также времени построения и работы нейромодели являются необходимыми, но недостаточными для обоснованного выбора нейромодели, поскольку не отражают множество других ее свойств [1, 4-6].
Целью данной работы является анализ свойств нейросетей и создание комплекса моделей для их количественного оценивания.
2. Постановка задачи
Пусть задана обучающая выборка < х, у > , где X = {xs}, Xs = {Xs}, у ={/}, У5 ={у®}, s = 1,2,..., Я j = 1,2,...,N, j = 1,2,...,NM,xs - s-й экземпляр выборки, - значение j-го признака s-го экземпля-
ра. s - число экземпляров выборки, N - число ,,s ■
признаков, у j - значение 1-го выходного признака, сопоставленное s-му экземпляру выборки, на основе
которой синтезиров ана нейронная или нейронечеткая сеть.
Поскольку наиболее широко используемым типом сетей являются слоистые сети прямого распространения [1], будем характеризовать сети кортежем:
<М, {N^}, {<{м(>°}, Ф(1Ъ1), у(11Д)>}>
где М - число слоев сети; N ^ -количество нейронов (лі) •
В Т) -м слое сети; w '' - весовой коэффициент 1-ГО
• -1 (Л.І) '
входа 1-го нейрона П -го слоя; ф ' - дискриминан-. „ (п.О
тная функция 1-го нейрона г| -го слоя; ф ' - функ-
ция активации і-го нейрона г| -го слоя.
Также обозначим: Nj - число нейронов в сети, ф(і). ф(і) -соответственно, дискриминантная и активационная функции і-го нейрона (присплошной нумерации нейронов сети), \\ і j - вес связи между 1-М и j-м нейронами сети (если связь отсутствует, примем: wi,j =0), где i,j = 1, 2, ..., Np .
Для автоматизации сравнительного анализа нейромоделей необходимо разработать набор показателей, а также методы их расчета, отражающие важнейшие свойства нейромоделей.
Задачей данной работы является создание критериев для оценивания таких свойств нейромоделей, как нелинейность, автономность, обобщение, робастность, симметрия, уверенность в принятии решения, эквивалентность, адаптивность, чувствительность.
3. Показатели для анализа свойств нейромоделей, зависящие от выборки
Нелинейност ъ классификатора относительно выборки х в [7, 8] определяется как:
Ini(iiet) =
2 s s -----X Т О
scs-DSpi-!
iuiyKl,)(^+(i-^)^NlV)i
f=0
N ,
І ^""V s P\2 2>i ~xi) j=i ' J
Показатель нелинейности классификатора будет принимать значения в диапазоне [0, 1]: чем больше его значение, тем более нелинейной является модель. Недостатком данного показателя есть его применимость только для нейросетей с одним выходом, причем исключительно для задач классификации.
Для нейромоделей прямого распространения с несколькими выходами для задач оценивания определим показатель нелинейности:
2 S S
Inl(net)= max {V £т}
S(S 1) i-1.2..NM s=lp=s+l
Нелинейность обучающей выборки < х, у > определим как:
2 S S
ІПІ (< X, у >) = ~ V У (cxpl-Tj) X схр(т2 ))
S(S -1) s=lp=s+1 ’
РИ, 2009, № 3
51
М-Ф2
її = max {-----------------—1----------------—[
i=l,2,...,NM max {yf}- min {yf}
g=1.2...S • g=1.2...S •
T2= —
N
N
Z-
<xM>2
j=l( max {xf}- min g=l,2,...,S J g=1.2....
g\\2
-1.
{xf}) .S J
На основе введенных показателей определим показатель соответствия нелинейностей выборки и нейромодели:
j Іпі(<х,У>)
Ы Inl(net)
Если данный показатель будетравен единице, то можно заключить, что сеть соответствует выборке по сложности. Если показатель будет меньше единицы, то чем меньше его значение, тем больше будет проявляться эффект переобучения, а также это будет свидетельствовать о возможной избыточности сети. Если значение показателя превысит единицу, то сеть является недостаточной для качественной аппроксимации (требуется дообучение или изменение структуры сети).
Условие компактности класса, в соответствии с [9], состоит в том, что число экземпляров на границе класса мало по сравнению с общим числом экземпляров данного класса.
Соответственно, для q-ro класса определим показатель компактности:
Is N .
icomp^1"— L'»l|yS =<L min {X(x--x?)2} <
Sqs=l p=\.2.S: j=1 J J
S?ip,ys ^yp
N ,
< min {^(Xj-xf)2}}
&---12.S: j=i J J .
s^g,yS=y8
Здесь Sq - количество экземпляров выборки, принадлежащих к q-му классу.
Значение показателя компактности класса будет находиться в диапазоне от 0 до 1. Чем больше значение показателя компактности, тем легче отделить данный класс.
Для всего набора классов определим усредненный показатель компактности:
1 к Tavg _J_yTq
щошр _ ^ ZHcomp’
К
q=l
где К - количество классов.
Данный показатель является усредненной характеристикой разделимости классов.
Также определим минимальный показатель компактности классов:
Tmin _
‘comp _
q=
Чем меньше значение минимального показателя компактности классов, тем сложнее будет задача разделения классов и, соответственно, тем хуже используемый набор признаков.
В задачах оценивания предлагается осуществлять предварительное квантование значений выходной переменной, преобразуя задачу оценивания в задачу классификации. Если задана максимально допустимая суммарная ошибка в для выборки < х, у > с вещественным выходом у, то номера классов для выборки предлагается определять по формуле:
ys = 1 + round(— (ys - min {yP})) є p=l,2.....................S ’
где round - функция округления.
Обобщение - способность нейросетей после обучения на основе обучающей выборки выдавать ответы для экземпляров тестовой выборки, подобных экземплярам обучающей выборки, но не входивших в нее [10].
Определим показатель обобщения нейромодели для обучающей < х, у > и тестовой < х*, у* > выборок как:
mm {Icomp}-1,2,....К F
IG =1-ехр(-^ L»-^-Z(xj -xf )2 |u>0})
p=l
j=l
N
s = arg
І р*ч2
x- - xt )
min X(x -xj t=l,2...Sj=1 J J
E= Z (*<*WyfV.o- Itvf-jf )2,
i=l i=l
где
X* = {xP*} ,xP* = {x?*}, V* = {yP*} ,yP* ={yf}, j = 1,2,. ,.,N,
і = 1,2,..., Nm,p = 1.2....,T, T -количествоэкземпляров в тестовой выборке.
Показатель обобщения будет принимать значения в диапазоне от 0 до 1 и будет тем больше, чем меньше ошибка сети при распознавании экземпляра, а отличие распознаваемого экземпляра от ближайшего по свойствам экземпляра обучающей выборки - больше.
Робастность - свойство нейросети надежно решать задачу при получении неполных и / или поврежденных данных. Кроме того, результаты должны быть состоятельными, даже если некоторая часть сети повреждена [10].
Робастность нейросети по отношению ко входным сигналам определим как нормированное наименьшее изменение во входном сигнале, приводящее к существенному увеличению ошибки сети:
52
РИ, 2009, № 3
min(ii,T2)— min {х*} субъективную оценку нейронной сети принятого ре-
с-1 9 с J
(____________а .....д_____і шения:
тХ ■ , s=i,2..S
TRb = • min !---------------с--------------Г'
J=l. 2..N max {xs}- min {xs} ’
J s=l,2....S J
4 =
s=1.2..S
min
- относительно значения на 1-м выходе сети для экземпляра Xs, поданного на ее входы:
I av .»
SN,
1 S NM
X X
т2 =
SN
М 8=1 І=1
1 s NM
X X
М s=l i=l
( г
ч/ш> о* Xs
V 'v
х| =x|,Vb^j,b=l,2,...JST
Xj =xj +Axj
Л ^ -Уі
>e
I cert (x ) = min {
j=1.2...NM:
j-i
<Ma)(xS)_ (Мл)
_____v ’ 1 mm
(M.i) (M.i)
M'max ‘min
( Ґ
Vм'0 Xs*
V
min
х|*=хи.УЬ»].Ь=1.2..N
x**=Xj — AXj
{Ax,;}
-У,
>E
где
Ax; = min {xs} + Sx( max {xs}- min {xs})
s=l,2,...,S
, max Jx-}-8? s=l.2..S ■' ‘
s=l,2,...,S
s=l,2,...,S \
max {x ■} — min {x-} va=L2......S ■' s=l,2,...,S J
6X€:(0,1)
v(MJ)(xs}_ (MJ)
(1---------------ПИП—)}
Tmax t7 min
где н4іщ.\*- чС> - соответственно, максимальное
и минимальное граничные значения функции активации і-го нейрона последнего слоя нейросети;
- усредненную для выборки х:
. S NM
- константа, регулируютая точность определения показателя робастности по входам сети.
Робастность нейросети по отношению к весам сети определим как нормированное наименьшее измене-
Wx) =
SN
£ £ Icert(xS).
М s = 1 і=1
Показатели субъективной уверенности будут принимать значения в интервале [0,1]: чем выше значение показателя, тем ближе по свойствам распознаваемый
ние значении весов, приводящее к существенному экземпляр к сформированным сетью эталонам и тем увеличению ошибки сети:
.W
'Rb
і min {■ j=l-2....Nw
ішп(ті,т2)-
\Y
min
\Y
max
, - w
}
mm
H = mm
s=l i=l V
j=Wj+Aw -уї >є
T2 =
mm
S NM
больше сеть уверена в принимаемом решении.
Эквивалентност ъ: две нейросети эквивалентны, если ’ они имеют одинаковые наборы ответов [10] (одинако-
{Aw •} В0 РеагиРУют на ОД1™ и те же входные стимулы).
Коэффициент эквивалентности обученных нейромоделей net 1 И net 2 для выборки < х, у > определим
Г А 1 КЗК:
{Aw;}
777^ XT (Ч/(М’°(Х*
alNM s=l І=1
W j =Wj -Aw)-y- )2 >8
1
S N
M
Ieq (net] . net9 ) = ЄХр( —7- У £ (\|/^Nm (Xs ) -
" ^Ms=ii=i
(Nv.-ib s4 ~
где '1 (x ) - значение на выходе /-го нейрона
последнего слоя k-й сети при подаче на входы сети S
экземпляра х .
Значения коэффициента эквивалентности будут находиться в диапазоне от 0 до 1: чем подобнее ответы сетей при одинаковых входных воздействиях, тем больше будет значение коэффициента эквивалентности.
Адаптивность - свойство структур динамически и
где
Awj ="mm+6\v(wmax~vvniin)-----'vmax-8vv(\vmax-\vmin)
8W є (б, l) - константа, регу лирующая точность определения показателя робастности по весам сети.
Интегральную оценку робастности нейромодели определим как: I rp = I • I ],Vj).
Интегральный показатель робастности нейромодели будет принимать значения в диапазоне [0, 1]. Чем ближе значение интегрального показателя робастности к нулю, тем меньше робастность сети, тем чув-ствительнеесетькизменению входных сигналов или самостоятельно изменить свое поведение в ответ на значений весов. Чем ближе будет значение интег- входной стимул [10].
рального показателя робастности к единице, тем Применительно к нейросетям адаптивность определя-болыие робастность сети, тем менее чувствительной СТ(Ж прсждс всего. пластичностью - пластичность будет сеть к изменению входных сигналов или зна- определяет ресурсы для адаптации: чем больше плас-
чении весов. точность, тем больше адаптивные свойства сети. Од-
Уверенность нейромодели в принимаемом решении нако пластичность - это необходимая, но недостаточ-в задачах распознавания образов определим как ная предпосылка адаптивности. Наряду с пластичностью на адаптивные свойства нейромодели влияет ее
2
РИ, 2009, № 3
53
чувствительность, которая определяет силу реакции сети на минимальное изменение значений ее параметров.
Таким образом, выделив важнейшие факторы, определяющие адаптивные свойства нейросетей, определим показатель адаптивности нейромодели как:
Однако такой подход оказывается вычислительно сложным.
В целях у прощения вычислений определим усредненный нормированный показатель чувствительности /го выхода нейросети к изменению входного сигнала как:
Iadapt - Ipl ' Itob
где Ipl -относительныйкоэффициентпластичности сети; 1^0] -показательчувствительности нейромодели к изменению входного сигнала.
Определим Ip] как:
Nl Nl Nl
(Е9Пр(ф(і))вПр(м/(і))) Z issp(i,j)
т і=і і=і j=i
Ір1 ~~ . КРахВ“ах(ф)В-ах(м/)^ ^roundf——)'
N pax — максимально возможное количество нейронов; У „р (element) - характеристика пластичности функционального элемента element нейрона (будем полагать &пр (element) равным числу возможных состояний элемента element: для дискриминантной функции /-го нейрона О„р (ср(0) будет равняться числу возможных видов дискриминантных функций, которые могут быть заданы для данного нейрона; для функции активации/-го нейрона $„р ( ф(0 )будетрав-няться числу возможных видов функций активации, которые могут быть заданы для данного нейрона);
»7W97W - соответственно, максимальные характеристики пластичности дискриминантных и активационных функций среди всех нейронов сети; IT _ w - соответственно, максимальное и минимальное возможные значения весов сети; Ди’ - минимально возможное изменение веса с учетом разрядности вычислительной сетки ЭВМ; round - функция округления к ближайшему целому числу; &sp (і, ]) — характеристика пластичности связи от 1-го нейрона к/-му (4 V/J (/. /) = 0, если связь не может существовать, либо связь жестко задана и ее вес не может изменяться; в остальных случаях:
max min wij “wij
9sd('-j) = round(-=-------—)
...max min
где v. j j , w j j - соответственно, максимальное и минимальное возможные значения веса связи от і-го нейрона к j-му; Awj j-минимально возможное изменение веса с учетом размера разрядной сетки ЭВМ.
Чувствительность нейронной сети ко входным сигналам в [6,11-13] характеризуют посредством расчетов частных производных функции ошибки сети.
41=-
схт/ max mm4 — :—
SN(y- -у- )s=lj=l
S N
У Утах(тьт2)
Т, =(НАмч)(х8*
х* = x?.b*j.b = 1.2.N.
b о J
xs =xs+A ■
Aj Aj T ^-Мр.ІГ
)->р2
* ч
■2 =(T<M-°(xs*
xj* = . b 5== j, b = 1.2...N.
xs =xs-A
ч S-.2
J
J
mm
1
где yF.yf"1 - соответственно, максимальное и минимальное граничные значения /-го выходного признака.
У средненный показатель чувствительности нейромодели к изменению входного сигнала определим как:
1 Nm і
1,01 = Nm ,?1 1101
Значения предложенных показателей чу вствительно-сти буду находиться в интервале [0, 1]. Чем выше значение показателя чувствительности, тем сильнее сеть реагирует на изменения во входном сигнале, тем больше категоризационные возможности сети. Однако слишком высокая чувствительность может свидетельствовать о слабой устойчивости сети к шумам и помехам во входном сигнале.
4. Показатели для анализа свойств нейромоделей, независящие от выборки
Автономность - способность агента действовать без непосредственного вмешательства человека путем осуществления контроля за собственными действиями и внутренним состоянием. Также автономность предполагает возможность обучения на основе опыта [10].
Поскольку обученные ис кусственн ые нейронные сети, как правило, в процессе своего функционирования при принятии решений не требуют участия человека, то они в равной степени обладают свойством автономности функционирования.
Однако в процессе обучения уровень автономности для различных нейросетей и различных методов обучения может существенно варьироваться. Поэтому будем рассматривать далее характеристики автономности нейросетей только применительно к процессу их обучения.
Поскольку способность к обучению обуславливается пластичностью, то автономность обучения (самоадап-
54
РИ, 2009, № 3
тивность) будем характеризовать показателем, зависящим от характеристик пластичности нейромодели. С другой стороны, зависимость процесса обучения нейромодели от человека будем характеризовать его влиянием (долей) на формирование структуры и параметров нейромодели. Объединяя данные соображения, получим показатель автономности метода обучения нейромодели:
N, . N, «1
laut
N
aut Z ^aut Z^aut(wij)
met i = l
i=l
N
met
Np
1 , „ i*
^aut - 2 (®aut + ®aut (Ф )+ ®aut (Ф )) -
где 9aul _ характеристика автономности фомирова-ния /-го элемента структуры сети, Q** ^ = 0, если включение (или невключение) г-го нейрона в сеть определяет ТОЛЬКО человек; 9^и1 = 1, если включение (или невключение) г-го нейрона в сеть определяется только автоматически методом обучения; = 0,5, если включение (или невключение) г-го нейрона в сеть может определять как человек, так и метод обучения; Э!|и1 (ф1 ). ) - характеристики авто-
номности выбора параметров структуры г-го нейрона сети: соответственно, дискриминантных и активационных функций (принимают равными нулю, если соответствующие параметры определяются только человеком; равными единице - если, параметры определяются только методом; равными 0,5 - если параметры могут определяться как человеком, так и методом); &aut(wij) - характеристика автономности настройки значения весового коэффициента связи между і-м и j-м нейронами (&ащ(\\ у)= 0, если вес задается только человеком; Эаи1(\\ у) = 1, если вес определяется автоматически методом обучения; 0ail( (\\ jj) = 0,5, если вес определяется как человеком, так и методом); N ^ - количество параметров
метода обучения, N jWet ~~ количество параметров метода обучения, значения которых определяются автоматически без участия человека.
Симметрия - пропорциональность, соразмерность в расположении частей целого в пространстве, полное соответствие (по расположению, величине) одной половины целого другой половине [ 14]. В нейросетях будем выделять симметрию структуры и симметрию связей.
Показатель симметрии связей нейромодели определим как:
1 N; N;
l-sym =------ІІЯк = w j і
Nf/6 i=lj=l ' ‘ ‘
Показатель симметрии структуры нейромодели определим как:
і 2 N<- Ni- і
Isym=------о------S Z 0Ф, =<Pj,Vi = 4/jl
' Nj " - Nj i=ij=i+i ' • ‘ ■
Общий показатель симметрии структуры и связей нейромодели определим как: Isvm = ISymISym. Соответственно, определим показатели асимметрии:
- структуры: Iasym = 1 - l'sym;
связен. laSym - 1 lSym,
-общийпоказатель: IaSym = 1 — І;упт 5. Заключение
Решена актуальная задача анализа свойств и разработки критериев сравнения нейромоделей.
Научная новизна работы заключается в том, что впервые предложен комплекс моделей критериев, характеризующих такие свойства нейронных и нейронечетких сетей, как нелинейность, автономность, обобщение, робастность, симметрия, уверенность в принятии решения, эквивалентность, адаптивность, чу вствительность, что позволяет автоматизировать решение задачи анализа свойств и сравнения нейросетевых и нейронечетких моделей при решении задач диагностики и прогнозирования.
Дальнейшие исследования могут быть сосредоточены на экспериментальном исследовании зависимостей между предложенными показателями, а также характеристиками обучающих выборок.
Работа выполнена как часть госбюджетной темы Запорожского национального технического университета "Информационные технологии автоматизации распознавания образов и принятия решений для диагностики в условиях неопределенности на основе гибридных нечеткологических, нейросетевых и мультиагентных методов вычислительного интеллекта”.
Литература: 1. Хайкин С. Нейронные сети. Полный курс. М.: Вильямс, 2006. 1104 с. 2. Субботін С. О. Неітеративні, еволюційні та мультиагентні методи синтезу нечітколог-ічних і нейромережних моделей: Монографія / С. О. Субботін, А. О. Олійник, О. О. Олійник; під заг. ред. С. О. Субботіна. Запоріжжя: ЗНТУ,2009. 375 с. 3. СубботінС.О. Подання й обробка знань у системах штучного інтелекту та підтримки прийняття рішень: Навчальний посібник. Запоріжжя: ЗНТУ,2008. 341 с. 4. СубботинС.А. Методика и критерии сравнения моделей и алгоритмов синтеза искусственных нейронных сетей // Радіоелектроніка. Інформатика. Управління. 2003. №2. С. 109-114. 5. Субботин С. А. О сравнении нейросетевых моделей / С. А. Субботин // Нейроинформатика и ее приложения: Материалы XI Всероссийского семинара, 3-5 октября 2003 г. / Под ред. А. Н. Горбаня, Е. М. Миркеса. Красноярск: ИВМ СОРАН, 2003. С. 152-153. 6.МиркесЕ.М. Нейроинформатика: Учеб, пособие для студентов. Красноярск: ИПЦ КГТУ, 2002. 347 с. 7. Hoekstra A. On the Nonlinearity of
РИ, 2009, № З
55
Pattern Classifiers / A. Hoekstra, R. Duin//PattemRecognition: Proceedings of the 13th International Conference (ICPR), 2529 of August, 1996, Vienna. IEEE: Los Alamitos, 1996. Vol. 4. P. 271-275. 8. Hoekstra A. Generalisation in Feed Forward Neural Classifiers: Proefschrift ter verkrijging van de graad van doctor. Delft: Technische Universiteit Delft, 1998. 136 p.
9. Биргер ИА. Техническая диагностика. М.: Машиностроение, 1978. 240 с. 10. Encyclopedia of artificial intelligence / Eds.: J. R. Dopico, J. D. de la Calle, and A. P. Sierra. New York: Information Science Reference. - Vol. 1-3. 1677 p. 11. Alippi C. Sensitivity to Errors in Artificial Neural Networks: A Behavioral Approach / C. Alippi, V. Piuri, M. Sami // IEEE Transactions on Circuits and Systems I: Fundamental Theory And Applications. 1995. Vol. 42. № 6. P. 358-361.1l.HashemS. Sensitivity Analysis forFeedforward Artificial Neural Networks with Differentiable Activation Functions // International Joint Conference on Neural Networks: Proceedings. Baltimore: IEEE, 1992. Vol. I. P. 419-
424. 13.TaoC.-W. Sensitivity Analysis ofNeural Control/С,-W. Tao, H.T. Nguyen, J.T. Yao, V. Kreinovich // The Fourth International Conference on Intelligent Technologies (InTech’03): Proceedings, December 17-19,2003. ChiangMai, 2003. P. 478-482. 14. Горбачев В.В. Концепции современного естествознания. В 2-х ч.: Учебное пособие. М.: Изд-во МГУП, 2000. 274 с.
Поступила в редколлегию 17.07.2009
Рецензент: д-р техн. наук, проф. Бодянский Е.В.
Субботин Сергей Александрович, канд. техн. наук, лауреат премии Президента Украины, доцент кафедры программных средств Запорожского национального технического университета. Научные интересы: интеллектуальные системы диагностики, нейронные и нейронечеткие сети. Адрес: Украина, 69063, Запорожье, ул. Жуковского, 64, тел.: (061) 769-82-67.
УДК519.68
МОДЕЛИРОВАНИЕ ПРИКЛАДНЫХ ЗАДАЧ ВЕКТОРНЫМИ ЗАДАЧАМИ НА КОМБИНАТОРНЫХ КОНФИГУРАЦИЯХ
КОЛЕЧКИНА Л.Н., РОДИОНОВА Е.А.___________
Векторная комбинаторная оптимизация является перспективным направлением исследований, поскольку с помощью таких задач можно описать сложные прикладные проблемы. Рассматривается постановка векторной комбинаторной задачи и поиск метода ее решения, а также построение моделей прикладных задач. Является продолжением исследований в данной области.
Введение. Необходимость принятия оптимальных решений возникает в самых разнообразных сферах человеческой деятельности. В зависимости от сложности и характера заданий этот процесс может быть интерпретирован как решение задачи векторной комбинаторной оптимизации. Такне задачи касаются поиска оптимальных значений целевой функции или функций путем выбора из множества возможных решений.
Многокритериальность или векторность задачи объясняется необходимостью достижения нескольких целей одновременно и выражается в наличии двух или более критериев оптимизации. Часто характер построения множества допустимых решений отображается в комбинаторных свойствах задачи, которая рассматривается на определенной комбинаторной конфигурации [1].
Длярешениязадач комбинаторной оптимизации были разработаны различные вычислительные методы. Наиболее перспективные из них выделились в отдельную область комбинаторного программирования. Общая идея этих методов состоит в замене полного перебора всех вариантов частичными переборами меньших объемов. Основное внимание в комбинаторной опти-
мизации на данный момент уделено определению вычислительной сложности задач, а также разработке новых методов и алгоритмов решения [2-6].
С увеличением количества критериев оптимизации сложность задачи возрастает [7,8], а также возникает необходимость в разработке подхода к решению векторных комбинаторных задач, поскольку общий алгоритм не разработан, поэтому вопрос о постановке задачи и поиске методов ее решений является актуальным.
Данная статья является продолжением исследований в области комбинаторной многокритериальной оптимизации [4,6, 8-10]. Ее цель - постановка многокритериальной задачи на множестве полиперестановок, обзор характеристик методов векторной оптимизации, а также выбор метода ее решения, построение моделей прикладных задач.
1. Постановка задачи
Рассмотрим многокритериальную задачу на комбинаторных конфигурациях. Оптимизируемые критерии представляются следующим набором функций:
fj(х) = щах < с‘х. >.і є N, , j є Nn.. (1)
Данный набор функций можно представить в виде векторного критерия
F(x) = (f, (х)— f... (х)). (2)
максимальное значение которого необходимо найти.
Из дополнительных условий может возникать условие принадлежности решения определенной конфигурации. При решении комбинаторных задач часто используются такие хорошо известные конструкции из элементов конечного множества, как сочетания, размещения, перестановки и т.п. Уже для этих простейших комбинаторных конструкций возникает необходимость формализации их определения с целью избежать словесных нагромождений и путаницы. С усложнением конструкций такая необходимость стано-
56
РИ, 2009, № 3