НАУЧНОЕ ИЗДАНИЕ МГТУ ИМ. Н.Э. ЬАУМЛНЛ
НАУКА и ОБРАЗОВАНИЕ
Эл JVa ФС 77 - 48211. Государственная регистрация №(I4212Ü0025. ISSN 1994-0408
электронный научно-технический журнал
Интегральная оценка многокритериальных альтернатив в ментально-структурированном походе к обучению # 07, июль 2012 Б01: 10.7463/0712.0423252
Белоус В.В., Бобровский А.В., Добряков А.А., Карпенко А.П., Смирнова Е.В.
УДК 519.6
Россия, МГТУ им. Н.Э. Баумана [email protected] aadobrj [email protected] [email protected] [email protected]
Введение
Ментально-структурированный подход к обучению [1] порождает значительное число задач многокритериального принятия решений. Приведем два примера.
1) Оценка «мыслительной грамотности» учащегося требует оценки пяти следующих составляющих этой грамотности (ключевых компетенций):
- знаниевая грамотность (способность воспринимать, понимать и самостоятельно приобретать знания),
- функциональная грамотность (способность «грамотно» применять знания),
- креативная грамотность (технологические навыки порождения нового, способность к продуктивному мышлению и инновационной деятельности),
- корпоративная грамотность (способность к саморазвитию, неконфликтности групповых коммуникаций, умение принимать организационные и управленческие решения, способность доводить общее дело до конца),
- социальная грамотность (навыки духовно-нравственного межличностного общения, способность принимать социально, экономически и экологически оправданные решения).
2) Качество изложения предмета изучения определяют следующие критерии:
- антропоцентричность (опора на личностно ориентированный подход «от человека к изучаемой проблеме»),
- ментальность (изложение учебных материалов в соответствие с содержательной структурой и особенностями функционирования мозговых механизмов, в частности, в виде когнитивных карт в едином пентадно структурированном формате),
- визуализированность (оптимальное сочетание вербальной 75 % и визуальной 25 % информации),
- технологичность (использование элементов обучающих технологий, опирающихся как на функциональную асимметрию полушарий головного мозга, так и на особенности содержательного взаимодействия сознания и подсознания),
- управляемость (корректировка структурного содержания учебного процесса с позиций генетической пентадности, использование в учебных процедурах функциональных тренингов и органайзера мыслительной деятельности).
В соответствии с терминологией, принятой в теории многокритериального принятия решений [2], называем рассмотренные и иные показатели качества частными критериями оптимальности, а их совокупность - векторным критерием оптимальности.
Наряду со значениями частных критериев, определяющих грамотность учащегося, его профессионально значимые личностные качества, стиль изложения предмета изучения и так далее, в учебном процессе необходимы интегральные характеристики учащихся, преподавателей, качества учебного материала и т.д. Мы полагаем, что рассматриваемые частные и интегральные критерии оптимальности являются числовыми. Если исходные значения этих
критериев представляют собой значения лингвистических переменных, то они должны быть по известным правилам преобразованы в числовые.
Переход от частных критериев оптимальности к одному числовому интегральному критерию широко используют при решении задач многокритериальной оптимизации, где этот переход реализуют с помощью различного рода скалярных сверток. Например, часто используется аддитивная свертка, представляющую собой взвешенную сумму частных критериев оптимальности [2].
Оценку значений различных частных критериев оптимальности производят, вообще говоря, разные лица, принимающие решения (ЛПР). Полагаем, что интегральную оценку на основе этих значений формирует главное лицо, принимающее решения (ГЛПР). Если способ свертки частных критериев фиксирован, то задача формирования этой оценки сводится к определению весов частных критериев оптимальности. Можно сказать, что значения этих весов формализуют функцию предпочтений ГЛПР [3].
Задачу определения весовых коэффициентов частных критериев можно рассматривать в двух постановках - априорной и апостериорной. В первом случае ГЛПР назначает веса заранее, до формирования интегральных оценок. Рассматриваем второй случай, когда ГЛПР на основе представленных ему частных оценок выставляет интегральные оценки некоторой обучающей выборке субъектов или объектов. На этой основе определяем веса частных критериев таким образом, чтобы минимизировать некоторую норму погрешности соответствующей теоретической оценки.
В конечном счете, апостериорный метод формирования значений весовых коэффициентов приводит к задаче глобальной условной многомерной оптимизации. Для решения этой задачи может быть использовано большое число детерминированных и стохастических алгоритмов [4]. Хорошо известно, что в случае отсутствия априорной информации о ландшафте целевой функции, наиболее эффективны стохастические алгоритмы глобальной оптимизации. Из числа этих алгоритмов наибольшую известность получили популяционные (метаэвристические) алгоритмы такие, как генетический алгоритм, алгоритм
роя частиц, алгоритм колонии муравьев и т.д. [5]. Новизна данной работы заключается, в частности, в использовании для решения указанной задачи глобальной оптимизации перспективного алгоритма эволюции разума (Mind Evolutionary Computation, MEC) [6].
Алгоритм MEC моделирует скорее некоторые аспекты поведения человека в обществе, чем, как можно было бы предположить, работу человеческого мозга. В алгоритме MEC каждый индивид рассматривается как разумный агент, функционирующий в некоторой группе людей. При принятии решений он ощущает влияние, как со стороны членов своей группы, так и со стороны членов других групп. Точнее говоря, чтобы достичь высокого положения в обществе, индивиду приходится учиться у наиболее успешных индивидов в своей группе. В то же время, для того чтобы группа, которой принадлежит данный индивид, становилась более успешной по сравнению с другими группам, этот индивид, как и все индивиды его группы, должны руководствоваться тем же самым принципом в межгрупповой конкуренции.
Известен, так называемый, простой алгоритм MEC и несколько его модификаций - расширенный MEC [7], улучшенный MEC [6] и хаотичный MEC [8]. Мы предполагаем широкое исследование всех указанных и иных модификаций алгоритма MEC. В данной работе используем первый из указанных алгоритмов - простой алгоритм эволюции разума (Simple MEC, SMEC).
Первый раздел работы содержит постановку задачи. Во втором разделе представлен используемый метод решения задачи. Третий раздел посвящен программной реализации метода. В четвертом разделе приведены результаты исследования эффективности алгоритма MEC. В пятом разделе представлены результаты численных экспериментов и их обсуждение. В заключении сформулированы основные результаты работы и перспективы ее развития.
1. Постановка задачи.
Пусть Щ = (/, / е [1: Щ]) - вектор рассматриваемых частных критериев
оптимальности, а ((Щ, Л) е Я1 - некоторая скалярная свертка этих критериев, где Л = (Яг , I е [1: Щ]) - вектор весовых вещественных коэффициентов.
Совокупность рассматриваемых субъектов или объектов обозначаем О = (о1, о2,...,о0 ), а их число - \й\. Из множества О по некоторому правилу
выделяем обучающую и тестовую выборки Оь, От , числа элементов в которых равны \Оь|, |От| соответственно; \О\ = \Оь\ + \От|.
Полагаем, что оценка значений критерия /, / е [1: Щ] произведена
ЛПР с помощью числовой шкалы И = [И-; И+ ] , где И-, И* - нижняя и верхняя оценки соответственно. Нормализованную (см. ниже) оценку элемента оу е О по шкале И{ обозначаем у; I е [1: Щ]), так что вектор
Щ ■ = (/у, I е [1: Щ]) представляет собой вектор всех нормированных оценок этого элемента; у е [1: |О|].
Формальной оценкой элемента о у е О называем величину
((Щу, Л) = ~у , у е [1: ] . Набор формальных оценок всех элементов множества О обозначаем Ф(О) = ( ~у, у е [1: |О|]).
Полагаем, что для каждого из элементов о у е О , у е [1: |О| ] известна также назначенная ГЛПР интегральная экспертная оценка в у, определенная на целочисленной шкале И0 = (И01, И02,...,И0 ^ ), где И01, И0 Ио - нижняя и верхняя оценки соответственно. Оценки в у считаем нечеткими, имеющими функции принадлежности ¡ик ( (), к е [1: |И01] , так что величины И01, И02,...,И0 и представляют собой ядра нечеткой переменной в [9].
Полагаем, что нормализация оценок / у выполнена таким образом, что все оценки /у принадлежат интервалу [И01; И0 И ]; I е [1: Щ], у е [1: |О|].
Значения указанных функций принадлежности, соответствующих формальной оценке элемента о- е O , обозначаем jk ) = jk j ,
к е [1: |И01]; j е [1: |F|]. Называем величину
jj = max jkj > J е [1: |F|]
ке[1:|Ио |]
приведенной экспертной оценкой элемента о ■ е O. Набор этих оценок для всех элементов множества O обозначаем M = (j, j е [1: |O|]).
Введем меру близости w(~j , j) = W j , j е [1: |O|] формальной и приведенной экспертной оценок j - го элемента множества O. Определим также меру близости наборов формальных и экспертных оценок всех элементов указанного множества
W(W15 W2,..., O) = W е R1.
Легко видеть, что эта мера является некоторой функцией весовых коэффициентов Л, т.е. W = W (Л).
Таким образом, задача определения оптимального вектора весовых коэффициентов Л* имеет вид
min Ж(Л) = Ж(Л*) , (1)
ЛеП
где П - параллелепипед допустимых значений компонентов вектора Л:
П = (Л, | Лтт < Я, < Лтах, i е [1: |F|]).
Здесь ЛТ, ^max- заданные константы (не обязательно положительные).
2. Метод решения задачи
Общая схема метода интегральной оценки многокритериальных альтернатив имеет следующий вид.
1) Случайным образом выделяем из множества O обучающую OL и
тестовую OT выборки таким образом, что OL[J OT = O и OLf\OT = null.
2) На обучающей выборке решаем задачу (1) - определяем компоненты вектора Л* и соответствующее значение меры W (Л* ) = W*.
3) С использованием найденных весовых коэффициентов Л*
вычисляем значение W* той же меры на тестовой выборке.
4) Если условие завершения итераций
WL, WL)<Sw
выполнено, то завершаем вычисления. В противном случае путем равномерного случайного выбора выделяем из множества O другие обучающую и тестовые выборки и переходим к шагу 2. Здесь
m(•,•) - некоторая мера близости величин W* , W* , % - заданная положительная константа.
На шаге 2 рассмотренной схемы простым алгоритмом эволюции разума SMEC решаем задачу (1), представляющую собой задачу глобальной условной оптимизации. В алгоритме MEC принято говорить в максимизации целевой функции. Очевидно, что задача минимизации (1) может быть сведена к аналогичной задаче максимизации путем простого инвертирования значений функции W (Л) .
Мультипопуляция алгоритм MEC состоит из лидирующих групп (superior groups) Sb = (Sb, Sb,...,Si^i) и отстающих групп (temporary groups)
S 1 = (S;, S;,..., S, ) числом
Sb
и
S1
соответственно. В оригинальном
алгоритме MEC числа индивидов в каждой из групп полагают одинаковыми и равными |S|.
Каждая из групп Sb , Sw имеет свою коммуникационную среду, которая названа авторами алгоритма локальной доской объявлений (local
billboard). Обозначим эти доски Cb, CJ соответственно. Кроме того, вся
мультипопуляция (sb, Sw) имеет общую, глобальную доску объявлений
(global billboard) Cg.
Если далее в обозначениях групп и соответствующих локальных досок объявлений индексы b, w опущены, то имеется в виду произвольная из этих
групп и их досок объявлений. Размерность такой группы обозначаем |S|.
Алгоритм SMEC построен на основе операций инициализации групп, локальных состязаний (similar-taxis) и диссимиляции (dissimilation). Поочередно рассмотрим эти операции.
Операция инициализации групп создает группы Sb, Sw из |S| индивидов каждая и размещает их в области поиска. Рассмотрим схему операции на примере группы St- , i е [1: |S|].
1) Генерируем случайный вектор Л i1 , компоненты которого равномерно распределены в области поиска П. Отождествляем этот вектор с индивидом si1 группы Si .
2) Определяем начальные координаты остальных индивидов данной группы s{ j, j е [2: |S|] по формуле
Лг,7 =ЛгД+ NM(0, а), (2)
то есть размещаем случайным образом вокруг индивида si,1 в соответствии с нормальным законом распределения, имеющим по всем |F| координатам
нулевое математическое ожидание и среднее квадратичное отклонение а (свободный параметр алгоритма).
Операция локальных состязаний реализует локальный поиск
максимума целевой функции каждой из групп , Б™, I е [1: 80 ], у е [1: 8™ ].
Рассмотрим в качестве примера схему этой операции для группы .
1) С доски объявлений С1 берем информацию о текущем индивиде-
победителе группы . Пусть это будет индивид sik, к е [1: ]. 10.7463/0712.0423252 256
ib
2) Определяем новые координаты остальных индивидов sil, l е [1: |S|],
l ф к данной группы по правилу вида (2), т.е. размещаем случайным образом вокруг победителя в соответствии с нормальным законом распределения, среднее квадратичное отклонение которого с ростом числа итераций убывает вследствие умножения на «когнитивную» константу р < 1.
3) Вычисляем новые счета (scores) индивидов группы Wil = W(Лil), l е [1: |S|], где W l - значение функции W(Л) в точке с координатами Лi l.
4) Определяем нового победителя группы sim, m е [1: |S|], т.е. индивида данной группы, который имеет максимальный текущий счет:
max W. j = *~(Лi m) = W>, J е [1: S].
j
5) Заносим информацию о новом победителе группы sim на доски объявлений Q , Cg.
Операция диссимиляции управляет глобальным поиском. Схема операции имеет следующий вид.
1) С глобальной доски объявлений Cg считываем счета Wb, WW,
1 J
i е [1: Sb ] , j е [1: Sw ] всех групп (т.е. текущие счета победителей этих групп).
2) Выполняем сравнение указанных счетов между собой. Если счет некоторой лидирующей группы Sb меньше счета одной из отстающих групп Sw , то последняя группа занимает место группы Sb во множестве лидирующих групп, а группа Sb - место группы SJ среди отстающих групп. Если счет группы Sw ниже счетов всех лидирующих групп, то удаляем
ciW
группу Sj из популяции.
3) С помощью операции инициализации взамен каждой из удаленных групп инициализируем новую группу.
Операции локальных состязаний и диссимиляции итерационно повторяем до тех пор, пока имеет место увеличение максимального счета лидирующих групп. При отсутствии роста этого счета в течение NA
итераций (критерий стагнации вычислений), решение задачи, соответствующее победителю лучшей из лидирующих групп, объявляем точкой глобального экстремума.
Учет ограничений Л™™ < < А™х, i е [1: |F|] на варьируемые параметры
во всех случаях производим, так называемым, методом смертельных штрафов, когда недопустимые значения компонентов вектора Л просто отвергаются.
3. Программная реализация метода
Реализация метода выполнена на языке программирования Python с использованием библиотек matplotlob, numpy, scipy, os. Соответствующая программа получила наименование MEC-Python. Язык программирования Python является высокоуровневым интерпретируемым языком программирования, включающим, широкий спектр функций, интегрированную среду разработки и объектно-ориентированные возможности.
Основные входными данные программы MEC-Python разбиты на три группы, условно названные данные задачи, данные метода, данные алгоритма.
К входным данным задачи отнесены
- число частных критериев оптимальности |F|,
- тип используемой скалярной свертки (выбирается пользователем из библиотеки сверток),
- число элементов \O\ во множестве O, а также числа элементов OL, OT в обучающей и тестовой выборках,
- шкалы Hi, i е [0: |F|] (используются только с целью проверки корректности исходных данных программы),
- имя файла, содержащего набор Ф(О) формальных оценок всех элементов множества О , а также соответствующих интегральных экспертных оценок Е = (е., . е [1: |О|],
- функции принадлежности ¡ик ( ф), к е [1: |И0|] (выбирается
пользователем из библиотеки этих функций),
- мера близости формальной и приведенной экспертной оценок (выбирается пользователем из соответствующей библиотеки),
- мера близости Ж наборов формальных и экспертных оценок (выбирается пользователем из библиотеки этих мер),
- константы Я)П1П , Я)пах , I е [1: Н], определяющие параллелепипед П
допустимых значений компонентов вектора Л.
В библиотеке скалярных сверток содержится аддитивная свертка
ф (Н, Л) = (Н, Л) = х Л1/1, (3)
I=1
мультипликативная свертка
и свертка Гермейера
ф (н, Л) = (Н, Л) = п/^
I=1
ф(Н, Л) = (Н, Л) = пах 4 Л.
1е[1: Н]
Библиотека функций принадлежности включает в себя функции классов б, п, у, ?, Ь [10].
Библиотека мер близости оценок (формальной ф и приведенной экспертной ) включает в себя только модуль разности указанных оценок:
=| Ф -м\. (4)
Библиотека мер близости наборов формальных и экспертных оценок содержит гарантирующую меру
Ж = тт ■, (5)
/е[1:|О| ] .
срединную меру
Ж = , 01=1
Ж™ 1
и евклидову меру
Ж =
1
\0\ 1=1
Входные данные метода включают в себя
- меру -|| (выбирается пользователем из библиотеки этих мер),
- константу %,
- максимально допустимое число итераций 1М. Библиотека мер включает в себя меру
Ж*,ЖТ)= Ж*- Жт . (6)
Все указанные библиотеки могут быть расширены пользователем путем добавления в них соответствующих Ру/^оп-функций.
Входные данные алгоритма представляют собой свободные параметры алгоритма 8МЕС:
- число групп |8|;
- число индивидов в группе |£|;
- среднее квадратичное отклонение с , используемое в операциях инициализации групп и локальных состязаний индивидов;
- максимально допустимое число итераций алгоритма 1А;
- критерий стагнации алгоритма ИА;
- константа стагнации еА;
- число мультистартов N8.
Выходными данными программы являются оптимальные значения весовых коэффициентов Л = (\ , Л2,...,^) , а также приведенные
экспертные оценки Ц элемента о у е 0, у е [1: |0| ].
4. Исследование эффективности алгоритма MEC
Исследование выполнено для одноэкстремальной, но овражной функции Розенброка (Rozenbrock)
f (X) = (l00 (х? - хг +1) + (хг -1)2mm,
i=1
минимальное значение f (X *) = f * которой достигается в точке с
координатами X * = (0; 0;...;0) и равно нулю, а также для многоэкстремальной функции функция Растригина (Rastrigin)
f (X) = X (х? -10 cos (2л- х) +10)^ min,
i=1
глобальный минимум которой f * = 0 также достигается в точке X * = (0;0;...;0). В обоих случаях задачу глобальной оптимизации решаем в области П = {X | xi е [-10; 10], i е [1: |X|]}.
В качестве критерия эффективности алгоритма используем близость найденного с его помощью решения f * к точному решению f *. Поскольку для рассматриваемых функций f* = 0 , мерой эффективности алгоритма
является величина f .
Одной из целей исследования было изучения влияния следующих значений свободных параметров на эффективность алгоритма:
- размерность задачи |X| (варианты |X| = 2; 4; 8;16 ),
- число групп |S|=10; 20; 30.
- число индивидов в группе |S|=10; 20; 30,
- когнитивный параметр р=0,7; 0,8; 0,9.
Во всех случаях использовано значение константы стагнации sA = 0,00001.
Сводные результаты исследования для функции Розенброка представлены в таблице 1.
Таблица 1 - Результаты исследования эффективности алгоритма MEC:
функция Розенброка
S ; S ; р X 7 *
10; 10; 0,7 2 1,404 e-007
4 0,0191
8 0,1396
16 7,3340
10; 10; 0,8 2 3,2159 e-007
4 0,0009
8 0,5252
16 2,8800
10; 10; 0,9 2 1,7120 e-008
4 0,0011
8 0,3095
16 2,5297
20, 20, 07 2 9,5511 e-009
4 0,0026
8 0,7198
16 3,6943
20; 20; 0,8 2 5,5208 e-009
4 0,0018
8 0,2302
16 1,8081
20; 20; 0,9 2 8,8357 e-010
4 0,0109
8 0,2852
16 0,5709
30; 30; 0,7 2 3,1744 e-008
4 0,0024
8 0,1803
16 2,8831
30; 30; 0,8 2 1,4891 e-009
4 1,1577 e-005
8 0,5455
16 0,6972
30; 30; 0,9 2 4,7989 e-008
4 0,0001
8 0,1316
16 1,2898
Характер сходимости итераций при поиске минимума функции Розенброка иллюстрируют рисунки 1 - 3. Здесь и далее нижняя кривая соответствует |х| = 2 , следующая кривая - |х| = 4 , третья снизу
кривая - |х| = 8, последняя кривая - |х| = 16. Величина I представляет собой номер итерации.
Рисунок 1 - Сходимость алгоритма: функция Розенброка; р = 51; р = 0,7
Рисунок 2 - Сходимость алгоритма: функция Розенброка; р = 5 ; р = 0,8
Ч
\
V
*******
О ID M M 4Ù W
Рисунок 3 - Сходимость алгоритма: функция Розенброка; S = S ; р = 0,9
Сводные результаты для функции Растригина представлены в таблице 2, которую иллюстрируют рисунки 4 - 6. Здесь I - номер итерации.
Таблица 2 - Результаты исследования эффективности алгоритма MEC:
функция Растригина
S ; S ; р X f *
10; 10; 0,7 2 8.8947 e-006
4 0.0005
8 3.3385
16 37.6244
10; 10; 0,8 2 4.07180 e-005
4 0.0004
8 2.01036
16 16.6754402773
10; 10; 0,9 2 0.0001
4 0.0024
8 0.9976
16 4.44030
20; 20; 0,7 2 2.5025 e-007
4 0.0005
8 1.0070
16 10.7573
2 8.2661 e-006
20; 20; 0,8 4 0.0001
8 1.9907
16 6.2998
2 1.6857 e-005
20; 20; 0,9 4 0.0005
8 2.9862
16 4.9775
2 1.4032 e-006
30; 30; 0,7 4 2.0638 e-005
8 1.0041
16 7.9626
2 5.4772 e-006
30; 30; 0,8 4 0.0005
8 1.9914
16 6.3869
2 2.7111 e-005
30; 30; 0,9 4 0.0015
8 2.9858
16 5.9760
Рисунок 4 - Сходимость алгоритма: функция Растригина; р = 5 ; р = 0,7
/
Рисунок 5 - Сходимость алгоритма: функция Растригина; = |5|; р = 0,8
Рисунок 6 - Сходимость алгоритма: функция Растригина; = |5|; р = 0,9
Результаты исследования показывают, что в случае высокой размерности пространства поиска для обеспечения локализации минимума целевой функции с приемлемой точностью нужно использовать большие числа групп и индивидов в них. Результаты показывают также сильную зависимость достигнутой точности локализации от величины когнитивного
параметра р . Данный факт обусловлен тем, что при р ^ 1 повышаются диверсификационные свойства алгоритма, так что стагнация наблюдается позже.
5. Вычислительный эксперимент
С использованием программы МБС-Ру^оп выполнено два вычислительных эксперимента. Во всех случаях использованы следующие значения основных входных данных.
Входные данные задачи:
- скалярная аддитивная свертка (3);
- пятибалльные шкалы Н( = (0,1, 2,3, 4, 5), I е [0: Щ];
- гауссовы функции принадлежности с ядрами 0,1,2,3, 4, 5 и средним
квадратичным отклонением 0,2821;
- мера близости формальной и приведенной экспертной оценок (4);
- мера близости Ж наборов формальных и экспертных оценок (5),
- константы Л™1 = -0,3, ^ = 1,3; I е [1: Щ].
Входные данные метода:
- мера (6);
- константа % = 0,3;
- максимально допустимое число итераций 1М = 5.
Входные данные алгоритма:
- число групп = 10;
- число индивидов в группе |5| = 10;
- среднее квадратичное отклонение <г = 0,2821;
- максимально допустимое число итераций алгоритма 1А = 20;
- критерий стагнации алгоритма ИА = 4 ;
- константа стагнации еА = 0,00001;
- число мультистартов = 30 ;
- когнитивный параметр р = 0,99.
Эксперимент 1 (= 5) выполнен с целью тестирования метода и его программной реализации. Мощность множества О в эксперименте прията равной \О\ = 20 , а мощность обучающей и тестовой выборок равной
\Оь\ = 20, |Ог| = 0 соответственно. Набор формальных оценок Ф(О)
элементов множества О , а также набор соответствующих интегральных экспертных оценок Е (таблица 1) получены по следующей схеме:
- генерируем для данного элемента о- е О , - е [1: |О|] случайную
экспертную оценку в- , равномерно распределенную на дискретном множестве (0; 1; 2; 3; 4; 5);
- генерируем случайные величины -, / е [1:5] , распределенные по нормальному закону с математическим ожиданием, равным в-, и средним квадратичным отклонением, равным 1,22;
- величины - получаем путем округления по математическим правилам величин -; / е [1:5].
Вычисленные программой приведенные экспертные оценки р- , а
также невязки - также представлены в таблице 3. Найденные оптимальные
значения весовых множителей приведены в таблице 4. Таблицу 3 иллюстрирует рисунок 7, на котором представлена гистограмма невязок -.
Результаты эксперимента 1 показывают работоспособность метода и его программного обеспечения.
Таблица 3 - Исходные и результирующие оценки: эксперимент 1
] Л, к, Л, Л, Л ,
1 3 4 5 3 3 4 3,94 0,06
2 5 3 5 3 2 4 3,11 0,89
3 4 5 4 2 3 3 3,86 0,86
4 3 4 5 3 4 5 4,97 0,03
5 4 5 3 5 4 4 3,99 0,01
6 5 2 2 5 4 5 3,94 1,06
7 2 2 3 4 2 2 2,15 0,15
8 2 3 2 4 3 3 2,83 0,17
9 2 5 4 4 2 2 2,27 0,27
10 4 3 2 3 2 2 2,15 0,15
11 3 3 2 4 5 5 4,97 0,03
12 4 2 2 4 2 2 2,00 0
13 3 3 2 4 5 5 4,97 0,03
14 3 5 4 5 4 3 4,20 1,2
15 4 5 4 5 2 3 2,21 0,79
16 4 3 5 2 2 3 3,24 0,76
17 4 2 3 5 2 2 2,08 0,08
18 3 3 2 3 5 5 5,18 0,18
19 2 2 3 4 2 2 2,15 0,15
20 3 3 2 2 2 2 2,28 0,28
Таблица 4 - Оптимальные значения весовых множителей: эксперимент 1
Л Л Я4 Л
0,074 -0,058 0,293 -0,207 1,033
Рисунок 7 - Гистограмма невязок wj : эксперимент 1
Эксперимент 2 выполнен в рамках апробации ментально-структурированной образовательной технологии [1, 11]. В эксперименте использованы количественные показатели качества образовательного процесса в ВУЗе, полученные, в частности, с помощью системы автоматизированного анализа структурированных электронных документов [12]. Точнее говоря, использованы следующие показатели качества расчетно-пояснительной записки (РПЗ) к курсовой работе по дисциплине «Технология программирования» тринадцати студентов одной из учебных групп второго курса МГТУ им. Н.Э. Баумана: f - новизна,
f2 - трудоемкость, f3 - сложность, f4 - системность,
f5 - структурированность.
Новизна работы f1 оценивалась на основании того, какая часть
(в процентном отношении) от общего объема понятийного тезауруса указанной учебной дисциплины использована студентом в его РПЗ. Трудоемкость работы f2 получена на основе количества времени, которое
студент потратил на формирование своей РПЗ, и объема РПЗ, измеренного числом знаков в документе. Указанные величины формируют современные редакторы документов, например, в Microsoft Word. Для оценки сложность работы f3 использована колмогоровская сложность файла, содержащего
РПЗ, как количественная мера информации, заключенной работе. В качестве 10.7463/0712.0423252 270
меры системности работы /4 использована связность семантической сети соответствующей РПЗ. Наконец, структурированность работы /5
оценивалась с помощью нормированного интегрального показателя, построенного на основе чисел разделов, рисунков, таблиц, формул и библиографических источников в РПЗ.
Итого, в эксперименте 2 мощности множеств О, Оь, От приняты равными 13,13,0 соответственно, число частных критериев оптимальности = 5 . Наборы исходных формальных и соответствующих интегральных
экспертных оценок представлены в таблице 5. Те же нормализованные данные приведены в таблице 6.
Таблица 5 - Исходные оценки: эксперимент 2
- /1, - /2,, /3, - /4,- /5,, в-
1 0 0 53,79 108 20 4
2 7,70 35,8 52,34 142 24 5
3 9,62 24,83 8,53 199 24 5
4 7,69 34,80 13,74 128 26 5
5 0 46,04 146,46 166 22 5
6 3,85 24,08 60,19 143 17 5
7 3,85 30,00 45,36 152 14 5
8 3,85 46,04 53,79 162 32 5
9 7,69 28,72 3,37 139 7 5
10 3,85 237,57 5,43 96 18 3
11 5,77 21,12 68,20 201 25 5
12 5,77 68,24 31,88 144 25 5
13 1,79 73,60 21,18 112 21 4
Таблица 6 - Нормализованные входные данные: эксперимент 2
- в- Л - Л - Л- Л, Л - в-
1 4 2,00 5,00 3,95 2,68 3,13 4
2 5 4,01 4,25 3,84 3,53 3,75 5
3 5 5,00 4,48 2,00 4,95 3,75 5
4 5 3,99 4,26 2,00 3,18 4,06 5
5 5 2,00 4,03 5,00 4,13 3,44 5
6 5 2,00 4,49 4,43 3,56 2,66 5
7 5 2,00 4,36 3,34 3,78 2,19 5
8 5 2,00 4,03 3,96 4,03 5,00 5
9 5 3,99 4,39 2,00 3,48 2,00 5
10 3 2,00 2,00 2,00 2,39 2,81 3
11 5 2,99 4,56 5,00 5,00 3,91 5
12 5 2,99 3,56 2,00 4,00 3,91 5
13 4 2,00 3,45 2,00 2,79 3,28 4
Результаты работы программы представлены в таблицах 7, 8. Таблицу 7 иллюстрирует рисунок 8, аналогичный рисунку 7.
Таблица 7- Исходные и результирующие оценки: эксперимент 2
] Л ,
1 4 3,23 0,77
2 5 4,86 0,14
3 5 4,73 0,27
4 5 4,85 0,15
5 5 4,15 0,85
6 5 3,35 1,65
7 5 2,42 2,58
8 5 4,73 0,27
9 5 2,98 2,02
10 3 3,75 0,75
11 5 4,59 0,41
12 5 4,31 0,69
13 4 3,28 0,72
Таблица 8 - Оптимальные значения весовых множителей: эксперимент 2
А А А3 А4 А
0,30 -0,19 0,24 -0,17 1,05
п
2 1
ОД 4
W
0,628 1,116 1,604 2,092
Рисунок 8 - Гистограмма невязок w f : эксперимент 2
Заключение
В работе предложен метод получения интегральных оценок многокритериальных альтернатив в ментально-структурированном походе к обучению. Метод предполагает сведение задачи получения указанных оценок к задаче глобальной условной оптимизации. Для решения данной задачи предложено использовать алгоритм эволюции разума MEC, как один из относительно новых и перспективных алгоритмов глобальной оптимизации.
На языке программирования Python разработана программа, реализующая предложенный метод получения интегральных оценок. С помощью данной программы выполнено исследование эффективности метода и его программной реализации. Вычислительные эксперименты показали эффективность принятых алгоритмических и программных решений.
Работа выполнена в рамках Государственного контракта № 16.740.11.0407 от 26 ноября 2010 г.
Литература
1. Добряков А.А., Карпенко А.М., Смирнова Е.В. Основные принципы ментально-структурированной образовательной технологии, ориентированные на формирование компетентности специалиста технического профиля // Наука и образование: электронное научно-техническое издание, 2011, № 10 (http://technomag.edu.ru/doc/237464.html).
2. Черноруцкий И.Г. Методы принятия решений. - СПб.: БХВ-Петербург, 2005.- 416 с.
3. Карпенко А.П., Федорук В.Г. Один класс прямых адаптивных методов многокритериальной оптимизации // Информационные технологии. -2009.- №5.- С. 24-30.
4. Орлянская И.В. Современные подходы к построению методов глобальной оптимизации // Электронный журнал «Исследовано в России» (http://zhurnal.ape.relarn.ru/articles/2002/189.pdf).
5. Engelbrecht A. P. Computational Intelligence. An Introduction (second edition).- John Wiley & Sons, 2007. - 597 p.
6. Jie J., Han Ch., Zeng J. An Extended Mind Evolutionary Computation Model for Optimizations // Applied Mathematics and Computation, 2007, No. 185(2), pp. 1038 - 1049.
7. Jie J., Zeng J. Improved mind evolutionary computation for optimizations / Proceedings of the 5th World Congress on Intelligent Control and Automation, WCICA 2004, Hangzhou, China 3, Vol. 3, pp. 2200-2204.
8. Lui J., Li N., Xie K. Application of Chaos Mind Evolutionary Algorithm in Antenna Arrays Synthesis // Journal of computers, 2010, Vol. 5, No. 5, pp. 717-724.
9. Штовба С.Д. Введение в теорию нечетких множеств и нечеткую логику / С.Д. Штовба.- Режим доступа: http//www.matlab.exponenta.ru, свободный.
10. Д. Рутковская, М. Пилиньский, Л. Рутковский. Нейронные сети, генетические алгоритмы и нечеткие системы: Пер. с польского И. Д. Рудинского. — М.:Горячая линия — Телеком, 2004. — 452 с.
11. Галямова Е.В., Карпенко А.П., Соколов Н.К. Методика контроля понятийных знаний субъекта обучения в обучающей системе /Наука и образование: электронное научно-техническое издание, 2009, 2, 042090025\0007 (http://technomag. edu.ru/doc/ 115086.html )
12. Смирнова Е.В., Панов А.С. Система автоматического анализа структурированного электронного документа / Свидетельство о государственной регистрации Программы для ЭВМ № 2011615171 от 01 июля 2011 г.
SCIENTIFIC PERIODICAL OF THE BAUMAN MSTÜ
SCIENCE and EDUCATION
EL JV® FS 77 - 4821 1. №0421200025. ISSN 1994-0408 electronic scientific and technical journal
Integral estimation of multi-criterion alternatives in mental-structured approach to education # 07, July 2012 DOI: 10.7463/0712.0423252
Belous V.V., Bobrovskii A.V., Dobryakov A.A., Karpenko A.,P., Smirnova E.V.
Russia, Bauman Moscow State Technical University
[email protected] aadobrj [email protected] [email protected] [email protected]
The authors consider the problem of integral estimation of multi-criterion alternatives; they propose a formal statement of the problem and methods of solving it. The method transforms the problem into global conditional multidimensional optimization. To solve that problem Mind Evolutionary Computation algorithm is used. Implementation of this method is described. The results of efficiency research are given.
Publications with keywords: multi-criterion solutions, global conditional multidimensional optimization, Mind Evolutionary Computation algorithm
Publications with words: multi-criterion solutions, global conditional multidimensional optimization, Mind Evolutionary Computation algorithm
References
1. Dobriakov A.A., Karpenko A.M., Smirnova E.V. Osnovnye printsipy mental'no-strukturirovannoi obrazovatel'noi tekhnologii, orientirovannye na formirovanie kompetentnosti spetsialista tekhnicheskogo profilia [The basic principles of mental-structured educational technology competencies focused on the formation of technical specialists]. Nauka i obrazovanie, 2011, no.10. Available at: http://technomag.edu.ru/doc/237464.html.
2. Chernorutskii I.G. Metodypriniatiia reshenii [Methods of decision-making]. St. Petersburg, BKhV-Peterburg Publ., 2005. 416 p.
3. Karpenko A.P., Fedoruk V.G. Odin klass priamykh adaptivnykh metodov mnogokriterial'noi optimizatsii [A class of direct adaptive methods for multi-criteria optimization]. Informatsionnye tekhnologii, 2009, no. 5, pp. 24-30.
4. Orlianskaia I.V. Sovremennye podkhody k postroeniiu metodov global'noi optimizatsii [Modern approaches to the development of global optimization methods]. Issledovano v Rossii, 2002. Available at: http://zhurnal.ape.relarn.ru/articles/2002/189.pdf.
5. Engelbrecht A.P. Computational Intelligence: An Introduction. 2nd ed. New York, Wiley, 2007. 597 p.
6. Jie J., Han C., Zeng J. An extended mind evolutionary computation model for optimizations. Applied Mathematics and Computation, 2007, vol. 185, no. 2, pp. 1038-1049. DOI: 10.1016/j.amc.2006.07.037
7. Jie J., Zeng J. Improved mind evolutionary computation for optimizations. Proc. 5th World Congr. on Intelligent Control and Automation (WCICA 2004). Hangzhou, China, 2004, vol. 3, pp. 2200-2204.
8. Lui J., Li N., Xie K. Application of chaos mind evolutionary algorithm in antenna arrays synthesis. Journal of Computers, 2010, vol. 5, no. 5, pp. 717-724.
9. Shtovba S.D. Vvedenie v teoriiu nechetkikh mnozhestv i nechetkuiu logiku [Introduction to the theory of fuzzy sets and fuzzy logic]. Available at: http//www.matlab.exponenta.ru.
10. Rutkovskaia D., Pilin'skii M., Rutkovskii L. Neironnye seti, geneticheskie algoritmy i nechetkie sistemy [Neural networks, genetic algorithms and fuzzy systems]. Transl. from Polish. Moscow, Goriachaia liniia - Telekom Publ., 2004. 452 p.
11. Galiamova E.V., Karpenko A.P., Sokolov N.K. Metodika kontrolia poniatiinykh znanii sub"ekta obucheniia v obuchaiushchei sisteme [Technique of the control of conceptual knowledge of the subject of training in training system].Nauka i obrazovanie, 2009, no. 2. Available at: http://technomag.edu.ru/doc/115086.html.
12. Smirnova E.V., Panov A.S. Sistema avtomaticheskogo analiza strukturirovannogo elektronnogo dokumenta [Automatic analysis of the structured electronic document].Computer program no. 2011615171, 2011.