Научная статья на тему 'Использование нейросетевых алгоритмов в интеллектуальных системах поддержки принятия решений'

Использование нейросетевых алгоритмов в интеллектуальных системах поддержки принятия решений Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
197
45
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Использование нейросетевых алгоритмов в интеллектуальных системах поддержки принятия решений»

ности можно утверждать, что большая часть проблем, описанных выше, проявится на одном из этапов интеграции.

Высокая сложность процесса отладки ВТ-подсистемы требует в первую очередь обратить пристальное внимание на проектирование системы, четкое согласование интерфейсов и поэтапную, тщательно спланированную интеграцию подсистем. Все это позволяет предотвратить

большинство наиболее сложных проблем и принять правильные решения при отладке оставшихся.

Список литературы

1. Specification of the Bluetooth System. Core. Version 1.1. February 2001.

2. Specification of the Bluetooth System. Profiles. Version 1.1. February 2001.

ИСПОЛЬЗОВАНИЕ НЕЙРОСЕТЕВЫХ АЛГОРИТМОВ В ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМАХ ПОДДЕРЖКИ ПРИНЯТИЯ РЕШЕНИЙ

Н.А. Семенов, А.Н. Ветров, Абу Суек Атия Ражаб Мохамед

В статье рассматриваются вопросы поддержки принятия решений в процессе стоимостной оценки разнотипных объектов, стоимость которых зависит от тех свойств, которые присущи данному объекту. Такие задачи возникают при кадастровой оценке земель, стоимостной оценке объектов недвижимости, ювелирных изделий и т.п. Наиболее распространенным является подход, основанный на сопоставимости продаж, на прямом сравнении оцениваемого объекта с другими, уже проданными или выставленными на продажу. Когда эксперт располагает информацией по достаточному количеству сопоставимых продаж и предложений, ему сравнительно легко определить ценовые тенденции, служащие своеобразным индикатором рыночной стоимости.

Формально процедуру стоимостной оценки объектов, основанной на сопоставимости продаж, можно рассматривать как последовательность решения следующих задач:

• оптимального выбора эталонных групп объектов со сходными (пересекающимися) свойствами и получения достоверной оценки стоимости объектов в эталонных группах (задача кластеризации);

• отнесения оцениваемого образца к той или иной эталонной группе (задача классификации);

• наилучшей аппроксимации (экстраполяции) стоимостных оценок минералов в эталонных группах на оцениваемый образец.

Обозначим вектором Х—(Х1,Х2,.«.,Хд) переменные, определяющие стоимость минерала определенного вида. Число минералов, для которых известна стоимостная оценка, обозначим через К. Тогда образцы минералов будут характеризоваться набором из К векторов -{(X!, (Х2, г), , (Хк 2к)}, где гь к е {1,...,К} уста-

навливает достоверную стоимость каждого образца. Полученный набор определяет исходную базу знаний для обучения соответствующих нейронных сетей (НС) и построения отображения Е: X ^ г, то есть процедуры оценки стоимости произвольного объекта по его входным параметрам

Для разделения исходного множества образцов на 8 классов можно использовать сеть Кохонена, которая состоит из 8 нейронов (ядер), каждый из которых вычисляет близость объекта к своему классу. Все нейроны работают параллельно. Объект считается принадлежащим к тому классу, нейрон которого выдал минимальный сигнал.

Алгоритм обучения сети решению такой задачи состоит в следующем. Задается некоторый начальный набор параметров нейронов. Один объект Xj предъявляется сети, и находится нейрон, выдавший максимальный сигнал. Пусть номер этого нейрона I Тогда параметры нейрона модифицируются, и сети предъявляется следующий объект и так далее до тех пор, пока после очередного цикла предъявления всех объектов не окажется, что параметры всех нейронов изменились на величину, меньшую заранее заданной точности £. Для некоторых мер близости после преобразования может потребоваться дополнительная нормировка параметров нейрона.

Альтернативой методам пообъектного обучения сетей Кохонена является метод динамических ядер, который напрямую минимизирует суммарную меру близости. Метод является итерационной процедурой, каждая итерация которой состоит из двух шагов. Сначала задаются начальные значения ядер. Затем выполняются разбиение на классы при фиксированных значениях ядер и оптимизация значений ядер при фиксированном разбиении на классы:

- процедура останавливается после очередного разбиения на классы;

- процедура сходится за конечное число шагов, причем ни на одном шаге не происходит возрастания суммарной меры близости.

В задаче обучения сети Кохонена и в методе динамических ядер важным является выбор начального приближения и определение числа классов.

Самым универсальным способом задания начального положения ядер является задание начального разбиения объектов на классы. Простой перебор различных чисел классов часто неэффективен. Критерием для определения реального числа классов может служить плотность точек в классе. Объем класса определяется как объем шара с центром в ядре класса и радиусом, равным радиусу класса. Для простоты можно считать объем класса равным объему куба с длинной стороны равной радиусу класса (объем шара будет отличаться от объема куба на постоянный множитель, зависящий только от размерности пространства). Плотностью класса считается отношение числа точек в классе к объему класса. Отметим, что этот критерий применим для любых мер близости, а не только для тех случаев, когда ядра и точки принадлежат одному пространству.

Метод применения этого критерия состоит в следующем. Первый класс разбивается на два, и запускается процедура НС (метод динамических ядер или обучение сети Кохонена). Если плотности обоих классов, полученных разбиением одного класса, не меньше плотности исходного класса, то разбиение считается правильным. В противном случае восстанавливаются классы, предшествовавшие разбиению, и происходит переход к следующему классу. Если после очередного просмотра всех классов не удалось получить ни одного правильного разбиения, то полученное число классов считается соответствующим реальному. Эту процедуру обычно запускают с малого числа классов, например с двух.

Для решения задачи отнесения исследуемого оцениваемого объекта к той или иной стоимостной группе более предпочтительным представляется использование сети радиального базиса, поскольку базис появляется естественным образом в виде кластеров. Для решения задачи аппроксимации нейросеть должна содержать п нейронов во входном слое и один нейрон в выходном. Количество нейронов в скрытом слое пер-септрона зависит от требуемой точности и определяется на основе теоремы Колмогорова.

После определения принадлежности оцениваемого объекта к определенной группе нужно построить функцию для аппроксимации стоимостных характеристик этой группы на данный объект. Для этих целей идеально подходит НС прямого распространения (персептрон). Персептрон содержит входной слой, выходной и несколько (обычно 1-2) скрытых слоев. Каждый нейрон связан со всеми нейронами следующего слоя весами W.

Нейроны входного слоя имеют линейную передаточную функцию, а все остальные - сигмоидную.

Процесс обучения персептрона (настройки весов W) полностью идентичен описанному выше для автоассоциативной сети.

Существует другая разновидность персептрона -сеть радиальных базисных функций, содержащая один скрытый слой с потенциальными передаточными функциями:

Е(х) = ехр(-(х - Ь)тС(х - Ь), где Ь - центр положения базисной функции (часто совпадает с центром территориального фрагмента или кластера); С - ковариационная матрица.

Настраиваемые параметры здесь - и веса сети W, и параметры Ь и С.

Классический персептрон - универсальная структура, способная аппроксимировать функции любой степени сложности, однако требует значительных затрат времени для настройки.

НС радиального базиса настраивается довольно быстро, но ее использование обычно сдерживается отсутствием обоснованных соображений относительно выбора базиса. Для решения задачи аппроксимации НС должна содержать п нейронов во входном слое и один нейрон в выходном. Количество нейронов в скрытом слое персептрона зависит от требуемой точности и определяется на основе теоремы Колмогорова. Количество функций радиального базиса равно числу кластеров. На вход сети подаются значения векторов параметров эталонных образцов Хк к = 1, ..., К и при настройке добиваются появления на выходе НС достоверной цены Zk.

Ошибка функционирования сети на этих данных определяется как

Е = 0.5£^к - ук)2, где Ук - выход НС, а суммирование проводится по всем эталонным кварталам или кластерам, участвующим в обучении.

Для уменьшения этой ошибки следует изменить веса сети по следующему правилу:

Wnew = W0ld - adE/dW, где а - константа, характеризующая скорость адаптации.

Формула описывает процесс градиентного спуска в пространстве весов. Выражение для производной dE/dW имеет следующий вид:

dE/dWs-1ij = ^ - У^'ц8"1 - для весов между последним скрытым слоем (8 = 8) и выходным слоем и

dE/dWs-1ij = £[^1- У^^Щ'ц8"! - для скрытых слоев, то есть 8 =1, 2, ..., 8-1. Здесь переменной ц8"1; обозначен выход нейронов скрытого и входного слоев, на что указывает верхний индекс (э-1).

Если в качестве нелинейной преобразующей функции Е используется сигмоидная функция, то вместо этих выражений удобно использовать следующие рекуррентные формулы:

8 ^ = (^ - - у), dE/dW ^ = 5 ^ ц ^ - для

выходного слоя и

8 ^ = £[5 81 W > "¿1 - ц dE/dW ^ = 8 ^ и Ч -для скрытых слоев. Эти соотношения называются формулами обратного распространения ошибки. Если при прямом функционировании входной сигнал рас-

пространяется по сети от входного слоя к выходному, то при подстройке весов ошибка сети 5 распространяется от выходного слоя к входному.

После адаптации НС будет способна по любому вектору входных параметров X выдавать оценку стоимости исследуемого образца. Поскольку используемые передаточные функции являются монотонными, ошибка аппроксимации определяется через расстояние до ближайшей базисной функции и выдается НС в виде числа. Значения весовых множителей сети Wij определяют величину зависимости параметров, по которым проводится оценка, и могут использоваться для анализа и обоснования результатов.

Последовательное применение перечисленных алгоритмов, как это отражено на рисунке, образует ин-

теллектуальную систему поддержки принятия решений при стоимостной оценке объектов.

Данная система была разработана в среде MATLAB и использовалась для стоимостной оценки драгоценных камней.

Выбор интегрированной системы MATLAB в качестве инструментального средства обусловлен наличием в ней языка программирования высокого уровня и модулей расширения, таких как Database Toolbox, Fuzzy Logic Toolbox, Neural Network Toolbox. Совместное использование этих инструментов, а также средств разработки графических приложений и визуализации расчетных данных, создания независимо исполняемых приложений позволяет создавать эффективные приложения с минимальными затратами времени. Кроме того, матричный процессор, реализуя механизм векторной обработки данных, обеспечивает высокую точность и скорость вычислений.

Предлагаемая архитектура ИСППР на основе нейросетевых алгоритмов показывает одно из возможных направлений формализованного решения прикладных задач определения стоимостных характеристик объектов.

Список литературы

1. Искусственный интеллект: В 3 кн. Справочник /Под ред. Э.В. Попова, Д.А. Поспелова. - М.: Радио и связь, 1990.

2. Медведев Б.С., Потемкин В.Г. Нейронные сети. MATLAB 6. -М.: ДИАЛОГ-МИФИ, 2002. - 396 с.

АЛГОРИТМ ЧИСЛЕННОГО РЕШЕНИЯ ЗАДАЧ ВАРИАЦИОННОГО ИСЧИСЛЕНИЯ НА ОСНОВЕ САМООРГАНИЗУЮЩЕЙСЯ НЕЧЕТКОЙ НЕЙРОННОЙ СЕТИ

А.А. Усков

При построении оптимальных систем управления приходится решать задачи двух видов: синтез оптимальных алгоритмов управления (оптимальных управляющих воздействий) и синтез законов управления [1].

В настоящее время разработано большое количество различных алгоритмов численного решения указанных задач, которые базируются на классическом математическом аппарате [2]. Применение нечеткой логики в данных алгоритмах позволяет, с одной стороны, использовать априорную информацию об искомом решении, что повышает его точность, и с другой - получать результаты в виде продукционных правил если-то, которые затем легко интерпретировать, что дает возможность использовать данные алгоритмы в человеко-машинных системах (например, систе-

мах поддержки принятия управленческих решений) [3].

Рассмотрим задачу синтеза системы нечеткого логического вывода, реализующую функцию

у = П^), (1)

которая обращает в минимум некоторый нелинейный функционал I = G(n(X)), заданный в общем случае неявно, то есть G(n(X)) - лишь абстрактное обозначение, выражающее принципиальную возможность определения I, зная п® . Используя метод штрафных функций, к данной задаче можно свести большинство задач с ограничениями [2].

Классическим алгоритмом решения задачи является применение нечетких нейронных сетей, например, сетей Ванга-Менделя [3]. При этом стандартные алгоритмы обучения, основанные на

i Надоели баннеры? Вы всегда можете отключить рекламу.