Научная статья на тему 'Алгоритм численного решения задач вариационного исчисления на основе самоорганизующейся нечеткой нейронной сети'

Алгоритм численного решения задач вариационного исчисления на основе самоорганизующейся нечеткой нейронной сети Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
159
53
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Алгоритм численного решения задач вариационного исчисления на основе самоорганизующейся нечеткой нейронной сети»

пространяется по сети от входного слоя к выходному, то при подстройке весов ошибка сети 5 распространяется от выходного слоя к входному.

После адаптации НС будет способна по любому вектору входных параметров X выдавать оценку стоимости исследуемого образца. Поскольку используемые передаточные функции являются монотонными, ошибка аппроксимации определяется через расстояние до ближайшей базисной функции и выдается НС в виде числа. Значения весовых множителей сети 'у определяют величину зависимости параметров, по которым проводится оценка, и могут использоваться для анализа и обоснования результатов.

Последовательное применение перечисленных алгоритмов, как это отражено на рисунке, образует ин-

теллектуальную систему поддержки принятия решений при стоимостной оценке объектов.

Данная система была разработана в среде MATLAB и использовалась для стоимостной оценки драгоценных камней.

Выбор интегрированной системы MATLAB в качестве инструментального средства обусловлен наличием в ней языка программирования высокого уровня и модулей расширения, таких как Database Toolbox, Fuzzy Logic Toolbox, Neural Network Toolbox. Совместное использование этих инструментов, а также средств разработки графических приложений и визуализации расчетных данных, создания независимо исполняемых приложений позволяет создавать эффективные приложения с минимальными затратами времени. Кроме того, матричный процессор, реализуя механизм векторной обработки данных, обеспечивает высокую точность и скорость вычислений.

Предлагаемая архитектура ИСППР на основе нейросетевых алгоритмов показывает одно из возможных направлений формализованного решения прикладных задач определения стоимостных характеристик объектов.

Список литературы

1. Искусственный интеллект: В 3 кн. Справочник /Под ред. Э.В. Попова, Д.А. Поспелова. - М.: Радио и связь, 1990.

2. Медведев Б.С., Потемкин В.Г. Нейронные сети. MATLAB 6. -М.: ДИАЛОГ-МИФИ, 2002. - 396 с.

АЛГОРИТМ ЧИСЛЕННОГО РЕШЕНИЯ ЗАДАЧ ВАРИАЦИОННОГО ИСЧИСЛЕНИЯ НА ОСНОВЕ САМООРГАНИЗУЮЩЕЙСЯ НЕЧЕТКОЙ НЕЙРОННОЙ СЕТИ

А.А. Усков

При построении оптимальных систем управления приходится решать задачи двух видов: синтез оптимальных алгоритмов управления (оптимальных управляющих воздействий) и синтез законов управления [1].

В настоящее время разработано большое количество различных алгоритмов численного решения указанных задач, которые базируются на классическом математическом аппарате [2]. Применение нечеткой логики в данных алгоритмах позволяет, с одной стороны, использовать априорную информацию об искомом решении, что повышает его точность, и с другой - получать результаты в виде продукционных правил если-то, которые затем легко интерпретировать, что дает возможность использовать данные алгоритмы в человеко-машинных системах (например, систе-

мах поддержки принятия управленческих решений) [3].

Рассмотрим задачу синтеза системы нечеткого логического вывода, реализующую функцию

У = ), (1)

которая обращает в минимум некоторый нелинейный функционал I = 0(п(х)), заданный в общем случае неявно, то есть 0(п(х)) - лишь абстрактное обозначение, выражающее принципиальную возможность определения I, зная п(х). Используя метод штрафных функций, к данной задаче можно свести большинство задач с ограничениями [2].

Классическим алгоритмом решения задачи является применение нечетких нейронных сетей, например, сетей Ванга-Менделя [3]. При этом стандартные алгоритмы обучения, основанные на

обратном распространении ошибки, в данном случае неприменимы, так как в общем случае неизвестен гессиан связи функционала I = О(-) и весов нечеткой сети [4]. Кроме того, существенным недостатком традиционных нечетких сетей является необходимость априорного выбора числа продукционных правил [3].

В данной ситуации можно применять алгоритмы наращивания (АН) сети, в которых чередуются циклы обучения сети и добавления новых правил. Однако, как известно, АН сети работают крайне медленно [5].

Рассмотрим алгоритм адаптации нечеткой нейронной сети, как представляется, свободный от указанных недостатков.

Допустим, что о зависимости (1) имеется априорная информация, записанная в виде совокупности т0 нечетких продукционных правил вида:

Пг: если хх есть Аг1 и х2 есть Аг2 и ... и хп есть Агп, то у = уг, где г =1, 2, ... т0 - номер правила в базе знаний, Xj 0=1, 2, ..., п) - компоненты вектора х, А^ - некоторые нечеткие числа, имеющие функции принадлежности ^ ^) •

Отметим, что данная априорная информация может и отсутствовать (при этом т0 = 0).

Предположим далее, что может быть реализован эксперимент, заключающийся в определении значения функционала I = 1(т((Х)) при текущем виде зависимости у = т|(Х).

Алгоритм состоит в реализации последовательности следующих шагов.

Шаг 0 (предварительный). Задается е - погрешность нахождения минимума функционала. Задается априорная база нечетких правил. Устанавливается текущее число правил в базе знаний т=т0.

Шаг 1. Если формируемая база знаний пуста, переход к шагу 2, иначе с помощью алгоритма нечеткого вывода Сугэно 0-го порядка с использованием имеющихся продукционных правил определяется оценка [3, 5]:

Е Уг • ar(x)

nm(X) = ^-

Е ar (x)

г-1

(2)

где аг(Х) = тт{ Мл^), ^гп(Хп)} -

степень истинности предпосылок г-го правила.

По оценке Пт(Х) определяется значение функционала 1т.

Шаг 2. База знаний пополняется правилом вида:

Пт+х: если Хх есть А(т+1)1 и Х2 есть А(т+1)2 и ... Хп есть А(т+1)п, то у = Ут+1, где А(т+1)^ - нечеткие числа с треугольными функциями принадлежности [3, 5]:

Hom-i)j(xj) =

a(m+1)j

>t+1)j

' еСЛНxj -a(m+1)J *V+j

j -a(m+1)j|

(3)

если |Xj

(m+1)j '

где - центры нечетких чисел А(т+1^.

По формуле, аналогичной (2), определяется

оценка ^т+1(Х'а(т+1)1' — , а(т+1),п, ут+1,

X(т+1),1, — , X(т+1)п). Настраиваются параметры

а(т+1)1 , ••• а(т+1)п , ут+1, Х(т+1)1 , ••• Х(т+1)п

тем оптимизации функции 1т+1=

= 1(П1т+1 (х, а(т+1)1' — ' а(т + 1),п,ут + 1, Х (т+1),1

..., X(т+1)п)) по данным параметрам [3]. Шаг 3. Проверяется неравенство:

1т - 1т+1 ^ , (4)

где 1т = 1(П1т(Х)) , 1т+1 = 1(Пт+1(Х)) .

Значение т модифицируется: т:=т+1. При невыполнении неравенства (4) переход к шагу 2, иначе переход к шагу 4.

Шаг 4. База знаний считается сформированной. В качестве окончательной берется база знаний, состоящая из т продукционных правил. В качестве оптимального значения функционала выбирается 1т.

Рассмотренный алгоритм будем называть далее нечетким дополняюще-оптимизирующим алгоритмом (ДОА).

Оценим эффективность ДОА по сравнению с АН нечеткой нейронной сети.

Под эффективностью алгоритма будем понимать следующее: пусть выделено N вычислений функционала I = 0(п(Х)), более эффективен тот алгоритм, который за данные N вычислений даст меньшее значение I = 0(п(Х)).

Допустим, что объем вычислений при настройке нечеткой нейронной сети приблизительно прямо пропорционален числу настраиваемых параметров [3].

Напомним, что в АН происходит оптимизация параметров всех правил, затем добавление нового правила и снова оптимизация параметров всех правил [5]. Число вычислений функционала в АН приблизительно определяется формулой:

Nh

m

Е i • k • n,

i=1

(5)

где k - const; n - число настраиваемых параметров в одном продукционном правиле; m - число продукционных правил.

Формулу (5) можно привести к виду:

хт m + m

NH =-kn.

H 2

(6)

Для ДОА при каждом добавлении нового продукционного правила оптимизируется только п параметров.

x

Число вычислений для ДОА определяется формулой:

^цоа = ктп . (7)

На рисунке 1 построены графики зависимости, определенные по формулам (6) и (7) соответственно, для случая, когда к = 1 и п = 3 .

Из рисунка видно, что ДОА требует значительно меньше вычислений по сравнению с АН.

На практике приведенные оценки являются лишь приближенными. Во-первых, база знаний сгенерированная с помощью ДОА, получается обычно больше, чем при использовании АН, что несколько снижает эффективность ДОА. Во-вторых, с ростом числа переменных число вычислений растет обычно быстрее, чем линейная зависимость, что, наоборот, говорит в пользу эффективности ДОА.

Рассмотрим иллюстрирующий пример.

Пусть имеется система, приведенная на рисунке 2.

Примем следующие обозначения: М - амплитудно-импульсный модулятор с фиксатором нулевого порядка и периодом квантования Т0=0,2; НЭ - нелинейный элемент - статическая нелинейность, определяемая формулой:

Z(t):

На вход системы подается сигнал: [sint,t е [0, п], 0, t > п.

x(t) =

Задача состоит в нахождении нелинейной функции у = п(х), минимизирующей функционал:

+Г I |2

I = J t ■ e dt ^ min .

о

Для решения задачи использовались разработанный ДОА с e = 0 и алгоритм наращивания нечеткой сети. В качестве алгоритма параметрической оптимизации применялся алгоритм Нелдера-Меада из пакета MATLAB 6.5 (R13) [6]. Для уменьшения вероятности сходимости процесса к локальному экстремуму алгоритм запускался 10 раз из случайно задаваемых начальных точек с последующим выбором наилучшего решения.

На рисунке 3 показаны входной сигнал x(t) и сигнал на выходе НЭ z(t) (см. рис. 2) после окончания работы ДОА.

В результате работы алгоритмов были сгенерированы продукционные правила вида:

Пг: если х есть Аг , то у = уг , где г - номер правила, Аг - нечеткие числа с функциями принадлежности вида: х — аг ,

Мт(х)=

1

X г

если x

■ a^ ^ Xг,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0,

если x — aJ > X r

С помощью ДОА и АН до выполнения условия останова было сгенерировано 5 и 4 нечетких продукционных правила соответственно. Ниже приведены параметры, нечетких продукционных правил, сгенерированных с помощью ДОА: а1 = 0,9408, = 0,3181, у1 = 0,5476; а2 = 0,4932,12 = 0,2259, у2 = 0,0221; а3 = 0,4690,13 = 0,1320, у3 = 0,8053; а4 = 0,9682, Х4 = 0,0664, у4 = 1,4022; а5 = 0,7852,15 = 0,1027, у5 = 0,8936 и АН:

а1 = 1,0881, = 0,7567 у1 = 1,3421; а2 = 0,0733,12 = 0,0672, у2 = 1,0338; а3 = 0,0332,13 = 0,4553 у3 = 0,0000; а4 = 0,7155, Х4 = 0,4018, у4 = 0,2563.

Рис. 4. Зависимость значений функционала от числа его определений в процессе работы алгоритмов для АН и ДОА

Таблица

Число сгенерированных правил АН ДОА

I N I N

1 0.0595 406 0.0595 406

2 0.0196 2079 0.0296 940

3 0.0193 4206 0.0259 1439

4 0.0185 9652 0.0118 1975

5 Процесс обр ывается 0.0111 2403

Результаты моделирования сведены в таблице.

Из таблицы видно, что при увеличении количества правил объем вычислений в алгоритме наращивания лавинообразно возрастает, что приводит к невозможности найти точку глобального минимума за выделенное число итераций и к обрыву процесса (выполнению критерия останова). В ДОА объем вычислений растет приблизительно линейно с ростом количества сгенерированных правил.

На рисунке 4 показаны зависимости значений функционала (1АН - для АН и 1дОА - для ДОА) от

числа его определений в процессе работы алгоритмов.

Видно, что при равном N значения функционала при применении ДОА всегда меньше, чем при применении АН, что показывает преимущество разработанного алгоритма.

Список литературы

1. Мирошник И.В., Никифоров В.О., Фрадков А.Л. Нелинейное и адаптивное управление сложными динамическими системами. - СПб.: Наука, 2000.

2. Федоренко Р.П. Приближенное решение задач оптимального управления. - М.: Наука, 1978.

3. Осовский С. Нейронные сети для обработки информации. - М.: Финансы и статистика, 2002.

4. Омату С., Халид М., Юсоф Р. Нейроуправление и его приложения. Кн.2 / Общ. ред. А.И. Галушкина. - М.: ИРПЖР, 2000.

5. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия - ТЕЛЕКОМ, 2001.

6. Дьяконов В.П., Круглов В.В. Математические пакеты расширения МАТЬАБ: Специальный справочник. - СПб.: Питер, 2001.

ИНФОРМАЦИОННЫЕ МОДЕЛИ НА ОСНОВЕ CASE-СРЕДСТВ ПРОМЫШЛЕННЫХ ОБЪЕКТОВ ДЛЯ ИНФОРМАЦИОННОЙ ПОДДЕРЖКИ ПРИНЯТИЯ РЕШЕНИЙ

A.B. Вицентий, В.Н. Богатиков, Д.П. Вент, Б.В. Палюх

Наиболее трудоемкими этапами разработки информационных систем (ИС) в настоящее время являются этапы анализа и проектирования, в процессе которых CASE-средства обеспечивают качество принимаемых технических решений и подготовку проектной документации. При этом большую роль играют методы визуального представления информации. Графические средства моделирования предметной области позволяют разработчикам в наглядном виде изучать существующую ИС, перестраивать ее в соответствии с поставленными целями и имеющимися ограничениями.

В данной работе за основу было взято CASE-средство фирмы Rational Software Corporation

(США) - Rational Rose. Главной составляющей Rational Rose является построение различного рода диаграмм и спецификаций, определяющих логическую и физическую структуры модели, ее статические и динамические аспекты [3,5,12,13]. Общий процесс работы над проектом заключается в добавлении на диаграммы соответствующих графических элементов, в установлении отношений между этими элементами, их спецификации и документировании.

При создании информационных систем часто возникает задача оценки текущих состояний системы, с помощью которых принимаются решения по дальнейшему управлению системой. На рисунке 1 приведена обобщенная структура принятия

i Надоели баннеры? Вы всегда можете отключить рекламу.