ПРИКЛАДНАЯ ИНФОРМАТИКА /-
' № 6 (36) 2011
М. А. Березин, ведущий математик Института проблем управления им. В. А. Трапезникова РАН, г. Москва
Ф. Ф. Пащенко, докт. техн. наук, профессор Института проблем управления
им. В. А. Трапезникова РАН, г. Москва
Параметрическая идентификация класса нечетких систем с помощью устойчивого рекуррентного алгоритма
В статье предложен рекуррентный релаксационный алгоритм для идентификации параметров последователей правил нейронечеткой модели Такаджи-Суджено. Приводится аналитическое доказательство устойчивости данного алгоритма на основе метода анализа устойчивости «входа к состоянию».
Введение
Нечеткая логика и нейронные сети являются универсальными аппрок-симаторами, т. к. способны аппроксимировать любую нелинейную функцию с любой заданной точностью при условии, что известно достаточное количество скрытых нейронов и нечетких правил. Результаты, полученные в последние десятилетия, показали, что процедура синтеза этих двух технологий оказалась весьма полезной для идентификации нелинейных систем [1-3]. Нечеткие модели Такаджи-Суджено в последнее время стали довольно мощным средством для моделирования и управления сложными системами.
Тем не менее, многие вопросы, в том числе проблема устойчивости нейронечеткой идентификации и управления, требуют решения. Эта проблема является чрезвычайно важной в технических приложениях. Хорошо известно, что обычные алгоритмы идентификации (например алгоритм градиентного спуска, наименьших квадратов) устойчивы только в идеальных условиях, но в присутствии помех свойство устойчивости (в смысле возврата системы к своему положению равновесия) часто не выполняется. Неустойчивость в параметрической идентификации была продемонстрирована в [4] и стала важной областью исследования в 1980-е гг.,
когда были предложены некоторые методы анализа устойчивости [5].
В настоящей статье изложен релаксационный рекуррентный алгоритм и проводится аналитическое доказательство его устойчивости в терминах «вход к состоянию».
Постановка задачи
Рассмотрим следующую нелинейную многомерную дискретную систему:
X ^+1) = f [х (0,и (0] у (0 = h [X (0], (1)
где и^) еЖп — вектор входов, х(0 еЖ" — вектор состояния, у^) еЖт — выходной вектор, ^х(0,и(0Щх^)] е С" — нелинейные гладкие функции.
В работе ставится задача анализа устойчивости релаксационного рекуррентного алгоритма параметрической идентификации системы (1) с помощью эволюционной нечеткой модели Такаджи-Суджено. Идентификации в этом случае подлежат параметры последователей нечетких правил1. Дока-
1 О методике идентификации параметров всей нечеткой модели (в том числе и о структурной идентификации) см. [6], где структурная идентификация проводится методом нечеткой разностной кластеризации, а параметрическая — релаксационным рекуррентным алгоритмом.
№ 6 (36) 2011
зывается теорема об устойчивости данного алгоритма на основе метода «вход к состоянию» для анализа устойчивости.
Описание метода «входа к состоянию» для анализа устойчивости нелинейных дискретных систем
Определение 1:
а) если функция у(-) непрерывна и строго возрастающая при у(0) = 0 , следовательно, у(-) является K-функцией;
б) если функция ß() является K-функцией и limst ) = о, то ß(•)является KL-функцией;
<о в) если функция а() является | K-функцией и lim st ^ ^ а,(st) = 0, то а()
¡э является К -функцией. ¡§ "
о
0 Определение 2:
|с а) система (1) называется устойчивой
Ц в терминах «входа к состоянию» (ВС-устой-
<5 чивой), если существует K-функция у()
¡2 и KL-функция ß(), такие что для любого
1 u е , т. е. sup {ВД1} < гс и для любого на-'§ чального состояния x0 е Rn верно неравен-
£ ство: ®
f ||x(t,x0,u(t))|| <ß(||x0||,t) + y(||u(t)||),
0 С
^ б) гладкая функция V: 0 на-
K зывается ВС-устойчивой функцией Ляпу-
га нова для (1), если существуют -функ-
| ции а1(^),а2(^),а3(^)и K-функция а4() такие
| что для любого s и для любых x(t)
* u(t) верны следующие неравенства:
8 §
5 а^) < V(s) < а2^)
Ц
1 ^+1 - V <-аз(И0||) + а4(|u(t)|).
£
£
ч
^ Теорема 1. Если дискретная нелинейная
§ система допускает ВС-устойчивую функ-
| цию Ляпунова, то эта система ВС-устойчи-
¡2 ва, и поведение системы является ограниченным при условии ограниченности вхо-
¿2 дов [7].
Из (1) следует:
у (О = h [х(0]: = F1 [х(Щ у ^ + 1) = h и [х(0, и(0]]:= Fг [х(^, и(0] у а + п - 1): = = Fn [х(^, и(0, и^ + 1,...,иЦ + п - 2))]. (2)
Введем следующие обозначения:
ПО = Ш), уа + 1),., у^ + п -1)]т и(0 = [u(t), и^ +1),., уа + п - 2)]т Следовательно, У(t) = F[х(t), и(t)], F = [F1,..,FrX.
Так как (1) — гладкая нелинейная система, (2) может быть выражено как х (t + 1) = = д [У^ +1), и{1 + 1)]. Это приводит к многомерной нелинейной авторегрессионной модели со скользящим средним (NARMA модели) [8]:
у (0 = h [х (0] = у [у а -1), у а - 2),., ..., и(t-1), и^-2),.] = у [X (t)], (3)
где
X (t) = [у (t-1), у (t - 2),., ..., и (к - d), и (к - d - 1),...]т, (4)
у (•) — неизвестное нелинейное дифференциальное уравнение, описывающее динамику объекта, d — временная задержка. Следует заметить, что определения 1 и 2, а также теорема 1 не зависят от точного выражения нелинейных систем. В данной работе мы будем применять метод «входа к состоянию» для анализа устойчивости к модели (3).
Описание нейронечеткой модели Такаджи-Суджено в аналитическом и нейросетевом представлениях
Нечеткая модель представлена правилами Такаджи-Суджено:
1,: еслих1 есть Хи, хг есть Хгг, .., хп есть
Х^ то у, = с,о + сп х1+ С1гхг+. ■ - +С1п х^ =, (5)
где Н, — правила, хк — входные переменные; Хк — нечеткие множества, характеризующие входные и выходные переменные
№ 6 (36) 2011
в (-м правиле, к = 1,п, скк — коэффициенты линейных уравнений, у = [у и, у22,..., утт] — выходной вектор (-й линейной подсистемы.
гауссова типа:
^ = е
(Гк )2
Y (0 = М (t) Н[ х (t)],
где у (t) = [ у1, у2.....у т ] — выход нечеткой модели,
Выбирается функция принадлежности М^) =
С1 ся
С1 ся
11 11
С1 СЯ
с1 сЯ
тп тп
(6) параметры в заключениях правил,
где гк — расширение функции принадлежности, которое также представляет радиус зоны влияния кластера/правила, х* — фокусные точки правил.
Нейронечеткую модель, основанную на правилах (2), можно записать следующим образом:
(7)
Н [х (0] = [1ч... х1... х1.....х—
вектор входов, взвешенных нормализованными уровнями активации правил 1(, i = 1, Я,
пда
= ~Я—п- .
ХПнХ)
(=1 1=1
Нейросетевое представление нечеткой модели отражено на рис. 1.
I
I £
ё
I I
иа
Слой 1
Слой 2
Слой 3
Слой 4
Слой 5
Рис. 1. Нейросетевое представление нечеткой модели
113
411 х - х
№ 6 (36) 2011
!
f
s
о
Е
!
S
о §
s f I
0 с
U
S
К g
U
1
§ s
s »
S
t £
s
I
S
H
Si !
Первый слой состоит из нейронов, соответствующих функциям принадлежности отдельного нечеткого множества. Этот слой принимает данные в качестве входов х и выдает степень ц в качестве выхода.
Второй слой представляет предшествующие части нечетких правил. Его входы — значения функций преобразования, а выход — уровень активации /-го правила т(, который определяется следующим образом:
n
т( = П^Х ), где ) — значения функций
j=i
принадлежности входов нечетких правил.
У третьего слоя входы — уровни активации соответствующих правил т(, выход — нормализованный уровень активации 1(, а CoG (Center of Gravitation) — центр гравитации т(. В качестве альтернативы можно использовать оператор «победитель забирает все». Этот оператор используется часто в классификации, в то время как CoG — при прогнозировании временных рядов, моделировании систем и управлении.
Четвертый слой объединяет предшествующие части и образует локальные подсистемы (одноэлементные множества или гиперплоскости).
Последний, пятый слой формирует полный выход системы. Он реализует взвешенное суммирование локальных подсистем. При этом модель имеет вид Такаджи-Суд-жено.
Идентификация параметров последователей нечетких правил и анализ устойчивости алгоритма
Определим ошибку идентификации в следующем виде:
e(t) = Y (t)-Y (t), (8)
где Y (t) — выход объекта управления (3), Y(t) — выход нечеткой модели (7).
Исходя из теории нейронечеткой аппроксимации [9, 10], идентифицируемый нелинейный объект (3) может быть записан как:
114
Y(t) = W*H [x (t)] - n(t),
(9)
где № — параметры системы, которые минимизируют немоделируемую динамику
Из (8) и (9) следует, что ошибка идентификации может быть представлена следующим образом:
e(t) = W(t) H[x(t)] + n(t), где W (t) = W (t) - W *.
(10)
Идентификацию параметров нечетких правил-последователей будем проводить с помощью рекуррентного релаксационного алгоритма, в котором производится расчет значений параметров по итерационной формуле
У (0 - 9 (I)
W (t) = W (t -1) + Y
1 + 1 \H[ X (Of 0 <y< 1.
• H[ x (f)],
(ii;
Предполагаем, что система (3) разомкнута и имеет ограничения по входам и выходам, т. е. у^) и и^) в (3) ограничены. Из-за ограниченности функции Н функция п(0 в (9) также ограничена.
Следующая теорема приводит устойчивый рекуррентный алгоритм нейронечеткой идентификации. Доказательство данной теоремы основывается на результатах работы [11].
е(0
eN (t) =
1 + iriax,
(lN x (t)f )
Теорема г. Пусть нелинейный объект описывается уравнением (3). Пусть модель ищется в классе моделей (7). Алгоритм идентификации имеет вид (11). Тогда алгоритм (11) сходится и делает ошибку прогнозирования (8) ограниченной.
При этом норма ошибки удовлетворяет следующему выражению:
П = iriax, 1
(12)
где limr^ sup-|ew(t)|| <n .
T t=1
№ 6 (36) 2011
Доказательство: обозначим положительно определенную скалярную величину Lt следующим образом:
L = р(0| .
Обозначим также ф, =
Y
(13) . Тогда
1 + | |Н[ х (0| (11) можно переписать так:
М^ +1) = М(t) - фte(t)H7 [X(t)].
Используя неравенства \\а - Ь|| > ||а|| -1|Ь||, аЬ\\ < а2 + Ь2 для любых а и Ь, а также используя (10) и 0 < фt < у < 1, имеем:
AL, = L+1 - L = W(0 -ф,е(!)Нт (Xf -| = W(t)|2 - 2ф, ||e(t)HT (X)W(,)| + + ф21|e(t)H[X(t)]||2 -1W(of = ф21|e(t)|21|H[X(t)]|2 -
-2ф, ||e(t)[e(t) -n(t)| < ф21|e(t)|21|H[X(t)]|2 -- 2ф, ||e(t)|2 + 2ф, ||e(t)n(t)|| < ф21|e(t)|21|H[X(t)]|2 -- 2ф,||е(,)||2 + ф, ||e(t)|2 + ф, I |n(t)|2 = = ф,||е(,)||2(1-ф,||нт ( X f) + ф, I |n(t)f. (14)
Так как ф, =
= Ф,
1-
1+1 |H[ х (,)|
ф, (1 -ф,||Н[ X (,)]|2) =
||H[ X (,)]||
следовательно:
Y
1 + 1 |H[X (Of max
1-Y-
2
1 + max,
ф,
Y
1 + max, (I H[ X (Of ) [1 + max, (|| H[X (Of )]2
Следовательно,
AL, <-п||e(0|f +Yh(t)|2, (15) Y
где п = -
1 + max,
Так как птт(й/2) < Ц < птах(й/2), где птт(1/й(2) и птах(й/2)— К-функции и л||е(0||2 — К^-функци я, а у||г|(0||2 — К-функ-ция, следовательно Ц{ допускает ВС-устойчи-вую функцию Ляпунова по определению 2. Исходя из теоремы 1, динамика ошибки идентификации ВС-устойчива. Из (10) и (13) видим, что Lt является функцией от е(0 и п(0 «Вход» соответствует второму слагаемому в (15), т. е. ошибке моделирования п(0. «Состояние» соответствует первому слагаемому в (15), т. е. ошибке идентификации е (0. Так как «вход» п(0 ограничен и динамика ВС-у-стойчива, следовательно, «состояние» е (О ограничено. Уравнение (14) можно переписать в следующем виде:
AL, <-Y7
11+max.
!>J
-+YM2 <
(16)
<Y
1+тах,
:)J
-+rn.
Суммируя (16) от 1 до Т и воспользовавшись тем, что ЦТ > 0 и Ц1 — постоянная ве-лична, получаем неравенства
Цт - Ц <-уХ||ем(0||2 + Туп
t=1
т
в «Г < Ц - Цт + Т уп < Ц + Т уп .
t=1
Теорема доказана.
Замечание. Вообще говоря, нейронечет-кая модель не может с высокой точностью аппроксимировать любую нелинейную систему. Параметры нечеткой нейронной сети не будут в точности сходиться к их оптимальным величинам. Смысл идентификации в режиме реального времени на основе алгоритма, предложенного в статье, — улучшить близость выхода объекта Y к выходу нейронечеткой модели У. Хотя параметры не могут сходиться к их оптимальным величинам с высокой точностью, неравенство (12) показывает, что нормализованная ошибка идентификации будет сходиться к шару с радиусом п. Нейронечеткая сеть (7) может
115
Ü
i ё ё ё
I I
US
2
2
2
-N ПРИКЛАДНАЯ ИНФОРМАТИКА
№ 6 (36) 2011 ' -
в точности воспроизвести нелинейный объект (3) (n(t) = 0) в том случае, если найдем наилучшую функцию принадлежности ) и W* такие, что нелинейная система может быть сформулирована как Y(t) = W * H[n(t)]. Так как ||e(t)|| > 0 , алгоритм оценки параметров (11) делает норму ошибки идентификации ||e(t)|| асимптотически устойчивой, т. е.
lim I |e(t)|| = 0.
t
Нормализованная скорость обучения фt в (14) должна обеспечить устойчивость ошибки идентификации. Скорости обучения могут быть выбраны более легким способом, чем в [9], без требования какой-либо апри-| орной информации. Скорости сходимости ¡э исследованы в некоторых адаптивных сис-<§ темах управления [5]. Аналогично второму о методу Ляпунова, условие 0 < у < 1 являет-|с ся необходимым, но недостаточным услови-Ц ем устойчивости процесса идентификации. <5 Приняв у > 1, можно увеличить скорость схо-¡2 димости алгоритма. Однако при этом нель-| зя гарантировать устойчивость его работы. '§ Противоречие между устойчивостью (у < 1) Ё, и быстрой сходимостью (у > 1) все еще су-§ ществует в подобных алгоритмах. о Интересно, что в [12] был получен похо-g жий алгоритм обучения нейронных сетей, J выведенный на основе минимизации функ-
К ции затрат. %
и
р Заключение
s
* В данной работе предложен рекуррентный релаксационный алгоритм, делающий § устойчивым процесс обучения нечеткой модели Такаджи-Суджено в режиме реального Ig времени. Для анализа устойчивости исполь-II зован метод «вход-состояние». Предполага-§ ется, что параметры функций принадлежно-^ сти и количество нечетких правил известны. § На основе полученных результатов в пер-| спективе планируется разработка алгорит-¡2 ма, в том числе и для структурной идентификации системы в режиме реального вре-¿2 мени.
Список литературы
1. Chen M. Y, Linkensm D. A., A systematic neuro-fuzzy modeling framework with application to material property prediction. IEEE Transactions on Systems, Man and Cybernetics, B. Vol. 31. P. 781-790. Sept., 2001.
2. Demirli K., Khoshnejad M. «Autonomous parallel parking of a car-like mobile robot by a neuro-fuzzy sensor-based controller». Fuzzy Sets and Systems Vol. 160, Is. 19, 2009. P. 2876-2891.
3. Orlowska-Kowalska T, Szabat K. Damping of Torsional Vibrations in Two-Mass System Using Adaptive Sliding Neuro-Fuzzy Approach. IEEE Transactions on Industrial Informatics, 2008. Vol. 4,1.
4. Egardt B. Stability of Adaptive Controllers. Berlin, Germany: Springer-Verlag, 1979. Vol. 20, Lecture Notes in Control and Information Sciences.
5. loannou P. A., Sun J. Robust Adaptive Control. Upper Saddle River, NJ: Prentice-Hall, 1996.
6. Пащенко Ф. Ф., Березин М. А. Эволюционный алгоритм моделирования систем. Труды 4-й Международной конференции «Управление развитием крупномасштабных систем MLSD». Москва, ИПУ РАН, 4-6 октября, 2010.
7. Z. P. Jiang, Y. Wang, Input-to-state stability for discrete-time nonlinear systems, Automatica. Vol. 37. No. 2, 2001. P. 857-869.
8. W. C. Chan, C. W. Chan, K. C. Cheung, Y. Wang. Modeling of nonlinear stochastic dynamical systems using neurofuzzy networks. in Proc. 38th IEEE Conf. Decision Control, Phoenix, AZ, 1999. P. 2643-2648.
9. C. H. Wang, H. L. Liu, and C. T. Lin. Dynamic optimal learning rates of a certain class of fuzzy neural networks and its applications with genetic algorithm, IEEE Transactions on Systems, Man and Cybernetics, part B. Vol. 31. June, 2001. P. 467-475.
10. Haykin S. Neural Networks — Comprehensive Foundation. New York: MacMillan, 1994.
11. Wen Yu, Xiaoou Li. Fuzzy Identification Using Fuzzy Neural Networks With Stable Learning Algorithms, IEEE Transactions on Fuzzy Systems. Vol. 12. № 3. 2004. P. 411-420.
12. Mandic D. P., Hanna A. I., Razaz M. A normalized gradient descent algorithm for nonlinear adaptive filters using a gradient adaptive step size, IEEE Signal Processing Lett. Vol. 8. Feb. 2001. Р. 295-297.