Научная статья на тему 'НЕЙРО-МЕРЕЖЕВИЙ ПіДХіД ДО НАЛАШТУВАННЯ СТРУКТУРИ КЛАСИФіКАЦіЙНИХ ПРАВИЛ НА ОСНОВі РіВНЯНЬ НЕЧіТКИХ ВіДНОШЕНЬ'

НЕЙРО-МЕРЕЖЕВИЙ ПіДХіД ДО НАЛАШТУВАННЯ СТРУКТУРИ КЛАСИФіКАЦіЙНИХ ПРАВИЛ НА ОСНОВі РіВНЯНЬ НЕЧіТКИХ ВіДНОШЕНЬ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
77
32
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЧЕТКИЕ ОТНОШЕНИЯ / НЕЙРО-НЕЧЕТКАЯ СЕТЬ ОБРАТНОГО ВЫВОДА / РЕШЕНИЕ СИСТЕМ УРАВНЕНИЙ НЕЧЕТКИХ ОТНОШЕНИЙ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Ракитянська Г.Б.

Предлагается адаптивный подход к настройке структуры классификационных правил на основе решения уравнений нечетких отношений, что позволяет избежать избыточности нечеткой базы знаний. Суть подхода состоит в построении и обучении нейро-нечеткой сети обратного вывода, изоморфной системе уравнений нечетких отношений, которая позволяет корректировать нечеткие правила по мере появления новых экспериментальных данных

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Ракитянська Г.Б.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Neural-network approach to structural tuning of classification rules based on fuzzy relational equations

An adaptive approach to structural tuning of classification rules based on solving fuzzy relational equations, allowing to avoid the fuzzy knowledge base redundancy is proposed. The approach lies in building and training the neural-fuzzy backward chaining network, the isomorphic system of fuzzy relational equations, which allows to adjust the structure of fuzzy rules as new experimental data appear. Because of the lack of effective selection methods, there is no single methodological standard for structural tuning of fuzzy rules. Modern neural-fuzzy systems use heuristic selection methods to reduce the number of rules without losing the distinctive ability of the network. It was found that using the neural-fuzzy backward chaining network allows to avoid the knowledge base redundancy while preserving the inference precision. The number of rules in the class is equal to the number of solutions, and the form of membership functions of fuzzy terms is defined by intervals of values of input variables in each solution. This approach is an alter n ative to the classical approach, based on selection of rul e s from a set of rulescandidates that prevents obtaining c ompact fuzzy knowledge bases.

Текст научной работы на тему «НЕЙРО-МЕРЕЖЕВИЙ ПіДХіД ДО НАЛАШТУВАННЯ СТРУКТУРИ КЛАСИФіКАЦіЙНИХ ПРАВИЛ НА ОСНОВі РіВНЯНЬ НЕЧіТКИХ ВіДНОШЕНЬ»

Пропонуеться адаптивний niдхiд до налашту-вання структури класифшацшних правил на основi розв'язання рiвнянь нечтких видношень, що дозволяе уникнути надлишковостi нечтког бази знань. Суть тдходу полягае у побудовi та навчанш нейро-нечт-ког мережi оберненого виведення, iзоморфног системi рiвнянь нечтких видношень, яка дозволяе коригувати нечтк правила в мiру появи нових експерименталь-них даних

Ключовi слова: нечтк видношення, нейро-нечт-ка мережа оберненого виведення, розв'язання систем рiвнянь нечтких видношень

Предлагается адаптивный подход к настройке структуры классификационных правил на основе решения уравнений нечетких отношений, что позволяет избежать избыточности нечеткой базы знаний. Суть подхода состоит в построении и обучении нейро-нечеткой сети обратного вывода, изоморфной системе уравнений нечетких отношений, которая позволяет корректировать нечеткие правила по мере появления новых экспериментальных данных

Ключевые слова: нечеткие отношения, нейро-не-четкая сеть обратного вывода, решение систем

уравнений нечетких отношений

-□ □-

УДК 681.5.015:007

|DOI: 10.15587/1729-4061.2015.47124|

НЕЙРО-МЕРЕЖЕВИЙ П1ДХ1Д ДО НАЛАШТУВАННЯ СТРУКТУРИ КЛАСИФ1КАЦ1ЙНИХ ПРАВИЛ НА ОСНОВ1 Р1ВНЯНЬ НЕЧ1ТКИХ В1ДНОШЕНЬ

Г. Б. Ракитянська

Кандидат техычних наук, доцент Кафедра програмного забезпечення Вшницький нацюнальний техшчний уыверситет Хмельницьке шосе, 95, м. Вшниця, УкраТна, 21021 Е-mail: h rakit@ukr.net

1. Вступ

Яюсть класифжацшно! нечетко! бази знань зале-жить вщ юлькосп правил i форм функцш належносп нечетких термiв, яю обираються для кожного класу виходу на етат структурно! iдентифiкацii [1, 2]. Вико-ристання експертних правил не може гарантувати, що структура нечетко! моделi е оптимальною i подальша настройка параметрiв моделi забезпечить зб^ теоре-тичних результатiв з експериментальними даними.

Сучасний тдхщ до налаштування структури не-чiтких баз знань полягае у генерувант правил-канди-датiв з подальшою селекцiею правил [3]. Проте такий тдхщ перешкоджае отриманню бiльш компактних баз знань, осюльки остаточна база знань може мштити надлишковi правила. Альтернативний тдхщ, запро-понований в [4], розглядае побудову класифжацшних нечiтких правил ЯКЩО-ТО як визначення значень входiв, яю вiдповiдають заданому класу виходу. На практищ це означае, що експерту для задано! частини ТО необхщно пвдбрати частину ЯКЩО. Ця задача вщноситься до класу обернених i полягае у вщнов-леннi значень вхщних змiнних, якi найкращим чином пояснюють спостереження [4].

2. Аналiз лiтературних даних i постановка проблеми

Сучаснi нейро-нечiткi системи базуються на ге-неруваннi штервальних правил або гiпербоксiв для заданих клаив виходу [5]. Генерування правил у ней-ронних мережах на основi радiальних базисних функцш (RBF) [6], поеднане з навчанням машин опорних

©

векторiв (SVM) [7], дозволяе визначити геометрiю гшербокив. Режим навчання у таких тт-тах ней-ронних мережах полягае у розширенш/стиснент п-пербоксiв [5, 8]. Розширення гiпербоксiв призводить до втрати розтзнавально! здатностi мережi. Змен-шення зон перекриття потребуе бiльшоi юлькост гiпербоксiв. Щоб уникнути надлишковостi нечико! бази знань, необхiдно зменшувати юльюсть гшер-боксiв без втрати розтзнавально! здатностi мережi. Оптимiзацiя структури мережi здiйснюеться шляхом об'еднання/розбиття гiпербоксiв, тобто злиття або селекцп правил [5, 8]. Для цього в ходi навчання шд-бираеться максимальний розмiр гiпербокса, який ви-значае юльюсть правил в базi знань. Велике значення цього параметра викликае помилки класифжацп; якщо значення цього параметра е малим, то створю-еться багато непотрiбних гшербокив [5].

Через вiдсутнiсть ефективних методiв селекцп на сьогоднi немае единого методичного стандарту налаштування структури нечетких правил. Ця стаття е розвитком роботи [9]. В робоп [9] пропонуеться тдхвд до налаштування структури класифжацшних нечетких правил на осшж формалiзацii причинно-наслвд-кових зв'язюв у термiнах рiвнянь нечиких вiдношень [10, 11]. Причини i наслiдки з'еднуються нечiткими вiдношеннями, а мiри значимостей причин i наслвд-кiв - сполученими правилами, як е якiсними розв'яз-ками рiвнянь нечiтких вiдношень для заданих клаив виходу. В таких правилах використовуються сполу-ченi нечiткi терми [12], де мiри значимостей причин (пiдвищення, падшня) описуються нечiткими кван-тифiкаторами (значне, суттеве). В цьому випадку налаштування структури нечиких правил потребуе

розвязання р1внянь неч1тких в1дношень, що дозволяе уникнути надлишковост бази знань 1з збереженням точносп виведення. Юльюсть правил у клас1 дор1внюе кшькосп розв'язюв, а форма функцш належност1 нечетких терм1в визначаеться штервалами значень вхвдних змшних у кожному розв'язку. В робот [9] нечгтю лопч-т р1вняння розв'язувались за допомогою генетичного алгоритму, використання якого е трудом1стким при надходженш нових експериментальних даних.

3. Цшь та задачi дослщження

Метою дано! роботи е розробка адаптивного тд-ходу до налаштування структури класифжацшних правил.

Для досягнення поставлено! мети було поставлено задачу побудови та навчання нейро-нечгтко! мереж1 оберненого виведення, 1зоморфно! систем1 р1внянь не-ч1тких вщношень, яка дозволяе коригувати структуру нечетких правил в м1ру появи нових експерименталь-них даних.

Для налаштування класифжацшних правил уза-гальнено адаптивний тдхщ до розв'язання багатови-м1рних р1внянь нечетких вщношень [13, 14].

де цА'(Х') = (цс",...,цс'к' ) - вектор м1р значимостей причин са, ' = 1,п, 1 = 1,к'; цЕ(у) = (цЕ1,...,цем) - вектор м1р значимостей наслщюв EJ, J = 1,М .

З1 ствввдношення (2) випливае система р1внянь нечетких вщношень, яка зв'язуе функцп належност нечетких терм1в причин 1 наслщюв:

цEJ(y) = тт{шах[тт(цс»(ХД^)]}, J = 1,М . (3)

'=1 ,п 1=1,к'

Для кожного класу dj множина розв'язюв системи р1внянь (3) може бути представлена у вигляд1 системи сполучених нечиких правил ЯКЩО-ТО:

и.[ П { и.(Цс'1(Х') = а'Р)}]^у = ] = ^Щ, (4)

р=1л '=1,П 1=1,к'

де а'Р

нечеткий квантифжатор, який описуе м1ру значимост цс'1 в правил! з номером р = 1^.

Шляхом переходу вщ терм1в а'Р , що описують м1ри значимостей цс'1 , до терм1в а'р , що описують змшш Х' , система (4) переписуеться у виглядк

и[ П{ и(Х' = а*)}]-

р=Ц '=1,п 1=1,к'

>у = ] = 1,ш,

(5)

4. Метод побудови класифжацшно! нечетко! бази знань

4. 1. Апроксимащя нечiткими вiдношеннями i правилами

Розглядаеться об'ект виду у = ^Х) з п входами X = (х1,...,хп) 1 одним виходом у, для якого взаемо-зв'язок «входи - вихщ» може бути представлений у вигляд1 системи класифжацшних нечетких правил ЯКЩО-ТО [2]:

и [ П (Х' = т®)]-

Р=1^: '=1,П

>у = ] = 1,ш,

(1)

де Т® - лшгв1стичний терм, який ощнюе змшну Х' в правил1 з номером ]р , ] = 1,ш, р = ; dj - лшгв1стич-ний терм, який ощнюе змшну у ; zj - юльюсть правил, що вщповщають терму dj; ш - юльюсть терм1в вихщно! змшно!.

Нечгтка база знань (1) може бути перетворена до множини лшгв1стичних розв'язюв системи р1внянь нечетких вщношень шляхом переходу до сполучено! системи нечетких терм1в.

Нехай: {О",...,^} - множина нечетких причин для оцшки параметра Х', ' = 1,п; {Е1,...,ЕМ} - множина нечиких наслщюв для оцшки параметра у. Перепозначимо {С1,...,СК} ={с11,...,с1к ,...,сп1,...,спк }, де N = к1 +... + кп. п

Взаемозв'язок «причини - наслщки» буде-мо задавати системою матриць нечетких вщношень R' ссп х= [^ , ' = 1,п, 1 = 1,к', J = 1,М], яка еквь валентна _матриц1_неч1тких вщношень R с С1 х EJ = = [гц, I = 1,N, J = 1,М ]. _

За наявност1 матриць Я', ' = 1,п, залежшсть «входи - вихщ» описуеться за допомогою розширеного композицшного правила виведення [1]:

ц Е(у) = ц А1(Х1) о Я1П... п Ц Ап(Хп) ° Я п,

(2)

де а'р =( с'1, а'р ) - сполучений терм, що описуе змшну Х', ' = 1,п , 1 = 1,к' , в правил! ]р .

Класифжацшнш нечгткш баз1 знань (5) вщповь дають неч1тю лопчш р1вняння, як зв'язують функцп належност1 сполучених терм1в у розв'язках системи

(3) [2, 11]:

ца'(у) = шаХ[^р • ш1п{ЦТ'р(Х')}], ] = 1,ш,

р=1£: '=1,п

де ц1' (Х') = щнХ(^ир •Ца'1(Х')).

1=1 ,к'

Тут ца'(у) - функц1я належност1 зм1нно! у до класу dj; ц^Х') - функц1я належност1 змшно! Х' до терму ; ца'1(Х') - функц1я належност1 зм1нно! Х' до сполученого терму а'р =( с^ , а'р ); wjp - вага правила з номером ]р ; у'р - вага терму у розв'язку з номером ]р . Будемо використовувати таку функщю належност1 неч1ткого терму Т [2]:

цт(Х) = 1(1 + ((Х-Р)/о)2),

де в - координата максимуму; о - параметр концен-трацп.

Операщя дефазиф1кац1! виконуеться за методом центро!ду [2].

4. 2. Задача оптимiзащ¡ для оберненого виведення на основi |>'|1!11яш> нечiтких вiдношень

Задача оберненого виведення ставиться таким чином: для заданих матриц1 в1дношень Я 1 клас1в виходу у = dj, ] = 1,ш, знайти к1льк1сть правил zj 1 ввдновити форми функц1й належност1 вход1в Х' = а'р у кожному правиль

Елементами розв'язку е значення вхщних зм1нних Х', ' = 1,п, для яких цс'1 (Х')= а'р, р = 1,zj. Будемо штер-претувати ц1 значення вхщних зм1нних як координати максимуму функцш належност1 неч1тких терм1в а'р,

що описують змiнну X; в рядку jp , р = , бази знань (5), де значенню виходу у = dj, ] = 1,т , вiдповiдаe Zj лiнгвiстичних розв'язкiв системи (3).

Нехай Bj= (р1,...,р^) = (р11,...,р1к1,...,рпп1,...,рппк ) - вектор координат максимуму функцш належностi нечетких термiв у правилi в клас у = dj.

Дотримуючись пiдходу [13, 14], задача розв'язання системи рiвнянь нечiтких вiдношень (3) формулюеть-ся так. Для кожного значення виходу у = ^ знайти

вектор координат максимуму Bj = (р],...,р{Д_^ = 1,т,

який задовольняе обмеження р^ е[х!,х,], 1 = 1,п, i за-безпечуе мiнiмальну вiдстань мiж спостережуваними i модельними мiрами значимостей наслвдюв:

F = Ё ^ (dj) - min [max(min(^Ci1 (ßj ), rJ ))]]2 = min . (6)

j=1 i=1-n l=1-ki Bj

Для кожного класу , j = l,m , система рiвнянь (3) мае множину розв'язюв Sj(R,dj), яка _визнача-еться множиною максимальних розв'язкiв Sj(R,dj)= = {Bjh_Ji = l,Zj}, де кожному максимальному розв'язку Bjh eSj вiдповiдае множина мiнiмальних розв'язюв S*(R,dj)={BjS,s = 1,Zj} [14]:

лантацп матрицi нечiтких вiдношень в неиронну мережу таким чином, що параметрами, яю пiдлягають навчанню, е ß-параметри правил [13]. Щ параметри асоцiюються i3 значеннями вх!дних_змшних xi = ßi1 у розв'язках ^Cil(xi = ßi1), i = 1,n, 1 = 1,ki, системи рiв-нянь нечiтких вiдношень (3).

Рис. 1. Нейро-неч^ка модель рiвнянь нечiтких вiдношень

Sj(R,dj)= U U [Bjs,Bjh], j = 1,m .

Bjh eS* Bjs eS*

(7)

тУт В^^р^...^ i В^р»..., рр - вектори верх-

нiх i нижнiх границь координат максимуму Р|р ,_де опе-рацiя об'еднання виконуеться над уама Bjh eSj(R i Вjs eSj(R,dj). Передбачаеться, що iз збiльшенням (зменшенням) абсолютного значення параметра Р|, збшьшуеться (зменшуеться) мiра значимостi цС1(Р{) .

Формування iнтервалiв (7) здiйснюеться шляхом багаторазового розв'язання задачi оптимiзащi (6) i починаеться з пошуку ii нульових розв'язкiв В^ = (Р1°,...,Р]5), ] = 1,т . Верхн_я границя (р1, ) для Ь = 1 знаходиться в дДапазош [31°, х,], а для Ь > 1 - в дiапа-зонi [тах(Р■,р), х,], причому максимальнi розв'язки Р1 , р < Ь, "вйлучаються iз областi пошуку. Нижня границя ( Р^ ) для 8 = 1 знаходиться в дiапазонi [х1, Р1°], а для

8 > 1 - в дiапазонi [х^тщф^)], причому мiнiмальнi

р=1,Ь

розв'язки р® , р < 8 , вилучаються iз областi пошуку.

Нехай Вj(t) = ф^),...^^)) розв'язок задачi опти-мiзацii (6) на £-ому кроцi формування iнтервалiв (7), тобто F(Bj(t)) = F(Bj°), оскiльки для всiх Вj eS(R,dj) значення кротерт (6) однакове. При пошуку верхшх границь (Р: ) передбачаеться, що -1), а

при пошуку нижшх границь ( pjs ) передбачаеться, що <Р^ -1). Встановлення верхшх (нижшх) границь . здiйснюеться за правилом: якщо Вj(t) Ф Вj(t -1), то р;Ь( рр= Р}(1;), I = 1,К^Якщо В^) = Bj(t-1), то формування розв'язку Bjh] припиняеться. Пошук штерва_жв (7) продовжуеться, допоки виконуеться умова Вjh Ф Вjp, р < Ь, для верхшх границь i Ф Bjp, р < 8, для нижшх границь.

4. 3. Нейро-нечггка мережа оберненого виведення

Нейро-нечика мережа, iзоморфна системi рiвнянь нечiтких вiдношень (3), представлена на рис. 1. Ней-ро-нечгтка модель на рис. 1 отримана шляхом iмп-

Входами мережi е координати максимуму функцш належносп нечетких термiв причин рс". 1з системи рiв-нянь (3) випливае, що за умови цс" (х1 = рс" )=1 мiра зна-чимостi наслiдку цЕ] е максимальною. На локальних виходах мережi об'еднуються фактичнi мiри значимостi наслiдкiв цЕ] = тах(т1п(цс11(х1),г1|)), отриманi з ура-хуванням шуканЙх'значень P-параметрiв цс11 (х1 = Р11), 1 = 1,п. На виходах мережi здiйснюеться агрегацiя локальних мiр значимостi наслiдкiв цЕ] = тт(цЕ] ).

Таким чином, задача розв'язання системи рiвнянь нечетких вiдношень (3) зводиться до задачi навчання нейро-нечiткоi мережi на рис. 1 по точках (рС1,цЕ]^)), I = 1,к, } = 1,М, ] = 1,т.

Для налаштування параметрiв нейро-нечiткоi ме-режi використовуються рекурентнi спiввiдношення:

ЭеЕ

ßj(t + 1) = ßj(t) -n '

(8)

dßj(t)

якi мiнiмiзують критерiИ eE = |(ME(t) - ME(t))2,

де ME(t), ME(t) - модельниИ i експериментальниИ нечiткиИ вектор наслiдкiв на t-ому кроцi навчання; ßj(t) - координати максимуму функцш належност вхщних термiв на t-ому кроцi навчання; h - параметр навчання.

Частиннi похщш, що входять у спiввiдношення (8), обчислюються так:

3ef Ё

dßii J=1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

aef a^Ej a^,Ej

a^EJ

Эцс»

Ж

Оскiльки при визначеннi нечикого виходу присут-нi операцп min i max, то спiввiдношення для навчання отримаш за допомогою кшцевих рiзниць [13].

5. Приклад: адаптивна нечетка система управлшня запасами

Представимо систему управлшня запасами у ви-гляд1 об'екта y(t) = ^х^Дх^)) , де: х^) - попит, тобто число одиниць ресурсу даного виду, яке необхщ-но в момент часу Ь; х (Д - запас, тобто число одиниць ресурсу даного виду, яке е в наявност на склад1 в момент Ь; у(Д - управлшська д1я в момент Ь, яка полягае в зменшенш - зб1льшенш запасу ресурсу даного виду [15]. Для тдприемства, яке протягом року реал1зуе гречану крупу, х^) е [0, 200] • 102 кг; х2(;) е [70, 170] • 102 кг; у(1;) е [-100, 100] • 102 кг; 1 е[1...365] дшв.

Нехай треба побудувати нечию правила для таких клас1в: d1 - зменшити запас сильно; d2 - зменшити запас середне; d3 - зменшити запас слабо; ¿4 - шчого не робити; d5 - зб1льшити запас слабо; d6 - зб1льшити запас середне; d7 - зб1льшити запас сильно [15].

Експертш нечгтю ввдношення представлен в табл. 1, де вхвдш 1 вихщний параметри описуються причинами 1 наслщками: си , с21 - спадае (П);с12, с22 - стшкий (Ст); с13, с23 - зростае (Р) для х1(1) 1 х2(Д; Е1 - зменшити запас; Е2 - шчого не робити; Е3 - збшьшити запас для у(Д. Параметри функцш належност1 нечетких причин 1 наслщюв наведеш в табл. 2.

Експертш правила для початкових клас1в виходу представлен в табл. 3, де змшш х1 1 х2 описуються сполученими термами: значно падае (знП), незначно падае (нП), стшкий (Ст), незначно зростае (нР), значно зростае (знР).

Таблиця 1

Матриця неч^ких вщношень

ЯКЩО входи ТО внхщ у(1)

Е1 Е2 Еэ

Х^) с» 0.96 0.83 0.15

012 0.65 0.72 0.94

013 0.16 0.53 0.99

х2(1) с21 0.16 0.90 0.95

с22 0.80 0.72 0.65

с23 0.98 0.48 0.15

Таблиця 2

Параметри функцш належносп неч^ких причин i наслiдкiв

Параметр Х1(1) х2(1) у(1)

с11 с12 с13 21 с22 23 Е1 Е2 Е3

в 2.93 102.26 197.41 71.19 120.14 169.62 -100 0 100

о 60.08 21.69 58.13 33.56 9.21 31.08 49.16 18.73 52.10

Система р1внянь нечетких вщношень для генеру-вання правил мае вигляд:

цЕ = [(цс" л 0.96) V (цси л 0.65) V (цси л 0.16)] л л[(цсм л0.16)V(цс22 л0.80)V(цс23 л0.98)]; цЕ = [(цс" л0.83) V (цси л0.72) V (цси л0.53)] л л[(цс21 л0.90) V (цс22 л0.72) V (цс- л0.48)]; цЕ = [(цс" л0.15) V (цс" л0.94) V (цси л0.99)] л л[(цс21 л0.95) V (цс22 л0.65) V(цс23 л0.15)]. (9)

Параметри функцш належност нечетких терм1в d1 ^d7 наведеш в табл. 4. Для кожного класу ^d7, м1ри значимостей мЕ^) визначались за допомогою функцш належност на рис. 2:

мЕ^) =(0.92; 0.14; 0.12);

мE(d2) =(0.75; 0.22; 0.15);

мE(d3) =(0.49; 0.35; 0.17);

мЕ^4)=(0.31; 1.00; 0.34);

мЕ^5)=(0.16; 0.40; 0.50);

мE(d6) =(0.12; 0.18; 0.76);

мЕ^7)=(0.10; 0.14; 0.94).

Таблиця 3

Початковi сполученi правила

ЯКЩО ТО

Х1(1) х2(1) у(1)

знП нР або знР ¿1

знП або нП знР

нП Ст або нР

Ст знР

нП або Ст нР

нП або Ст нП або Ст ¿4

знП знП

нР або знР нР або знР

нР або знР нП ¿б

нР нП або Ст

знР Ст або нР

нР або знР знП ¿7

знР знП або нП

Таблиця 4

Параметри функцш належносп неч^ких термiв змшноТ y(t)

Параметр ¿1 ¿2 ¿4 ¿Б ¿в ¿7

в -83.15 -63.27 -39.72 0 36.58 64.10 82.44

о 13.28 14.63 10.86 18.73 11.45 12.24 14.69

Рис. 2. Функцп належносп нечiтких термiв змшноТ у

Шляхом нейронного налаштування початкового набору правил, отримаш розв'язки для р-параметр1в пра-

вил, як представлеш в табл. 5. Лшгвктична штерпрета-цiя iнтервалiв p-параметрiв представлена в табл. 6.

Уточнений набiр правил вiдповiдае множинi розв'язюв системи рiвнянь нечiтких вiдношень (9), яка представлена в табл. 7.

Таблиця 5

Множина значень в- параметрiв правил

Таблиця 6

Уточнен сполучеж правила

Таблиця 7

Множина розв'язмв системи рiвнянь неч^ких вiдношень

ЯКЩО ТО

Xl(t) х200 уОО

цс'2 цс'3 цс21 цс22 цс23 -

[°.92, 1] [0, 0.15] [0, 0.15] [0, 0.15] [0, 0.48] [0.92, 1]

[0.92, 1] 0.48 [0, 1] [0, 0.15] [0, 0.15] [0.92, 1]

[0.75, 1] [0, 0.15] [0, 0.15] [0, 0.15] 0.50 [0.75, 1] d2

0.65 0.65 [0, 1] [0, 0.15] [0, 0.15] [0.65, 1]

0.65 [0.65, 1] [0, 1] [0, 0.15] [0, 0.15] 0.65

[0.49, 1] [0.49, 1] [0, 1] [0, 0.15] [0, 0.15] 0.49 d3

[0, 0.15] 0.49 0.49 [0, 0.15] [0, 0.15] [0.49, 1]

0.49 [0, 0.15] [0, 0.15] [0, 1] [0.49, 1] [0.49, 1]

[0.49, 1] [0, 0.15] [0, 0.15] 0.49 0.49 [0, 0.15]

0.65 [0.72, 1] 0.65 0.65 [0.72, 1] 0.65 d4

[0.46, 1] 0.34 [0, 0.34] [0.46,1] 0.31 [0, 0.31]

[0, 0.31] 0.31 [0.46, 1] [0, 0.34] 0.34 [0.46, 1]

[0, 0.16] [0, 0.16] 0.50 [0.50, 1] [0.50, 1] [0, 1] d5

[0, 0.16] [0, 0.16] [0.50, 1] [0, 0.15] 0.50 0.50

[0, 1] [0.50, 1] [0.50, 1] 0.50 [0, 0.16] [0, 0.16]

0.50 0.50 [0, 0.15] [0.50, 1] [0, 0.16] [0, 0.16]

[0, 0.16] 0.54 [0.76, 1] [0.76, 1] [0, 0.16] [0, 0.16] dG

[0, 0.16] [0, 0.16] 0.65 0.65 [0.65, 1] [0, 1]

[0, 0.16] [0, 0.16] [0.65, 1] 0.65 0.65 [0, 1]

[0, 0.16] [0, 0.53] [0.94, 1] [0.94, 1] [0, 0.16] [0, 0.16] d7

[0, 0.16] [0, 0.16] [0.94, 1] [0.94, 1] 0.53 [0, 1]

Нечiткi квантифiкатори для утворення сполучених термiв у правилах табл. 6 вщповщають iнтервалам мiр значимостей цс11 в табл. 7.

6. Обговорення результаив налаштування нечiтких правил

Ввдповвдно до дiй досвiдченого менеджера отри-мано навчальну вибiрку у виглядi значень (х1(1), х2(1), у^)>, при яких попит на продукцiю задовольнявся при мiнiмально допустимому запас продукцii на складi [11]. Навчальна вибiрка представлена на рис. 3, а-в у виглядi динамiки змши вхiдних i вихiдноi змiнних протягом року. Залишок продукцп на складi пiсля управлiння e(t)=x2(t)+y(t)-x1(t) не перевищуе допустимого значення запасу, яке становить 7° ■ 1°2 кг. Динамжа змiни залишку продукцп тсля управлiння e(t), яка представлена на рис. 3, г, сввдчить про стш-кiсть управлiння, тобто тенденцп наближення показ-ника до нуля [11].

Порiвняння модельного i еталонного управлiнь до i пiсля налаштування правил представлено на рис. 4, а i 5, а. Порiвняння залишку продукцп на складi пiсля управлiння показано на рис. 4, б i 5, б.

Точшсть виведення i кшьюсть правил становить RMSE = 7.92, Z = 13 i RMSE = 4.48, Z = 21, до i пiсля навчання, ввдповвдно. Налаштованi правила забезпе-чують точшсть виведення на рiвнi експертних правил, яю отриманi в [15] для Z = 25 .

ЯКЩО ТО

х!(0 х2(0 у(0

знП нР або знР ^

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

знП або нП знР

знП Ст або знР d2

нП або Ст знР

нП або Ст нР

знП або Ст нР dз

нР знР

нП Ст або знР

знП нП

Ст Ст d4

знП знП

знР знР

нР знП або Ст d5

знР нР

Ст або знР нП

нП знП

Ст або знР знП d6

нР нП або Ст

знР нП або Ст

нР або знР знП d7

знР знП або нП

ЯКЩО ТО

х1(0 х2(0 у(0

[0, 20.59] [129.73, 142.08] або [160.47, 170]

[0, 20.59] або [50.64, 79.68] [160.47, 170]

[0, 37.60] [110.93, 129.35] або [155.78, 170]

47.00 або 86.38 [146.82, 170]

47.00 або 146.82

[86.38, 118.20]

[0, 64.20] або [80.16, 124.39] 137.91

124.39 або 138.22 [137.91, 170] dз

64.20 [110.78, 129.53] або [137.91, 170]

[0, 64.20] 105.41 або 110.78

[88.71, 115.80] [114.40, 125.88]

[0, 68.00] [70, 107.55] d4

[134.42, 200] [135.97, 170]

139.35 [70, 104.70] або [110.92, 129.34]

[139.35, 200] 129.34 або 138.53

[80.59, 123.87] або [139.35, 200] 104.70

63.00 або 80.59 [70, 104.70]

[82.41, 122.12] або [163.25, 200] [70, 90.05]

154.79 95.80 або [113.37, 126.90]

[154.79, 200] 95.80 або 113.37

[122.67, 151.90] або [182.78, 200] [70, 79.63] d7

[182.78, 200] [70, 79.63] або [99.04, 111.46]

7. Висновки

Рис. 3. Навчальна вибiрка: а — змша попиту на продукцю; б — змша запасу; в — управлшська дiя; г — змша залишку продукцп на складi пiсля управлiння

у 100

50

-50

— експеримент — модель

0 100 200 300 400 а

Рис. 4. Управлшська дiя: а — генерована початковим набором правил; б — залишок продукцп на складi тсля управлшня

s 100 50 0 -50

0

100

200

300

400

Рис. 5. Управлшська дiя: а — генерована уточненим набором правил; б — залишок продукцп на складi тсля управлшня

Запропоновано нейро-мережевий шдх^, який дозволяе налаштовувати структуру кла-сифжацшних правил шляхом розв'язання рiв-нянь нечiтких вщношень для заданих класiв виходу, що е альтернативою генеруванню i се-лекцii гiпербоксiв. Встановлено, що використан-ня нейро-нечiткоi мережi оберненого виведення дозволяе уникнути надлишковоси бази знань i3 збереженням точностi виведення. При цьо-му кiлькiсть правил у клам дорiвнюе кiлькостi розв'язгав, а форма функцш надежное^ неч1т-ких термiв у правилi визначаеться штервалами значень вхiдних змiнних у кожному розв'язку.

Розв'язання задачi оберненого виведення здшснюеться за допомогою рекурентних сшв-вiдношень, якi вiдповiдають навчанню ней-ро-нечiткоi мережi, iзоморфноi системi рiвнянь нечiтких вiдношень. Такий пiдхiд дозволяе адаптивно коригувати структуру нечетких правил в мiру появи нових експериментальних даних.

Лгтература

1. Yager, R. Essentials of fuzzy modeling and control [Text] / R. Yager, D. Filev. - New York: John Willey & Sons, 1994. - 408 p.

2. Ротштейн, А. П. Интеллектуальные технологии идентификации: нечеткие множества, генетические алгоритмы, нейронные сети [Текст] / А. П. Ротштейн. -Винница: УШВЕРСУМ-Вшниця, 1999. - 320 с.

3. Alcalá, R. Improving fuzzy logic controllers obtained by experts: a case study in HVAC systems [Text] / R. Alcalá, J. Alcalá-Fdez, M. Gacto, F. Herrera // Applied Intelligence. - 2009. - Vol. 31, № 1. - P. 15-30. doi:10.1007/s10489-007-0107-6

4. Dubois, D. What are fuzzy rules and how to use them [Text] / D. Dubois, H. Prade // Fuzzy Sets and Systems. - 1996. - Vol. 84, № 2. - P. 169-189. doi:10.1016/0165-0114(96)00066-8

5. Gabrys, B. General fuzzy min-max neural network for clustering and classification [Text] / B. Gabrys, A. Bargiela // IEEE Transactions on Neural Networks. - 2000. - Vol. 11, № 3. - P. 769-783. doi:10.1109/72.846747

6. Wang, L. A simple rule extraction method using a compact RBF neural network [Text] / L. Wang, X. Fu // Advances in Neural Networks. - 2005. - Vol. 3496. - P. 682-687. doi:10.1007/11427391_109

7. Cortes, C. Support-vector networks [Text] / C. Cortes, V. Vapnik // Machine Learning. - 1995. - Vol. 20, № 3. -P. 237-297. doi:10.1023/A:1022627411411

8. Zhang, D. A new approach to division of attribute space for SVR based classification rule extraction [Text] / D. Zhang, A. Duan, Y. Fan, Z. Wang // Advances in Neural Networks. - 2008. - Vol. 5263. - P. 691-700. doi:10.1007/978-3-540-87732-5_77

9. Ракитянська, Г. Б. Побудова класифжацшно!' неч1тко1' бази знань на основ1 трендових правил i оберненого ви-

a

ведення [Текст] / Г. Б. Ракитянська // Схщно-бвропейський журнал передових технологш. - 2015. - № 1/3 (73). - C. 25-32. doi:10.15587/1729-4061.2015.36934

10. Di Nola, A. Fuzzy relation equations and their applications to knowledge engineering [Text] / A. Di Nola, S. Sessa, W. Pedrycz, E. Sanchez. - Dordrecht: Kluwer Academic Press, 1989. - 278 p. doi:10.1007/978-94-017-1650-5

11. Rotshtein, A. Fuzzy Evidence in Identification, Forecasting and Diagnosis [Text] / A. Rotshtein, H. Rakytyanska // Studies in Fuzziness and Soft Computing. - Springer Berlin Heidelberg, 2012. - 314 p. doi:10.1007/978-3-642-25786-5

12. Zadeh, L. A computational approach to fuzzy quantifiers in natural language [Text] / L. Zadeh // Computers and Mathematics with Applications. - 1983. - Vol. 9, № 1. - P. 149-184. doi:10.1016/0898-1221(83)90013-5

13. Ротштейн, А. П. Адаптивная система диагностики на основе нечетких отношений [Текст] / А. П. Ротштейн, А. Б. Ракитян-ская // Кибернетика и системный анализ. - 2009. - № 4. - С. 135-150. doi:10.1007/s10559-009-9130-4

14. Rotshtein, A. Fuzzy logic and the least squares method in diagnosis problem solving [Text] / A. Rotshtein, H. Rakytyanska; R. D. Sarma (Ed.). - Genetic diagnoses. - New York: Nova Science Publishers, 2011. - P. 53-97.

15. Bojadziev, G. Fuzzy logic for business, finance and management [Text] / G. Bojadziev, M. Bojadziev. - New York: World Scientific Publishing, 1997. - 252 p. doi:10.1142/9789812819789_0005

Наведет результати дослиджень складно'1 систе-ми заторно-варочного вiддiлення пивзаводу методами нелтшног динамши. Проведений аналiз часових рядiв технологiчних змтних процеыв приготування пивного сусла. Моделювання в пакетi VectorODEдозволило провести реконструкцию предиктор-функцш для задач прогнозування поведтки процеыв затиран-ня пивного сусла в хаотичних режимах гх функщону-вання. Використання предиктор-функцш забезпечуе реалiзацiю ефективних стратегш керування тех-нологiчним комплексом виробництва пива в умовах перемiжностi

Ключовi слова: прогнозування, математична модель, предиктор-функця, затирання сусла

Приведены результаты исследований сложной системы заторно-варочного отделения пивзавода методами нелинейной динамики. Проведен анализ временных рядов технологических переменных процессов приготовления пивного сусла. Моделирование в пакете \ectorODE позволило провести реконструкцию предиктор-функций для задач прогнозирования поведения процессов затирания пивного сусла в хаотических режимах их функционирования. Использование предиктор-функций обеспечивает реализацию эффективных стратегий управления технологическим комплексом производства пива в условиях перемежаемости

Ключевые слова: прогнозирование, математическая модель, предиктор-функция, затирание сусла

-□ □-

УДК 663.44:519.711.3

|DOI: 10.15587/1729-4061.2015.47350|

РЕКОНСТРУКЦ1Я ПРЕДИКТОР-ФУНКЦШ НА ОСНОВ1 АНАЛ1ЗУ ЧАСОВИХ РЯД1В ПРОЦЕСУ ЗАТИРАННЯ ПИВНОГО СУСЛА

М. В. Чернецький

Астрант* E-mail: nickchernetski@mail.ru В. Д. Кишенько

Кандидат техычних наук, професор* E-mail: kvd1948@gmail.com А. П. Ладан юк

Доктор техычних наук, професор* E-mail: ladaniuk@ukr.net *Кафедра автоматизацп процеав управлшня Нацюнальний уыверситет харчових технолопй вул. Володимерська, 68, м. КиТв, УкраТна, 01033

1. Вступ

Процеси приготування пивного сусла е складним нелшшним об'ектом керування, одшею i3 особливос-тей якого е наявшсть в поведшщ явищ перемiжностi, що полягае в чередуванш детермшованих, стохастич-них та хаотичних режимiв. Така обставина вимагае оргашзацп адекватно! поведшщ об'екта стратеги керування на основi моделей прогнозування. Отримання математичних моделей прогнозування виршуеться на

©

основi експериментальних даних у виглядi часових ря-дiв. У випадку стохастично! поведшки моделювання розвиваеться в основному в рамках математично! статистики i вщома тд назвою «щентифжащя систем». В умовах перемiжшостi при наявноси хаотичних режи-мiв досягнення устху моделювання за часовими рядами стае бшьш реальним лише за ввдмову вщ претензш на розробку единого для вах об'екпв ушiверсальшого алгоритму. Необхщно створення набору спещальних технологш реконструкцп видшених на осшовi викори-

i Надоели баннеры? Вы всегда можете отключить рекламу.