Научная статья на тему 'Алгоритм решения задачи синтеза управления методом искусственных нейронных сетей'

Алгоритм решения задачи синтеза управления методом искусственных нейронных сетей Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
489
106
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СИНТЕЗ УПРАВЛЕНИЯ / ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ / ВАРИАЦИОННЫЙ ГЕНЕТИЧЕСКИЙ АЛГОРИТМ / KOKHONEN'S NETWORK / NEURAL NETWORK / LAYER OF NEURONS / MECHANISM OF COOPERATION / SOLUTION OF A PROBLEM OF SYNTHESIS

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Аль-бареда Али Яхья Сенан, Пупков К. А.

В статье рассматривается задача синтеза оптимального управления. Для решения задачи используется искусственная нейронная сеть прямого действия. Нейронная сеть находится в обратной связи объекта управления. По сигналу, определяющему вектор состояния объекта, нейронная сеть вырабатывает вектор управления, который перемещает объект в терминальное состояние с оптимальным значением заданного критерия качества. Для обучения нейронной сети используется вариационный генетический алгоритм, который подбирает закодированные в коде Грея параметры сети и активационные функции каждого слоя сети. Представлен пример синтеза управления нелинейным объектом второго порядка методом искусственной нейронной сети.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Аль-бареда Али Яхья Сенан, Пупков К. А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE ALGORITHM FOR DECISSION OF CONTROL SYSTEM SYNTHESIS PROBLEM BY THE ARTIFICIAL NEURAL NETWORKS’ METHOD

In the presented article analytical methods of the solution of a task synthesis in a control system are stated. The author considers a neural network of Kokhonen which belongs to the class of networks of direct distribution. It has the only hidden layer of neurons presented in the form of a one-dimensional or two-dimensional lattice. By the author it is presented that the mechanism of cooperation realizes the principle according to which the most excited neuron strengthens (through synoptic weight) not only itself, but also spatially neurons, close to it.Article purpose analytical methods of the solution of a problem of synthesis in a control system.

Текст научной работы на тему «Алгоритм решения задачи синтеза управления методом искусственных нейронных сетей»

ИННОВАЦИОННЫЕ ПРОГРАММЫ ИНЖЕНЕРНЫХ ИССЛЕДОВАНИЙ

УДК 007.52

АЛГОРИТМ РЕШЕНИЯ ЗАДАЧИ СИНТЕЗА УПРАВЛЕНИЯ МЕТОДОМ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ

Аль-Бареда Али Яхья Сенан, К.А. Пупков

Российский университет дружбы народов ул. Орджоникидзе, д. 3, Москва, Россия, 115419

В статье рассматривается задача синтеза оптимального управления. Для решения задачи используется искусственная нейронная сеть прямого действия. Нейронная сеть находится в обратной связи объекта управления. По сигналу, определяющему вектор состояния объекта, нейронная сеть вырабатывает вектор управления, который перемещает объект в терминальное состояние с оптимальным значением заданного критерия качества. Для обучения нейронной сети используется вариационный генетический алгоритм, который подбирает закодированные в коде Грея параметры сети и активационные функции каждого слоя сети. Представлен пример синтеза управления нелинейным объектом второго порядка методом искусственной нейронной сети.

Ключевые слова: синтез управления, искусственная нейронная сеть, вариационный генетический алгоритм

Задача синтеза управления направлена на нахождение управления как функции от вектора координат состояния объекта управления. Искомая функция после ее подстановки вместо вектора управления в правые части системы дифференциальных уравнений, описывающей математическую модель объекта управления, преобразует всю систему уравнений к такому виду, что решение полученной системы дифференциальных уравнений достигает цели управления, заданной в виде терминального условия и обеспечивает получение оптимального значения заданного в виде интегрального функционала критерия качества. В настоящей работе для поиска синтезирующей функции управления используем искусственную нейронную сеть прямого действия. Нейронные сети использовались ранее при синтезе регуляторов и настройки параметров адаптивных систем управления [1—8]. При обучении нейронной сети используем два критерия: точность достижения заданного терминального условия и значение заданного

интегрального функционала. Обучение нейронной сети осуществляем вариационным генетическим алгоритмом многокритериальной оптимизации [9]. Алгоритм реализует генетические операции на множествах векторов вариаций. Каждый вектор вариаций описывает малые изменения кода значения одного из параметров нейронной сети, и указывает вид активационной функции в одном из слоев сети.

Обобщенная структура системы управления динамическим объектом с искусственной нейронной сетью в обратной связи приведена на рис. 1.

Искусственная нейронная сеть

Рис. 1. Структура системы управления динамического объекта с искусственной нейронной сетью в обратной связи: х — вектор состояния объекта управления, и — вектор управления, х' — заданное терминальное состояние

Искусственная нейронная сеть имеет многослойную структуру с нелинейными функциями активации на выходе каждого слоя. Структура нейронной сети приведена на рис. 2.

Рис. 2. Структура первого слоя искусственной нейронной сети

Структура первого слоя искусственной нейронной сети приведена на рисунке 2. Нейронная сеть выполняет функциональные преобразования входного сигнала на каждом слое. Количество входных слоев в сети равно размерности п вектора состояния, а количество выходов нейронной сети равно размерности т вектора управления

xf -xj), # = фР^), i = 1, ■••, ki,

j=1

z(2)=1 у f, y(2) = ф(%( 2)), i = i, ■■■, k2, ■••

j=i

#) = 19$УС), U = У* = Ф^), i = 1, ■■■, m (1)

j=1

При обучении нейронной сети настраиваем параметры g(p\ i = 1, ■ .., kp-1, j = 1, ■.., kp,p = 1, ■ .., l, так чтобы минимизировать функционалы

/1 = max | xf - xi (tmin, (2)

ze{1,..., n}

f

J2 = J fo(x(t),u(t))dt ^ min, (3)

o

где x = [x1 ■ xn]T, u = [щ ■ um]T, щ = уД i = 1, ■.., m,

t =U есл„Л< (4)

\t - иначе

где е, t+ — заданные положительные числа.

Обучение нейронной сети осуществляем вариационным генетическим алгоритмом. Пусть искусственная нейронная сеть имеет I слоев, в каждом слое имеем матрицу весовых коэффициентов Q(г) = [д^] размерностью кг х кг-1, г = 2, ..., I, при этом количество столбцов матрицы весов первого слоя равно размерности вектора состояний, к = п, а количество строк матрицы последнего слоя равно размерности вектора управления кг = т.

В матрице весов искусственной нейронной сети используем три малые вариации выбранной строки матрицы: вариацию растяжения, вариацию сдвига и вариацию разворота. Рассмотрим малые вариации подробнее. Пусть q(г>р) = [др! ... дрк ] — выбранная строкар матрицы Q(г) на слое г. Операцию растяжения выполняем по следующему соотношению:

~(гр) = aq(г'p), (5)

где ~(г,р) — вектор строки матрицы после вариации; а — числовой параметр растяжения, а е

Операцию сдвига выполняем по следующему соотношению:

qpi =p+qp), i = 1, ..., k-1, (6)

где в — числовой параметр сдвига, в б R1.

Операцию разворота выполняем по следующему соотношению:

qp) = cos(y)qp) - sin(y)qp), (7)

qp}2 = sin( y)qp) + cos( у )qp>, (8)

qp) = qp), ^ {1, kr_il, i * ii, i * i2, (9)

где у — параметр разворота, у 6 R1.

Дополнительной малой вариацией считаем также замену функции активации ф]г)(г) в выбранном слое r выхода j 6 {1, kr}.

Для описания малой вариации многослойной нейронной сети используем целочисленный вектор из пяти компонент

w = [w1 w2 w3 w4 w5]T, (10)

где w1 — номер слоя нейронной сети; w2 — номер вариации; w2 6 {1, 2, 3, 4}; w2 = 1 — вариация растяжения; w2 = 2 — вариация сдвига; w2 = 3 — вариация разворота; w2 = 4 — изменение функции активации; w3 — номер строки в матрице выбранного слоя; w4 — номер функции активации или номер одной из компонент i1 в вариации разворота; w5 — номер второй компоненты i2 в вариации разворота.

В вариационном генетическом алгоритме каждое возможное решение определяется конечным упорядоченным множеством векторов вариаций

W = (w1, ..., wd), (11)

где d — максимальное количество малых вариаций, на которое может отличаться нейронная сеть любого возможного решения от базисной нейронной сети.

Вместе с поиском оптимального возможного решения в виде множества (11) векторов вариаций с помощью классического генетического алгоритма ищем оптимальные значения параметров

p = [а в у]г, (12)

которые используем при выполнении вариаций.

В генетическом алгоритме начальное множество возможных решений описывается структурами, которые включают множество векторов вариаций (11) и вектор параметров (12)

~ = рО : I = 1, ..., Н}, (13)

где ^ = (V,1, ..., V,1), р* = {о, в у}Т.

Любое возможное решение в виде матриц (Р^1, ..., многослойной нейронной сети определяется с помощью вариаций базисного набора матриц

(д1, ..., у,!) = ^(рг) ° (д0,1, ..., д°,!), (14)

где д0,г — базисная матрица нейронной сети в слое г, г = 1, ..., !

В генетическом алгоритме вектор параметров (12) представляется в виде бинарного кода Грея

г = (4, ..., г3(а+Ь), , = 1, Н, (15)

где г) е {°, 1},] = 1, ..., 3(а + Ь); а — число бит под целую часть параметра; Ь — число бит под дробную часть параметра.

С учетом представления вектора параметров в коде Грея (15) каждое возможное решение описывается парой кодов для вариационной и параметрической частей

Е = {(^, г) : I = 1, ..., Н}. (16)

Операцию скрещивания в генетическом алгоритме выполняем отдельно для кодов параметрической (15) и вариационной частей (11) частей отобранных возможных решений С^1, г*1), г*2), ¡ь /2 е {1, ..., Н}. В результате получаем два новых возможных решения (WH+1, гН+1), (WH+2, гН+2)

wH+l = (чМ, ... ч^-1, ч^, ..., ч^1), (17)

гН+! = (г/1,... г-1, ..., 4+ь>), (18)

WH+2 = (ч^1, ... ч^-1, ч^, ..., ч^1), (19)

гН+2 = (г12, ... г/-!, ^1, ..., гЗ^+ь)), (2°)

где к и s — точки скрещивания для вариационных и параметрических частей отобранных решений, соответственно, 1 < к < 1, 1 < s < 3(а + Ь).

После выполнения операций скрещивания (17)—(20) выполняем с заданной вероятностью операции мутации для каждого нового возможного решения. Для этого в вариационных и параметрических частях новых возможных решений ^Н+1, гН+1), ^Н+2, гН+2) случайно определяем точки мутации щ, И2, П2, 1 < Й1, < 1, 1 < П1, П2 < 3(а + Ь) и случайно заменяем соответствующие компоненты новых решений: ч^1^, г^1, ч^2^, г^+2.

Оценку решений осуществляем по значению критерия качества управления и точности достижения цели управления.

В качестве примера рассмотрим задачу синтеза управления нелинейным объектом второго порядка [10]

*1 = Х2, (21)

х2 = —x1 — x13 + u. (22)

Для системы (1), (2) задано множество начальных значений

X0 = {x0,1 = [-1 -1]T, x0,2 = [-1 1]T, x0,3 = [1 1]T, x0,4 = [1 -1]T}. (23) Заданы ограничения на управление

-1 < u < 1. (24)

Задана цель управления в виде терминального многообразия

x1 - x{ = 0, (25)

x2 - x{ = 0, (26)

где x{ = 0, x2 = 0.

Задан критерий качества управления

1 t(j} ^ min, (27)

j =1

где

к,если x,(t, x0,j)-xf\+ x2(t, x0,j)-xf\<E tf > =\ I 1V ; 1 II 2V' ; 2I , j = 1, 2, 3, 4, (28)

г+ = 3 с., е = 0,01.

Для обучения нейронной сети используем вариационный генетический алгоритм со следующими параметрами: число возможных решений в начальной популяции Н = 512, число циклов поколений — 128, число скрещиваний в одном поколении — 256, число вариаций в одном возможном решении й = 8, число бит под целую часть числа а = 2, число бит под дробную часть числа Ь = 14, число поколений между сменой базисного решения 32, вероятность мутации 0,7.

В результате была получена трехслойная нейронная сеть со следующими параметрами:

Q

(1) _

10 1,4' 10 -10 10 10

-3,119 10 Q(3) _

, Q

(2) _

-10 10

-9,473 -7,333 -7,077 -4,428

-3,410 -3,795 -1,683 -5,675

0,395 -8,842 10 -8,082

10 10 10 10 ■0,125 4,532 -10" 10 10 -10

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

уР = 8яи(г((1)), у? = аг^Р), # _ 1 -еХР(, ^ = (44),

1 + ехр I- ^ )

У((2) = Z((2), у22) = aгctg(z22)), я2) = аг^32)), у(2) = аг^42)),

_ _ 1 - ехр (-z((3)) и _ 1+ехр (-Z((3))

" У(2)" " z((2)" ■ У((1) ■ ■ Z1(1)"

Z((3)" _ Q(3) # z 22) _ Q(2) z21)

z23). У32) Zз2) Zз()

у42) z42) *0) z4()

_ Q

(1)

/ /-

Хо Хт

В процессе поиска нейронной сети при каждом вычислении функционала модель объекта управления интегрировалась модифицированным методом Эйлера второго порядка с шагом интегрирования 0,001 с.

На рисунке 3 приведены решения замкнутой системы управления с полученной нейронной сетью в обратной связи для начальных условий, расположенных дальше от терминальных условий, чем условия, используемые при синтезе:

x

0,9 -

= [-2 -2]Т, x0,10 = [2 -2]', xu,11 = [-2 2]', xu,12 = [2 2]

Т „0,11 _

лТ -.0,12 _

Рис. 3. Решения замкнутой системы Дуффинга для четырех начальных условий

На рисунке 4 приведены решения замкнутой системы управления с полученной нейронной сетью в обратной связи для начальных условий, расположенных дальше от терминальных условий, чем условия, используемые при синтезе:

х0'13 = [-2 0]г, х0'14 = [2 0]г, х0'15 = [0 —2]г, х0'16 = [0 2^

х2

-1 О 1

Рис. 4. Решения замкнутой системы Дуффинга для четырех не используемых при синтезе начальных условий

Как видно из результатов моделирования, искусственная нейронная сеть обеспечивает выполнение цели с приблизительно оптимальным значением критерия качества, временем достижения цели, из различных начальных условий. Качество управления сохраняется и при начальных условиях, которые не использовались при численном синтезе управления.

ЛИТЕРАТУРА

[1] Long T.B., Thai L.H., Hanh T. Face Recognition Using Circularly Orthogonal Moments and Radial Basis Function Neural Network & Genetic Algorithm // 2012 7th IEEE Conference on Industrial Electronics and Applications (ICIEA). P. 523—527.

[2] Huang Jeng-Tze, Tseng Ming-Lei. Global Adaptive Neural Tracking Control of Strict-Feedback Systems with Bounded Uncertainty // 2012 7th IEEE Conference on Industrial Electronics and Applications(ICIEA). P. 175—180.

[3] Cheng Long, Hou Zeng-Guang, Tan Min, Wang Hong-Ming. Adaptive Neural Network Tracking Control for Manipulators with Uncertainties // Proceedings of the 17th World Congress The International Federation of Automatic Control Seoul, Korea, July 6—11, 2008. P. 2382—2387.

[4] Bahri N, Druaux F, Atig A. Abdennour R.B., Lefebvre D. An adaptive neural controller based on neural emulator for single-input multi-output nonlinear systems // 2015 European Control Conference (ECC) July 15—17, 2015. Linz, Austria. P. 368—373.

[5] Lei Zhang, Zhenpo Wang, Xiaosong Hu, Dorrell David. G. Residual. Capacity Estimation for Ultracapacitors in Electric Vehicles Using Artificial Neural Network // Preprints of the 19th World Congress The International Federation of Automatic Control Cape Town, South Africa. August 24—29, 2014. P. 3899—3904.

[6] Xian Bin, Cui Cuijie, Huang Mu, Li Dong, Yang Kaiyan. Neural Network Based Control for a Class of Uncertain Robot Manipulator with External Disturbance // Proceedings of the 17th World Congress The International Federation of Automatic Control Seoul, Korea, July 6—11, 2008. P. 12769—12774.

[7] Soewandito D.B., Oetomo D., Ang Jr. M.H. The Operational Space Formulation with Neural-Network Adaptive Motion Control // Proceedings of the 17th World Congress The International Federation of Automatic Control Seoul, Korea, July 6—11, 2008. P. 12775—12780.

[8] Хапкина И.К., Балясный С.В. Методика синтеза системы управления роботом на базе нейронных сетей // ИзвестияТулГУ. Технические науки. 2013. Вып. 9. Ч. 1. С. 189—175.

[9] Дивеев А.И., Шмалько Е.Ю. Вариационный генетический алгоритм для решения задачи оптимального управления // Современные проблемы науки и образования. 2014. № 1. URL: http://www.science-education.ru/115-11474 [10] Аль-Бареда А.Я.С., Пупков К.А. Решение задачи синтеза системы управления методом искусственных нейронных сетей // Фундаментальные исследования. 2015. № 11 (Ч. 5). С. 853—857.

THE ALGORITHM FOR DECISSION OF CONTROL SYSTEM SYNTHESIS PROBLEM BY THE ARTIFICIAL NEURAL NETWORKS'

METHOD

Al-Bareda A.Ya.S., K.A. Pupkov

Peoples' Friendship University of Russia Ordzhonikidze str., 3, Moscow, Russia, 115419

In the presented article analytical methods of the solution of a task synthesis in a control system are stated. The author considers a neural network of Kokhonen which belongs to the class of networks of direct distribution. It has the only hidden layer of neurons presented in the form of a one-dimensional or two-dimensional lattice. By the author it is presented that the mechanism of cooperation realizes the principle according to which the most excited neuron strengthens (through synoptic weight) not only itself, but also spatially neurons, close to it.

Article purpose — analytical methods of the solution of a problem of synthesis in a control system.

Key words: Kokhonen's network, neural network, layer of neurons, mechanism of cooperation, solution of a problem of synthesis

REFERENCES

[1] Long T.B., Thai L.H., Hanh T. Face Recognition Using Circularly Orthogonal Moments and Radial Basis Function Neural Network & Genetic Algorithm. 2012 7th IEEE Conference on Industrial Electronics and Applications (ICIEA). P. 523—527.

[2] Huang Jeng-Tze, Tseng Ming-Lei. Global Adaptive Neural Tracking Control of Strict-Feedback Systems with Bounded Uncertainty. 2012 7th IEEE Conference on Industrial Electronics and Applications (ICIEA). P. 175—180.

[3] Cheng Long, Hou Zeng-Guang, Tan Min, Wang Hong-Ming. Adaptive Neural Network Tracking Control for Manipulators with Uncertainties. Proceedings of the 17th World Congress The International Federation of Automatic Control Seoul, Korea, July 6—11, 2008. P. 2382—2387.

[4] Bahri N., Druaux F., Atig A. Abdennour R.B., Lefebvre D. An adaptive neural controller based on neural emulator for single-input multi-output nonlinear systems. 2015 European Control Conference (ECC) July 15—17, 2015. Linz, Austria. P. 368—373.

[5] Lei Zhang, Zhenpo Wang, Xiaosong Hu, Dorrell David. G. Residual. Capacity Estimation for Ultracapacitors in Electric Vehicles Using Artificial Neural Network. Preprints of the 19th World Congress The International Federation of Automatic Control Cape Town, South Africa. August 24—29, 2014. P. 3899—3904.

[6] Xian Bin, Cui Cuijie, Huang Mu, Li Dong, Yang Kaiyan. Neural Network Based Control for a Class of Uncertain Robot Manipulator with External Disturbance. Proceedings of the 17th World Congress The International Federation of Automatic Control Seoul, Korea, July 6—11, 2008. P. 12769—12774.

[7] Soewandito D.B., Oetomo D., Ang Jr. M.H. The Operational Space Formulation with Neural-Network Adaptive Motion Control. Proceedings of the 17th World Congress The International Federation of Automatic Control Seoul, Korea, July 6—11, 2008. P. 12775—12780.

[8] Khapkina I.K., Balyasny S.V Metodika sinteza sistemy upravlenija robotom na baze nejronnyh setej [Method of Synthesis Of Robot Based On Neural Networks]. IzvestijaTulGU. Tehnicheskienauki. 2013. Vyp. 9. Ch. 1. S. 189—175.

[9] Diveev A.I., Shmalko E.Yu. Variacionnyj geneticheskij algoritm dlja reshenija zadachi optimal'nogo upravlenija. Sovremennye problemy nauki i obrazovanija [Variational Genetic Algorithm To Solve Optimal Control Problem]. 2014. № 1. URL: http://www.science-education.ru/115-11474]

[10] Al-Bareda A.Y.S., Pupkov K.A. Reshenie zadachi sinteza sistemy upravlenija metodom iskusstvennyh nejronnyh setej [The Decission of Control System Synthesis Problem By The Artificial Neural Networks' Method]. Fundamental'nye issledovanija. 2015. № 11 (chast' 5). S. 853—857].

i Надоели баннеры? Вы всегда можете отключить рекламу.