Научная статья на тему 'О ВЫБОРЕ АРХИТЕКТУРЫ НЕЙРОРЕГУЛЯТОРА'

О ВЫБОРЕ АРХИТЕКТУРЫ НЕЙРОРЕГУЛЯТОРА Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
38
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННАЯ СЕТЬ / ИНИЦИАЛИЗАЦИЯ ВЕСОВЫХ КОЭФФИЦИЕНТОВ / ВЫБОР АРХИТЕКТУРЫ НЕЙРОННОЙ СЕТИ / НЕЙРОРЕГУЛЯТОР / СЕТЬ ПЕТРИ / АППРОКСИМАЦИЯ ФУНКЦИИ / ЛОГИЧЕСКИЕ ОПЕРАЦИИ / МОДАЛЬНЫЙ МЕТОД

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Воевода Александр Александрович, Шипагин Виктор Игоревич

На практике выбор вида нейронной сети осуществляется эмпирически на основе опыта исследователя и множества попыток обучения. При этом избыточная сложность нейронной сети приводит к увеличению времени ее обучения, а в некоторых случаях и вообще к невозможности обучения. Таким образом, обоснование выбора структуры искусственной нейронной сети и/или ее предварительный расчет на основе других моделей является актуальной задачей. Не менее важной задачей является выбор начальных весовых коэффициентов нейронной сети, от выбора которых зависит скорость сходимости поисковых алгоритмов. В настоящей работе продемонстрирован подход к решению вопроса выбора архитектуры и инициализации весовых коэффициентов нейронной сети. Один из них проводится на основании предварительно рассчитанной функции с помощью сетей Петри. Этот подход продемонстрирован для решения различных задач, к которым можно отнести реализацию функций с помощью предварительно определенных нейросетевых моделей простейших логических операций «и», «или» и т.д. Приведен подход, позволяющий оптимизировать архитектуру нейронной сети, решающую задачу аппроксимации функций одной и нескольких переменных. Принцип определения архитектуры и начальных весовых коэффициентов также используется в задачах обучения нейронных сетей с подкреплением. Отдельный раздел посвящен формированию методики определения архитектуры и инициализации весовых коэффициентов нейронной сети регулятора на основании информации о регуляторе, полученном модальным методом, использующем полиномиальное матричное разложение системы. Решается вопрос синтеза нейросетевого регулятора для системы, содержащей нелинейности и непараметрические неопределенности в канале управления.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Воевода Александр Александрович, Шипагин Виктор Игоревич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ON THE CHOICE OF THE NEUROREGULATOR ARCHITECTURE

In practice, the choice of the type of neural network is carried out empirically based on an experience of an investigator and many training attempts. At the same time, the excessive complexity of the neural network leads to an increase in its training time, and in some cases, to the impossibility of learning at all. Thus, the justification of the choice of an artificial neural network structure and/or its preliminary calculation based on other models is an urgent task. An equally important task is the choice of an initial weighting coefficients of an neural network, the choice of which determines the speed of convergence of search algorithms. This paper demonstrates several approaches to solving the problem of choosing an architecture and initializing a weighting coefficients of a neural network. One of them is carried out on the basis of a previously calculated function using Petri nets. This approach is demonstrated for solving various tasks, which include the implementation of functions using previously defined neural network models of the simplest logical operations "and", "or", etc. An approach is given that allows optimizing an architecture of a neural network that solves the problem of approximating functions of one and several variables. The principle of determining an architecture and initial weight coefficients is also used in the tasks of training neural networks with reinforcement. A separate section is devoted to the formation of a methodology for determining an architecture and initialization of a weighting coefficients of a neural network of the controller based on information about the controller obtained by a modal method using a polynomial matrix decomposition of a system. The problem of synthesis of a neural network controller for an object model containing nonlinearities and nonparametric uncertainties in the control channel is solved.

Текст научной работы на тему «О ВЫБОРЕ АРХИТЕКТУРЫ НЕЙРОРЕГУЛЯТОРА»

ISSN 2782-2001 Системы анализа и обработки данных том 88, № 4, 2022, с. 7-30

http://journals.nstu.ru/vestnik Analysis and data processing systems Vol. 88, No. 4, 2022, pp. 7-30

ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ И ТЕЛЕКОММУНИКАЦИИ

INFORMATION

TECHNOLOGIES

AND TELECOMMUNICATIONS

УДК 519.873

DOI: 10.17212/2782-2001-2022-4-7-30

О выборе архитектуры нейрорегулятора*

А.А. ВОЕВОДА", В.И. ШИПАГИН4

630073, г. Новосибирск, пр. Карла Маркса, 20, Новосибирский государственный технический университет

а voevoda@corp.nstu.ru ь shipagin@mail.ru

На практике выбор вида нейронной сети осуществляется эмпирически на основе опыта исследователя и множества попыток обучения. При этом избыточная сложность нейронной сети приводит к увеличению времени ее обучения, а в некоторых случаях и вообще к невозможности обучения. Таким образом, обоснование выбора структуры искусственной нейронной сети и/или ее предварительный расчет на основе других моделей является актуальной задачей. Не менее важной задачей является выбор начальных весовых коэффициентов нейронной сети, от выбора которых зависит скорость сходимости поисковых алгоритмов. В настоящей работе продемонстрирован подход к решению вопроса выбора архитектуры и инициализации весовых коэффициентов нейронной сети. Один из них проводится на основании предварительно рассчитанной функции с помощью сетей Петри. Этот подход продемонстрирован для решения различных задач, к которым можно отнести реализацию функций с помощью предварительно определенных нейросетевых моделей простейших логических операций «и», «или» и т. д. Приведен подход, позволяющий оптимизировать архитектуру нейронной сети, решающую задачу аппроксимации функций одной и нескольких переменных. Принцип определения архитектуры и начальных весовых коэффициентов также используется в задачах обучения нейронных сетей с подкреплением. Отдельный раздел посвящен формированию методики определения архитектуры и инициализации весовых коэффициентов нейронной сети регулятора на основании информации о регуляторе, полученном модальным методом, использующем полиномиальное матричное разложение системы. Решается вопрос синтеза нейросетевого регулятора для системы, содержащей нелинейности и непараметрические неопределенности в канале управления.

Ключевые слова: нейронная сеть, инициализация весовых коэффициентов, выбор архитектуры нейронной сети, нейрорегулятор, сеть Петри, аппроксимация функции, логические операции, модальный метод

* Статья получена 19 февраля 2022 г.

ВВЕДЕНИЕ

Применение нейросетевых регуляторов в настоящее время довольно распространено [1-14, 20, 21, 23-25, 27, 29-32, 34-36]. Это связано с набором некоторых преимуществ их использования перед классическими регуляторами1. Однако при использовании нейрорегуляторов также существует ряд неформализованных вопросов (например, выбор архитектуры и инициализация весовых коэффициентов нейронной сети). Решения перечисленных задач опираются в основном на эмпирический опыт исследователя. Поэтому довольно часто возникает проблема излишней сложности применяемой нейронной сети в регуляторе. Это, в свою очередь, приводит либо к увеличению времени обучения данного регулятора или, в некоторых случаях, к невозможности поиска оптимального решения.

В настоящей статье приведен краткий обзор статей, посвященных исследованию вопроса детерминированного подхода к выбору архитектуры и инициализации весовых коэффициентов для нейрорегулятора. Рассматриваются вопросы синтеза нейросетевых регуляторов для различного класса задач. В первом разделе описываются результаты работ по синтезу нейросетевых регуляторов для логико-арифметических задач, а также задач аппроксимации функции одной и нескольких переменных. Приводятся работы по синтезу нейросетевых регуляторов исходя из информации о регуляторе, сформированном на сетях Петри. Рассматриваются преимущества и недостатки метода обучения нейронных сетей методом «обучения с подкреплением». Второй раздел посвящен формированию методики синтеза нейросетевого регулятора на основе информации о регуляторе, полученном модальным методом, использующим полиномиальное матричное разложение системы.

1. ФОРМИРОВАНИЕ АЛГОРИТМА СИНТЕЗА НЕЙРОСЕТЕВОГО РЕГУЛЯТОРА С ДЕТЕРМЕНИРОВАННЫМ СПОСОБОМ ВЫБОРА АРХИТЕКТУРЫ

В классических методах синтеза регуляторов создана достаточно большая база для решения вопроса синтеза системы автоматического управления для линеаризованных систем. Однако в случае, например, необходимости учета нелинейных параметров модели объекта набор существующих алгоритмов классических методов теории автоматического управления существенно ограничен. С другой стороны, нейронные сети по своей сущности являются универсальными аппроксиматорами, т. е. могут с большой степенью точности повторить, например, заданную кривую. Также из этого следует, что в отличие от классических алгоритмов системы, основанные на нейронных сетях, будут всегда иметь какой-то процент ошибок из-за своей вероятностной природы. В связи с вышеуказанными достоинствами и недостатками обоих подходов

1 К таким преимуществам можно отнести возможность учета нелинейностей в модели объекта (Воевода А.А. Метод синтеза регуляторов с использованием нейронных сетей для нелинейных объектов / А.А. Воевода, Д.О. Романников // Известия СПбГЭТУ ЛЭТИ. 2020. № 7. С. 23-30. EDN BBVHMK).

было принято решение о необходимости симбиоза нейронной сети и классических алгоритмов. Кроме этого, было выяснено, что использование предопределенной структуры нейронной сети позволяет существенно упростить процедуру обучения регулятора.

В статье [17] сравниваются два подхода к построению нейронной сети. Первый подход является классическим - архитектура нейронной сети взята из типовых и представляет собой несколько слоев (рис. 1).

ret_model.add(Dense(5, input_shape=(6,), activation='sigmoid')) ret_model.add(Dense(4, input_shape=(5,), activation='sigmoid')) ret_model.add(Dense(2, activation='sigmoid')) ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0) ret_model.compile(optimizer=ada_grad, loss='binary_crossentropy')

Рис. 1. Исходный код для реализации нейронной сети

Fig. 1. A source code for neural network implementation

В данной сети четыре слоя, во входном слое шесть нейронов, в первом скрытом - пять нейронов, во втором - четыре и в выходном слое - два.

Второй способ заключается в предварительном расчете структуры нейронной сети (на основании решения, представленного в сетях Петри) и дальнейшем ее обучении.

Рис. 2. Нейронная сеть для выбора максимального числа из трех чисел, представленных

двумя разрядами

Fig. 2. A neural network for selecting the maximum number of three represented

by two digits

Ни рис. 2 а1, а2; Ь1, Ь2; с1, с2 представляют собой три числа, в которых меньший номер соответствует старшему разряду. Нейроны обозначены как п1-п10, а выходной слой как у1, у2. В качестве нелинейности нейронов используется сигмоидальная функция. Графики обучения для первой и второй нейронных сетей представлены на рис. 3.

Рис. 3. График стоимостной функции обучения типовой (а) и предварительно рассчитанной б) нейронных сетей

Fig. 3. Graphs of the cost function of training typical (a) and pre-calculated (б) neural

networks

Из графиков на рис. 3 видно, что нейронная сеть с предварительно рассчитанными параметрами (б) обучается быстрее и за 100 эпох сошлась к меньшей ошибке, чем типовая нейронная сеть (а). Такой результат является ожидаемым, так как в типовой нейронной сети (рис. 3, а) 69 обучаемых параметров, а у предварительно рассчитанной нейронной сети 44 параметра. Уменьшение сложности приводит к увеличению скорости обучения.

Понимание работы любого инструмента основывается на осознании принципов его действия и практических навыках его использования. В частности, понимание работы нейронных сетей может быть достигнуто за счет моделирования различных примеров и анализа результатов. Этот подход был отработан на базе некоторых логико-арифметических задачах. В статье [15] предлагается алгоритм сортировки массива целых чисел с использованием нейронной сети. Предлагается готовая структура нейронной сети с обоснованием ее выбора и метод настройки ее весовых коэффициентов. В статье [26] рассматривается подход к синтезу нейронной сети для класса логико-арифметических задач, основанный на формировании сети из заранее определенных на нейронах элементарных функций.

Так, например, операции логического «или», «и», конъюнкции, дизъюнкции и функций сравнения могут быть реализованы на одном нейроне с помощью подстройки весовых коэффициентов Wi и W2, а также смещения b.

Известно, что логическую операцию «исключающего или» можно выразить через вышеприведенные логические операции. Тогда нейронная сеть, реализующая данную операцию, может быть составлена из представленных на рис. 4.

Рис. 4. Нейронная схема, составленная для реализации логических операций: «и», «или», конъюнкции, дизъюнкции и функций сравнения

Fig. 4. A neural circuit designed to implement logical operations: "and", "or", conjunctions, disjunctions and comparison functions

Рис. 5. Нейронная схема, составленная для реализации логической операции - «исключающего или» ХОЯ

Fig. 5. A neural circuit designed to implement a logical operation - "exclusive or" XOR

Новизна предлагаемого подхода заключается в формировании нейронной сети по известному алгоритму с использованием предварительно построенных функций.

С использованием нейросетевого подхода исследуются возможности по предопределению структуры нейронной сети для задачи аппроксимации функций. В статье [22] рассматривается задача аппроксимации функций двух переменных с помощью нейронной сети с заранее определенной структурой.

1-1-1-1-1-1-Г"

3-2-10 1 2 3

Рис. 6. Графики функции параболы и ее аппроксимации по семи точкам

Fig. 6. Graphs of the parabola function and its approximation by seven points

Этот подход основан на последовательном дополнении нейронов в структуру однослойного персептрона. То есть если аппроксимировать параболу с помощью прямых линий, как показано на рис. 6, то нейронная сеть может быть составлена исходя из последовательно соединенных аппроксимаций прямой линии. Аппроксимацию прямой линии можно осуществить с помощью нейронной сети, состоящей из одного нейрона. Причем в этой нейронной сети в качестве функции активации была использована функция relu: f ( x) = {0, x <= 0; x, x > 0}. В итоге получается нейронная сеть, описываемая выражением relu (-5x - 6) + relu (2x + 4) - relu (5x + 6) + relu (2x + 2) + + relu (2x) + relu (2x - 2) + relu (2x - 4). Часть данной нейронной сети продемонстрирована на рис. 7

Данный подход применен для функции нескольких переменных в работе [28].

Достаточно перспективным показал себя подход, основанный на расчете структуры нейронной сети на основании информации о регуляторе, рассчитанном на сетях Петри. В статье [16] на примере задачи выявления наименьшего (наибольшего) элемента среди двух сравниваемых чисел приводится пример преобразования сети Петри в нейронную сеть.

INT

Рис. 7. Часть структуры нейронной сети, аппроксимирующей параболу

Fig. 7. A part of the neural network structure approximating parabolas

INT

Входной слой

Нейроны и связи

Выходной слой

б

Рис. 8. Схематичное решение задачи поиска наименьшего элемента на сетях Петри (a)

и на нейронной сети (б)

Fig. 8. A schematic solution of the problem of finding the smallest element on Petri nets (a)

and on a neural network (б)

На рис. 8 показана нейронная сеть с использованием функции relu в первом слое и функции softmax в элементах второго слоя2.

В статье [18] приведены реализации данного подхода на примерах построения нейронных сетей для логических функций «и», «или», «исключаю-

2 Подход, основанный на расчете структуры нейронной сети на основании информации о регуляторе, рассчитанном на сетях Петри, продемонстрирован также в статье (Воевода А.А. Обучение нейронной сети с предварительно рассчитанной структурой / А.А. Воевода, Д.О. Романников // Сборник научных трудов Новосибирского государственного технического университета. 2018. № 2(92). С. 93-100. DOI 10.17212/2307-6879-2018-2-93-100. EDN YAKADB).

а

щего или», выбора максимального числа и другие. По результатам экспериментов выдвинут тезис о неоднозначности обучения в нейронных сетях, а именно, что при различных начальных условиях могут получиться различные веса параметров. Например, при разных условиях инициализации весовых коэффициентов для логической операции «и» получались различные коэффициенты: w1 = 5.271, w2 = 5.146, b = -7.845 или w1 = 11.462, w2 = -4.774, bi = -2.326 или щ = 7.408, = 5.967, b = -10.396 для реализации структурной схемы согласно рис. 4.

Рассматривался тип нейронных сетей с типом обучения с подкреплением. Одним из очевидных преимуществ данного типа обучения можно считать возможность применения обучения из неустойчивого (произвольного) начального положения. При этом, в отличие от обучения «с учителем», заранее сформированной системы автоматического управления для обучения нейрорегулятора в данном случае не требуется. В статье [23] предлагается способ выбора структуры нейронной сети и замкнутой системы, в которой уставка является входным параметром нейронной сети регулятора. Предложена модификация метода синтеза регулятора, необходимая для устранения недостатка: при смене уставки было необходимо переобучать нейросетевой регулятор. Для этого предлагается использовать нормализованное значение сигнала уставки и изменение вычисления награды. В статье [19] предлагается способ, основанный на формировании структуры нейронной сети, позволяющий упростить процесс реализации и обучения нейронной сети за счет разбиения изначальной задачи на более простые, реализация и обучение которых является известной задачей. Также данный подход позволяет получить частичную наблюдаемость нейронной сети, когда в каждый момент времени известно текущее состояние, значения признаков переходов и управляющие сигналы как всей нейронной сети, так и каждого из состояний. В статье [20] обучение с подкреплением будет применяться к одному из динамических объектов - к перевернутому маятнику. В качестве модели указанного объекта рассматривается модель перевернутого маятника на тележке. Приводится реализация и исследование двух алгоритмов из данного подхода - Deep Q-learning и Double Deep Qlearning. В статье [21] нейронный регулятор, на вход которого подается вектор состояния объекта (для объектов с недоступным вектором состояния возможно использовать вектор оценки вектора состояния объекта), обучается для стабилизации в одном из возможных желаемых значений, а для обеспечения регулирования в других желаемых значениях предлагается пропорционально уменьшать / увеличивать сигнал вектора состояния и увеличивать / уменьшать сигнал управления, формируемого нейронным регулятором. Достоинства предлагаемого метода: отсутствие необходимости обучения на нескольких желаемых значениях, что существенно упрощает и ускоряет обучение нейронной сети, а также устраняет ошибки регулирования в диапазоне значений, для которого не выполнялось обучение нейронного регулятора, возможность обучения из начального неустойчивого состояния замкнутой системы. В статье [30] на примере задачи перевернутого маятника приводится сравнительный анализ различных методов поиска весовых коэффициентов для алгоритма обучения с подкреплением.

Таким образом, на достаточно широком классе задач (логико-арифметические задачи, аппроксимация функций одной и нескольких переменных, моделирование сетей Петри, обучение нейросети с подкреплением) была показана возможность детерминированного подхода к выбору структуры и весовым коэффициентам нейросетевого регулятора. Это, в свою очередь, позволяет уменьшить сложность поиска весовых коэффициентов нейросетевого регулятора и повысить вероятность поиска решения задачи настройки по сравнению с использованием типовых структур.

На следующем этапе было предложено использовать наработанную базу синтеза регуляторов с помощью модального метода, использующего полиномиальное матричное разложение системы для определения структуры и начальных весовых коэффициентов нейронной сети.

2. СИНТЕЗ НЕЙРОСЕТЕВОГО РЕГУЛЯТОРА

С ИСПОЛЬЗОВАНИЕМ ИНФОРМАЦИИ О РЕГУЛЯТОРЕ, ПОЛУЧЕННОМ МОДАЛЬНЫМ МЕТОДОМ

Создана достаточно обширная база знаний по синтезу регуляторов модальным методом, использующим полиномиальное матричное разложение системы. Указанные алгоритмы показали свою эффективность как на однока-нальных [36, 37], так и на многоканальных [38] системах, в том числе имеющих неквадратную матричную передаточную функцию [39] (т. е. с числом входных каналов, не равным числу выходных каналов). Но, с другой стороны, указанное направление синтеза регуляторов имеет ограничение на использование для моделей объектов, содержащих нелинейные параметры.

На основе алгоритмов, представленных в работах [15-23, 26, 28, 30], сделано предположение, что синтез нейросетевого регулятора может быть также осуществлен с расчетом структуры и начальных весовых коэффициентов нейронной сети с использованием информации о регуляторе, полученном модальным методом, использующим полиномиальное матричное разложение передаточной функции замкнутой системы (далее PMFD - polynomial matrix fraction decomposition).

В статье [31] продемонстрирована методика синтеза нейросетевого регулятора на примере одноканальной модели, описываемой колебательным звеном. Выяснено, что в случае обучения нейросетевого регулятора обучения «с учителем» от подбора тренировочной выборки зависит результативность полученного регулятора. Так, в рассматриваемом примере если тренировочная выборка представлена в основном информацией о режиме работы регулятора для системы в установившемся режиме, то и показатели качества полученного нейросетевого регулятора выше.

Например нейросетевой регулятор, который обучался методом «с учителем» на примере дискретного регулятора с выборкой, составленной из информации о поведении регулятора на временном промежутке от 0 до 10 секунд, представлен на рис. 9, a. Нейросетевой регулятор, обученный на том же дискретном регуляторе, но с выборкой, составленной на времен-

ном промежутке от 0 до 20 секунд, представлен на рис. 9, б. Время переходного процесса уменьшается с 5 до 3 секунд. Это может быть связано с тем, что большая часть данных представлена статическим режимом системы. При длине ступенчатого воздействия 20 секунд данных, соответствующих статическому режиму или в непосредственной близости от него, будет около 77,5 %. Кроме этого, было выяснено, что в некоторых случаях возможна оптимизация структуры нейросетевого регулятора исходя из его статических характеристик.

а б

Рис. 9. Переходные процессы системы в случае использования нейросетевых регуляторов, обученных на поведении регулятора:

а - на временном промежутке от 0 до 10 секунд; б - на временном промежутке от 0 до

20 секунд

Fig. 9. Transients of the system in the case of using neural network controllers trained on

the behavior of the controller:

a - for a time interval from 0 to 10 seconds; б - in the time interval from 0 to 20 seconds

Рис. 10. Статическая характеристика нейросетевого регулятора и его аппроксимация с помощью регулятора на одном нейроне

Fig. 10. Static characteristics of a neural network controller and its approximation using a controller on one neuron

Изначально в статье использовалась типовая структура нейрорегулятора, состоящая из 10 нейронов в первом слое с функцией активации tansig - «гиперболический тангенс» и одного нейрона с «линейной функцией активации»

purelin. Из рис. 10 видно, что статическая характеристика нейросетевого регулятора достаточно хорошо аппроксимируется прямой линией y = ax + b. То есть достаточно одного нейрона для реализации регулятора. Так, например, для единичного ступенчатого воздействия параметры аппроксимирующего нейрона следующие: a = -8, b = 10. Структурная схема системы с оптимизированным регулятором представлена на рис. 11.

Рис. 11. Структурная схема системы с оптимизированным регулятором Fig. 11. A block diagram of a system with an optimized regulator

Однако при этом под каждое задающее воздействие параметры a, b будут свои. Для создания «универсального» регулятора, способного выводить систему в соответствии с уставкой без изменения параметров регулятора, можно воспользоваться способом, основанным на ее нормировании и описанным в статье [21]. Таким образом, система будет выглядеть так (рис. 12).

L

V 1—1

/ Нейронная сеть

регулятора V >

Объект управления

Рис. 12. Структурная схема системы с нормированной уставкой

Fig. 12. A block diagram of a system with a normalized setpoint

В статье [32] данная методика была применена и для многоканальной модели объекта «перевернутый маятник на тележке». Отличительной особенностью данной модели объекта является то, что количество входных воздействий на него меньше, чем выходных регулируемых параметров. Расчет обобщенного регулятора осуществлялся на основе системы управления, рассчитанной методом подчиненного регулирования и состоящей из двух ПИД-регу-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3

ляторов .

3 Пример расчета системы, состоящей из двух ПИД-регуляторов, методом подчиненного регулирования можно увидеть в работе (Воевода А.А. Управление перевернутым маятником / А.А. Воевода, Е.В. Шоба // Сб. науч. тр. НГТУ. 2012. № 2(68). C. 3-14).

Рис. 13. Структурная схема системы с управлением двумя ПИД-регуляторами

Fig. 13. A block diagram of a system controlled by two PID controllers

На рис.13 a = 9774.7, p = 5206.1, y = 454.5, S = -378.8, £ = -984.9, v = 60.6 . В статье [32] был рассчитан один обобщенный регулятор для представленных выше параметров.

Рис. 14. Структурная схема обобщенного регулятора

Fig. 14. A block diagram of a generalized regulator

По представленной структурной схеме (рис. 14) в статье [35] был синтезирован обобщенный нейросетевой регулятор.

Рис. 15. Структурная схема обобщенного нейросетевого регулятора Fig. 15. A block diagram of a generalized neural network controller

Кроме этого, был обозначен вопрос «взрывающихся» и «исчезающих» градиентов для нейронных сетей рекуррентного типа. Данный вопрос было предложено решать с помощью структурных преобразований регулятора. Они необходимы, чтобы все обратные связи вынести за пределы регулятора. Таким образом, был получен следующий нейросетевой регулятор из регулятора, представленного на рис. 15.

Рис. 16. Структурная схема преобразованного обобщенного нейросетевого регулятора

Fig. 16. A block diagram of the transformed generalized neural network controller

Структурная схема системы с обходными связями для регулятора будет выглядеть следующим образом (рис. 17).

Рис. 17. Структурная схема системы с преобразованным обобщенным нейросетевым

регулятором

Fig. 17. A block diagram of a system with a transformed generalized neural network

controller

В статье [34] синтез нейросетевого регулятора по указанной методике проводится для нелинейной модели объекта «перевернутый маятник на тележке».

Рис. 18. Структурная схема модели объекта «перевернутый маятник на тележке»

Fig. 18. A block diagram of the "inverted pendulum on a cart" object model

Здесь в качестве усложнения нейросетевого регулятора стали применяться нелинейные функции активации типа tansig - гиперболический тангенс.

Рис. 19. Структурная схема нейросетевого регулятора с усложненной схемой Fig. 19. A block diagram of a neural network controller with a complicated scheme

В результате получили нелинейный нейросетевой регулятор с принципиально новым характером поведения. Это можно увидеть исходя из переходных процессов для случая использования линейного и нелинейного нейросетевых регуляторов (рис. 20).

a

б

Рис. 20. Переходные процессы нелинейного и линейного регуляторов

(сверху вниз):

a - по углу перевернутого маятника; б - по положению тележки

Fig. 20. Transient processes of nonlinear and linear regulators (from top to bottom):

a is by the angle of the inverted pendulum; б is by the position of the trolley

В статье [36] исследуются возможности по управлению системой, содержащей неопределенности в канале управления. Используем непараметрическую неопределенность, реализованную с помощью мультипликативной помехи способом, указанным в [41].

Рис. 21. Структурная схема САУ с нестационарной непараметрической

неопределенностью

Fig. 21. A block diagram of an ACS with non-stationary nonparametric

uncertainty

Установлено, что использование нейросетевого регулятора позволяет расширить возможности по управлению моделью объекта, содержащей неопределенности, по сравнению с регулятором, полученным модальным методом с использованием полиномиально-матричного разложения передаточной функции замкнутой системы PMFD.

Рис. 22. Переходные процессы системы автоматического управления с неопределенностью в канале управления в пределах 45 %

Fig. 22. Transients of the automatic control system with uncertainty in the control channel within 45 %

На рис. 22 представлены системы, содержащие нейросетевой и PMFD регуляторы. Они справляются с управлением системой, содержащей неопределенности в канале управления. При этом в случае использования нейросете-вого регулятора стабилизация угла перевернутого маятника происходит уже на 23-йсекунде, в отличие от использования PMFD-регулятора (на 37-й секунде). Колебательность выхода модели объекта по положению каретки при этом также уменьшается в случае использования нейросетевого регулятора.

ЗАКЛЮЧЕНИЕ

В рамках проведенной работы были проанализированы некоторые публикации, посвященные вопросам синтеза нейросетевых регуляторов с детерме-нированными структурами и инициализацией весовых коэффициентов нейронной сети. Приведены различные подходы к решению вопроса выбора архитектуры нейронной сети. К ним относятся формирование структуры нейронной сети исходя из:

- заранее сформированных фрагментов нейронной сети, соответствующих некоторым элементарным логическим и арифметическим операциям;

- разделения аппроксимируемой функции на некоторые участки и подбора формул, способных эти участки аппроксимировать. Затем данные формулы моделируются участками нейронной сети и компонуются в обобщенную нейронную сеть;

- знаний о регуляторе, построенном с помощью алгоритмов, использующих сеть Петри. Приведены работы, содержащие правила перевода из сетей Петри в нейронную сеть.

Отдельно рассмотрены работы, использующие информацию о регуляторе, полученном модальным методом, использующим полиномиальное матричное разложение передаточной функции замкнутой системы. Данный подход позволяет синтезировать нейросетевой регулятор как для одноканальных, так и для многоканальных динамических систем, в том числе с неквадратной матричной передаточной функцией (то есть имеющей количество входных каналов, не равное количеству выходных каналов). Приведены работы, позволяющие управлять моделями объекта, содержащими нелинейные параметры и непараметрические неопределенности в канале управления.

СПИСОК ЛИТЕРАТУРЫ

1. Werbos P.J. Backpropogation and neurocontrol: a review and prospectus // IJCNN: International Joint Conference on Neural Networks. Vol. 1. - Washington, DC, USA, 1989. - P. 209-216.

2. Моделирование нейроуправления скоростью дождевальных машин / Д.А. Соловьев, Г.Н. Камышова, Н.Н. Терехова, С.М. Бакиров // Аграрный научный журнал. - 2020. - № 7. -С. 81-84. - DOI: 10.28983/asj.y2020i7pp78-84. - EDN: UJRKWT.

3. Епихин А.И., Хекерт Е.В., Модина М.А. Принципы нейроуправления и варианты архитектуры нейронных сетей применительно к сложной динамической системе СЭУ-СУДНО // Морские интеллектуальные технологии. - 2020. - № 4-4 (50). - С. 18-22. - DOI: 10.37220/MIT.2020.50.4.091.

4. Токарев К.Е. Интеллектуализация дождевальных машин на основе методов прогнозирующего нейроуправления // Молодые ученые России: сборник статей IX Всероссийской научно-практической конференции, Пенза, 7 октября 2021 г. - Пенза: Наука, 2021. - С. 18-21.

5. Hunter S.L. Non-linear neurocontrol of chemical processes using reinforcement learning. Thesis (MScEng). - Stellenbosch University, 2011. - 111 p.

6. Сагдатуллин А.М. Методы, модели и алгоритмы повышения эффективности процессов добычи и транспортировки нефти и построения систем управления на основе нейросетевых и многомерных логических регуляторов с дискретными термами: дис. ... д-ра техн. наук: 2.3.3. -Казань, 2022. - 277 с.

7. Conradie A.v.E. A neurocontrol paradigm for intelligent process control using evolutionary reinforcement learning. Diss. for the Degree of Doctor of philosophy. - Stellenbosch University, 2004. - 253 p.

8. Боков А.А., Боляков А.А., Иваненков В.В. Адаптивный нейросетевой регулятор для управления пьезоэлектрическим двигателем вращения // Наука и образование: научное издание МГТУ им. Н.Э. Баумана. - 2012. - № 3. - 15 с.

9. Во Конг Фыонг. Разработка и исследование адаптивных систем с применением нейронных сетей для управления нелинейными электромеханическими объектами с упругими деформациями: дис. ... канд. техн. наук. - СПб., 2010. - 172 с.

10. Дерябин В.В. Построение модели счисления пути судна на основе нейронной сети: дис. ... канд. техн. наук. - СПб., 2011. - 136 с.

11. Динь Данг Чыонг. Разработка системы управления электроприводами на основе нейронной сети: дис. ... канд. техн. наук: 05.13.01. - СПб., 2022. - 168 с.

12. Кабирова А.Н. Методы и комплексы программ построения нейросетевых моделей регуляторов для управления динамическим объектом: дис. ... канд. техн. наук: 05.13.18. -Казань, 2017. - 130 с.

13. Романников Д.О. Об использовании машинного обучения для решения задач регулирования // Сборник научных трудов НГТУ. - 2016. - № 1 (83). - С. 123-127. -DOI: 10.17212/2307-6879-2016-1-123-127. - EDN: WAFPMF.

14. Во Конг Фыонг. Прямые адаптивные системы управления линейными электромеханическими объектами с применением нейронных сетей // Известия СПбГЭТУ «ЛЭТИ». - 2010. -№ 5. - С. 92-98.

15. Воевода А.А., Полубинский В.Л., Романников Д.О. Сортировка массива целых чисел с использованием нейронной сети // Научный вестник НГТУ. - 2016. - № 2 (63). - С. 151-157. -DOI: 10.17212/1814-1196-2016-2-151-157. - EDN: WHRSFZ.

16. Романников Д.О. О преобразовании сети Петри в нейронную // Сборник научных трудов НГТУ. - 2016. - № 4 (86). - С. 98-103. - DOI: 10.17212/2307-6879-2016-4-98-103. - EDN: YKQXER.

17. Воевода А.А., Романников Д.О. Пример реализации выбора минимального числа в бинарном виде на нейронных сетях // Сборник научных трудов НГТУ. - 2017. - № 1 (87). -С. 64-71. - DOI: 10.17212/2307-6879-2017-1-64-71. - EDN: YTAKQF.

18. Романников Д.О. Тезисы о нейронных сетях // Сборник научных трудов НГТУ. -

2017. - № 1 (87). - С. 98-108. - DOI: 10.17212/2307-6879-2017-1-98-108. - EDN: YTAKRJ.

19. Воевода А.А., Романников Д.О. Формирование структуры нейронной сети посредством декомпозиции исходной задачи на примере задачи управления роботом-манипулятором // Известия СПбГЭТУ «ЛЭТИ». - 2018. - № 9. - С. 27-32. - EDN: YPNBYT.

20. Евсеенко А.А., Романников Д.О. Применение алгоритмов Deep Q-learning и Double Deep Q-learning к задаче управления перевернутым маятником // Сборник научных трудов НГТУ. -2020. - № 1-2 (97). - С. 7-25. - DOI: 10.17212/2307-6879-2020-1-2-7-25. - EDN: ZMILWU.

21. Романников Д.О. Метод синтеза нейронных регуляторов для линейных объектов // Научный вестник НГТУ. - 2020. - № 4 (80). - С. 111-120. - DOI: 10.17212/1814-1196-2020-4111-120. - EDN: ZJRRFN.

22. Романников Д.О. О синтезе нейронных сетей // Сборник научных трудов НГТУ. -

2018. - № 1 (91). - С. 104-111. - DOI: 10.17212/2307-6879-2018-1-104-111. - EDN: XRCBUT.

23. Воевода А.А., Романников Д.О. Метод синтеза регуляторов для многоканальных систем с использованием нейронных сетей // Вычислительные технологии. - 2020. - Т. 25, № 3. -С. 111-118. - DOI: 10.25743/ICT.2020.25.3.012. - EDN: WAVYLO.

24. Тимчук Н.А. Разработка и исследование двухуровневых адаптивно-нейронных систем управления динамическими объектами: автореф. дис. ... канд. техн. наук: 05.13.01. - СПб., 2000. - 16 с.

25. Махмуд Б.Ю. Совершенствование электроприводов роботов на основе fuzzy-регулято-ров и нейронных сетей: автореф. дис. ... канд. техн. наук: 05.09.03. - М., 2008. - 20 с.

26. Воевода А.А., Романников Д.О. Синтез нейронной сети для решения логико-арифметических задач // Труды СПИИРАН. - 2017. - Вып. 5 (54). - С. 205-223. - DOI: 10.15622/sp.54.9. - EDN: ZMREZB.

27. Лок Х.Д. Синтез адаптивных систем управления нелинейными динамическими объектами на базе нечетких регуляторов и нейросетевых технологий: автореф. дис. ... д-ра техн. наук: 05.13.01. - М., 2002. - 24 с.

28. Воевода A.A., Романников Д.О., Трошина Г.В. Метод синтеза нейронной сети для аппроксимации поверхностей двух переменных // Международная конференция по мягким вычислениям и измерениям. - 2018. - Т. 1. - С. 732-735. - EDN XZOZMT.

29.ЖолобовД.А. Синтез нейронных сетей с адаптивной топологией: автореф. дис. ... канд. техн. наук: 05.13.01. - М., 2006. - 16 с.

30. Шипагин В.И. Различные подходы к решению задачи перевернутого маятника // Сборник научных трудов НГТУ. - 2019. - № 2 (95). - С. 18-27.

31. Шипагин В.И. Нейросетевая реализация регулятора для устойчивого объекта // Сборник научных трудов НГТУ. - 2019. - № 3-4 (96). - С. 53-63.

32. Voevoda A., Shipagin V.I. Neural network implementation of controllers for multi-channel objects synthesized by polynomial method // IOP Conference Series: Materials Science and Engineering. - 2020. - Vol. 953. - P. 012071. - DOI: 10.1088/1757-899X/953/1/012071.

33. Воевода А. А., Шоба Е.В. О модели перевернутого маятника // Сборник научных трудов НГТУ. - 2012. - № 1 (67). - С. 3-14.

34. Воевода А.А., Шипагин В.И. Синтез нейросетевого регулятора управления нелинейной моделью перевернутого маятника на тележке // Научный вестник НГТУ. - 2020. - № 2-3 (79). -С. 25-36. - DOI: 10.17212/1814-1196-2020-2-3-25-36.

35. Воевода А.А., Шипагин В.И. Структурные преобразования нейросетевого регулятора с рекуррентным типом сети // Сборник научных трудов НГТУ. - 2020. - № 3 (98). - С. 7-16. -DOI: 10.17212/2307-6879-2020-3-7-16.

36. Воевода А.А., Шипагин В.И. Расчет регулятора для многоканального объекта с нестационарными параметрами, содержащего звенья запаздывания // Системы анализа и обработки данных. - 2022. - № 1 (85). - С. 7-24. - DOI: 10.17212/2782-2001-2022-1-7-24. - EDN: ZVHGOQ.

37. Chen C.T. Linear system theory and design. - 2nd еd. -New York: Oxford, 1999. - 334 p.

38. Antsaklis P.J., Michel A.N. Linear systems. - Switzerland: Birkhauser, 1997. - 669 p.

39. Бобобеков К.М., Воевода А.А., Шипагин В.И. Полиномиальный метод синтеза автоматического управления для одноканальных и многоканальных объектов: монография. - Душанбе: ТТУ им. М.С. Осими, 2021. - 192 с.

40. Филюшов В.Ю. Полиномиальный метод синтеза регуляторов для многоканальных объектов с неквадратной матричной передаточной функцией: дис. ... канд. техн. наук: 2.3.1. - СПб., 2022. - 177 с.

41. Целигоров Н.А., Целигорова Е.Н., Мафура Г.М. Математические модели неопределенностей систем управления и методы, используемые для их исследования // Инженерный вестник Дона. - 2012. - № 4-2. - С. 48.

Воевода Александр Александрович, доктор технических наук, профессор, профессор кафедры автоматики Новосибирского государственного технического университета. Основное направление научных исследований - управление многоканальными объектами. Имеет более 300 публикаций. E-mail: ucit@ucit.ru

Шипагин Виктор Игоревич, аспирант кафедры автоматики Новосибирского государственного технического университета. В настоящее время специализируется в области синтеза систем управления техническими системами. E-mail: shipagin@mail.ru

Voevoda Aleksandr A., D.Sc. (Eng.), professor, professor at the automation department, Novosibirsk State Technical University. The main field of his scientific research is management of multi-channel objects. He has more than 300 publications. E-mail: ucit@ucit.ru

Shipagin Victor I. , a postgraduate student at the automation department in Novosibirsk State Technical University. Currently he specializes in the field of synthesis regulators for technical systems. E-mail: shipagin@mail.ru

DOI: 10.17212/2782-2001-2022-4-7-30 On the choice of the neuroregulator architecture*

A.A. VOEVODAa, V.I. SHIPAGINb

Novosibirsk State Technical University, 20 K. Marx Prospekt, Novosibirsk, 630073, Russian Federation

" ucit@ucit.ru b shipagin@mail.ru

Abstract

In practice, the choice of the type of neural network is carried out empirically based on an experience of an investigator and many training attempts. At the same time, the excessive complexity of the neural network leads to an increase in its training time, and in some cases, to the impossibility of learning at all. Thus, the justification of the choice of an artificial neural network structure and/or its preliminary calculation based on other models is an urgent task. An equally important task is the choice of an initial weighting coefficients of an neural network, the choice of which determines the speed of convergence of search algorithms. This paper demonstrates several approaches to solving the problem of choosing an architecture and initializing a weighting coefficients of a neural network. One of them is carried out on the basis of a previously calculated function using Petri nets. This approach is demonstrated for solving various tasks, which include the implementation of functions using previously defined neural network models of the simplest logical operations "and", "or", etc. An approach is given that allows optimizing an architecture of a neural network that solves the problem of approximating functions of one and several variables. The principle of determining an architecture and initial weight coefficients is also used in the tasks of training neural networks with reinforcement. A separate section is devoted to the formation of a methodology for determining an architecture and initialization of a weighting coefficients of a neural network of the controller based on information about the controller obtained by a modal method using a polynomial matrix decomposition of a system. The problem of synthesis of a neural network controller for an object model containing nonlinearities and nonparametric uncertainties in the control channel is solved.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Keywords: neural network, initialization of weighting coefficients, choice of neural network architecture, neuroregulator, petri net, function approximation, logical operations, modal method

* Received 19 February 2022.

The reported study was funded by RFBR, project number 20-08-00550 А.

REFERENCES

1. Werbos P.J. Backpropogation and neurocontrol: a review and prospectus. IJCNN: International Joint Conference on Neural Networks. Vol. 1, Washington, DC, USA, 18-22 Jun 1989, pp. 209-216.

2. Solovyev D.A., Kamyshova G.N., Terekhova N.N., Bakirov S.M. Modelirovanie neirouprav-leniya skorost'yu dozhdeval'nykh mashin [Simulation of speed neural control for irrigation machines]. Agrarnyi nauchnyi zhurnal = The Agrarian Scientific Journal, 2020, no. 7, pp. 81-84. DOI: 10.28983/asj.y2020i7pp78-84. EDN UJRKWT.

3. Epikhin A.I., Khekert E.V., Modina M.A. Printsipy neiroupravleniya i varianty arkhitektury neironnykh setei primenitel'no k slozhnoi dinamicheskoi sisteme SEU-SUDNO [Principles of neural control and variants of neural network architecture, applied to a complex dynamic system of SEA-VESSEL]. Morskie intellektual'nye tekhnologii = Marine Intelligent Technologies, 2020, no. 4-4 (50), pp. 18-22. DOI: 10.37220/MIT.2020.50.4.091.

4. Tokarev K.E. [Development of an intelligent management system for irrigated agriculture based on a multi-layer neural network]. Molodye uchenyeRossii [Young scientists of Russia]. Collection of articles of the IX All-Russian scientific and practical conference. Penza, Nauka Publ., pp. 18-21. (In Russian).

5. Hunter S.L. Non-linear neurocontrol of chemical processes using reinforcement learning. Thesis (MScEng). Stellenbosch University, 2011. 111 p.

6. Sagdatullin A.M. Metody, modeli i algoritmy povysheniya effektivnosti protsessov dobychi i transportirovki nefti i postroeniya sistem upravleniya na osnove neirosetevykh i mnogomernykh logicheskikh regulyatorov s diskretnymi termami. Diss. dokt. tekhn. nauk [Methods, models and algorithms for improving the efficiency of oil production and transportation processes and building control systems based on neural network and multidimensional logic controllers with discrete terms. Dr. eng. sci. diss.]. Kazan, 2022. 277 p.

7. Conradie A.v.E. A neurocontrol paradigm for intelligent process control using evolutionary reinforcement learning. Diss. for the Degree of Doctor of philosophy. Stellenbosch University, 2004. 253 p.

8. Bokov A.A., Bolyakov A.A., Ivanenkov V.V. Adaptivnyi neirosetevoi regulyator dlya upravleniya p'ezoelektricheskim dvigatelem vrashcheniya [Adaptive neural network regulator to control piezoelectric rotation engine]. Nauka i obrazovanie: nauchnoe izdanie MGTU im. N.E. Baumana = Science and Education of the Bauman MSTU, 2012, no. 3, pp. 1-15.

9. Vo Cong Phuong. Razrabotka i issledovanie adaptivnykh sistem s primeneniem neironnykh setei dlya upravleniya nelineinymi elektromekhanicheskimi ob"ektami s uprugimi deformatsiyami. Diss. kand. tekhn. nauk [Development and research of adaptive systems using neural networks to control nonlinear electromechanical objects with elastic deformations. PhD eng. sci. diss.]. St. Petersburg, 2010. 172 p. (In Russian).

10. Deryabin V.V. Postroenie modeli schisleniyaputi sudna na osnove neironnoi seti. Diss. kand. tekhn. nauk [Construction of a ship's path numbering model based on a neural network. specialization. PhD eng. sci. diss.]. St. Petersburg, 2011. 136 p.

11. Din' Dang Chyong. Razrabotka sistemy upravleniya elektroprivodami na osnove neironnoi seti. Diss. kand. tekhn. nauk [Development of an electric drive control system based on a neural network. PhD eng. sci. diss.]. St. Petersburg, 2022. 168 p. (In Russian).

12. Kabirova A.N. Metody i kompleksy programm postroeniya neirosetevykh modelei regulyatorov dlya upravleniya dinamicheskim ob"ektom. Diss. kand. tekhn. nauk [Methods and software packages for building neural network models of regulators for controlling a dynamic object. PhD eng. sci. diss.]. Kazan, 2017. 130 p.

13. Romannikov D.O. Ob ispol'zovanii mashinnogo obucheniya dlya resheniya zadach reguliro-vaniya [On the use of machine learning for a particular purpose of regulation]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2016, no. 1 (83), pp. 123-127. DOI: 10.17212/23076879-2016-1-123-127.

14. Vo Cong Phuong. Pryamye adaptivnye sistemy upravleniya lineinymi elektromekhaniches-kimi ob"ektami s primeneniem neironnykh setei [Direct adaptive control systems for linear electromechanical objects using neural networks]. Izvestiya SPbGETU "LETI" = Proceedings of Saint Petersburg Electrotechnical University, 2010, no. 5, pp. 92-98. (In Russian).

15. Voevoda A.A., Polubinsky V.L., Romannikov D.O. Sortirovka massiva tselykh chisel s ispol'zovaniem neironnoi seti [Sorting the array of integers using a neural network]. Nauchnyi vestnik Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Science bulletin of the Novosibirsk state technical university, 2016, no. 2 (63), pp. 151-157. DOI: 10.17212/1814-11962016-2-151-157.

16. Romannikov D.O. O preobrazovanii seti Petri v neironnuyu set' [On the transformation of Petri nets in neural network]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnich-eskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2016, no. 4 (86), pp. 98-103. DOI: 10.17212/2307-6879-2016-4-98-103.

17. Voevoda A.A., Romannikov D.O. Primer realizatsii vybora minimal'nogo chisla v binarnom vide na neironnykh setyakh [An example of realization of the choice of the minimum number in a binary form on neural networks]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2017, no. 1 (87), pp. 64-71. DOI: 10.17212/2307-6879-2017-1-64-71.

18. Romannikov D.O. Tezisy o neironnykh setyakh [Theses on neural networks]. Sbornik nauch-nykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers ofthe Novosibirsk state technical university, 2017, no. 1 (87), pp. 98-108. DOI: 10.17212/23076879-2017-1-98-108.

19. Voevoda A.A., Romannikov D.O. Formirovanie struktury neironnoi seti posredstvom dekompozitsii iskhodnoi zadachi na primere zadachi upravleniya robotom manipulyatorom [Formation of the structure of a neuron network through decomposition of the initial task on a particular example of the robot-manipulator managing problem]. Izvestiya SPbGETU "LETI" = Proceedings of Saint Petersburg Electrotechnical University, 2018, no. 9, pp. 27-32.

20. Evseenko A.A., Romannikov D.O. Primenenie algoritmov Deep Q-learning i Double Deep Q-learning k zadache upravleniya perevernutym mayatnikom [Application of deep Q-learning and double deep Q-learning algorithms to the task of control an inverted pendulum]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2020, no. 1-2 (97), pp. 7-25. DOI: 10.17212/2307-68792020-1-2-7-25.

21. Romannikov D.O. Metod sinteza neironnykh regulyatorov dlya lineinykh ob"ektov [A method for the synthesis of neural regulators for linear objects]. Nauchnyi vestnik Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Science bulletin of the Novosibirsk state technical university, 2020, no. 4 (80), pp. 111-120. DOI: 10.17212/1814-1196-2020-4-111-120.

22. Romannikov D.O. O sinteze neironnykh setei [About of synthesis of neural networks]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2018, no. 1 (91), pp. 104-111. DOI: 10.17212/2307-6879-2018-1-104-111.

23. Voevoda A.A., Romannikov D.O. Metod sinteza regulyatorov dlya mnogokanal'nykh sistem s ispol'zovaniem neironnykh setei [The synthesis method of regulators for multichannel systems using neural networks]. Vychislitel'nye tekhnologii = Computational Technologies, 2020, vol. 25, no. 3, pp. 111-118. DOI: 10.25743/ICT.2020.25.3.012.

24. Timchuk N.A. Razrabotka i issledovanie dvukhurovnevykh adaptivno-neironnykh sistem upravleniya dinamicheskimi ob"ektami. Avtoref. diss. kand. tekhn. nauk [Development and research of two-level adaptive neural control systems for dynamic objects. Author's abstract of PhD eng. sci. diss.]. St. Petersburg, 2000. 16 p.

25. Makhmud B.Yu. Sovershenstvovanie elektroprivodov robotov na osnove fuzzy-regulya-torov i neironnykh setei. Avtoref. diss. kand. tekhn. nauk [Improvement of electric drives of robots based on fuzzy controllers and neural networks. Author's abstract of PhD eng. sci. diss.]. Moscow, 2008. 19 p.

26. Voevoda A.A., Romannikov D.O. Sintez neironnoi seti dlya resheniya logiko-arifmetich-eskikh zadach [Synthesis of neural network for solving logical-arithmetic problems]. Trudy SPIIRAN = SPIIRASProceedings, 2017, no. 5 (54), pp. 205-223. DOI: 10.15622/sp.54.9.

27. Lok Kh.D. Sintez adaptivnykh sistem upravleniya nelineinymi dinamicheskimi ob"ektami na baze nechetkikh regulyatorov i neirosetevykh tekhnologii. Avtoref. diss. dokt. tekhn. nauk [Synthesis of adaptive control systems for nonlinear dynamic objects based on fuzzy controllers and neural network technologies. Author's abstract of Dr. eng. sci. diss.]. Moscow, 2002. 24 p.

28. Voevoda A.A, Romannikov D.O., Troshina G.V. Metod sinteza neironnoi seti dlia ap-proksimatsii poverkhnostei dvukh peremennykh [The method of synthesis of a neural network for the approximation of surfaces of two variables]. Mezhdunarodnaya konferentsiya po myagkim vychisleni-yam i izmereniyam = International Conference on Soft Computing and Measurements, 2018, vol. 1, pp. 732-735.

29. Zholobov D.A. Sintez neironnykh setei s adaptivnoi topologiei. Avtoref. diss. kand. tekhn. nauk [Synthesis of neural networks with adaptive topology. Author's abstract of PhD eng. sci. diss.]. Moscow, 2006. 16 p.

30. Shipagin V.I. Razlichnye podkhody k resheniyu zadachi perevernutogo mayatnika [Different approaches to solving the inverted pendulum problem]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2019, no. 2 (95), pp. 18-27.

31. Shipagin V.I. Neirosetevaya realizatsiya regulyatora dlya ustoichivogo ob"ekta [Neural network implementation of a controller for a stable object]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2019, no. 3-4 (96), pp. 53-63.

32. Voevoda A., Shipagin V.I. Neural network implementation of controllers for multi-channel objects synthesized by polynomial method. IOP Conference Series: Materials Science and Engineering, 2020, vol. 953, p. 012071. DOI: 10.1088/1757-899X/953/1/012071.

33. Voevoda A.A., Shoba E.V. O modeli perevernutogo mayatnika [About model inverted pendulum]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2012, no. 1 (67), pp. 3-14.

34. Voevoda A.A., Shipagin V.I. Sintez neirosetevogo regulyatora upravleniya nelineinoi mod-el'yu perevernutogo mayatnika na telezhke [Synthesis of a neural network control regulator of a nonlinear model of an inverted pendulum on a cart]. ]. Nauchnyi vestnikNovosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Science bulletin of the Novosibirsk state technical university, 2020, no. 2-3 (79), pp. 25-36. DOI: 10.17212/1814-1196-2020-2-3-25-36.

35. Voevoda A.A., Shipagin V.I. Strukturnye preobrazovaniya neirosetevogo regulyatora s rekurrentnym tipom seti [Structural transformations of a neural network controller with a recurrent network type]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta = Transaction of scientific papers of the Novosibirsk state technical university, 2020, no. 3 (98), pp. 7-16. DOI: 10.17212/2307-6879-2020-3-7-16.

36. Voevoda A.A., Shipagin V.I. Raschet regulyatora dlya mnogokanal'nogo ob"ekta s nes-tatsionarnymi parametrami, soderzhashchego zven'ya zapazdyvaniya [Calculation of a controller for a multi-channel object with non-stationary parameters containing delay links]. Sistemy analiza i obrabotki dannykh = Analysis and Data Processing Systems, 2022, no. 1 (85), pp. 7-24. DOI: 10.17212/2782-2001-2022-1-7-24.

37. Chen C.T. Linear system theory and design. 2nd ed. New York, Oxford, 1999. 334 p.

38. Antsaklis P.J., Michel A.N. Linear systems. Switzerland, Birkhauser, 1997. 669 p.

39. Bobobekov K.M., Voevoda A.A., Shipagin V.I. Polinomial'nyi metod sinteza avtomatich-eskogo upravleniya dlya odnokanal'nykh i mnogokanal'nykh ob "ektov [Polynomial method for the synthesis of automatic control systems for single-channel and multi-channel objects]. Dushanbe, Tajik Technical University named after academician M.S. Osimi Publ., 2021. 192 p. (In Russian).

40. Filyushov V.Yu. Polinomial'nyi metod sinteza regulyatorov dlya mnogokanal'nykh ob"ektov s nekvadratnoi matrichnoi peredatochnoi funktsiei. diss. kand. tekhn. nauk [A polynomial method for

synthesizing regulators for multichannel objects with a non-square matrix transfer function. PhD eng. sci. diss.]. St. Petersburg, 2022. 177 p.

41. Tseligorov N.A., Tseligorova E.N., Mafura G.M. Matematicheskie modeli neopredelennostei sistem upravleniya i metody, ispol'zuemye dlya ikh issledovaniya [Mathematical model uncertainties management systems and methods used for their research]. Inzhenernyi vestnikDona = Engineering Journal of Don, 2012, no. 4-2, p. 48.

Для цитирования:

Воевода А.А., Шипагин В.И. О выборе архитектуры нейрорегулятора // Системы анализа и обработки данных. - 2022. - № 4 (88). - С. 7-30. - DOI: 10.17212/2782-2001-2022-4-7-30.

For citation:

Voevoda A.A., Shipagin V.I. O vybore arkhitektury neiroregulyatora [On the choice of the neuro-regulator architecture]. Sistemy analiza i obrabotki dannykh = Analysis and Data Processing Systems, 2022, no. 4 (88), pp. 7-30. DOI: 10.17212/2782-2001-2022-4-7-30.

ISSN2782-2001, http://journals.nstu.ru/vestnik Analysis and data processing systems Vol. 88, No 4, 2022, pp. 7-30

i Надоели баннеры? Вы всегда можете отключить рекламу.