УДК 519.2
Гусев А.Л.
док. тех. наук, профессор ФГБОУ ВО ПГНИУ, г. Пермь, РФ Вакорин А.Р. аспирант ФГБОУ ВО ПГНИУ, г. Пермь, РФ
ТЕНЗОРНЫЕ НЕПОЛНОСЯЗНЫЕ НЕЙРОННЫЕ СЕТИ ДЛЯ ПРОГНОЗИРОВАНИЯ ВРЕМЕННЫХ РЯДОВ
Аннотация
В настоящей статье описана структура специализированного тензорного неполно связного нейросимулятора ориентированного на прогноз временных рядов. На основании сравнения результатов прогнозирования авторы приходят к выводу о перспективности использования специализированных тензорных неполносвязных нейронных сетей для прогнозирования временных рядов: различного рода показателей, случайных величин, факторов и переменных.
Ключевые слова:
прогнозирование временных рядов, тензорная неполносвязная нейронная сеть, определяющие показатели, прогнозируемый показатель, ошибка прогноза.
Введение
В различных предметных областях очень часто приходится прогнозировать одни и те же показатели по различным территориям или объектам. Например, показатели качества среды обитания и показатели здоровья в медицине или показатели хозяйственной деятельности в экономике по совокупности территорий. При этом показатели (переменные, случайные величины или факторы), благодаря которым производится прогноз, называют определяющими показателями, а тот показатель, который прогнозируют, называют прогнозируемым показателем (переменной, фактором, случайной величиной и так далее). Квант времени (год, месяц, день, час и так далее), для которого осуществляется прогноз, определяется предметной областью и существом поставленной задачи. Наблюдение составляют определяющие показатели за определенный квант времени с лагом воздействия на прогнозируемый показатель (возможно с различными лагами) и сам прогнозируемый показатель. Решением подобных задач посвящены многочисленные работы, например, [1-3], в которых реализуются различные методы.
Также в различных предметных областях нужно прогнозировать показатель (показатели) характеризующую сложную техническую систему или агрегат. В каждом наблюдении, отражающем состояние системы или агрегата, определяющими показателями являются всевозможные параметры системы в определенный квант времени (как правило, предшествующий кванту времени, когда фиксируется прогнозируемый показатель, или с некоторым временным лагом по отношению к кванту времени, когда фиксируется в наблюдении прогнозируемый показатель) и сам прогнозируемый показатель (показатели).
В обоих описанных случаях требуется спрогнозировать временной ряд с наименьшей возможной ошибкой прогноза.
1. Общая постановка задачи
Общую постановку задачи будем рассматривать на примере сложной технической системы. Пусть выбран квант времени (день, час, минута и так далее) для решения поставленной задачи. В каждый квант
времени будем регистрировать наблюдение (состояние системы) в виде набора измеримых параметров системы х1,х2, ...,хп (определяющих показателей) и показателя, характеризующего состояние системы y (прогнозируемого показателя). Таким образом, будем регистрировать последовательность наблюдений (состояний системы) А-±,Аг, — ,Ait..., где Ai = (х\,х12, ...,xln,yl), i- порядковый номер состояния системы.
Задача состоит в том, чтобы по наблюдениям за несколько последних квантов времени определить прогнозируемый показатель (ошибка прогноза не должна превышать заранее заданного уровня), характеризующий состояние системы на будущий квант (кванты) времени.
2. Матрицы наблюдений состояний системы Чтобы воспользоваться ТННС (тензорными неполносвязными нейронными сетями), описанными в [3], необходимо сконструировать матрицы размером п+1 на к, где к - некоторое натуральное число. Если последовательность наблюдений состояний системы зарегистрирована N раз и выбрано значение к, то можно получить (N-k+1) матрицу, где j-ая матрица будет содержать состояния Aj,Aj+-±, Общий
видj-ой матрицы:
Mj =
4 Ä •• х'п У'
J+l J+1 ... J+1 -J+1
Л1 л2 лп У
J+k-l i+k-l . i+k-1 i+k-1
xi хг xn У
Вопрос выбора значения к - это исследовательский вопрос. Он решается либо при помощи когнитивных соображений в предметной области, либо последовательным подбором в ходе решения практической задачи.
3. Описание работы ТННС.
Напомним структуру ТННС, состоящей из четырёх блоков. Первый блок снимает «слепок» с каждого наблюдения матрицы. У этого блока число входов будет равно к - числу объединенных в матрицу наблюдений состояний системы. После входа в блок можно использовать скрытые слои с произвольным числом нейронов. Важным для этого блока правильно подобрать число нейронов на последнем скрытом слое - это будет число выходов из первого блока. Если не использовать скрытые слои, то число выходов из блока будет равно числу входов в блок.
Второй блок снимает «слепок» с каждого определяющего показателя. У этого блока число входов будет равно числу определяющих показателей. После входа в блок можно использовать скрытые слои с произвольным числом нейронов. Важным для этого блока, как и в первом блоке, правильно подобрать число нейронов на последнем скрытом слое - это будет число выходов из первого блока. Если не использовать скрытые слои, то число выходов из блока будет равно числу входов в блок.
Третий блок устроен по типу полносвязных нейронных сетей с произвольным числом входов и выходов, а также числом скрытых слоёв и числом нейронов на них. Если не использовать скрытые слои, то число выходов из блока будет равно числу наблюдений, объединенных в матрицу, умноженному на число определяющих показателей, то есть числу входов в блок.
При необходимости исследователь для решения своей задачи может использовать одновременно все блоки, может отключать любой блок. Таким образом, у исследователя есть возможность использовать следующие комбинации работы блоков: индивидуальные: 1, 2 и 3, по парные: 1-2, 1-3 и 2-3, а также одновременную работу блоков: 1-2-3.
Четвертый блок (обобщающий блок) построен по типу полносвязных нейронных сетей (персептрона) с произвольным числом скрытых слоёв и числом нейронов на них. Число входов у четвертого блока равно сумме выходов с первых трёх блоков, а число выходов равно числу наблюдений, объединенных в матрицу.
Таким образом, используя тензорную неполносвязную нейронную сеть, исследователь имеет более вариативные возможности построения прогнозной нейросетевой модели, в отличие от полносвязных
нейронных сетей.
Если сравнивать ТННС с классическим персептроном, то нужно отметить, что ТННС всегда не хуже персептрона. Это следует из того, что при определенной конфигурации, ТННС имитирует персептрон. А именно, должно быть выполнено три условия: 1) к=1, т.е. матрица есть не что иное как вектор или проще говоря одно наблюдение; 2) выключены первый и третий блоки; 3) второй блок не имеет скрытых слоев, можно сказать, что он «холостой». Действительно, при выполненных трёх условиях, сигналы со входов ТННС без изменения через «холостой» второй блок передаются на четвертый блок, который работает по принципу классического персептрона.
4. Модификация ТННС.
ТННС хорошо себя зарекомендовали при различных прогнозах показателей, случайных величин, факторов, переменных и так далее. Встает вопрос, а все ли возможности использованы у ТННС? Например, разного рода однородность, согласно [3], ТННС учитывает, а учитывает ли такая нейросеть разного рода функциональные воздействия разных определяющих показателей? Здесь следует заметить, что как правило на скрытом слое нейросети обычно используют одну и ту же активационную функцию, которую можно трактовать как некое функциональное преобразование (воздействие). Иными словами, все определяющие показатели по одному и тому же функциональному закону воздействуют на прогнозируемый показатель (определяют прогнозируемый показатель).
Суть авторской модификации - использовать разные активационные функции для различных нейронов, а значит для различных определяющих показателей. Для модифицированных ТННС исследователь может при необходимости сам выбирать активационные функции для каждого нейрона. Особенно этот выбор актуален для второго блока ТННС, когда снимается «слепок» с каждого определяющего показателя. Иногда такой подбор активационной функции заключается в банальном переборе всех активационных функций.
Следуя традициям классического регрессионного многомерного анализа, который утверждает, что чем больше модуль коэффициента корреляции Пирсона между определяющим показателем и прогнозируемом показателем, тем «ценней» этот показатель для прогнозирования с точки зрения точности прогноза, в нейросимулятор ТННС были внесены возможности подсказки исследователю. Нейросимулятор сам рассчитывает коэффициенты корреляции между определяющими показателями, «пропущенными» через активационные функции» и прогнозируемом показателем, а затем указывает на ту активационную функцию, которая позволяет достигать наибольшего возможного коэффициента корреляции между каждым определяющим показателем, «пропущенным» через эту активационную функцию» и прогнозируемом показателем. Это обстоятельство значительно сокращает время на построение оптимальной в смысле минимально возможной ошибки нейросети при прогнозировании. В свою очередь, не смотря на «подсказку» нейросимулятора, исследователь имеет возможность выбрать любую активационную функцию для любого нейрона.
5. Примеры использования ТННС
Первый пример - задача прогнозирования массорасходных характеристик технологического нефтепровода. Суть задачи заключалась в следующем: спрогнозировать суточный объем жидкости (смесь нефти и воды), поступающего на конечный пункт сбора нефти из пяти разно удаленных пунктов подачи жидкости по единому трубопроводу, если известны суточные объемы жидкости, поступающие из пяти пунктов подачи в трубопровод. Изначально задача была решена персептроном с разделением календаря на сезоны зима/лето. Ошибкой нейросети на тестирующем множестве считалась среднесуточная ошибка равная отношению модуля разности между реальным объемом жидкости и спрогнозированным объемом жидкости к реальному объему жидкости, умноженному на 100%. В результате ошибка в зимний период составила 4,98%, а в летний период - 7,15%. Затем задача решалась ТННС без разделения на сезоны. Итоговая ошибка нейросети равнялась 3,73%. Здесь стоит отметить выбор значения к для количества
issn 2410-700x
международный научный журнал «символ науки»
# 4-2 / 2023
наблюдений, объединенных в матрицу. Последовательно расчет был сделан для возрастающего значения к. Были установлены следующие факты. При к=2 ошибка была больше, чем при к=1. Но при к=3 ошибка была меньше, чем при к=1 и при к=2. Ошибка при к=4 была больше, чем при к=3, но меньше, чем при к=1 и при к=2. При к=5 ошибка была меньше, чем при всех предыдущих значениях к. Далее ожидаемо при к=6 ошибка была больше, чем при к=5, но меньше, чем при остальных к. Наконец, при к=7 и к=8 ошибки были практически неразличимы (отличались во втором знаке после запятой) и были наилучшими. Минимальной ошибка была при к=7. Далее с увеличением значения к ошибка медленно (во втором знаке после запятой) стала расти.
Второй пример - задача прогнозирования вибросигнала (СКЗ - среднего квадратичного значения виброскорости). Суть задачи заключалась в следующем: обучая ТННС на реальном вибросигнале (наборе данных) различных агрегатов, добиться минимально возможной ошибки прогноза значений вибросигнала. При решении этой задачи использовался метод описанный в [4]. Результаты прогнозирования наглядно показаны на рисунках 1 и 2.
Рисунок 1 - Графики реального (набор данных) и спрогнозированного СКЗ виброскорости (прогноз) сложного технического агрегата на 180 минут вперед при «нормальном» уровне работы
Рисунок 2 - Графики реального (набор данных) и спрогнозированного СКЗ виброскорости (прогноз) поршневого компрессора на 20 минут вперед в момент развития аварии.
Заключение
В статье приводится описание модифицированной ТННС, которая учитывает разного рода однородности наблюдений и разного рода функциональное воздействие определяющих показателей на прогнозируемый показатель при моделировании прогноза. Изначально ТННС использовались для прогноза панельных данных. В настоящее время уже зафиксированы хорошие результаты и на другого рода статистических данных в приведенных примерах.
Таким образом, описанная структура специализированного тензорного неполносвязного нейросимулятора ориентированного на прогноз временных рядов на основании сравнения результатов
прогнозирования, приведенных в настоящей статье, позволяет авторам сделать вывод о высокой их эффективности и перспективности для прогнозирования временных рядов: различного рода показателей, случайных величин, факторов и переменных. Список использованной литературы:
1. Higgins P., Zha T., Zhong K., Forecasting China's Economic Growth and Inflation // NBER Working Paper No. 22402. 2016.
2. Gusev A. L., Okunev A. A. Forecasting with Incomplete Set of Factors Determining the Predicted Factor. Neural Network Error Extrapolation Method // International Journal of Applied Mathematics and Statistics. - 2017. -Vol. 56, №5. - Р.48-52.
3. Гусев А.Л. Окунев А.А. Метод прогнозирования с помощью учета разного рода однородностей наблюдений // Символ науки. -2020. -№5. - С. 14-18.
4. Гусев А.Л., Ерёмин И.В., Румянцев М.А. Диагностика по статистическим характеристикам различных глубинных уровней // Международный Пермский форум «Наука и глобальные вызовы XXI века». - Наука и технологии. -С. 24-30.
© Гусев А.Л., Вакорин А.Р., 2023
УДК 519.2
Гусев А.Л.
док. тех. наук, профессор ФГБОУ ВО ПГНИУ, г. Пермь, РФ Ерёмин И.В. аспирант ФГБОУ ВО ПГНИУ, г. Пермь, РФ
ПОСТРОЕНИЕ ТЕОРЕТИЧЕСКОЙ АВАРИИ ПО НАБЛЮДАЕМОМУ ВИБРОСИГНАЛУ
Аннотация
В настоящей статье описан метод построения теоретической аварии произвольного сложного агрегата в виде последовательности возможных вибросигналов в момент развития предполагаемой аварии. Для реализации этого метода применяется непараметрические интерполяция и экстраполяция вибросигнала произвольного сложного агрегата с помощью полинома неизвестной степени, которая определяется в процессе применения метода.
Ключевые слова: непараметрическая интерполяция и экстраполяция, вибросигнал, теоретическая авария, вибродиагностика.
Введение
Вибрационная диагностика (вибродиагностика) это современный метод диагностирования сложных технических систем и агрегатов, основанный на анализе параметров вибрации. Вибрационная диагностика решает задачи обнаружения дефектов и оценки технического состояния исследуемого агрегата.