Научная статья на тему 'Анализ информативности данных при построении прогнозной модели цены на электроэнергию'

Анализ информативности данных при построении прогнозной модели цены на электроэнергию Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
127
21
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РЫНОК ЭЛЕКТРОЭНЕРГИИ / НЕЙРОННЫЕ СЕТИ / ГЛАВНЫЕ КОМПОНЕНТЫ / ИНФОРМАТИВНОСТЬ ПРОГНОЗНЫХ ДАННЫХ / ИНФОРМАЦИОННЫЕ КРИТЕРИИ / КОНСТАНТА ЛИПШИЦА / ENERGY MARKET PREDICTION / ARTIFICIAL NEURAL NETWORKS / PRINCIPLE COMPONENTS METHOD / INFORMATIVE FORECASTING / INFORMATION CRITERION / LIPSCHITZ CONSTANT

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Петухова Наталья Юрьевна

Актуальность и цели . Рассматривается задача построения эффективного метода прогноза показателей равновесной цены на электроэнергию на рынке на сутки вперед. Цель работы предварительный анализ прогнозных данных для выявления наиболее важных прогнозных факторов. Материалы и методы. Основой для построения прогноза являются модели с применением нейронных сетей и бустинга над композицией алгоритмов. Проведен математический анализ входных данных на основе оценки их информативности и метода выделения главных компонент в корреляционных зависимостях. Результаты. Для выбора оптимального набора прогнозных факторов был проведен корреляционный и кластерный анализ. Уменьшение размерности данных проведено методом главных компонент. Информативность признаков определялась выборочной оценкой их взаимной энтропии. Выводы. Рассмотренные методы анализа данных позволяют ранжировать признаки по их информативности, проводить кластерный анализ, своевременно добавлять новые факторы прогноза. Все это приводит к наиболее оптимальной прогнозной модели. Описано применение информационных критериев для создания дополнительных параметров.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Петухова Наталья Юрьевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

AN ANALYSIS OF INFORMATIONAL CONTENT OF DATA WHEN CREATING A PREDICTIVE MODEL OF ELECTRICITY PRICE

Background . The problem of creation of an effective method of forecasting the indicators of the equilibrium price of the electric power in the market for the day ahead is considered. The work purpose is to give a preliminary analysis of predictive data to identify the most important predictive factors. Materials and methods. The models with application of neural networks and gradient boosting over a composition of algorithms are the basis of forecast creation. A mathematical analysis of the input data on the basis of their informational content assessment and the method of allocation of main components in correlation dependences are carried out. Results. To select the optimal set of predictive factors, the correlation and cluster analysis was carried out. The data dimensionality reduction was carried out by the method of principle components. The informational content of indicators was defined by selective assessment of their mutual entropy. Conclusions. The considered methods of analysis of data allow to range the indicators by their informational content, to carry out the cluster analysis, in due time to add new factors to the forecast. All of these lead to the most optimal predictive model.

Текст научной работы на тему «Анализ информативности данных при построении прогнозной модели цены на электроэнергию»

УДК 004.75, 004.047

DOI 10.21685/2072-3059-2019-3-2

Н. Ю. Петухова

АНАЛИЗ ИНФОРМАТИВНОСТИ ДАННЫХ ПРИ ПОСТРОЕНИИ ПРОГНОЗНОЙ МОДЕЛИ ЦЕНЫ НА ЭЛЕКТРОЭНЕРГИЮ

Аннотация.

Актуальность и цели. Рассматривается задача построения эффективного метода прогноза показателей равновесной цены на электроэнергию на рынке на сутки вперед. Цель работы - предварительный анализ прогнозных данных для выявления наиболее важных прогнозных факторов.

Материалы и методы. Основой для построения прогноза являются модели с применением нейронных сетей и бустинга над композицией алгоритмов. Проведен математический анализ входных данных на основе оценки их информативности и метода выделения главных компонент в корреляционных зависимостях.

Результаты. Для выбора оптимального набора прогнозных факторов был проведен корреляционный и кластерный анализ. Уменьшение размерности данных проведено методом главных компонент. Информативность признаков определялась выборочной оценкой их взаимной энтропии.

Выводы. Рассмотренные методы анализа данных позволяют ранжировать признаки по их информативности, проводить кластерный анализ, своевременно добавлять новые факторы прогноза. Все это приводит к наиболее оптимальной прогнозной модели. Описано применение информационных критериев для создания дополнительных параметров.

Ключевые слова: рынок электроэнергии, нейронные сети, главные компоненты, информативность прогнозных данных, информационные критерии, константа Липшица.

N. Yu. Petukhova

AN ANALYSIS OF INFORMATIONAL CONTENT OF DATA WHEN CREATING A PREDICTIVE MODEL OF ELECTRICITY PRICE

Abstract.

Background. The problem of creation of an effective method of forecasting the indicators of the equilibrium price of the electric power in the market for the day ahead is considered. The work purpose is to give a preliminary analysis of predictive data to identify the most important predictive factors.

Materials and methods. The models with application of neural networks and gradient boosting over a composition of algorithms are the basis of forecast creation. A mathematical analysis of the input data on the basis of their informational content assessment and the method of allocation of main components in correlation dependences are carried out.

© Петухова Н. Ю., 2019. Данная статья доступна по условиям всемирной лицензии Creative Commons Attribution 4.0 International License (http://creativecommons.org/licenses/by/4.0/), которая дает разрешение на неограниченное использование, копирование на любые носители при условии указания авторства, источника и ссылки на лицензию Creative Commons, а также изменений, если таковые имеют место.

Results. To select the optimal set of predictive factors, the correlation and cluster analysis was carried out. The data dimensionality reduction was carried out by the method of principle components. The informational content of indicators was defined by selective assessment of their mutual entropy.

Conclusions. The considered methods of analysis of data allow to range the indicators by their informational content, to carry out the cluster analysis, in due time to add new factors to the forecast. All of these lead to the most optimal predictive model.

Keywords: energy market prediction, artificial neural networks, principle components method, informative forecasting, information criterion, Lipschitz constant.

Введение

Рассматривается задача прогноза равновесной цены на электроэнергию на основе применения современных методов анализа и прогнозирования. Для участников оптового рынка электроэнергии и мощности (ОРЭМ) наиболее актуальны прогнозы равновесной цены на электроэнергию на рынке на сутки вперед (РСВ). Точное прогнозирование будущих ценовых показателей позволяет потребителям рационально закупать необходимые объемы электроэнергии и снижать убытки при выходе на балансирующий рынок. Для решения задач прогнозирования равновесной цены РСВ обычно используются линейные регрессионные модели, основанные на анализе временных рядов. Основным недостатком линейных моделей является то, что они описывают именно линейную зависимость между прогнозными данными и результатом. Другим существенным недостатком линейных моделей является чувствительность к шумам в данных. Также успешность применения моделей линейной регрессии сильно зависит от выполнения предпосылок Гаусса - Маркова о нормальном законе распределения исследуемых данных, которые на практике обычно не выполняются. Для прогнозирования изменчивого рынка электроэнергии с множеством нелинейных закономерностей актуальны алгоритмы машинного обучения. Они дают хорошие показатели точности даже на сильно «зашумленных» данных, позволяют использовать большое количество информации, обнаруживать и анализировать сложные нелинейные закономерности в данных, выделять те, что оказывают наибольшее влияние на прогноз. В данной работе представлена математическая методика анализа качества прогнозных моделей и информативности прогнозных данных.

1. Прогнозная модель на базе машинного обучения 1.1. Математическая постановка задачи

Дана обучающая выборка {xi, i = 1,...,n} из множестваХ, на которой известны значения y(х,) = y,, y, e Y . Задача обучения: по выборке {хг-, y,} восстановить зависимость y(x), т.е. построить решающую функцию a : X ^ Y .

Задача включает два этапа:

1) по выборке {х,} построить алгоритм a e A, А - множество базовых алгоритмов;

2) этап применения а: вводится неотрицательная функция потерь L(a, х) > 0, характеризующая ошибку алгоритма а, и функционал качества

n

Q(a,{x.}) = ^ L(a, x.). (1)

i=1

Тогда классический метод должен минимизировать риск - найти a е A,

при котором Q(a,{x.}) ^ min . В качестве функции потерь обычно используют:

аеА

L(a, x) = (a(x) - y(x))2 . (2)

1.2. Прогнозные данные и применяемые методы машинного обучения

Исторические данные представляют собой упорядоченный набор основных параметров торгов, собранных за последние 2-3 года, в почасовой привязке. Задача прогнозирования энергопотребления: кратко- и среднесрочные прогнозы равновесной цены на электроэнергию (целевой переменной) на рынке на сутки вперед. Требуется построить функцию, которая будет наиболее точно аппроксимировать значения целевой переменной. Для прогноза эффективно комбинированное использование нейронных сетей и различных вариаций решающих деревьев.

Градиентный бустинг. Основная идея бустинга: построение правильной композиции относительно простых алгоритмов для получения сильной модели. Каждая последующая модель строится таким образом, чтобы придавать больший вес и предпочтение ранее некорректно предсказанным наблюдениям [1, 2]. Задана модель прогноза: параметрическое множество функций g(x, a), a - набор параметров. L(y, g(x,a)) - функция потерь. Для минимизации суммарной функции потерь

N

Q(a) = ^L(У., g(x., a))

i=1

применяют метод градиентного спуска: значения a меняются вдоль линии антиградиента L(g, а). Обновленное значение параметров: ai+1 =a. - VL(a). Для улучшения качества прогноза также используется функциональный градиентный спуск - модель Фридмана: бустинг над решающими деревьями GBM. Здесь при построении следующей модели используется дерево решений так, чтобы лучшим образом приближать общий градиент целевой функции. В качестве базовых алгоритмов используются: различные методы линейной регрессии (ARMA, GARCH, SARIMA, LARS и др.); нелинейные методы в области пиковых значений, различные критерии оценки значимости коэффициентов модели или вновь добавленных факторов, методы выявления автокорреляции или гетерокседастичности [3-5]. Именно решающие деревья позволяют получать интервальные оценки, выполнять проверки гипотез.

Нейронные сети. В модели использованы многослойные нейронные сети [1, 5, 6]. Эти сети позволяют использовать нелинейные прогнозные алгоритмы и имеют память (веса, присвоенные прогнозным данным). Нейронная сеть со скрытыми слоями принимает на входе вектор данных для прогноза;

j-й скрытый нейрон дает на выходе величину hj = Ф(^ w^x^), где Ф -

i

функция активации. Скрытый слой связан с выходным слоем, в матричной

форме уравнения связи имеют следующий вид: h = Ф(WX), y = Vh, где х -входной вектор; W - матрица весов, соединяющая входной слой и скрытый слой; V - матрица весов, соединяющая скрытый и выходной слои.

1.3. Прогнозные данные

Данные российского ранка электроэнергии и мощности взяты за период с 1 февраля 2015 г. по 1 ноября 2017 г. по первой ценовой зоне. Они имеют 24600 наблюдений. Собранные исторические данные с официальных сайтов «АТСЭнерго» и Системного Оператора ОРЭМ [7] позволяют выдавать прогнозы равновесной цены на РСВ, усредненные по первой ценовой зоне. Основные данные представлены с периодом 1 ч.

Основные данные для прогноза:

- дата (год-месяц-день час);

- количество потребленной энергии (фактическое, за указанный час);

- прогноз потребления энергии (предшествующий день, за указанный

час);

- цена на газ;

- фактическая температура за указанный час и прогноз температуры;

- фактическая цена;

- планируемые и фактические объемы генерации и потребления, МВт • ч;

- цена в заявке со стороны генерации и потребления, руб./МВт • ч;

- генерирующее оборудование: генерация ГЭС (МВт) и активная мощность ТЭС (МВт);

- день недели, ч;

- равновесная цена на РСВ, руб./МВт • ч.

1.4. Предварительная обработка и анализ входных данных

Из рис. 1-3 видно, что выбросы (пиковые значения) могут превосходить средние значение в несколько раз. Для определения пиковых значений были использованы данные, превышающие двойное значение среднеквадратичного отклонения. Имеется большой разброс значений цены на электричество в зависимости от времени суток и от того, в какой день (рабочий или выходной) проводились измерения. Энергопотребление также имеет сезонный характер: в жаркие месяцы пик потребления приходится на середину дня, в зимние месяцы - на начало и конец рабочего дня.

2. Основные методы анализа качества модели и входных данных

Самые простые показатели качества прогнозной модели (прежде всего регрессионной) - это информационные критерии: мера качества модели, учитывающая ее простоту и точность прогноза. Лучшей по качеству будет та модель, у которой меньше значение информационного критерия. Были использованы следующие основные критерии [3, 5]:

1. Критерий Акаике:

N

AIC = ln£ е2 / N) + 2k / N, i=1

N - число наблюдений; k - число параметров модели; е^ = y (xi) - yi.

го

(N «

а

w

<D

ч

л и

и

(D

Я

(D

S

и

(D

ч

(D

ч

(D

ä а

о «

о ä О

С

о

S рц

м м

С 2 те

тз

о о те

ГО

а з'

«а

сл

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

«Г о

те «а о' з

1 ценовая зона на 30.12.2017

16000

п 12000

30.1 01.1 02.1 03.1 04.1 05.1 06.1 07.1 08.1 09.1 10.1 11.1 12.1 13.1 14.1 15.1 16.1 17.1 18.1 19.1 20.1 21.1 22.1 23.1 24.1 25.1 26.1 27.1 28.1 29.1 30.1

1 22222 2 2 2 222 2 222222 2 22222 2 22222

Интервал (ч)

_ Ценовой показатель ВСЕГО ¡сред")

Рис. 3. Средняя цена за декабрь 2017 г.

§

го те о

3 §

00 а

0

Е §

•с

го ?

о-

5

Ц) С! 00 ГО О,

те

1 с с<

о

го §

N

п я; с

С; ТЗ те го С

0

1

2. Критерий Шварца:

N

БС = 1п(£ ег2/ N) + к ■ 1п(N)/ N. (3)

г=1

2

3. Коэффициент детерминации Я : показывает долю дисперсии зависимой переменной, объясненную моделью

N N

я2 = вя/(& + вЕ),вя = 2 (у - у )2,бе= X мх)-Уi )2, у - (4)

г=1 г=1

среднее значение; у(х{) - прогнозное значение по модели; у^ - точное значение в обучающей выборке.

Выбор оптимальных информационных признаков. Существует несколько подходов к выбору оптимальных признаков. По распространенной классификации можно выделить три основных категория:

1. Статистические методы.

2. Методы на основе вероятностной оценки информации о наборе данных.

3. Алгоритмические методы оценки информативности, скорости работы программы и используемых прогнозных данных.

2.1. Статистические методы. Выделение главных компонент

Важное свойство нейронных сетей (НС) - их способность к обучению на тестовых данных. Одна из его целей - выявление во входных данных наиболее существенных признаков. Анализ главных компонент - это стандартный прием, используемый для уменьшения размерности данных. В процессе обучения на основе самоорганизации в каждом слое НС выполняется анализ признаков по следующим критериям (постулатам обучения Хебба) [1, 4]:

- сильные сигналы (верные входные данные) должны получать усиление своих весов, и это усиление должно компенсироваться ослаблением слабых (неподходящих входных данных);

- изменение весов сильного сигнала должно способствовать успешной совместной работе и других сигналов, расположенных в данном слое, т.е. усиливать также и их веса.

Метод главных компонент преобразует исходные данные в пространство признаков с сокращением размерности - выделением меньшего числа наиболее эффективных признаков, содержащих основную часть информации из входных данных. Множество данных - вектор Х размерности т должен быть передан с помощью I, I < т, чисел, при этом надо построить линейное преобразование А, при котором «обрезание» вектора АХ будет давать минимальную среднеквадратичную ошибку - сумму дисперсий элементов, удаленных из вектора Х. Если Х - случайный вектор с М(Х) = 0, а q - его проекция, то величину связи Х и q характеризует их дисперсия Б = X q , при этом 2 2 T

а = М(Б ) = q Rq, где R - матрица корреляции вектора Х [5 ,8]. З й |а2(ы) ^ вхк

Задача условной оптимизации: < имеет решение, если q

I Ы=1

является собственным вектором матрицы R: Rq = X - собственные числа

корреляционной матрицы. Известно, что корреляционная матрица имеет вещественные неотрицательные собственные числа Х1,X2,...Хт, г = 1,. .,т .

Собственные векторы q определяют основные направления, вдоль которых

22 а принимает наибольшее значение а ) = X,. Количество признаков,

необходимых для эффективного представления данных, можно сократить, устранив в них линейно зависимые комбинации, имеющие малые дисперсии. Пусть Х1,X2,. .Х/ - наибольшие I собственных значений матрицы R. Тогда вектор Х можно аппроксимировать первыми I главными компонентами

_ /

х=2 , 1 <т.

г=1

Вектор ошибки такой аппроксимации равен

т т

N = IX - XXI = 2 а2 = 2 Х2.

г=/+1 г=/+1

Чем меньше будут собственные числа X/+1 ,..,.Хт , тем более эффективным будет сокращение размерности в представлении исходных данных. Выделение главных компонент может быть полезно и при проведении кластеризации входных данных. Новые данные, поступающие в нейронную сеть на этапе ее обучения, можно проверить на степень корреляции с главными компонентами. При сильной зависимости они не несут в себе никакой принципиально новой информации; если корреляция мала и новые данные можно считать независимыми от основной выборки, их надо оставить; веса, которые они получат, покажут их влияние на качество прогнозной модели.

2.2. Применение элементов теории информации Шеннона

Важным элементом теории информации в работе нейронных сетей является принцип максимума взаимной информации Линскера [4, 5]: синапти-ческие связи многослойной нейронной сети организуются таким образом, чтобы максимизировать объем информации, которая сохраняется при преобразовании сигнала на каждой из стадий его обработки. Этот принцип позволяет не только делать прогноз, но и преобразовать исходные данные для уменьшения их избыточности. Поступление на вход нейронной сети сигнала х^ или наступление случайного события Х = х^ должно приводить к увеличению объема информации, и, наоборот, поступление на вход сигнала х^ , не влияющего на прогноз, должно восприниматься как достоверное событие, происходящее с вероятностью рк = 1 и не содержащее никакой новой информации. Объем информации, связанный с наступлением случайного события Х = х^ с вероятностью рк, определяется следующим образом [1, 8]:

1 (ч)=/ Рк)=- Рк);

I(Рк) является неотрицательной возрастающей функцией, и, чем меньше вероятность события, тем больше информации несет в себе его наступление.

Если рассматривать хк как дискретную случайную величину, распределенную на отрезке [-К; К], то энтропия Х- это среднее значение I(хк):

К К

Н(Х) = М (I (X)) = 2 Рк1 (хк) =- 2 Рк ^(Рк), (5)

к=-К к=-К

она является мерой среднего объема информации, которую несет в себе входной сигнал Х. Ответ на вопрос выбора модели прогноза дает применение принципа максимальной энтропии [1, 2]: если выводы основаны на неполной информации, то модель должна строиться на тех данных, у которых допустимые распределения вероятностей максимизируют энтропию. Таким образом, задача оценки входных данных является задачей условной оптимизации:

Н (X) ^ тах, X е Е,

Е - множество допустимых в модели функций распределения входных данных. Решить эту задачу можно методом множителей Лагранжа при известной ковариационной матрице R.

В процессе обучения нейронной сети потребуется также использовать элементы теории информации, чтобы определить информативность входного сигнала Х на основе наблюдаемого значения У. Для этого потребуется условная энтропия множества наблюдений Х [5]:

Н (Х|У) = Н (X, У) - Н (У),

где

Н{X,У) = -2 2 Р(х,у)^(Р(х,У)),

xеXyеУ

Р(х, у) - плотность совместного распределения случайных величин Х и У. Условная энтропия представляет собой неопределенность системы после получения выходных данных, поэтому величина I^,У) = H(X) - Н(Х|У), называемая взаимной информацией, показывает ту часть неопределенности, которая была разрешена после наблюдения этих данных:

I (X ,У) = Н (X) - Н (X|Y) =

= 2 2 Р(х, У) Р(х, У) / (Р(х)Р(у))). (6)

xEXyеY

Функция IX, У) является неотрицательной и симметричной: IX, У) = = ДУ, X), при этом величина ДУ, X) - мера неопределенности выхода У, разрешенной при получении входных данных Х, может рассматриваться как критерий важности признака Х в прогнозной модели (известно, что Д У, X) = 0, если вход и выход модели являются независимыми случайными величинами). При построении прогнозной модели и входные данные, и свободные параметры (веса) системы должны быть настроены так, чтобы оптимизировать взаимную информацию (принцип !пйэгтах Линскера [5, 6]).

2.3. Аналитические методы

Здесь входные данные анализируются непосредственно в процессе обучения нейронной сети. Для этого используют обучающую выборку А = {(,у^), I = 1,...,N}, N - число примеров. При завершении процесса обучения, когда веса решающей функции Е (х, ю) стабилизируются, ее константа Липшица Ь должна быть мала. Поэтому при анализе тестового набора используют ее выборочную оценку:

L - max

i Ф j, хг'Ф xj

yi- yj

xi xj

(7)

Уменьшение L ускоряет обучение нейронной сети. При этом оценка

2

константы Липшица потребует порядка N действий [3, 6].

Другой подход к исследованию процесса обучения - это проверка процесса минимизации функционала качества модели Q(х, w) (1) методом градиентного спуска. Стабильность его работы связана с гессианом целевой функции по параметрам: G = (Э Q / Эюг-dWj}. Собственные числа матрицы

Гессе X и ее число обусловленности ц =-I—— оказывают влияние и на

min | |

скорость обучения, и на реализацию численного метода поиска экстремума. Известно, что скорость сходимости этих численных алгоритмов прямо пропорциональна значению ц [9], тогда уменьшение числа обусловленности также ведет к оптимизации модели. Вместе с определением константы Липшица полезно рассмотреть и те множества примеров (хг-, yi} из обучающей выборки, которые дают ее максимальное значение. Значения (хг-} из этих примеров стоит добавить к главным компонентам множества Х. Также, возможно, следует произвести увеличение масштаба в этих данных: это приведет к уменьшению константы Липшица и к тому, что строящаяся прогнозная модель F (х, w) не будет иметь вдоль этих переменных резких скачков.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Стандартные методы определения собственных векторов корреляционной матрицы при большой размерности входных данных имеют большую вычислительную сложность, поэтому на практике также более эффективно использовать аналитические адаптивные методы. Эти методы непосредственно преобразуют вектор входных данных, выделяя в нем главные направления по их корреляции. Так, для определения первой главной компоненты y достаточно простой нейронной сети из одного нейрона, где

N

y1 = W\x = Z W1 jxj , j=1

Wj (k +1) = w (k) + n(k) y? (k)(x (k) - w (k) У1 (k)), (8)

n(k) < 1 - темп обучения [8].

В процессе обучения одни и те же обучающие выборки предъявляются сети многократно, пока процесс не стабилизируется. Определение следующих I главных компонент потребует нейронной сети с I выходными нейронами. Построение г-го собственного вектора идет по аналогичной формуле

N

У (к) = 2 (к) х]- (к),

}=1

где изменение весов происходит с учетом входного вектора Х и весов, полученных для предыдущих главных компонент.

3. Практическое применение методов анализа входных данных

В ходе построения прогнозной модели был проведен корреляционный анализ входных данных. Наивысшая линейная корреляция выявлена у целевой переменной с ценой в реальном времени, спросом на рынке и ценой на газ; также имеется сильная линейная зависимость со значением целевой переменной за предыдущий час и за этот час предшествующего дня. Вычисление корреляции Спирмена показало наличие нелинейной зависимости целевой переменной от прогнозных данных. Это подтверждает необходимость использования в прогнозе алгоритмов, реализующих нелинейные зависимости. Этого же требует большой разброс значений цены на электричество в зависимости от времени суток. Была проведена проверка гипотез на независимость входных

данных и на характер их распределения. Критерии независимости типа X2 и др. [5, 6] подтверждают данные корреляционного анализа и необходимость использования регрессионных моделей с гетерокседастичностью типа GARCH. Гипотеза о нормальном законе распределения основных входных данных опровергается. Это подтверждает необходимость предобработки данных, их кластеризации, применения метода выделения главных компонент.

Качество отдельных составляющих прогнозной модели и используемых в них параметров проверялось стандартными информационными критериями (3) и оценкой константы Липшица (7). Важность каждого из прогнозных признаков оценивалась по энтропии этих признаков, вычисленной на основе выборочных функций распределения (4). Ниже приводятся признаки, отсортированные в порядке значимости согласно критерию ожидаемого уменьшения энтропии:

- 1аё1: 13805.4;

- текущая цена на РСВ: 1872.7;

- произведено тепловыми станциями: 148.2;

- час суток: 103.6;

- количество потребленной энергии за час: 36.7;

- цена на газ: 20.1;

- фактическая температура: 7.9;

- ^12: 6.3.

График автокорреляции на рис. 4 показывает, что целевая переменная имеет ярко выраженную зависимость на саму себя, в особенности при лаге равном 1; лаги близкие к 24 тоже существенны. Зависимость от предыдущих значений в остатках модели слишком велика. Поэтому в прогноз взяты дополнительные признаки: лаги целевой переменной с шагом 1 и 24.

В качестве дополнительных признаков были сгенерированы:

1) фактическая температура, фактическая генерация на тепловых станциях, объем потребления, фактические значения целевой переменной;

2) разница между прогнозными значениями и фактическими;

3) лаги целевой переменной с различным шагом (1, 2, 12, 24);

4) лаги различных признаков (фактическое, прогнозное потребление);

5) вероятность принадлежности к кластеру;

6) минимальное и максимальное значения целевой переменной, взятые за предыдущий день и их разница;

7) переменная, отмечающая наблюдения, попадающие на выходные и праздничные дни и период отпусков.

Заключение

Вычислительный эксперимент показал, что рост потенциальной прибыли при увеличении точности прогноза на 1 % колеблется от 1,7до 4,7 % прибыли для различных ТЭЦ и зависит от сезона года и технико-экономических особенностей работы станций [7] .

Варианты дальнейшего углубленного анализа прогнозных данных. В ходе исследования будет полезно:

- провести дальнейший анализ корреляционных зависимостей во входных данных, исходя из их нелинейного характера: выделить главные компоненты, определить содержащуюся в них информативность;

- выделить базовые алгоритмы прогнозной модели и главные прогнозные составляющие, оценить влияние новых данных на эти величины; получить вероятностные оценки информативности новых признаков по формулам взаимной информации;

- исследовать влияние гессиана целевой функции на скорость сходимости, провести кластеризацию прогнозных данных на основе максимизации взаимной информации.

Библиографический список

1. Хайкин, С. Нейронные сети / С. Хайкин. - Москва : Вильямс, 2006. - Ч. 1, 2. -654 с.

2. Friedman, H. Greedy function approximation: a gradient boosting machine / H. Friedman // Annals of Statistics & Data Analysis. - 2002. - Vol. 38, № 4. -P. 1189-1232.

3. Бидюк, П. И. Структурный анализ методик построения регрессионных моделей по временным рядам наблюдений / П. И. Бидюк, Т. Ф. Зворыгина // Управляющие системы и машины. - 2003. - № 2. - С. 93-99.

4. Загоруйко, Н. Г. Прикладные методы анализа данных и знаний / Н. Г. За-горуйко. - Новосибирск : ИМ СО РАН, 1999. - 271 с.

5. Пупков, К. А. Нестационарные системы автоматического управления: анализ, синтез и оптимизация / К. А. Пупков, Н. Д. Егупов. - Москва : Изд-во МГТУ им. Баумана, 2007. - 340 с.

6. Комарцева, Л. Г. Нейрокомпьютеры / Л. Г. Комарцева, А. В. Максимов. -Москва : Изд-во МГТУ им. Баумана, 2004. - 410 с.

7. URL: http://www.atsenergo.ru/

8. Осовский, С. Нейронные сети для обработки информации / С. Осовский. -Москва : Финансы и статистика, 2002. - 485 с.

9. Бахвалов, Н. С. Численные методы / Н. С. Бахвалов, Н. П. Жидков, Г. М. Кобельков. - 7-е изд. - Москва : БИНОМ. Лаборатория знаний, 2011. - 630 с.

References

1. Khaykin S. Neyronnye seti [Neural networks]. Moscow: Vil'yams, 2006, part 1, 2, 654 p. [In Russian]

2. Friedman H. Annals of Statistics & Data Analysis. 2002, vol. 38, no. 4, pp. 1189-1232.

3. Bidyuk P. I., Zvorygina T. F. Upravlyayushchie sistemy i mashiny [Control systems and machines]. 2003, no. 2, pp. 93-99. [In Russian]

4. Zagoruyko N. G. Prikladnye metody analiza dannykh i znaniy [Applied methods of data and knowledge analysis]. Novosibirsk: IM SO RAN, 1999, 271 p. [In Russian]

5. Pupkov K. A., Egupov N. D. Nestatsionarnye sistemy avtomaticheskogo upravleniya: analiz, sintez i optimizatsiya [Nonstationary systems of automatic control: analysis, synthesis and optimization]. Moscow: Izd-vo MGTU im. Baumana, 2007, 340 p. [In Russian]

6. Komartseva L. G., Maksimov A. V. Neyrokomp'yutery [Neurocomputer]. Moscow: Izd-vo MGTU im. Baumana, 2004, 410 p. [In Russian]

7. Available at: http://www.atsenergo.ru/

8. Osovskiy S. Neyronnye seti dlya obrabotki informatsii [Neural networks for information processing]. Moscow: Finansy i statistika, 2002, 485 p. [In Russian]

9. Bakhvalov N. S., Zhidkov N. P., Kobel'kov G. M. Chislennye metody [Numerical methods]. 7th ed. Moscow: BINOM. Laboratoriya znaniy, 2011, 630 p. [In Russian]

Петухова Наталья Юрьевна

кандидат физико-математических наук, доцент, старший научный сотрудник, лаборатория численного моделирования, ООО «Базовые Технологии» (Россия, г. Москва, 3-я улица Ямского Поля, 2)

E-mail: natpet967@gmail.com

Petukhova Natal'ya Yur'evna Candidate of physical and mathematical sciences, associate professor, senior staff scientist, the laboratory of numerical modeling, «Bazovye technologii» LLC (2 3-ya Yamskogo Polya street, Moscow, Russia)

Образец цитирования:

Петухова, Н. Ю. Анализ информативности данных при построении прогнозной модели цены на электроэнергию / Н. Ю. Петухова // Известия высших учебных заведений. Поволжский регион. Технические науки. - 2019. -№ 3 (51). - С. 17-30. - DOI 10.21685/2072-3059-2019-3-2.

i Надоели баннеры? Вы всегда можете отключить рекламу.