Научная статья на тему 'Верификация инструментальных средств реализации прогнозирования налоговых поступлений'

Верификация инструментальных средств реализации прогнозирования налоговых поступлений Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
366
89
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Авдеева В. М., Крючкова И. Н., Кравец О. Я.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Верификация инструментальных средств реализации прогнозирования налоговых поступлений»

Авдеева В.М., Крючкова И.Н., Кравец О.Я.

ВЕРИФИКАЦИЯ ИНСТРУМЕНТАЛЬНЫХ СРЕДСТВ РЕАЛИЗАЦИИ ПРОГНОЗИРОВАНИЯ НАЛОГОВЫХ ПОСТУПЛЕНИЙ

МРИ МНС РФ N1 по Воронежской области, г.Воронеж Международный институт компьютерных технологий, г.Воронеж Воронежский государственный технический университет

При решении задачи прогнозирования временных рядов, в качестве которых выступают объемы налоговых платежей по территории, возникает проблема корректного определения обучающего, тестирующего и контрольного множеств. При формировании указанных выборок предполагается, что значения независимых переменных и зависящей от них исследуемой величины определены в одной и той же временной точке. Однако известно множество примеров [1, 2, 3], когда влияние одного события на другое проявляется по прошествии некоторого времени, величину которого называют временным лагом А. В случае наличия неизвестного временного лага задача нейро-сетевого моделирования временных рядов существенно усложняется, так как появляется неопределенность выбора обучающих примеров.

Обычно целью нейросетевого прогнозирования является предсказание значения некоторой переменной на основе ее предыдущих значений. Обучающий пример формируется путем наложения на массив исходных данных временного «окна». Следующий пример формируется сдвигом «окна» на один временной интервал вперед.

В [4, 5] показано, что учет значений не только прогнозируемой величины, но и факторов, значимо влияющих на нее, позволяет повысить точность прогнозирования. В этом случае каждый обучающий пример содержит историю значений по факторам, значимо влияющим на значение прогнозируемой величины и историю значений самой прогнозируемой величины, а также требуемый выход нейросети [6]. Ширина временного «окна», то есть количество предыдущих значений, на основе которых формируется прогноз, может быть определено с помощью анализа графиков автокорреляционных функций входных факторов.

С учетом отсроченного влияния одного или нескольких значимых факторов на прогнозируемую величину, появляется необходимость более точно определять ширину временного окна по каждому фактору. При ширине окна меньшей, чем временной лаг, «сдвинутое» значение фактора, соответствующее значению прогнозируемой величины в определенной временной точке, не войдет в обучающий пример для этой точки.

Пусть х(г1), х(г2), х(гп) - значения независимой переменной, у(г1), у(г2),

у(гп) - временной ряд, описывающий прогнозируемую величину. Предположим, что существует аналитическое выражение зависимости У(х), причем

7 (г) = / (х(г -А), (1)

где А - временной лаг.

Для примера выбрана следующая функция

у (г) = 10^ X 2( г*), (2)

где г* = г-3.

Рис. 1 иллюстрирует взаимное расположение графиков Х(г) и У(г), рис.

2 - выбор ширины временного окна для Х по графику автокорреляционной функции [4].

Рис. 1. Временные ряды значений независимой (X) и зависимой (У) переменных

—Коэффициент автокорреляции X(t)

Рис. 2. График автокорреляционной функции независимой переменной

X

Предположим, что вид функции Y (t) неизвестен, соответственно, неизвестно о существовании временного лага для переменной X, равного трем. Исходя из наблюдений, с помощью нейросети была проведена аппроксимация Y(X) по значениям в точках наблюдений t=1,2...40. Так как и сама функция, и независимая переменная представлены временными рядами, необходимо использовать «историю» изменений, то есть формировать обучающий пример на основе наблюдений в нескольких временных точках. Исходя из рис. 2, ширина временного окна независимой переменной первоначально была принята равной двум, но после предварительных исследований это значение было увеличено до трех.

Нейросетевое моделирование проводилось с помощью пакета STATISTICA Neural Networks 4.0. Была построена нейронная сеть типа мно-

гослойный персептрон с одним скрытым слоем, логистической функцией активации структуры 4-4-1. Обучение проводилось методом обратного распространения ошибки.

В ходе анализа чувствительности нейросети была выдвинута гипотеза, что при наличии временного лага наибольшая ошибка предсказания будет наблюдаться при удалении того входа, который соответствует значению X в точке t-А, которая в дальнейшем подтвердилась. Действительно, исходя из результатов анализа, проведенного средствами STATISTICA Neural Networks, представленных в табл. 1, наиболее значимым является вход, соответствующий X(t-3). При сдвиге ряда Х «назад» относительно Y на три временные точки, наиболее значимым становится X(t), а точность прогнозирования увеличивается практически вдвое (структура сети и условия обучения оставались неизменными).

Таблица 1

Результаты анализа чувствительности нейросети для одной независимой _____________________________переменной_______________________________

Переменная Ранг Чувствительность\абс. ошибка

До сдвига X(t) 4 0.1591

X(t-1) 3 0.1757

X(t-2) 2 0.4127

X(t-3) 1 0.8653

Y 0.2373

После сдвига X(t) 1 1.2168

X(t-1) 2 0.1075

X(t-2) 3 0.1067

X(t-3) 4 0.0668

Y -0.1267

Для того, чтобы убедиться, что найденное значение временного лага является оптимальным, глубина погружения была увеличена на 1. Анализ чувствительности показал, что дополнительный вход X(t-4) не является наиболее значимым.

Далее была рассмотрена функция двух переменных, имеющая вид Y(t)=10 log(Xj2(t - 3) + 3x2(t)), график которой, как и зависимости X1(t) и X2(t)

представлены на рис. 3. Иллюстрация анализа чувствительности нейросети структуры 8-17-1 средствами STATISTICA Neural Networks представлена на рис. 4. Сеть имеет 5 входов VAR1 - VAR5, на которые поступают значения

X1 (что соответствует ширине временного окна, равной четырем), и 3 входа VAR6 - VAR8 для отражения истории изменения переменной Х2 (ширина временного окна равна двум).

В ходе следующего вычислительного эксперимента были рассмотрены

8 независимых переменных (X1(t),... X8(t)) и зависящая от них функция

(X,(t) + X3t) - ln(X4)) ■ X3(ts -1)

Y(t) = 10 +----------3-----------0,44X7(t7 - 2) + X8, (3)

X6 + 2,5X5(t5 - 3) 7 8

где t3 = t-1, t5 = t-3, t7 = t-2.

Рис. 3. Взаимное расположение временных рядов для двух независимых и одной зависимой переменных

JLslI i—

|5c

.... 1

Update | Baseline errors 0.2003 |0.2G72

Prune inputs with low sensitivity ratio Threshold I0 8 Ш Ёшпе I

И|ЕШ VAFS1 VAR2 VAR3 VAR 4 VAR 5 VAR 6 VAR7 VAR 8

Rank 3 1 6 5 8 4 7 2

Error Ü.4928191 0.6006148 0.3039649 0.3046153 0.210811 G.3115212 0.2166693 0.5729198

Ratio 2.460931 2.993217 1.517873 1.£2112 1.052701 1.555606 1.081955 2.86092

Rank 3 1 £ 4 7 8 6 2

Error 0.6016254 0.775639 0.2185918 0.2548732 0.1562346 0.1011914 0.1851039 0.6132393

Ratio 2.251293 2.902462 0.0179763 0.953761 0.5046339 0.3706609 0.6926630 2.294758

II

Рис. 4. Иллюстрация анализа чувствительности двух независимых переменных средствами STATISTICA Neural Networks

При увеличении количества учитываемых факторов и увеличении глубины погружения растет размерность задачи. Однако в случае коротких временных рядов имеющихся наблюдений зачастую недостаточно для обучения сети с большим количеством входов и связей. Сеть «запоминает» обучающие примеры, о чем свидетельствует рост ошибки обобщения. Поэтому анализ чувствительности проводился по следующей схеме.

1 этап. Определение максимальной глубины погружения по графикам автокорреляционных функций независимых переменных и установление предельной ширины временного окна. Отмечено, что данная ширина не должна превышать половину длины временного ряда.

2 этап. Построение и обучение набора нейросетей с различным составом входов: глубина погружения исследуемого ряда принимается максимальной, остальные ряды представлены одним входом на ряд.

3 этап. Определение временного лага для каждого ряда с помощью анализа чувствительности.

Для исходных данных были построены графики автокорреляционных

Рис. 5 - Графики автокорреляционных функций независимых переменных X],... Х8

Исходя из полученных результатов анализа, максимальная ширина временного окна принята равной четырем.

Результаты анализа чувствительности набора нейросетей приведены на рис. 6. В рядах, изначально не обладавших временным лагом, наибольшая чувствительность отмечена для входов Xi(t). Для рядов X3(t), X5(t), X7(t) наиболее чувствительными оказались входы Xi(t-А) (Д3=1, Д5=3, Д7=2).

С учетом найденных временных лагов были сформирован смещенный массив исходных данных, использованный для обучения, тестирования и верификации нейросети. Нейросеть имела структуру 8-5-1, обучалась методом обратного распространения. Результаты обучения и прогнозирования на несмещенных и смещенных массивах представлены в таблице 2. Качество обучения оценивалось параметром S.D. Ratio - отношением стандартного отклонения ошибки к стандартному отклонению данных. Качество прогнозирования оценивалось показателем процентной погрешности MAPE [7], определяемым в виде Y — Y *1

MAPE =-----L. 100%, (4)

Y

где Y - фактическое значение выходной переменной, Y - спрогнозированное значение.

Л н и 0.5 -|

о К >4 0.4 -

£ О ¡_о

Ё И 0.2 -

н и & 0.1 - 0 -

Ег1

Й 0.4

|о.з ¡0, В 0.1 &

Ег1

0

Й 3.3

и О

К

й 3.7 ч

И З.б

£ 0.6

г_:.

Й 0.4 Ч

я 0.2 -

Ел

£

Ег1

О

а)

б)

л

Ен

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

О

О

К

л

я

н

о

£.

Ег1

0.3

0.2

0.1

о

XI (?; х; л х? $.3) XI $-4} =)

Й 0.6 г_-

Й 0.4 Ч

п 0.2 -

н

£

Ег4

Х3$) ХЗ$-1) ХЗ{$-2) Х3$-3) ХЗ$-4) $

>4

Н

О

О

К

л

мч

Н

О

&

Ег4

0.5

0.4

0.3

0.2

0.1

0

Х5$) Х5ф-1) Х5р-2) Х5ф-3) Х5$-4) ж)

Й 0.5 П I 0.4

А

Й о.з ч ^ 02 -е 01 Н

ЕГ4

о

Х2$) Х2§-1) Х2$-2) Х2$-3) Х2$-4) г)

ХЩ Х4£1) ХЦ-2) Х4$-3) Х4$-4) •О

Хб$) Хб{$-1) Хб$-2) Хб$-3) Хб$-4)

з)

Х7$) Х7$-1) Х7$-2) Х7$-3) Х7$-4)

Рис. 6. Чувствительность входов, зависимой переменной

Х8$) Х8&-1) Х8&-2) Х8$-3) Х8$-4) отражающих историю изменения не-

Как и ожидалось, качество прогноза на смещенных рядах значительно улучшилось.

Таким образом, нейросетевая модель чувствительна к наличию временного лага. характеризующего задержку влияния независимой переменной на прогнозируемую величину. Анализ чувствительности входов позволяет определить величину временного лага для каждой значимо влияющей переменной и построить уточненное множество исходных данных для обучения, тестирования и получения корректного прогноза.

Таблица 2

Качество обучения нейросети и прогноз Y (8 независимых переменных)

Набор входных переменных S.D. Ratio (на обучающем множестве S.D. Ratio (на контрольном множестве MAPE, %

Xl(t), ... X8(t) 0.240844 0.184005 2.78

X(t), X2(t), x3(t-i), x4(t), X5(t-3), X6(t), X7(t-2), X8(t) 0.09965 0.199094 1.37

Список использованных источников

1. Кравец О.Я. Гибридные алгоритмы оптимизации моделей множественной регрессии на основе кросскорреляции. - Информационные технологии моделирования и управления, №4(22), 2005.

2. Крючкова И.Н., Кравец О.Я. Исследование особенностей нейросетевого моделирования социально-экономических процессов на смещенных временных рядах. - Информационные технологии моделирования и управления, №4(22), 2005.

3. Давыдов А. Социальное неблагополучие: зависимость объективных и субъективных оценок, НСН (http://www.nns.ru/analit/pol/table.html).

4. Родионов П.Е. Методика извлечения знаний в задачах анализа рядов динамики с использованием нейронных сетей. Автореферат диссертации на соискание ученой степени кандидата технических наук. - М., 2003.

5. Восьмирко С.О. Разработка математического и программного обеспечения среды моделирования нейронных сетей для решения задач прогнозирования. Автореферат диссертации на соискание ученой степени кандидата технических наук. - М., 2005.

6.Уоссерман Ф. Нейрокомпьютерная техника: теория и практика. - М.: Мир, 1992.

7.Осовский С. Нейронные сети для обработки информации. - М.: Финансы и статистика, 2004. - 344 с.

8.Авдеева В.М., Кравец О.Я. Теоретические основы прогнозирования налоговых поступлений на основе кросскорреляционного анализа многомерных временных рядов// Системы управления и информационные технологии, 2006, №1.2(23). - С. 212-216.

9. Авдеева В.М., Кравец О.Я., Крючкова И.Н. Нейросетевое прогнозирование налоговых поступлений на смещенных временных рядах// Информационные технологии моделирования и управления. - 2006, №9(34), с. 1122-1130.

Журавлев С.В., Соломахин А.Н.

ОПТИМИЗАЦИЯ КАЛЕНДАРНЫХ СРОКОВ ПАРАЛЛЕЛЬНЫХ СТРОИТЕЛЬНЫХ РАБОТ В РАМКАХ СИСТЕМЫ МЕНЕДЖМЕНТА

КРУПНОЙ ФИНАНСОВО-СТРОИТЕЛЬНОЙ КОРПОРАЦИИ СРЕДСТВАМИ ИНСТРУМЕНТАЛЬНЫХ КОМПОНЕНТ

ЗАО Финансовая компания «Аксиома», г.Воронеж Воронежский экономико-правовой институт

1. Входные данные

При оптимизации календарных сроков параллельных строительных работ в рамках системы менеджмента крупной финансово-строительной корпорации используются следующие исходные данные для комплексного строительства (строительства множества объектов) в проекте организации строительства (ПОС) и проекте производства работ (ППР).

i Надоели баннеры? Вы всегда можете отключить рекламу.