Серия История. Политология. Экономика. Информатика. 2013. №1 (144). Выпуск 25/1
УДК: 004.8.032.26 + 57.007
НЕЙР0СЕТЕВ0Й БАЗИС СИТУАЦИОННОГО ЦЕНТРА ОПЕРЕЖАЮЩЕГО РЕАГИРОВАНИЯ
С.П. АЛЁШИН Е.А.Б0Р0ДИНА
Работа посвящена проблеме разработки теоретических и прикладных основ построения экспертных интеллектуальных систем принятия решений по тенденциям динамики входных факторов и состояний исследуемого процесса. Предложена технология адаптации нейросетевого базиса стандартного пакета технического анализа к принятию решений ситуационным центром опережающего реагирования путем реализации прогноза динамики контролируемых переменных (индикаторов) и оценки ожидаемых рисков. Представлены результаты инструментальной реализации прогнозирования, динамики контролируемых параметров, обоснована продуктивность моделей исследуемых процессов на основе анализа ошибок на обучающем и тестовом входных множествах.
Полтавский национальный технический университет им. Юрия Кондратюка
е-таіі:
Ключевые слова: опережающее реагирование, прогнозирование, многомерная регрессия, нейроэмулятор, обучающая выборка, матрица потерь, условный риск, модификация синаптического пространства.
Введение
Ситуационный центр опережающего реагирования (СЦОР) — информационная, программная и инструментальная среда, которая позволяет в реальном времени преобразовывать массив входных данных в значения прогнозируемых переменных (индикаторов) и по их совокупности распознавать будущее состояние исследуемого объекта или процесса на различную глубину прогноза. Для принятия конструктивных решений ключевым условием продуктивности СЦОР является возможность построения и отображения, устойчивых причинно-следственных связей между событиями исследуемого процесса в прошлом, настоящем и будущем. Математически эта задача может быть решена построением системы дифференциальных уравнений, описывающих процесс, вблизи некоторой точки, когда принимается допущение линейного соответствия относительно малых приращений зависимых факторов к соответствующим приращениям многомерного множества индикаторов исследуемого процесса. Однако это не всегда возможно по двум причинам:
- чрезмерно большая размерность вектора состояний исследуемого процесса при стремлении к нулю выбранных приращений, что вытекает из требования качества дифференцирования функции и затрудняет инструментальную реализацию;
- линейная и непрерывная связь факторов и состояний исследуемых процессов не всегда очевидна, что ставит под сомнение адекватность принимаемой модели исследования.
Целесообразным, на наш взгляд, выглядит применение нейросетевого базиса для принятия решений не по актуальным состояниям исследуемого процесса, а по тенденциям динамики отдельных элементов вектора индикаторов, описывающих образ этого процесса. Это особенно важно при организации ситуационных центров [1], эффективность которых существенно зависит от способности не только адекватно реагировать на возникающие угрозы и риски, но и своевременно принимать превентивные меры. Это, в свою очередь, порождает необходимость рассмотрения иной парадигмы принятия решений СЦ, базирующейся на реализации решений, опережающих актуальное состояние процесса за счет построения и распознавания образов этих состояний на различную глубину прогноза. Решение задачи в такой трактовке целесообразно находить на основе многомерного регрессионного анализа, на базе современных программных пакетов нейроэмуляторов [2,3]. Именно НС позволяют преодолеть, отмеченные выше ограничения моделирования сложных процессов, за счет продуктивного объединения ретроспективных данных исследуемого процесса по состоявшимся объективным событиям с футурологическими, предсказанными индикаторами ассоциативного образа этого процесса за счет когнитивных обучающих процедур [4].
Постановка задачи
Задача предсказания значений индикаторов исследуемого процесса на различную глубину прогноза может быть успешно решена, если найдена адекватная аналитическая зависимость вектора входных факторов и вектора индикаторов состояния этого процесса.
Выходные переменные (индикаторы) процесса в общем случае связаны с входными факторами (переменными) и имеют следующую функциональную зависимость:
г(о=о(хт и
где 7(^) = - вектор выходных переменных (индикаторов) процесса
в момент времени (^) ;
Х^) = х1^),х2^),...,хп^) - вектор входных переменных (факторов) процесса в момент времени (^);
С — символ вектор - функции отображения, в У(^), вид которой и является
искомым решением данной задачи.
Допустим, что входные факторы представлены совокупностью переменных трех типов, связанных некоторой функцией Р:
(2)
где Х(^0) = х1(^0 ),х2(^0хп(^0) - вектор входных переменных (факторов) процесса в начальный момент времени 1;0;
1{{) = - вектор воздействий среды в момент времени(^) ;
и(^) = их (0,^2 (?)■>■ ■■■>ит (0 - вектор управляющих переменных в момент времени (^), при ограничениях:
2(0 е А3 (0; и(0 е А2 (0; X(*) е Ах (*); [?0, Т\
где Х0, Ах (^), А2 (^), А3 (г) - соответственно, начальные значения входных факторов,
области допустимых значений переменных состояния, управляющих и наблюдаемых переменных (пространства дисциплинирующих условий на состояния, управление (ресурсы) и наблюдаемые индикаторы).
В любой момент времени искомую зависимость “факторы - состояние”, когда и первые и вторые являются наборами элементов соответствующих векторов, можно представить соотношением:
|/| = Ф|х"|. (з)
Для этого случая задача сводится к поиску отображения:
Ф:Х^7,Хс=9Г,7с=91\ (4)
где кит- соответственно, размерность состояний процесса, и размерность вектора входных факторов связывает наборы элементов вектора входных факторов
X = (хг хт)е X с соответствующими значениями выходного вектора
^ = (У 1 Ук)е^. Оператор Ф включает в себя все процедуры поиска аналитиче-
ской (или иной) зависимости двух информационных пространств:
пространства X = (хг хт)е X и пространства 7 = (у1 ^)еГ.
В нейросетевом базисе эта процедура опирается на теорему Колмогорова-Арнольда о представлении функции нескольких аргументов через сумму композиций функций одной переменной и ее адаптации к нейросетевому формату Хехт-Нильсена [1]. Тогда связь обозначенных выше пространств входа и выхода исследуемого процесса, можно представить в виде:
я
у{х) = а£уА™пх 1 +Щ2х2 +-- + Щ„х„ +щ), (5)
2=1
Серия История. Политология. Экономика. Информатика.
2013. №1 (144). Выпуск 25/1
где Н - мощность обучающей выборки; а,у - параметры нейросети; п — количество нейронов;
- весовые коэффициенты нейронов.
При этом можно утверждать, что существует такой набор чисел Н,п,сс,Уи,■, при которых функция у аппроксимируется рядом (5) на всей области ее определения и может быть реализована с помощью трехслойной нейронной сети с любой наперед заданной погрешностью. При таком подходе решение поставленной задачи сводится к минимизации функции ошибки нейронной сети при ее обучении, например, по методу обратного распространения ошибки [5].
Если ограничиться архитектурой двухслойного персептрона, то задача достижения допустимой ошибки при аппроксимации искомой функциональной зависимости, сводится к модификации синаптического множества выбранной нейронной сети вида:
IVм =Ж(
которая заканчивается, когда функция интегральной невязки значений элементов векторов целевого и текущего состояний исследуемого процесса достигает величины, удовлетворяющей допустимым рискам в исследуемой предметной области (например, как предложено в [5]):
1 Р м
т £ £ (У, («) - Л-)' -> *(»('.». («
^ к=1 1=1
где /?(91(^+)) - числовое значение, характеризующее невязку текущего и целевого значений индикаторов исследуемого процесса, вычисленное, исходя из допустимого интегрального риска.
Результатом обучения должен быть выбор таких значений всех весовых коэффициентов сети м/у'’ и и2,2', которые обеспечивают максимальное совпадение выходного
вектора Ук и целевого вектора ожидаемых значений Ук при предъявлении вектора входных факторов Хк, К — мощность обучающей выборки {к = 1,2.
При фиксированном объеме обучающей выборки обучение сети состоит из процедур, которые подразумевают корректировку весов после обработки всех пар {ха,7.а}в обучающей последовательности с использование целевой функции (6). Таким образом, множество синаптических весов, организованное файловым протоколом для каждого выбранного момента принятия решения, является выражением вектор - функции О из (1), связывающее переменные (индикаторы) процесса с входными факторами (переменными) соответствующей функциональной зависимостью. Для ситуационного центра это позволяет прогнозировать динамику процесса (или любой из его индикаторов) для организации принятия решений по прогнозируемым значениям, что и является основой опережающего реагирования.
Решение задачи
В первую очередь следует однозначно определить допустимые ошибки обучения предполагаемой модели, что соответствует количественной оценке адекватности синтезируемой нейронной сети, отображающей процесс прогнозирования динамики исследуемого процесса по предсказанию значений элементов вектора его индикаторов такого моделирования.
Обоснуем выбор критерия оценки допустимой величины ошибки обучения. Вид функции ошибки обучения следует искать исходя из принятого условия (6) при постановке задачи. При этом вектора Ук и Ук следует рассматривать как реализации набора конкретных значений индикаторов текущего и целевого состояний исследуемого процесса с некоторым законом распределения У(х). Исходя из случайного характера реализаций на выходе нейронной сети при её обучении, целесообразно воспользоваться обоснованием продуктивности применения статистических критериев оценки близости рассеяния значений элементов вектора Ук и Ук случайных величин [6].
НАУЧНЫЕ ВЕДОМОСТИ
Тогда задача проверки статистической близости двух распределений случайных величин может быть обоснована и сформулирована на основе связи функции невязки в
выражении (6) с одним из известных статистических критериев (например, критерия
Смирнова).
Известно, что статистика критерия Смирнова измеряет степень различия между двумя функциями распределения, полученными в результате опыта. Проверяется гипотеза о том, что для двух любых выборок извлеченных из одной и той же генеральной совокупности, т.е. описывающих текущие значения индикаторов исследуемого процесса, имеет место равенство [8]
7(х) = ,р(х) (7)
при любом значении аргумента. Невязка двух распределений текущего и целевого состояний определяется через статистику, построенную по выборкам следующим образом [8]:
А^эир! Ут(х)-Р(х\, (8)
л:
где т — мощность выборки индикаторов текущего состояния;
Ут (х) - эмпирическая функция распределения этой выборки, которая находится известным способом:
1 т Ь
(9)
где
если Ха > ха если Ха < ха
і = 1,т ; I = 1,Ь - номер управляющего фактора;
Ь - количество управляющих факторов;
X = {Ха } - наблюдаемые значения / -го управляющего фактора для і -й выборки. Функцию распределения целевого состояния определим следующим образом:
^г)], (ю)
тК 1=1 к=1
где б/,"1"1 и - границы интервалов допустимых значений индикаторов вектора целевого состояния.
Исходя из теоремы Смирнова [8], получаем аналитическую связь экспериментальных данных с общепринятыми статистическими критериями
Уі> 0: Ііші5
' її”-
= ЗД, (п)
где 91(^) - значения квантиля Колмогорова при выбранном уровне значимости t.
Представленный критерий согласия Смирнова позволяет проверить, согласуется ли заданная выборка (совокупность индикаторов текущего состояния) с заданным фиксированным распределением(совокупность индикаторов целевого состояния), т.е. на сколько они близки. Для практических задач считается что, если статистика
ш <*>
V’ ^ )
превышает квантиль распределения Колмогорова 91(^), заданного уровня значимости t, то нулевая гипотеза Н0 (об однородности выборок) отвергается. В противном случае -принимается на уровне t [8].
Таким образом, количественное значение ошибки в выражении (8) через статистику Смирнова (12) и квантиль распределения Колмогорова 91(^) установленного уровня значимости, имеет детерминированную в данном случае табличную) связь с ошибками первого и второго рода при проверке статистической близости текущего и целевого состояний исследуемого процесса. Это позволяет корректно количественно оценивать допу-
стимые риски, которые в ситуационном центре предварительно оцениваются экспертным путем. Конструктивность подобного подхода выражается в детерминированной связи статистических критериев с экспертными оценками возможных потерь при принятии решений, что позволяет в выражении (ю) количественно установить верхнюю границу допустимой ошибки с учетом традиционно принятых в математической статистике ошибок 1-го и 2-го рода. Следовательно, условие окончания итерационного процесса при обучении нейросетевой модели является состоятельным и обеспечивает надежность принимаемых решений.
После обоснования условий окончания обучения нейронной сети второй задачей является непосредственно моделирование динамики индикаторов исследуемого процесса как прогнозирование их ожидаемых значений.
Модели динамики процесса как решение задачи многомерной регрессии
В случае большого количества разнородных данных предстоит построить нейронную сеть для реализации задачи многомерной регрессии. В данном случае получим физическую модель исследуемого процесса, как реализацию функции (ю). Если производительность сети и ошибки на обучающем, контрольном и тестовом множествах в допустимых пределах, то модель становится инструментом поддержки принятия решений в оценке исследуемого процесса во времени. В нейросетевом формате процедура построения многомерной регрессии реализуется как модификации синаптического пространства модели в режиме «обучения с учителем» в рамках установленных ограничений. [6]. При этом процедура обучения сети выполняется итерационно по алгоритму обратного распространения ошибки применительно к исходным данным исследуемого процесса в формате задачи:
1
—
пт
Ч)2
Ш1П,
]=\ /=1
(13)
где у у — вектор индикаторов выходных состоянии из исходного множества;
іі у — результат обучения сети на у-выходе, при /- м примере обучающей выборки;
/’ =1, п — номер выхода сети;
/ = 1,т - номер примера;
т,п — размерность массива примеров и числа выходных элементов сети.
Рассматривая, например, экологическую нагрузку в регионе в качестве исследуемого процесса (рис. і). Индикаторами процесса целесообразно выбрать количество заболеваний (желудок, органы дыхания, кровь и др.), а предикторами — концентрацию массива вредных соединений (в воздухе, воде, почве и т.д.). Тогда при наличии репрезентативного набора наблюдений (примеров) формируется обучающая выборка для построения и реализации адекватной нейросетевой модели многомерной регрессии [7]. Воспользуемся моделями на базе стандартного пакета нейроэмуляторов Зіа1:І5І:іса 6.1 [8], проведем обучение и обеспечим допустимую адекватность и надежность результатов.
|| □ в» н т __________________________•■<<? - 4» •?; - лввш
II 4» £) | ш\/ ш *ян |3>е , ш ЙЗ Ёй Сч И, 1/_ % ' 21.
.
мь га се: ^ га* ъ ъ с ^
-V Т* -
Рис.1. Профили моделей и фрагмент обучающей выборки
Анализ профилей результатов моделирования позволяет выделить сети с приемлемыми для практики производительностью и ошибками на обучающих, контрольных и тестовых множествах. Это свидетельствует об адекватности математической модели физическому содержанию исследуемого процесса. На данном примере приведен графический результат построения многомерной регрессионной зависимости для ансамбля моделей (рис. 2).
\/аг1, Н аблюдаемые от \/аг1, Пре
Модель с 6
7
8
9
10
\/аг1, Наблюдаемые
Рис. 2. Характеристика качества многомерной регрессии
\/аг1, Наблюдаемые от \/аг1, Предсказанные (9)
О
° о
0 о
, о 'С
о о ° ° У
Ь - 1 і О
о0
о
0°
6)
5 10 15 20 25 30 35 40 45 50 55 60 Є5
\/аг1, Наблюдаемые
а)
Уаг1, Наблюдаемые
Рис.з. Результаты адаптации моделей прогноза к заданным требованиям:
а) с вариацией мощности обучающей выборки; б) с вариацией сложности сети
б)
10)
Найденная регрессионная зависимость устанавливает связь входных факторов и выходных индикаторов системы через массивы синаптических коэффициентов ансамбля обученных нейросетевых моделей (рис. з).
Сеть распознала структуру обучающего множества и пригодна для использования в прогнозировании значений зависимой переменной. Таким образом, нейросетевые модели исследуемого процесса в автоматизированных СППР продуктивно реализуются в среде эмуляторов стандартного нейропакета, и задача опережающего реагирования состоит в прогнозировании каждого индикатора в отдельности и классификации процесса в целом по их полному множеству при переменной глубине прогноза. При этом вероятность ошибки и соответствующие риски принятия решений зависят от глубины прогноза. Это утверждение требует количественной оценки.
Особенности классификации прогнозируемых состояний в СЦОР Анализ исследуемых процессов в СЦОР позволяет сделать вывод о неравнозначности ущерба при перепутывании классов в их оценке по предсказанным значениям входных факторов[5]. Наиболее адекватной мерой близости классов прогнозируемых состояний принят риск, который связанный с принятием решения о принадлежности распознаваемого прогнозируемого состояния исследуемого процесса к некоторому классу
0.к,к = 1,2...,да . Риски ошибочных решений рассчитываются предварительно и помещены в файл исходных данных в виде платежной матрицы ||С||. В принятых обозначениях
2013. №1 (144). Выпуск 25/1
после измерения признаков Х() текущего состояния изучаемого процесса, величина условного риска может быть представлена выражением:
(и)
Г—1
т . . т
и принимается в случае, если Хп) = тіп, / Хп) по всем СОСТОЯНИЯМ я=1
ям объекта. При этом условная вероятность того, что (О є может быть вычислена в
соответствии с теоремой гипотез (формула Байеса) [5].
Для исследуемых процессов, исходя из их описания и характеристик, непосредственно применить решающее правило Байеса в задачах принятия оптимального решения, как правило, не удается, так как плотности распределения признаков в классах и априорные распределения самих классов не известны. На практике, при наличии репрезентативных данных входного массива модели вероятностных распределений факторов и состояний объекта могут быть построены решением задачи аппроксимации многомерных функций и реализованы в нейросетевом формате.
Пусть базовый процесс ССТС характеризуется данными:
- X = {х1,х2,...,хг} - массив входных данных;
- множество классов;
- А = , ОС2(Хг} - множество решений;
- Л{ссі у/} - функция потерь (ущерб от решения щ отнести объект к классу у /);
“ ) - априорная вероятность принадлежности объекта (процесса) к соответ-
ствующему классу;
- р(х | у]) — условная плотность распределения векторах в классе у ■;
- Р (у ] | .х) - апостериорная вероятность (вероятность установления класса у .), если признаки соответствуют вектору г.
Эта вероятность вычисляется по формуле Байеса:
\ Р(х\У,)Р(У,)
Р(у,\х) = ^-----------;----------,
I,, Р(х\У.,)р(У.,)
где
ЛР (х I У/ )Р(У,) _ композиция всех возможных распределений признаков в
классах.
Функция потерь Л{осі | у ;} при принятии решения о принадлежности прогнозируемого процесса к некоторому классу при анализе имеет ключевое значение. Это связано с особенностями предметной области исследуемого объекта (принять опасную экологическую загрузку в регионе за допустимую или больного пациента за здорового, классифицировать успешное предприятие как банкрота и т.д.). Функция потерь представляется в виде:
Эта функция позволяет количественно оценить потери от принятия того или иного решения, так как появляется возможность количественно измерить прогнозируемый ущерб и вероятность его возникновения. Совместное их использование возможно в форме оценки условного риска принятого решения [ос{), когда 1Ф j (имеет место ложная
классификация):
R{at | х) = Л{аг \у}}Р (у} \х).
Анализ всех возможных сочетаний элементов матрицы потерь и соответствующих им вероятностей на основе байесовского правила проверки гипотез позволяет минимизировать ущерб от принятых решений прогнозирования состояний процесса. Очевидно, что лучшими будут решения, которым соответствуют минимальные значения условных рисков при максимальных значениях апостериорных вероятностей:
Л{ai | у.} —» min,
Р (у ■ | х) —» шах .
При фиксированных значениях элементов матрицы потерь минимизация прогнозируемого ущерба осуществима нахождением такого вектора входных факторов, при котором вероятность ошибки классификации минимальна.
При этом реализуемое правило позволяет достигать теоретически обоснованной оптимальности принятого решения при определении класса исследуемого процесса с количественной оценкой его надежности (доверительной вероятности).
Нейросетевая классификация прогнозируемых состояний процесса с оценкой рисков
Нейронная сеть обучается с таким расчетом, чтобы выходные значения были оценками вероятностей, а матрица потерь рассчитывается предметным специалистом. Тогда нейросетевой модуль пакета технического анализа (например, STATISTICA Neural Networks) можно настроить так, чтобы учитывать матрицу потерь. В пакете SNN в вероятностную нейронную сеть может быть добавлен четвертый слой, содержащий матрицу потерь. Она умножается на вектор оценок, полученный в третьем слое, после чего в качестве ответа берется класс, имеющий наименьшую оценку потерь.
Иногда оценки вероятности используются непосредственно, например, когда решается задача отнесения набора признаков объекта исследования к наиболее вероятному классу. В ряде случаев, как правило, одни ошибки обходятся дороже других (например, при ошибочной диагностике экологической нагрузки в регионе: непринятие мер при опасных концентрациях вредных соединений, или материальные затраты - при их отсутствии). Матрица потерь представляет цены различных ошибок классификации. Она умножается на вектор оцененных вероятностей, в результате получается вектор оценок потерь, и каждое наблюдение приписывается тому классу, у которого будет наименьшая оценка для цены ошибки.
В пакете технического анализа матрицу потерь удобно строить с помощью линейной сети[з], имеющей такое же число элементов во входном и выходном слоях, как у исходной сети в выходном слое.
После того, как матрица потерь построена, ее добавляют к обученной сети, оценивающей вероятности, и в результате получится составная сеть, оценивающая ожидаемый ущерб от принятого решения.
Нейросетевые модели исследуемых процессов в среде Statistica Neural Network
Для распознавания состояния объекта необходимо составить словарь информативных признаков и описать алфавит классов состояний объекта на языке этого словаря, что обеспечивает имеющаяся выборка примеров. Так как каждому классу соответствует свой набор показателей, то процедура классификации объекта сводится к анализу пространства признаков текущего состояния и сравнения результатов анализа с описаниями выбранных классов. В нейросетевом формате задача распознавания классов
Н
|р
текущего состояния исследуемого субъекта решается, например, с использованием дельта - правила [1]. При наличии двух классов состояний формирование обучающего множества упрощается. Применим технологию моделирования в среде нейроэмуляторов по методике [6], что позволяет получить модель (рис. 4).
Рис. 4. Профиль модели на фрагменте обучающей выборки
В результате интерактивного диалога получена модель сети, осуществлено её обучение, выбран наиболее производительный вариант из ансамбля моделей. Модели на основе радиально-базовых функций в целом подтверждают вывод о реализуемости базовых функций, но мощность обучающей выборки в приведенных примерах не позволила достичь производительности по условию задачи. Это видно из эксперимента на ансамбле РБФ-сетей (рис. 5).
Более низкая производительность характерна для моделей с большим числом нейронов в скрытом слое, и пользователь должен искать компромис между ошибками обобщения на тестовом множестве, временем обучения и производительностью сети.
Рис. 5. Профиль моделей на фрагменте выборки для РБФ-сети
Показатели производительности моделей зависят одновременно от мощности обучающей выборки, сложности сети, её типа и архитектуры.
Таким образом, получено теоретическое и практическое подтверждение вывода о возможности построения моделей прогноза исследуемого процесса при сохранении адекватности моделей в заданных границах.
Г рафик обучения
Графік навчання
\
0 15 0,10
Оим0«а
-----0.1 0.06
-----К.1
-100 -50 0 50 100 150 200 250 300 350 400 450 500 550 600 650 700 ООО
Оыибча
— О.
К1 ----0.3
• 100 -40 О г.О 100 160 700 340 100 340 400 4SC «00 5rО О Ю В'О 700
а) б)
Pilc. 6. Результат анализа моделирования для СЦОР: а) обучение с коррекцией производительности модели;
б) быстрое обучение без коррекции
Как видно из графиков, применение представленных технологий сокращения времени адаптации нейросетевых моделей базовых процессов при сохранении их адекватности в допустимых границах, позволило получить устойчивую сходимость итерационного процесса модификации синаптического пространства. Число эпох не превышает нескольких сотен, что в пересчете на общие временные затраты соответствует единицам и десяткам секунд. Конкретные предметные области исследования позволяют эти временные интервалы привести в соответствие с диррективным временем принятия решений.
Выводы
1. Нейросетевой базис ситуационного центра опережающего реагирования позволяет автоматизировать принятие решений по тенденциям исследуемого процесса путем реализации прогноза динамики контролируемых переменных (индикаторов) процесса в реальном времени и в пределах допустимых ограничений.
2. Инструментальная реализация прогнозирования динамики контролируемых параметров возможна и целесообразна на базе стандартных нейроэмуляторов существующих и перспективных пакетов интеллектуальной обработки данных.
3- Адекватность, надежность и продуктивность моделей исследуемых процессов
установлена на основе анализа ошибок на обучающем и тестовом множествах входных данных и в подавляющем большинстве экспериментов удовлетворяет требованиям практики.
Список литературы
1. Хайкин С. / Нейронные сети: полный курс - [2-е изд.]; пер. с англ. / Хайкин С. - М.: Издательский дом «Вильямс», 2006. - С. 1104.
2. Горбань А.Н. /Обучение нейронных сетей./ Горбань А.Н. - М.: Изд-во СССР-США СП «ParaGraph», 1990. - С. 160.
3. Боровиков В.П. / STATTSTTCA NN - Техническое описание/ Боровиков В.П. - М.: Мир, 1999- -
С. 239.
4. Алёшин С.П. Ситуационные центры быстрого реагирования: принятие решений в среде нейроэмуляторов / С.П. Алёшин // Системы управления, навигации и связи - 2011. - № 1 (17). - С. 240 - 247.
5. Ляхов А. Л., Алёшин С.П., Бородина Е.А. Нейросетевая модификация текущего пространства признаков к целевому множеству классов. 11- Міжнародна науково-практична конференція «Нейромережеві технології і їх застосування »: 36. наук, праць / под ред. проф. С. В. Ковалевского. - Краматорск: /'[/'ІМЛ - 2012. - С. 93 - 99.
6. Горбань А.Н., Россиев ДА. Нейронные сети на персональном компьютере // Новосибирск: Наука, 1996.- 276 с.
7. Терехов В.А., Ефимов Д.В., Тюкин И.Ю. Нейросетевые системы управления: Учеб. пособие для вузов. - М.: Высш. школа 2002. - 183 с.
8. Большее Л.Н., Смирнов Н.В. Таблицы математической статистики. - М.: Наука, 1983- - 416 с.
THE NEURAL SITUATIONAL CENTER OF THE OUTPACING RESPONSE
S.P. ALESHIN E.A. BORODINA
Poltava National Technical Yuri Kondratyuk University
e-mail:
aleshsp @ukr.net [email protected]
The work is devoted to the development of theoretical and applied bases of construction the expert intelligent systems, decision-making by trends the input factors and the state of researching the process. The proposed technology of the adaptation neural network foundation of the standard package of technical analysis decision-making situational center of the outpacing response by force of by implementing the prediction of the dynamics of the controlled variables (indicators), and estimates of the expected risk. The results of instrumental of the implementation dynamics forecasting controlled parameters, based on productivity models researched of the processes based on the analysis of errors on the training and test input sets.
Keywords: anticipatory responses, forecasting, multivariate regression, neyroemulyator, training set, the matrix losses, conditional risk, modification of synaptic space.