Научная статья на тему 'Нейросетевое распознавание классов в режиме реального времени'

Нейросетевое распознавание классов в режиме реального времени Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
613
180
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОЭМУЛЯТОР / УСКОРЯЮЩИЙ АЛГОРИТМ / КАСКАДНАЯ СХЕМА / ОБУЧАЮЩАЯ ВЫБОРКА / ГРАДИЕНТНЫЙ СПУСК / ОБРАТНОЕ РАСПРОСТРАНЕНИЕ ОШИБКИ / NEYROEMULYATOR SPEEDING UP THE ALGORITHM / CASCADE CIRCUIT TRAINING SAMPLE / GRADIENT DESCENT / BACK PROPAGATION OF ERROR

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Алёшин Сергей Павлович, Бородина Елена Александровна

Работа посвящена проблеме разработки теоретических и прикладных основ применения интеллектуальных технологий для продуктивного извлечения знаний из массивов данных для принятия решений в реальном времени. Разработана методика построения ускоряющего алгоритма при одновременном контроле за допустимой адекватностью модели, позволяющего обучать нейросетевые модели в темпе реального времени в пределах заданных рисков. Предложен ускоряющий алгоритм и построены нейросетевые модели на основе стандартного эмулятора, обеспечивающие требуемую продуктивность при обработке массива входных данных. в рамках заданных ограничений.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Алёшин Сергей Павлович, Бородина Елена Александровна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The neural networks recognition of the classes in real time

The work is devoted to the development of theoretical and practical basis for the use of intelligent technologies for productive extraction of knowledge from data sets for decision-making in real time.Developed the method construction of the accelerating algorithm, while controlling for allowable adequacy model allows training neural network models in the rate of real-time within a given risk. Proposed accelerating algorithm and neural network models are built based on a standard emulator, providing the required efficiency in the processing of the input array. within the limits.

Текст научной работы на тему «Нейросетевое распознавание классов в режиме реального времени»

Нейросетевое распознавание классов в режиме реального времени

С.П. Алёшин, Е.А. Бородина Введение

Адекватная математическая модель, аналитически связывающая входные факторы ССТС с выходными индикаторами её состояния, является основой построения оптимальной системы принятия решений. Однако в условиях большой размерности вектора входных данных и сложности взаимосвязей с индикаторами состояния объекта, построить адекватную многомерную зависимость сразу для всего массива данных, как правило, не удается [1,2]. Поэтому нахождению многофакторной зависимости, как решение задачи многомерной регрессии, должна предшествовать процедура структурирования исходных данных с целью формирования однородных подмножеств. В этом случае зачастую удается добиться заданных границ производительности при построении модели регрессионного анализа для каждого из полученных подмножеств. Вместе с тем, формирование однородных подмножеств, в ряде случаев [3], совпадает с процедурой описания классов, в пространстве имеющихся признаков исследуемого объекта. Это особенно очевидно в задачах дихотомии (больной - здоровый, кондиция -фальсификат, успешный - лузер и т.п.). Тогда в динамичном, быстро меняющемся признаковом множестве, актуальна задача автоматического построения алфавита классов в режиме реального времени. В этом заинтересована, например, такая структура, как ситуационный центр быстрого реагирования [4]. Решение задачи автоматизации процедур, обеспечивающих распознавание классов в реальном времени, целесообразно осуществлять в нейросетевом формате в среде нейроэмуляторов, например, пакета технического анализа 81а1вой.

Постановка задач

Формально построение математической модели внутренней структуры индикаторов состояния объекта на основе исходных данных входного множества факторов сводится к отображению пространства факторов на пространство состояний с заданной надежностью и точностью как в прямой задаче распознавания:

Е : X ^¥ор(,X с*",¥ор( с*, (1)

так и в обратной (адаптация множества признаков под целевое состояние объекта)

^: 7, ^ Х2о с*", 7, с*, (2)

путем нахождения соответствующих функционалов преобразования Е и Е0,

где Х - множество выборок признаков описания состояния объекта; X, - множество

выборок признаков описания целевого состояния объекта; 7ор1 - верифицированное

выходное значение функции регрессии; 7, - требуемое выходное значение функции

регрессии.

При конечном массиве обучающих выборок Хп ={х1,х2,...,хп}е X, выбранной

функции расстояния между примерами р(х, х*) (эвклидово расстояние), необходимо на первом этапе разделить массив данных на непересекающиеся подмножества, так, чтобы каждое состояло из объектов, близких по метрике р( х, х *), а объекты разных подмножеств существенно отличались между собой, то есть оптимизировать суммы:

Я d(хг, Xj) min; ]T d(xh, X}) ^ max, (3)

i J

X = (xi,...,xn) e X;E = (,...,kj)e K,

где X - множество выборок признаков описания инвестиционных состояний; K -

множество номеров кластеров; X = (x1,...,xn) e X;E = (k1,...,kj)e K - множества значений входных факторов и номеров классов; h, j = 1,2,...,K - средние значения в кластерах; d(xi, Xj) - расстояние между объектом и центром кластера; d(Xh, Xj) - расстояние

между центрами кластеров.

Алгоритмическая реализация группирования однородных данных на входе по выбранной метрике осуществляется решением задачи классификации без учителя в нейросе-тевом формате [1,2]. Что является одной из обеспечивающих распознавание процедур. Формализуем и решим эту задачу в нейросетевой среде.

Рассмотрим пространственный вариант набора входных факторов гипотетического исследуемого объекта из m точек {xp} в n-мерном пространстве. Необходимо разбить множество точек {xp} на k кластеров согласно условия (3) для выбранной меры близости

(квадрат евклидова расстояния). Для этого необходимо найти k точек ОС таких, что,

k

D = £ Я

а — x

2

минимально.

Решение задачи

1. Зададимся набором начальных точек а из исходного множества факторов исследуемой ССТС и разобьем множество точек {хР} на к кластеров по правилу

Р1 = {х : ^а1 -х < ад - х , V I Ф д}

2. По полученному разбиению вычислим новые точки а из условия минимальности

D = П

а — x

xeP;

3. Обозначим число точек в /-ом кластере через |^| .

4. Запишем решение выбора точек на втором шаге алгоритма в виде

/ 1 ^

а =-,—г ^ х

IpI

х<еР<

5. Выполняем процедуры 1-3 алгоритма до тех пор, пока набор точек а не перестанет изменяться.

6. Фиксируем сеть способную для произвольной точки х вычислить квадраты евклидовых расстояний от этой точки до всех точек а и отнести ее к одному из к кластеров.

7. Ответом является номер нейрона, выдавшего минимальный сигнал.

Созданные для каждого из кластеров отдельные нейронные сети, позволяют получить физическую модель связи входных факторов с индикаторами состояния объекта. При этом индикаторы могут соответствовать как текущему состоянию так и целевому.

Таким образом, технология формирования компактных, однородных подмножеств во входных данных алгоритмически формализована и может быть реализована

l=1 xePt

существующими инструментальными средствами пакетов технического анализа [3].

Таким образом, после группировки входных данных как компактных множеств в многомерном пространстве на основе выбранной метрики близости, новые наблюдения можно классифицировать по принадлежности к тому или иному кластеру с минимальным значением меры близости. Это эквивалентно, для решаемой задачи, процедуре описания классов на языке их информативных признаков и является следующей обязательной, обеспечивающей распознавание, процедурой.

Верифицированное заключение (при наличии времени) может быть получено с привлечением предметного специалиста. Следующей обязательной процедурой является выбор и формализация решающего правила.

Формализация решающего правила

В условиях многомерности входных факторов, неполноты данных о их взаимном влиянии, неопределенности исходной информации целевые критерии для решения задач поддержки принятия решений, как правило, формализуются в виде лингвистических переменных или в виде правил логического вывода относительно эффективности функционирования объекта. Массив выборок Хп ={х1,х2,...,хп}е X совместно с

соответствующим массивом классов Е = (к1,...,к-)е К используется для обучения в задаче

распознавания актуальных состояний объекта исследования. Эту процедуру можно выразить в требовании, а именно оптимизировать функционал процесса распознавания текущего состояния объекта:

3 = ¿-|<ФЛФ,,П4 >.(£(®.к М (4)

где * (я р) - расстояние между объектами (признаками) внутри класса по заданной метрике, вычисляется с помощью следующего выражения:

1 1

7 £ £ Е (к1- х р>)\ (5)

1 к=1 2=1 ] =1

кр кр - 1 к=1 2=1 ] =

Ф р, я,) - расстояние между объектами (признаками) в разных классах по заданной метрике, вычисляется с помощью следующего выражения:

1 1 кп к0

Р £ 1\ , ч

к к £££,(>-1)2• (6)

к Р к=1 2=1 ]=1

Ь(а, {<э£ }) - правило отнесения объекта а>8 к соответствующему классу; е] - индикатор наличия (отсутствия) признака (еj = 1,0); {«} - множество объектов в классе (<эрк , «^).

*2 (®рк ,^гг )=£(х (' - х£)) - заданная метрика. Тогда решение (4) достигается миними-

-=1

зацией (5), максимизацией (6):

(,X] ) шт; £п(х*, X-)^ тах (7)

и реализацией преобразования L(a>, \cog }) ^ a>g gQ k, в соответствии решающего правила:

a>g gQ k, если L(a, {og }) = sup, L(a>, {ai}), (8)

где X = (Xj,..., xn) g X, E = (,..., kj )g K; h, j = - средние значения в кластерах;

d (x,, X j) - расстояние между объектом и центром кластера; d(x h, X j) - расстояние между центрами кластеров; X - множество выборок признаков состояний;

K - множество номеров кластеров; X = (x1v.., xm ) g X, E = (k1v.., kj) g K .

Алгоритмическая реализация решающего правила

1. Полагаем все веса элементов равными нулю.

2. Проводим цикл предъявления примеров. Для каждого примера выполняется следующая процедура:

2.1. Если сеть выдала правильный ответ, то переходим к шагу 2.4.

2.2. Если на выходе персептрона ожидалась единица, а был получен ноль, то веса связей, по которым прошел единичный сигнал, уменьшаем на единицу.

2.3. Если на выходе персептрона ожидался ноль, а была получена единица, то веса связей, по которым прошел единичный сигнал, увеличиваем на единицу.

2.4. Переходим к следующему примеру. Если достигнут конец обучающего множества, то переходим к шагу 3, иначе возвращаемся на шаг 2.1.

3. Если в ходе выполнения второго шага алгоритма хоть один раз выполнялся шаг 2.2 или 2.3 и не произошло зацикливания, то переходим к шагу 2. В противном случае обучение завершено.

При этом правило, реализующее приведение выходной ошибки обучения ко входу каждого фактора, имеет строгое математическое описание [1]. Это крайне важно при адаптации входного вектора факторов к целевому состоянию (вектору индикаторов) объекта, поэтому зафиксируем необходимые аналитические соотношения в обозначениях исходной задачи. Ограничимся архитектурой многослойного персептрона и единичной

обучающей выборкой. Если мы располагаем целевым вектором индикаторов Yzk, то функция невязки примет вид:

1 M

E(W) = — X(У,(а) -y,z)2.

2 i=1

Модификация синаптических коэффициентов осуществляется на основе градиентного метода:

W1+1 = W1 - n gradE(W1).

Компоненты вектора градиента функции невязки рассчитываются согласно выражений, для расчета элементов многослойного персептрона[1]:

1 ML N

E(W) = -X (f (£<> • f (jTw»Xj)) - y= )2

2 i=1 l=0 j=0

Выходы 1 и 2 слоев нейронов определяются из выражений:

N

§1 = / (Ё У xJ)’' =12’-’ Ь;

У=0

N

У, = /(Е • 8,) = /(Е «? • /(Е < ■ Ху)), / = 1, 2,...,М

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

,=0 г=0 у = 0

М Ь 1 М Ь N

л М Ь л М Ь N

Е(Ж)=-г Ё (/(Ё«(2) &1) - у^ )2 = "2 Ё (/(Ёи,'2) • яЁ«^ х )) - у^ )

2 г=1 '=0 2 г=1 '=0 у=0

Соотношения для частных производных функции невязки по весам нейронов выходного слоя имеют вид:

дЕ(Ж) = (у у ) д/(а,(2)) § (2) = Ёи(2) „

~ (2) = (У - У*) ' - (2) ' §1 , где а, = Ё «,' '§' , а

д^(2) да)2) £0

Д2)'

а<2) = (у. - у.).*т

. ^ да. ■

Тогда соответствующий компонент вектора градиента выглядит следующим образом:

дЕ (Ж) = А (2)

М2)

Ь(2) ■&.

Компоненты градиента для весов предпоследнего слоя определяются по методике дифференцирования сложной функции [1]:

дЕ (Ж) =Ё (У _ У ) = Ё (У - У ) д/ (а.21) «(2) д/ (а,(1)) Х

д«-™ Е(У Уе) д§, Эи™ Е(У У“} да'2) " да,11 > /!

Ь(1) ^ ч д/(а.(2)) ,2) д/(а,(1))

где Ь, =£(у. у,г )■ ■«,, ■ да;1)

В компактном виде весовые коэффициенты всего синаптического пространства обученной модели можно представить выражением:

в = ЬГХ,

« ' у.

Анализ приведенных выражений для производных функции ошибки по весам различных слоев сети позволяет получить правило расчета компонентов вектора градиента от функции ошибки по параметрам (весовым коэффициентам) Е (Ж) для любого скрытого слоя нейронной сети:

dE(W)=b (k) x (0) =bi •xj. (9)

где Xj — сигнал на входе в сеть, b,k) — величина погрешности обучения (У, — yiz ) , перенесенная с выхода сети к входу (к ее предыдущим слоям).

Обеспечение временных ограничений

С учетом того, что по условию задачи эти процедуры ограничены во времени, необходимо реализовать технологию, позволяющую удовлетворить временным ограничениям и допустимым ошибкам на тестовом множестве. Максимальную автоматизацию принятия решений обеспечивает разработка библиотеки программ (On-Line System Neural Network), позволяющей моделировать и обучать многослойные нейронные сети анализа исследуемых объектов в режиме реального времени. Обучение нейронных сетей с точки зрения используемого математического аппарата эквивалентно задаче многомерной оптимизации^]. В разряд ограничений отводятся: время работы алгоритма и объем требуемых ресурсов. Предлагается следующая структура мер ускорения принятия решений (рис.1.):

Модели оценки состояния объекта. : П —^ Qj

Модели адаптации входных факторов

К : X -» X

opt

- Применение быстрых алгоритмов общения (СГ. КН. АЛМ)

- Понижение размерности входного вектора, на. основе ФА;

- Отбор входных данных, формирование обличающей выборки:

- Декорреляция входных данных;

- Нормализация распределений данных:

- Стантартизация входного вектора.;

- Адаптивное разделение Еыборки на обучающую и тестовую^;

- Применение нагруженных двойственных моделей метода ОРО;

Рис. 1. - Структура ускоряющих процессов

При такой структуре моделирования процессов или объектов, разрешение проблемы оперативного реагирования при принятии решений, сводится к реализации указанных функций путем создания алгоритмов и программ отображения массива входных данных на состояния и динамику их эволюции под влиянием управляющих факторов с учетов директивного времени. Если эта задача имеет решение, то автоматизированная система (АСППР), оперативно (время принятия решения определяется техническими возможностями вычислителей) идентифицирует состояние объекта, прогнозирует его динамику и определяет управляющие факторы, адекватные целевому (требуемому) состоянию.

Для анализа и моделирования базовых отмеченных процессов целесообразно исследовать возможности пакета технического анализа данных StatSoft с нейросетевым модулем STATISTICA Neural Networks [3]. Тогда синтез моделей реализуется в пространстве процедур ускоряющих адаптацию моделей в границах выбранных дисциплинирующих условий.

Логическим продолжением решаемой задачи является комплексное использование всех доступных ускоряющих процедур из пакета 81ай81;1са [4] с последующим выделением продуктивных нейросетей из всего ансамбля обученных моделей. Так как все описанные процедуры представляют собой относительно самостоятельные процессы, их совместное использование целесообразно представить в виде циклов в общем алгоритме адаптации:

1 Формируем исходные данные. Определяем рабочую и тестовую выборки.

2 Определяем директивное время для рассматриваемой предметной области и до-

пустимые ошибки.

3 Выбираем ЦФ и адаптируем её к нейросетевому формату.

4 Устанавливаем границы возможных изменений элементов входного вектора управляющих факторов.

5 Задаем метод обучения в исходном ансамбле моделей с выбором, архитектуры, сложности, функций активации.

6 Выбираем класс задач и проводим обучение исходных моделей. Фиксируем время решения и ошибки обучения.

7 Сравниваем полученные время и ошибку с директивными для данной задачи

(выбранной предметной области). Если условие соответствия выполнено, то пе-

реход на шаг 11, если нет - 5, а при условии п = Кшах - переходим на шаг 8. Здесь п и Кшах соответственно порядковый номер исходных методов обучения и их максимальное число.

8 Формируем исходные данные для понижения размерности.

9 Проводим факторный анализ, ранжируем входы по информативности, исключаем последний элемент мажоритарного ряда. Переходим на шаг 6 и 7. При выполнении условия соответствия - переход на шаг 11, в противном случае - 9. При условии ш = Мшах - переходим на шаг 10. Здесь ш и Мшах - соответственно, номер исключенного фактора и их максимальное число.

10 При наличии времени переходим к экспертным оценкам и после анализа принимаем их как элементы решения данной задачи.

Оценки вероятности используются непосредственно, так как решается задача отнесения набора признаков объекта исследования к наиболее вероятному классу. Так как задача распознавания рассматривается как в прямой трактовке так и в обратной [5], то необходимо учесть имеющие место особенности при решении обратной задачи или задачи распознавания такого набора факторов, который порождает требуемое состояние объекта исследования.

Особенности подстройки входного вектора к требуемому выходу

Для этого случая метод обратного распространения ошибки применяется для подстройки входного вектора через градиент функции ошибки по входным сигналам сети [6]. В основе решения этой задачи лежит приведение ошибки обучения нейронной сети к входному слою нейронов и расчету частных производных градиента функции ошибки по параметрам нейросети и входным факторам. Метод позволяет вычислять производные выходной функции невязки текущего и требуемого состояний объекта по каждому элементу вектора входных факторов и запоминать их. При обратном функционировании эти, ранее вычисленные производные, участвуют в вычислениях градиента функции ошибки по входным сигналам сети.

Эти процедуры выполняются в комплексной схеме нейроуправления с оценками и сохранением в памяти на один такт производных выходных функций каждого элемента всего синаптического пространства нейросети. Технологию инструментальной реализации этих задач проследим на примере известных способов нейроуправления [7].

Адаптивная система контроллера решает задачу отслеживания и сравнения текущего значения выхода с требуемым, заданным вектором уставки. В схемах нейроуправления функции учителя выполняет контроллер, оценивающий невязку текущего и целевого

состояния объекта исследования и определяющий сигнал управления 2(1). Обучение - согласно алгоритма обратного распространения ошибки, при этом ошибка сети Е * определяется разностью уставки и текущего значения выхода эмулятора.

На рис.2 представлена одна из схем нейроуправления объектом. Нейроэмулятор выполняет функции адаптивной модели управляемого объекта. На его входы поступают текущие и задержанные во времени значения векторов управления 2 (V), 2 (V - 0), 2 (V - 20),... и значения разности между векторами входа и уставки У(V) - и(V), У(V - 0) - и(V - 0),.... Здесь 0

- величина шага задержки. Выходом нейроэмулятора является ожидаемое значение выхода управляемого объекта У*, а также значение вектора ошибки Е для обучения нейроконтролера.

Величина Е * (V) = У (V) - У * (V) представляет вектор ошибки, который используется в алгоритме обучения нейроэмулятора. Ошибка, поступающая в схему контролера поступает сигнал, представляющий отображение ошибки на выходе сети приведенной ко входу нейроэмулятора. Применим каскадную схему двух нейросетей сети, одна из которых имитирует исследуемый объект, а вторая отслеживает и минимизирует интегральную невязку индикаторов текущего и селевого состояний объекта исследования путем формирования соответствующих входных величин [7].

Рис. 2. - Функциональная схема нейроуправления:

У(Х) - текущие значения процесса на выходе; У^-0) - текущие значения процесса задержанные на один такт 9; и(Х) - У(Х) - текущее значение невязки на выходе системы;

2(1) - текущее управляющее воздействие.

Выходом нейроэмулятора являются текущие значения индикаторов состояния модели объекта У*(1).

При обучении НЭ осуществляется модификация синаптического пространства путем подстройки весовых коэффициентов в направлении антиградиента невязки [6]. Таким образом, как в прямой так и в обратной задаче распознавания организация и выполнение обучающих процедур базируется на одних и тех же базових функциях (формирование выборки, описание классов, синтез решающего правила, его реализация, верификация результата). Поэтому качество результатов исследования оценим по степени адекватности нейросетевых моделей и достигнутой при этом производительности.

Моделирование градиентного спуска с оценкой частных производных как по параметрам сети так и по входным сигналам, представляющим пространство признаков текущего состояния объекта, показало устойчивую сходимость итерационного процесса обучения сети с приемлемыми для практических задач показателями качества (Рис.3).

-100 -50 0 50 100 150 200 250 300 350 400 450 500 550 600 650 700

Рис. 3. - График сходимости процесса обучения

Для различных условий моделирования получен ансамбль продуктивных нейросетей, которые могут использоваться в отдельных приложениях на основе их сохранения в формате основного кода.

Результат моделирования распознающего устройства.

В качестве инструмента моделирования использовался модуль Statistika Neural Network пакета технического анализа данных Statistika. Для кластеризации и распознавания состояний объекта исслеждования на основе массива данных формировалась последовательность примеров максимально возможной размерности, формируя словарь признаков. Работа нейросети в режиме кластеризаии позволяет формировать алфавит классов исследуемых объектов на языке этого словаря.

Целевое состояние объекта характеризуется набором значений тех же пространств информативных признаков, которые формируются экспертом предварительно, до начала эксперимента.

Так как каждому классу соответствует свой набор показателей, то процедура классификации объекта свелась к анализу пространства признаков текущего состояния и сравнения результатов анализа с описаниями выбранных классов. В нейросетевом формате задача распознавания классов текущего состояния исследуемого субъекта решлась с использованием известного правил (например, дельта - правила [1]). При наличии двух классов состояний объектов (исправно-неисправно) формирование обучающего множества не вызвало затруднений. Реализована технология моделирования в среде нейроэмуляторов по методике [3,4], что позволило получить ансамбль моделей (Рис.4):

*- ЗГ»- * ' и яяш Д-2.-Л.

• в ВйШСВШЯЫ&^ЪЬ!»« Р .Г.® % й ■■■ * *М SB04 Я i- *■ Л¿.»О»'*®**«»*

Рис. 4. - Результаты моделирования классификатора

Модели на основе радиально-базовых функций в целом подтверждают вывод о реализуемости базовых функций, но мощность обучающей выборки в приведенных примерах не позволила достичь производительности по условию задачи. Это видно из эксперимента на ансамбле РБФ-сетей (рис. 5.,6)..

График обучения

Ошибка •О.1 •О.2 •К.2

Рис.5. - График обучения модели (Вариант 1)

-100 -50 0 50 100 150 200 250 300 350 400 450 500 550 600 650 700

Ошибка

----О.1

-К.1

Рис.6. - График обучения модели (Вариант 2)

Производительность моделей (характер динамики обучения) имеет устойчивый вид асимптотических кривых, зависимых от репрезентативности (представительности) обучающего множества (Варианты 1,2), что позволяет улучшать модели при пополнении базы данных.

Как видно из графиков, применение представленной технологии, сокращает время адаптации нейросетевых моделей исследуемых процессов при сохранении их адекватности в допустимых границах и позволило получить устойчивую сходимость итерационного процесса модификации синаптического пространства. Число эпох не превышает нескольких сотен, что в пересчете на общие временные затраты соответствует нескольким десяткам секунд. Массивы привлеченных данных не только из технической области, но и из экономики, медицины позволяют эти временные интервалы привести в соответствие с диррективным временем принятия решений для этих предметных областей и подчеркнуть инвариантность технологии к типам входных данных.

Следует учесть также, что показатели производительности моделей зависят одновременно от мощности обучающей выборки, сложности сети, её типа и архитектуры.

Таким образом, получено теоретическое и практическое подтверждение вывода о возможности решения поставленной задачи в реальном времени при сохранении адекватности моделей в заданных границах и корректных допущениях.

Заключение

1. Нейросетевой базис для построения однородных подмножеств, как классов состояний объектов на языке их информативных признаков, позволяет автоматизировать реализацию базовые функций распознавания: формирование словаря признаков и алфавита классов, реализацию решающего правила, и адаптацию входов в режиме реального (директивного) времени.

2. Инструментальная продуктивная автоматизация базовых функций распознавания возможна и целесообразна с применение стандартных нейроэмуляторов существующих и перспективных пакетов технического анализа данных.

3. Адекватность и надежность моделей реализуемых процессов установлена на основе анализа ошибок на тестовом множестве данных, не принимающего участия в обучении, что обеспечивает состоятельность сделанных выводов.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Литература

1. Хайкин, С. Нейронные сети: полный курс; пер. с англ. / С. Хайкин ; 2-е изд. - М.

: Издательский дом «Вильямс», 2006. - С. 1104.

2. Горбань, А.Н. Обучение нейронных сетей / А.Н. Горбань. - М. : Изд-во СССР-США СП «ParaGraph», 1990. - С. 160.

3. Боровиков, В.П. STATISTICA NN : техническое описание / В.П. Боровиков. -М.: Мир, 1999. - С. 239.

4. Алёшин С.П. Ситуационные центры быстрого реагирования: принятие решений в среде нейроэмуляторов / С.П. Алёшин // Системы управления, навигации и связи -2011. - № 1 (17). - С. 240 - 247.

5. Ляхов А. Л., Алёшин С.П., Бородина Е.А. Нейросетевая модификация текущего пространства признаков к целевому множеству классов. 11- Міжнародна науково-практична конференція « Нейросітьові технології і їх застосування »: Зб. наук. праць / под ред. проф. С. В. Ковалевского. - Краматорск: ДДМА - 2012. - С. 93 - 99.

6. Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере // Новосибирск: Наука, 1996.- 276 с.

7. Терехов В.А., Ефимов Д.В., Тюкин И.Ю. Нейросетевые системы управления: Учеб. пособие для вузов. - М.: Высш. школа 2002. - 183 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.