УДК 623.09
DOI: 10.24412/2071-6168-2021-8-147-149
ПРЕОБРАЗОВАНИЕ КАРЬЮНЕНА-ЛЁВЕ В НЕЙРОСЕТЕВЫХ АЛГОРИТМАХ
РАСПОЗНАВАНИЯ ЦЕЛЕЙ
АС. Посохов
Рассмотрен метод преобразования Карьюнена-Лёве в нейросетевых алгоритмах распознавания целей. В основу распознавания положены искусственные нейронные сети - являются распространенным средством решения задачи распознавания образов, к которым, безусловно, относится задача распознавания целей в РСА. Фактически нейронные сети являются способом построения классификатора. Основным достоинством и преимуществом искусственных нейронных сетей является их адаптивность (обучаемость).
Ключевые слова: статистический метод, искусственные нейронные сети, нейрон, алгоритм, адаптивность, цель.
Анализ главных компонентов (РСА) - это статистический метод, определяющий линейное преобразование 'y^W%. Оно трансформирует описание стационарного стохастического процесса, представленного вектором xeRN, в вектор YeRK посредством матрицы WeRKxN при таким образом, что выходное пространство редуцированного размера сохраняет наиболее важную информацию об исходном процессе. Другими словами, преобразование по методу РСА позволяет заменить большое количество информации, основанной на взаимно коррелирующих входных данных, множеством статистически независимых компонентов с учетом их важности. Поэтому оно считается одной из форм компрессии с потерей информации, известной в теории связи как преобразование Карьюнена-Лёве [4, 5].
Искусственные нейронные сети (ИНС) являются распространенным средством решения задачи распознавания образов, к которым, безусловно, относится задача распознавания целей в РСА. Фактически нейронные сети являются способом построения классификатора. Основным достоинством и преимуществом ИНС является их адаптивность (обучаемость).
Задачу классификации цели по признакам распознавания можно интерпретировать как задачу разбиения пространства признаков на области, соответствующие классам. В байесовском алгоритме это разбиение осуществляется в соответствии с правилом которое определяет разделяющую функцию в пространстве признаков
а (X) = - det(K, + ед - (X - M, / (K, + N01 )-1 (X - M,). (1)
Для задания этой разделяющей функции необходимо владеть полной информацией о статистике признаков (которая для нормального распределения ограничивается моментами второго порядком). Ключевой особенностью ИНС является то, что формирование разделяющей функции производится методом обучения, то есть на основе "примеров" с известными классами - обучающих выборок.
Простейшим типом ИНС является перцептрон Розенблатта. Это многослойная нейронная сеть, структура которой показана на рисунке (в данном случае слоя три). Из построения ИНС видно, что количество нейронов входного слоя равно количеству подаваемых на нее параметров распознавания, а число выходных нейронов равно числу классов распознавания [1].
Элементами ИНС являются так называемые искусственные нейроны (ИН). ИН осуществляет преобразование входных сигналов в соответствии с выражением
(N1 Л
|1>« "Ь / («Г )■ (2)
V У
Известия ТулГУ. Технические науки. 2021. Вып. 8
где у' - выход у'-того нейрона L-того слоя; wL^j - весовой множитель связи между /-тым нейроном слоя Ь иу'-тым нейроном предыдущего слоя; / - пороговая функция, обычно с мягким ограничением (используются чаще всего сигмоидная функция и гиперболический тангенс) [2, 3].
Структура перцептрона Розенблатта Нейрон, таким образом, реализует линейную разделяющую функцию вида
а (X) = wг х, (3)
где X - вектор входных данных, W - вектор весов.
Обучение ИНС представляет собой подбор весовых множителей нейронов w, формирующих требуемого вида разделяющую функцию. Базовым алгоритмом обучения ИНС является так называемый алгоритм обратного распространения ошибки. Этот алгоритм основан на минимизации ошибки между выходом ИНС и желаемым выходом (на вход при этом подаются сигналы, для которых желаемые выходы известны). Функция ошибки имеет соответственно вид
Е = - УЬ )2, (4)
где ёЬ - требуемый выход нейрона.
Минимизация этой функции достигается изменением весов. Наиболее часто это изменение осуществляется методом градиентного спуска. В соответствии с этим методом веса нейронов изменяются следующим образом
ёЕ ( wL )
(к+1)=wL (к)-м-^г-, (5)
У
где м - некоторый коэффициент, определяющий скорость спуска, к - номер шага итерации. Входящая в выражение производная определяется следующим образом
ёЕ 2 ёЕ ёиЬ (к)
dw. du. (k) dw.
У , v ' ,j . (6)
d N"
= -2Sf (k) —. X wtyLm\k) = -2Sf(k) y.-1(k)
dWj m=l
Таким образом, веса нейронов обновляются в соответствии с выражением
w. (k +1) = w. (k) - 2MS. (k)y.-1 (k) . (7)
Входящая в выражения ошибка S. (k) может быть представлена в следующем
виде
S (k) = X dE duLm+1(k) =
du.(k) m=1 duLm+1(k) dum(k) NL Г d N^ ] . (8)
=X F(k) dum V-f ti(k) >1=
N.
=f'(u. (k) )ss+i(k )wm,(k)
m=1
148
Ошибка может быть определена по результатом первой итерации только для выходных нейронов в соответствии с
ражением (9), характеризующим алгоритм обратного распространения ошибки.
Известно, что трехслойный перцептрон может аппроксимировать разделяющую функцию произвольного вида при надлежащем числе нейронов (внутреннего слоя).
1. Седельников В.С., Степанов А.В., Шахпаронов В.М. Применение нейронных сетей для анализа случайных сигналов/Материалы докладов научно-технического семинара «Шумовые и деградационные процессы в полупроводниковых приборах (Метрология, диагностика, технология)», (Москва, 9-11 декабря 2003) -М МНТОРЭС им. А. С. Попова, МЭИ, 2004. С. 178-182.
2. Седельников В.С, Чересов Ю И Моделирование распознавания наземных объектов с использованием гибридной нейросети по данным бортовой РЛС с синтезированной апертурой, статья//Вестник МАРТИТ, в 15(35), 2006.
3. Чересов Ю.И., Седельников В.С. Применение символьно-продукционных технологий при распознавании образов и реализации распределенных экспертных систем реального времени, статья// Вестник МАРТИТ, в 16(38), 2006.
4. Diamantaras К., Kung S. Principal component neural networks, theory and applications. N.Y.: Wiley, 2006.
5. Kung S.Y. Digital neural networks. - New Jersey: Prentice Hall, Englewood Cliffs,
Посохов Алексей Сергеевич, канд. техн. наук, заместитель начальника, [email protected], Россия, Тула, ГОУДПО «УМЦГОЧС ТО»
KARUNEN-LEV TRANSFORMATION IN NEURAL NETWORK ALGORITHMS FOR
TARGET RECOGNITION
The method of Karunen-Loev transformation in neural network algorithms for target recognition is considered. The recognition is based on artificial neural networks - they are a common means of solving the problem of pattern recognition, which, of course, includes the task of recognizing targets in RSA. In fact, neural networks are a way to build a classifier. The main advantage and advantage of artificial neural networks is their adaptability (learning ability).
Key words: statistical method, artificial neural networks, neuron, algorithm, adap-tivity, goal.
Alexey Sergeyevich Posokhov, candidate of technical sciences, senior researcher, [email protected], Russia, Tula, GOUDPO «UMTS GOChS TO»
Список литературы
2003.
A.S. Posokhov