Научная статья на тему 'Моделирование и прогноз обобщенных нелинейных показателей качества элементов интегрированных систем безопасности'

Моделирование и прогноз обобщенных нелинейных показателей качества элементов интегрированных систем безопасности Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
90
20
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
MULTICOLLINEARITY OF REFERENCE DATA / NEURAL NETWORK TRAINING / INVERSE EXAMINATION TASK / WEIGHTING COEFFICIENTS / МУЛЬТИКОЛЛИНЕАРНОСТЬ РЕФЕРЕНТНЫХ ДАННЫХ / ОБУЧЕНИЕ НЕЙРОННОЙ СЕТИ / ОБРАТНАЯ ЗАДАЧА ЭКСПЕРТИЗЫ / ВЕСОВЫЕ КОЭФФИЦИЕНТЫ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Ахлюстин Сергей Борисович, Мельников Александр Владимирович, Черников Дмитрий Николаевич.

В работе рассматривается пространство признаков технического объекта, вводятся формы нелинейного или нечетко-множественного обобщенного показателя качества элементов интегрированных систем безопасности. Предложены однослойные и двухслойные нейронные сети формирования упомянутых показателей. Сформулированы прямая и обратная задачи экспертизы.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Ахлюстин Сергей Борисович, Мельников Александр Владимирович, Черников Дмитрий Николаевич.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

MODELING AND FORECAST OF GENERALIZED NONLINEAR INDICATORS OF QUALITY OF ELEMENTS OF INTEGRATED SECURITY SYSTEMS

The paper considers the space of features of a technical object, introduces the forms of a nonlinear or fuzzy-multiple generalized quality indicator of elements of integrated security systems. Single-layer and two-layer neural networks for the formation of these indicators are proposed. The direct and inverse problems of examination are formulated.

Текст научной работы на тему «Моделирование и прогноз обобщенных нелинейных показателей качества элементов интегрированных систем безопасности»

С. Б. Ахлюстин А. В. Мельников, Д. Н. Черников

доктор технических наук, доцент

МОДЕЛИРОВАНИЕ И ПРОГНОЗ ОБОБЩЕННЫХ НЕЛИНЕЙНЫХ ПОКАЗАТЕЛЕЙ КАЧЕСТВА ЭЛЕМЕНТОВ ИНТЕГРИРОВАННЫХ

СИСТЕМ БЕЗОПАСНОСТИ

MODELING AND FORECAST OF GENERALIZED NONLINEAR INDICATORS OF QUALITY OF ELEMENTS OF INTEGRATED

SECURITY SYSTEMS

В работе рассматривается пространство признаков технического объекта, вводятся формы нелинейного или нечетко-множественного обобщенного показателя качества элементов интегрированных систем безопасности. Предложены однослойные и двухслойные нейронные сети формирования упомянутых показателей. Сформулированы прямая и обратная задачи экспертизы.

The paper considers the space of features of a technical object, introduces the forms of a nonlinear or fuzzy-multiple generalized quality indicator of elements of integrated security systems. Single-layer and two-layer neural networks for the formation of these indicators are proposed. The direct and inverse problems of examination are formulated.

Введение. Для преодоления проблемы мультиколлинеарности референтных данных X при прогнозировании новых технических средств охраны (ТСО), входящих в состав интегрированных систем безопасности (ИСБ), представляется перспективным использование методов нейронных сетей [5, 6]. При обучении (калибровке) модели нейронной сетью осуществляется настройка весов wi по критерию минимума функционала

ошибок, как правило, градиентными методами. Однако эти методы сравнительно медленно работают и требуют большого числа итераций. Поэтому далее для настройки модели предложим альтернативный подход.

Целью работы является разработка методики обучения нейронной сети с линейной и нелинейной функциями активации для прогнозирования новых технических средств охраны (ТСО), входящих в состав интегрированных систем безопасности.

Формирование референтных данных. Примем следующее предположение, обычно применяющееся в теории кластерного анализа [3]: каждый I -й объект экспертизы (I = 1,2,..к) отождествляется с характеристческим вектором его признаков

Х1 = (х/1 ,Х12,...,Х1т )■ (!)

При совместном представлении данных экспертизы нескольких объектов их характеристические векторы образуют факторное пространство X , обычно представляемое матрицей

X =

11 21

12 22

X X

1т 2т

X

к1

Хг

1к 2 ...... Хкт

которую часто называют референтной (эталонной) матрицей [8]. Понятие референтной группы было впервые предложено в психологии Хаймоном (Нутоп) как группы субъектов, с которой отдельный индивид сравнивает свое поведение. Точно так же и в нашей задаче мы будем оценивать обобщенный показатель качества J нового объекта экспертизы по сравнению с рассчитанными ранее показателями нескольких уже известных объектов. В целом при одновременном рассмотрении нескольких известных объектов получим систему уравнений

Л = V1Х11 + ^ Х12 + •••+ ^Х1т ;

(2)

J 2 = VХ21 + VХ 22 ^ ••• ^ ^т Х'.

т 2т

(3)

J,

К Хк1 + КХ к2 ^ ••• ^ ^тХкт'

Зачастую возникает следующая ситуация: для некоторого исходного набора приборов (образцов) известны: а) матрица референтных данных X; б) рассчитанный ранее вектор обобщенных показателей качества J. Требуется на основе этих данных оценить (прогнозировать) показатель качества нового прибора. Однако вектор весовых коэффициентов V для уравнения (3) неизвестен, и это фактически означает, что мы не знаем ни состава использованной ранее экспертной группы, ни логики ее поведения и оценок. В этом случае задача сводится к решению уравнений множественной линейной регрессии.

Тогда для к объектов (образцов), обладающих т характеристиками (признаками), в случае выбора детерминированных показателей качества к линейных уравнений (3) могут быть записаны в матричном виде

" " Х11 Х12 ••• ••• Х1т Г ^

Х21 Х22... ••• Х2т V2 Р 2

= +

Л _ _Хк1 Хк2 ••• ••• Хкт _ _Ут _ Р V т /

где Ji — обобщенный показатель для /-го образца, Xj — значение j-го признака для

l-го образца, V — весовой коэффициент, ei — случайная ошибка экспертизы.

Как видим, уравнения (4) совпадают с уравнениями линейной множественной регрессии [4]. Отсюда возникает задача многомерной калибровки, рассмотрению которой посвящены труды многих отечественных и зарубежных авторов: (С. А. Айвазян [1], Я. Р. Магнус [4], С. Хайкин [6], К. Эсбенсен [8] и др.).

При решении прямой задачи экспертизы вектор обобщенных показателей качества J группы сравниваемых объектов определяется на основе задания матрицы референтных данных X и вектора весовых коэффициентов V, т.е. имеет место отображение

{X,V }^{J }.

При решении обратной задачи экспертизы исходными данными являются референтные данные X, J, определенные по группе известных (тестовых) объектов. Целью экспертизы является оценка (прогнозирование) обобщенных показателей качества J новых образцов, не входивших в упомянутую группу

{X,J}, {xpr,V}^{lpr } (5)

В качестве примера технических объектов выберем технические средства охраны, представленные в работах [2, 7].

Вектор обобщенного показателя качества для 6 образцов ТСО:

J = (0.321 0.588 0.619 0.736 0.882 0.459)Т . (6)

Вектор нормированного стоимостного признака (функция обратной цены) P получается делением минимальной стоимости по 6 образцам 3650 руб. (для 1-го образца) на стоимость конкретных образцов и равен

P =(1,000 0,938 0,924 0,851 0,243 0,784)Т. (7)

Вектор комплексного показателя качество-цена Jcomp, учитывающий как влияние

количественных, наличия качественных признаков, так и функцию обратной цены P, рассчитывается по формуле (3) и равен

Jcomp = (0,547 0,705 0,720 0,774 0,669 0,567)Т (8)

для случая V /V = 2, т.е. при выборе соотношения между качеством и ценой 1 : 0,5.

В задачах экспертизы весьма большое значение имеет визуализация полученных

численных результатов [9]. Представим графически рассчитанные показатели (J, P)

для рассмотренных образцов (рис. 1). Как видим, показатели большинства образцов образуют единую группу (кластер). Обособленными являются образцы 1 и 5: первый — в

силу наименьшего значения обобщенного показателя качества J, а пятый — вследствие очень высокой цены (функция обратной цены P имеет наименьшее значение 0,243).

Рис. 1. Значения показателей J, P для сравниваемых образцов

Обратная задача экспертизы. Решение обратной задачи экспертизы получим на основе обучения нейронной сети по 6 известным образцам.

Сформируем вначале двухслойную нейронную сеть прямой передачи сигнала с обратным распространением ошибки (feed-forward backprop), воспользовавшись средством GUI (Graphical User Interface) пакета nntool вычислительной среды MATLAB

1 2

(рис. 2). Здесь первый слой — скрытый (hidden), второй слой — выходной (output); W '

г.1,2

— матрицы весов первого и второго слоя; b — постоянные сигналов смещений первого и второго слоя.

Предложенная нелинейная форма показателя J

m m

J=f( Xv x,/ XV)

i=1 i=1

имеет преимущество по сравнению с альтернативным нелинейным показателем для к образцов

m m

J = (XvfJxt)/( Xv.), i=1 i=1

поскольку в последнем выражении определяются функции принадлежности множеству допустимых значений для каждого из признаков xt раздельно. Поэтому вычисленные значения Хг могут попасть в соответствующие мертвые зоны и информация о них будет безвозвратно потеряна. Для предложенного варианта обобщенного показателя такая ситуация исключена.

Другим преимуществом является то, что как на этапе калибровки модели, так и на этапе прогнозирования обобщенного показателя качества нового образца можно использовать нейронную сеть с линейными функциями активации в обоих слоях, а затем применять логистическую нелинейную функцию к полученным значениям показателей.

Поэтому, как показано на рисунке 2, в обоих слоях выбраны линейные функции активации purelin.

Рис. 2. Символическая схема двухслойной нейронной сети

Сформируем референтные данные для прогнозирования обобщенного показателя качества J по шести рассмотренным образцам

X =

' 0,407 0 0,586 > ' 0,321^

0,407 1 0,677 0,588

0,426 1 0,855 ; J = 0,619

0,649 1 0,615 0,736

1,000 0,7 0,615 0,882

v 0,631 0 0,543у v0,459,

(9)

где для расчета референтной матрицы X и показателя J был использован вектор весовых коэффициентов [7].

Для прогнозирования комплексного показателя «качество-цена» /остр по шести рассмотренным образцам референтные данные расширяются за счет введения элементов вектора обратной цены Р :

X =

0,407 0,426 0,649

0,677 0,938 0,855 0,924 0,615 0,851

1,000 0,7 0,615 0,243 0,631 0 0,543 0,720

'0,547Л

0,705

• J = 0,720

' comp 0,774

0,669

v0,567,

(10)

где для формирования вектора ^ использован вектор весов, расширенный весовым

коэффициентом 0,5 для функции обратной цены

V_ = (0,637 0,258 0,105 0,5)г

comp

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

и нормированный согласно выражению (3) делением на сумму V + V , равную 1,5, или окончательно

Vcomp =(0,425 0,172 0,070 0,333)г. (11)

Рассмотрим далее прогнозирование обобщенного показателя качества J, используя референтные данные (9). После 7 шагов обучения квадрат среднеквадратиче-ской погрешности калибровки модели (performance)

m

квадрат СКО = — ¿(б Ji )2 (12)

mi=1

снижается до пренебрежимо малой величины 1,28 • 10 - . При этом градиент принимает

значение 5,09 • 10-1 , а коэффициент детерминации R = 0,99996 (см. рис. 3).

Оценка обобщенных показателей J после настройки весовых коэффициентов и смещений нейронов

~ = (0.3215 0.5927 0.6236 0.7388 0.8818 0.4583)т. (13)

Веса и смещения нейронной сети:

т11 = [-1,0802 - 0,7549 - 0,0957], Ш21 =-0,6174, Ь = 1,0228, Ь 2 = 0,8092.

(14)

Рис. 3. Качество обучения двухслойной нейронной сети

Оценим обобщенный показатель качества J T нового тестового прибора с помощью процедуры моделирования sim пакета nntool в MATLAB. Характеристический вектор X T этого прибора имеет вид

Xr =(0,610 0 0,543f. (15)

С учетом выражения (15) вычислим значение показателя

J = Xr -V = 0,446. (16)

Сравнивая прогнозируемое в результате применения процедуры sim значение Jr = 0,445 с точным значением (16), убедимся, что относительная ошибка предсказания обобщенного показателя качества тестового образца 5j = 0,00224, или значительно менее 1%.

Рассмотренная нейронная сеть networkl была создана в редакторе GUI пакета nntool языка MATLAB. Экспортируем ее в область команд и применим к полученным

выходным данным логистическую функцию активации log sigj жсш), где использовано масштабирование аргумента J жсш = 10J - 5. Сравним полученные результаты с формулами (10), (14), полученными при использовании линейной функции активации (табл. 1).

Таблица 1

Оценка показателя J при линейной и логистической функциях активации

Образец 1 2 3 4 5 6 7

Линейная 0,3215 0,5927 0,6236 0,7388 0,8818 0,4583 0,4450

Логистическая 0,1437 0,7165 0,7749 0,9159 0,9785 0,3972 0,3682

Как видим, логистическое преобразование позволяет получить для экспертизы более уверенные выводы. Так, показатель J первого образца попадает в двадцатипроцентную «мертвую зону» (неудовлетворительные объекты), а показатели 4, 5 образцов отнесены к «области насыщения» ( J >0,8) — предпочтительные объекты.

Метод обучения нейронной сети с линейной и нелинейной функциями активации. Поскольку при решении прямой задачи экспертизы использовалось двухэтапное разделение весов на групповые и парциальные, естественным для решения обратной задачи является также применение двухслойной линейной сети.

Сформируем двухслойную нейронную сеть прямой передачи сигнала с обратным распространением ошибки (feed-forward backprop) в среде MATLAB (рис. 4).

Рис. 4. Структурная схема двухслойной нейронной сети

1 2

Первый слой — скрытый (hidden), второй слой — выходной (output); W ' — мат-

7,1,2

рицы весов первого и второго слоя; b — постоянные сигналов смещений первого и второго слоя. Параметры сети: 4 — размерность вектора входа, 1 — наличие одного нейрона в скрытом и выходном слоях. Выбраны линейные функции активации purelin. На вход сети подаются данные X, а в качестве вектора цели выбран вектор показателей J .

После окончания процедуры обучения веса и смещения нейронов сети в обозначениях, принятых в nntool, примут вид

w{1,1} = [0,2533 0,7554 0,7701 - 0,7115];

(17)

lw{2,1} = [0,4545]; b{1} = [0,7816]; b{2} = [-0,2037].

Качество калибровки регрессионной модели характеризуется степенью близости коэффициента детерминации R2 к единице [4]. Как видим (рис. 5) , величина R2 = 0,952 достаточно близка к единице.

All: R=0.97574

0.55 0.6 0.65 0.7 0.75 Target

Рис. 5. Соответствие выходов нейронной сети целевым значениям

обобщенного показателя

На этом рисунке круглые точки соответствуют трем исследуемым образцам. Пунктирная прямая отражает идеальный случай полного совпадения выходов нейронной

сети Jг (outputs) после калибровки с расчетными значениями Ji (target), а сплошная прямая (fit) характеризует степень реального их соответствия.

Приведем величины выходов Jг нейронной сети для каждого из объектов экспертизы с указанием относительной погрешности калибровки 5г:

J = 0,5472, S = 3,65 -104; J2 = 0,7393, Sl= 4,86 -10~2;

J = 0,7545, S = -2,51-10-2. (18)

Для прогнозирования обобщенного показателя нового образца воспользуемся встроенной процедурой simulate пакета nntool для характеристического вектора

= (0,426 1,000 0,855 0,924)T,

определенного формулой (9), и получим оценку

Jrest = 0,9073, 5Test = 2,60 -10-1. (19)

При сравнении Jrasi = 0,907 с точным значением J = 0,720 — относительная

ошибка предсказания обобщенного показателя нового ТСО составляет 26%.

Нелинейные функции активации. Как мы убедились, использование двухслойной нейронной сети прямой передачи сигнала с обратным распространением ошибки (^feed-forward backprop) на основе средства GUI (Graphical User Interface) пакета nntool вычислительной среды MATLAB позволяет снять проблему мультиколлинеарности входных данных, однако приводит к значительной ошибке прогнозирования обобщенного показателя J нового объекта.

Поэтому перейдем к введению нелинейных функций активации во втором слое нейронной сети feed-forward backprop. Рассмотрим последовательно два вида функций активации:

1) гиперболическую тангенциальную функцию.

2) логистическую функцию.

1. Гиперболическая тангенциальная функция активации. Такая функция tansig приближенно описывается выражением [5. — С. 276]

tan sig( J ) =

2

1 = е"

■-1,

(20)

а ее график изображен на рис. 6.

Рис. 6. Гиперболическая тангенциальная функция активации

Воспользовавшись средством GU1 программы Matlab, выполним действия по калибровке нейронной сети и получим следующие оценки обобщенных показателей различных образцов:

J = 0,6049, Sl = 1,05 -10-1 J = 0,7132, Sl= 1,16 •Ш-2;

J = 0,5478, Sx = -2,92 •10=1. (21)

Для прогнозирования обобщенного показателя нового образца воспользуемся встроенной процедурой simulate пакета nntool для характеристического вектора XTest, определенного формулой (9), и получим оценку

Jrest = 0,7739, STest = 7,48 •Ю-2. (22)

Сравнивая полученное значение Jrasi = 0,7739 с точным значением J = 0,720,

убедимся, что относительная ошибка предсказания обобщенного показателя новой видеокамеры 7,48 %. Заметим, что точность прогноза нейронного моделирования при нелинейной функции активации tansig во втором слое нейронной сети оказалась значительно выше, чем при использовании линейной функции активации purelin.

2. Логистическая функция активации. Функция logsig приближенно описывается выражением [5. — С. 295]

log sig (J) = , (23)

1 + e J

а ее график изображен на рис. 4.

Воспользовавшись средством GU1 программы Matlab, выполним действия по калибровке нейронной сети и получим следующие оценки обобщенных показателей различных образцов:

1

J = 0,6917, 51= 2,64 -10:1;

J2 = 0,7274, ^ = 3,17 -10 ; ^ 1 J = 0,6607, Ъ,=: 1,46 -10=1. (24)

Лмкппгнм

1 - Г—!

р....

1

1 _i — J , . .. 1_ _ »- ___1

Рис. 4. Логистическая функция активации

Для прогнозирования обобщенного показателя нового образца воспользуемся встроенной процедурой simulate пакета nntool для характеристического вектора XTest, определенного формулой (9), и получим оценку

JTeSt = 0,7738, STest = 7,47 -102. (25)

Заключение. Сравнивая полученное значение J Test = 0,7738 с точным значением J = 0,720, убедимся, что относительная ошибка предсказания обобщенного показателя новой видеокамеры не превышает 7,5%. Заметим, что точность прогноза нейронного моделирования при нелинейной функции активации logsig во втором слое нейронной сети также оказалась значительно выше, чем при использовании линейной функции активации purelin.

В целом, при численном моделировании методом обучения выявлены следующие особенности: значительный разброс весов и смещений нейронной сети, неоднозначность

решения за счет выбора случайных начальных условий, сильная зависимость от алгоритма обучения.

ЛИТЕРАТУРА

1. Прикладная статистика. Классификация и снижение размерности / С. А. Айвазян [и др.]. — М. : Финансы и статистика, 1989. — 607 с.

2. Ахлюстин С. Б., Мельников А. В. Определение частного критерия интегрированной системы безопасности симметричным методом анализа иерархий // Вестник Воронежского института МВД России. — 2018. — № 2 — С. 37—44.

3. Жамбю М. Иерархический кластер-анализ и соответствия : пер. с франц. — М. : Финансы и статистика, 1988. — 345 с.

4. Магнус Я. Р., Катышев П. К., Пересецкий А. А. Эконометрика. — М. : Дело, 1997. — 248 с.

5. Медведев В. С., Потемкин В. Г. Нейронные сети. Matlab 6. — М. : ДИАЛОГ

— МИФИ, 2002. — 496 с.

6. Хайкин С. Нейронные сети : полный курс : пер. с англ. — 2-е изд. — М . — СПб. — Киев : Вильямс, 2006. — 1104 с.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

7. Бухарин С. В., Мельников А. В., Черников Д. Н. Предварительная кластеризация средств видеонаблюдения на основе нелинейного и нечетко-множественного показателей качества // Вестник Воронежского института МВД России. — 2018. — № 3. — С. 23—34.

8. Эсбенсен К. Анализ многомерных данных. Избранные главы : пер. с англ. / под ред. О. Е. Родионовой. — Черноголовка : Изд-во ИПХФ РАН, 2005. — 160 с.

9. Graphical methods for data analysis / J. Chambers [et al.]. — Belmont, СА : Wadsworth, 1983. — 415 p.

REFERENCES

1. Prikladnaya statistika. Klassifikatsiya i snizhenie razmernosti / S. A. Ayvazyan [i dr.].

— M.: Finansyi i statistika, 1989. — 607 s.

2. Ahlyustin S. B., Melnikov A. V. Opredelenie chastnogo kriteriya integrirovannoy sistemyi bezopasnosti simmetrichnyim metodom analiza ierarhiy // Vestnik Voronezhskogo in-stituta MVD Rossii. — 2018. — # 2 — S. 37—44.

3. Zhambyu M. Ierarhicheskiy klaster-analiz i sootvetstviya : per. s frants. — M. : Finansyi i statistika, 1988. — 345 s.

4. Magnus Ya. R., Katyishev P. K., Peresetskiy A. A. Ekonometrika . — M. : Delo, 1997. — 248 s.

5. Medvedev V. S., Potemkin V. G. Neyronnyie seti. Matlab 6. — M. : DIALOG — MIFI, 2002. — 496 s.

6. Haykin S. Neyronnyie seti : polnyiy kurs : per. s angl. — 2-e izd. — M . — SPb. — Kiev : Vilyams, 2006. — 1104 s.

7. Buharin S. V., Melnikov A. V., Chernikov D. N. Predvaritelnaya klasterizatsiya sredstv videonablyudeniya na osnove nelineynogo i nechetko-mnozhestvennogo pokazateley kachestva // Vestnik Voronezhskogo instituta MVD Rossii. — 2018. — # 3. — S. 23—34.

8. Esbensen K. Analiz mnogomernyih dannyih. Izbrannyie glavyi : per. s angl. / pod red. O.E. Rodionovoy. — Chernogolovka : Izd-vo IPHF RAN, 2005. — 160 s.

9. Graphical methods for data analysis / J. Chambers [et al.]. — Belmont, SA : Wadsworth, 1983. — 415 p

СВЕДЕНИЯ ОБ АВТОРАХ

Ахлюстин Сергей Борисович. Старший преподаватель кафедры радиотехнических систем и комплексов охранного мониторинга.

Воронежский институт МВД России. E-mail: cerg7676@yandex.ru

Россия, 394065, г. Воронеж, проспект Патриотов, 53. Тел. (473) 200-52-04.

Мельников Александр Владимирович. Профессор кафедры математики и моделирования систем. Доктор технических наук, доцент.

Воронежский институт МВД России. E-mail: meln78@mail.ru

Россия, 394065, г. Воронеж, проспект Патриотов, 53. Тел. (473) 200-52-13.

Черников Дмитрий Николаевич. Преподаватель кафедры тактико -специальной подготовки. Воронежский институт МВД России. E-mail: nadezhda31.l2@mail.ru

Россия, 394065, Воронеж, проспект Патриотов, 53. Тел. +7-920-434-52-08.

Akhlyustin Sergey Borisovich. Senior lecturer of the chair of Electronic Systems and Complexes of Security Monitoring.

Voronezh Institute of the Ministry of the Interior of Russia. E-mail: cerg7676@yandex.ru

Work address: Russia, 394065, Voronezh, Prospect Patriotov, 53. Tel. (473) 200-52-04.

Melnikov Alexander Vladimirovich. Professor of the chair of Mathematics and Systems Modeling. Doctor of Technical Sciences, Associate Professor. Voronezh Institute of the Ministry of the Interior of Russia. E-mail: meln78@mail.ru

Work address: Russia, 394065, Voronezh, Prospect Patriotov, 53. Tel. (473) 200-52-13.

Chernikov Dmitry Nikolaevich. Lecturer of the chair of Tactical and Special Training. Voronezh Institute of the Ministry of the Interior of Russia. E-mail: nadezhda31. 12@mail.ru

Work address: Russia, 394065, Voronezh, Prospect Patriots, 53. Tel. +7-920-434-52-08.

Ключевые слова: мультиколлинеарность референтных данных; обучение нейронной сети; обратная задача экспертизы; весовые коэффициенты.

Keywords: multicollinearity of reference data; neural network training; inverse examination task; weighting coefficients.

УДК 004.94

i Надоели баннеры? Вы всегда можете отключить рекламу.