С.В. Бухарин,
доктор технических наук, профессор,
Воронежский государственный университет инженерных технологий
А.В. Мельников,
кандидат технических наук
В.В. Навоев,
кандидат технических наук, Управление вневедомственной охраны ГУ МВД России по Свердловской области
ПРОГНОЗИРОВАНИЕ ОБОБЩЕННОГО ПОКАЗАТЕЛЯ КАЧЕСТВА ПРИБОРОВ ОХРАНЫ НА ОСНОВЕ ГРЕБНЕВОЙ
РЕГРЕССИИ И НЕЙРОННОГО МОДЕЛИРОВАНИЯ
FORECASTING OF THE GENERALIZED QUALITY INDEX OF ADDRESSABLE CONTROL ALARM ON THE BASIS OF RIDGE
REGRESSION AND NEURAL MODELLING
Рассматривается многомерная калибровочная модель обобщенного показателя качества приборов охраны. Обсуждаются проблема мультиколлинеарности данных и способы ее преодоления. Для предсказания значений показателя нового прибора используются методы гребневой регрессии и нейронного моделирования.
The multidimensional calibration model of the generalized quality index of the addressable control andfire alarm is considered. The problem of a multicollinearity of data and ways of its overcoming is discussed. For a prediction of values of an indicator of the new device methods of ridge regression and neural modelling are used.
. Актуальной задачей является выбор наиболее качественных технических средств охранно-пожарной сигнализации, удовлетворяющих одновременно требованию приемлемости цены. Научно обоснованный подход к решению этой задачи заключается в использовании методов теории экспертных систем. В частности, представляется целесообразным введение комплексного показателя «качество-цена», учитывающего наиболее важные характеристики объекта экспертизы. Одновременное рассмотрение данных нескольких приборов приемно-контрольных охранно-пожарных (ППКОП) требует применения методов теории множественной линейной регрессии [1,2].
Для n образцов (приборов), обладающих m характеристиками (признаками), модель множественной линейной регрессии имеет вид
J1 " і 2 m і " V "
J 2 = £ - <N * <N <N * * <N I * * V2
J n _ _ Xn1 Xn2 Xnm _ 1 1
где Ji — обобщенный показатель для /-го образца; xij — значениеу-го признака для
/-го образца, V/ — коэффициент регрессии.
Во многих случаях необходимо решить следующую задачу: зная обобщенные показатели качества известных образцов (приборов) J и матрицу X для нескольких
известных образцов, определить множество весовых коэффициентов {V}, а затем использовать это множество для оценки показателей новых приборов, т.е. осуществить их прогноз. Такая процедура называется многомерной калибровкой [2]. Решение этой задачи требуется в ряде практических ситуаций: 1) алгоритм расчета весовых коэффициентов неизвестен; 2) алгоритм известен, но сложен (например, метод анализа иерархий); 3) отсутствует необходимое программное обеспечение и др.
В целом процедура многомерной калибровки распадается на два этапа: а) собственно калибровка, т.е. оценка вектора весовых коэффициентов V по данным заранее известных приборов; б) прогнозирование обобщенного показателя качества J для новых приборов. С учетом сложившейся терминологии [1,2] для этого процесса будем использовать следующие термины: обучение многомерной регрессионной модели по референтным данным известных образцов и прогноз обобщенного показателя качества новых приборов.
Формирование калибровочной модели. Согласно принципу разделения признаков объекта экспертизы, выберем аддитивную форму обобщенного показателя «ка-
чество-цена»:
IV
,х,
]уКОЛх], кол
IV.
X
нал і,нал
+к.
у,кОЛ
+
нал
IV
X
1,качпр. 1,качпр.
качпр.
і, качпр.
цены
(2)
где Xу кол — нормированные количественные признаки; Xі нал — нормированные признаки наличия определенного свойства прибора; Хікач — нормированные качественные признаки, усредненные по множеству экспертов; Р('Хце-ны) — нормированная
функция цены; Ккол,Унал ,Укач ,Уцень1 — групповые весовые коэффициенты, учитывающие относительную важность различных групп признаков.
Подробные характеристики трех известных ППКОП «Тандем-1Р», «Приток-08М»,«Нигй;ег-РК0» приведены в статье [3]. Поэтому здесь представлена лишь краткая
таблица значений признаков Хі и нормированных значений признаков Хі (табл.1). Нормировка произведена в соответствии с правилами, изложенными в работе [4].
В качестве обобщенных признаков выбраны взвешенные суммы групп количественных признаков, признаков наличия, качественных признаков и признака цены (см. табл. 1).
Таблица 1
Характеристики приемно-контрольных приборов сигнализации
і
і
Показатели Приемно -контрольные приборы
«Тандем-1Р» «Приток-ОБМ» «НигЛег-РКО»
Содержание Хі Хі Хі Хі Хі Хі
1 Количество подключаемых шин связи 4 0,500 4 0,500 8 1,000
2 Количество устройств, необходимых для автономной работы 4 0,250 1 1,000 2 0,500
3 Возможность расширения комплекса 16 X16 1,000 — 0,000 12 X 8 0,375
Сумма количественных взвешенных признаков — 0,584 — 0,447 — 0,796
4 Наличие ОБМ-канала передачи информации 2 1,000 1 0,500 1 0,500
5 Наличие ЕШегпе^канала 1 1,000 0 0,000 0 0,000
Сумма взвешенных признаков наличия 1,000 0,250 0,250
6 Тип канала обмена информацией 5,0 1,000 3,2 0,640 4,3 0,860
7 Эргономичность для клиента 3,8 0,760 5,0 1,000 3,6 0,720
8 Эргономичность для инженера 3,2 0,640 5,0 1,000 4,1 0,820
9 Эстетичность (внешний вид, цветовая гамма, размеры) 4,2 0,840 3,2 0,640 3,1 0,620
Сумма качественных взвешенных признаков 0,892 0,762 0,807
10 Цена устройства 8000 0,562 7500 0,600 4500 1,000
При этом соотношение количества образцов и признаков несколько улучшится, хотя по-прежнему количество известных образцов (п < т) недостаточно. В результате сформируем матрицу нормированных признаков
'0,584 1,000 0,892 0,562'
X =
0,447 0,250 0,762 0,600 0,796 0,250 0,807 1,000
(3)
соответствующую трем известным образцам.
Для определения вектора обобщенных показателей качества J в статье [3] был использован метод анализа иерархий [5] и получено для групп количественных признаков, признаков наличия и качественных признаков выражение
J = (0,581 0,444 0,681 )Т.
Для аддитивной формы обобщенного показателя (2) выберем V
цены
1.
что оз-
начает равнозначность учета качественных и ценовых характеристик. Тогда после сложения показателей качества и цены (см. табл. 1) получим для калибровки окончательный вид вектора показателей «качество-цена»
J = (1,273 1,044 1,681)Т. (4)
Калибровка регрессионной модели. Сравним далее три метода калибровки: 1) метод гребневой регрессии; 2) формирование и обучение нейронной сети; 3) последовательную адаптацию нейронной сети.
Метод гребневой регрессии. Нейронные сети являются весьма гибким инструментом, что позволяет им адаптироваться практически к любому набору данных. Однако им присуща проблема общности [6]: обученные на некотором наборе референтных
данных (x,J), они могут давать совершенно неправильные результаты для другого набора. Кроме того, результаты нейронного моделирования часто оказываются неоднозначными, поскольку процедуры обучения зависят от случайных начальных значений весов Wj и смещений bi нейронной сети. Поэтому нейронное моделирование следует сопровождать другими методами калибровки для проверки гипотезы общности. Одним из таких методов может служить гребневая (ridge) регрессия [2].
Воспользовавшись референтными данными (3), (4), произведем обучение модели, т.е. попытаемся найти неизвестные весовые коэффициенты . В эконометрике для
решения задач линейной множественной регрессии используется метод наименьших квадратов (МНК) [2,7], согласно которому искомое решение должно определиться формулой
V'-
XV. (5)
Однако на самом деле это не так: не удается вычислить первый сомножитель выражения (5), т.е. найти обратную матрицу, поскольку определитель произведения
к т к
матриц X X равен нулю. Причиной этого факта является то обстоятельство, что матрица X содержит слишком малый объем референтных данных, причем количество образцов П =3 (известных приборов) оказывается меньшим числа признаков m = 4, что явно недостаточно.
В нашей ситуации наблюдается явление мультиколлинеарности референтных данных, которое отражает сильную корреляционную связь между векторами матрицы
к т к
X1 X (такая матрица называется плохо обусловленной). Известны различные способы преодоления вычислительных проблем, связанных с мультиколлинеарностью [1,2], среди которых мы выберем метод гребневой (ridge) регрессии.
Гребневая регрессия предполагает оценку неизвестных весовых коэффициентов
калибровочной модели Vc j по следующей формуле:
Vc = (XTX + al)-1 XTJ. (6)
Добавление параметра tt решает проблему плохой обусловленности матрицы
X т X
X1 X. Эти оценки смещены в отличие от МНК-оценок. Однако доказано [2], что существует такое a, при котором получаемые оценки оказываются более эффективными, чем оценки МНК.
Наилучшее приближение к вектору весовых коэффициентов после калибровки
(при a = 10 11) примет вид
Vc = (0,801 0,177 0,152 0,911)т. (7)
Используя выражение (7) и матрицу (3), рассчитаем показатель Jc и сравним его с точным вектором (4). Среднеквадратичная ошибка калибровки модели при этом
методе составляет J = 4,25 • 10-4.
Нейронная сеть: процедура обучения. Сформируем вначале двухслойную нейронную сеть прямой передачи сигнала, воспользовавшись командой nntool вычислительной среды Matlab 7 (рис.1).
1 1
Рис.1. Обобщенная схема двухслойной нейронной сети
Здесь первый слой — скрытый (hidden), второй слой — выходной (output);
тт/1,2 - l 1,2
W — матрицы весов первого и второго нейронов; Ь — постоянные сигналов смещений первого и второго слоя. Как показано на рисунке, в обоих слоях выбраны линейные функции активации purelin.
На вход сети подаются данные (3), а в качестве вектора цели выбран вектор показателей (4). Для обучения сети использован алгоритм Левенберга—Маркуардта (Levenberg — Marquardt). После 7 шагов обучения среднеквадратичные погрешности
оценки отдельных показателей равны: dJ1 =-4,546 • 10 “10 ,
dJ2 = 2,685 • 10-10, dJ3 = 3,734 • 10-11.
После окончания процесса обучения параметры двухслойной сети принимают следующие значения: веса скрытого слоя W1= (0,7480, 0,9242, - 0,6390, 0,9383); вес выходного слоя W 2 = 0,7227; сигнал смещения скрытого слоя Ь1 = 0,1157 ; сигнал
смещения выходного слоя Ь 2 = 0,2235.
Нейронная сеть: процедура последовательной адаптации. При высокой точности калибровки двухслойная нейронная сеть имеет серьезный недостаток: обучение производится в 7-мерном пространстве (4 веса скрытого нейрона, 1 вес выходного нейрона, 2 смещения), и поэтому полученные результаты обучения совершенно не похожи на вектор весовых коэффициентов (7). Для устранения этого недостатка перейдем к 4мерному пространству весов, т.е. к однослойной нейронной сети.
Сформируем однослойную нейронную сеть, что соответствует устранению второго слоя на рис. 1, и положим начальное значение смещения Ь1 равным нулю. Кроме
того, запретим изменение Ь1 в процессе адаптации командой
net.biases{1,1}.learnParam.lr=0, означающей приравнивание нулю скорости адаптации смещения lr.
Результаты последовательной адаптации однослойной нейронной сети приведены на рис.2.
ln put
W
ь
0
0
Output
/ • О о
30
30
Шаги адаптации
Рис. 2. Результаты последовательной адаптации нейронной сети
В качестве вектора целей был выбран вектор обобщенных показателей (4). На вход нейронной сети последовательно подаются векторы нормированных признаков различных ППКОП.
После 30 шагов (циклов) адаптации оцениваемый вектор показателей Jc = (1,2731 1,1198 1,6244 ) Т; среднеквадратичная ошибка оценки вектора показателей
Jc равняется 2,91 • 10 3; вектор весов нейрона
W = (0,5887 0,0457 0,5098 0,7606)т.
Как видно из сопоставления трех рассмотренных методов калибровки регрессионной модели, в первом случае наблюдалась проблема мультиколлинеарности, которую удалось разрешить методом гребневой регрессии. Использование нейронных сетей имеет существенное преимущество, поскольку этой проблемы вообще не возникает.
Прогноз обобщенного показателя нового ППКОП. Итак, на первом этапе многомерной калибровки на основе обучения калибровочной модели (2) тремя различными способами получены оценки вектора весовых коэффициентов Vc (для нейронных сетей — весов нейронов). Перейдем ко второму этапу многомерной калибровки — прогнозированию обобщенного показателя J нового прибора.
Рассмотрим новый ППКОП «Юпитер-IP/GPRS-B» и выберем его признаки Xj так же, как и для трех известных образцов (см. табл. 1). Получим нормированные значения Xj его признаков согласно той же методике, которая была использована для
формирования матрицы референтных данных (3), и вектор суммы взвешенных групповых признаков
хрг =(0,771 1,000 0,929 0,548)т. (8)
Рассчитаем обобщенный показатель «качество-цена» JрГ нового прибора двумя
способами: 1 ) для случая гребневой регрессии —используя полученную после калибровки оценку вектора групповых весовых коэффициентов (8); 2) для нейронных сетей — используя команду sim, моделирующую ответ предварительно обученной сети на воздействие (8). Сравним полученные результаты с истинным значением
J = 1,388,
используя «точный» вектор весовых коэффициентов V , рассчитанный в статье [3] методом анализа иерархий.
0 5
СП
10
10
10
-2
1
;
0 5 10 15 20 25
_+++- т :+ + + ¡н (- -
; ^-р| + + + + -{- + + + + + + + + + ¡¡il
10
15
20
25
Прогнозируемое значение 3 рг, относительная ошибка предсказания обобщенного показателя
5 з =(3„Г - 3) /3 (9)
и результаты калибровки сведены в табл. 2.
Таблица 2
Результаты калибровки и прогноза показателя нового ППКОП
Метод калибровки модели Погрешность калибровки Прогноз показателя Погрешность прогноза
Метод гребневой (ridge) регрессии 4,25-10-4 1,435 3,41%
Обучение двухслойной нейронной сети 10-10-10-11 1,360 2,01%
Адаптация однослойной нейронной сети 2,91 •ІО-3 1,390 0,14%
Объединив значения обобщенного показателя качества J для трех известных ППКОП (см. формулу (5)) и полученное значение (1,390) для прогнозируемого прибора, для лучшей сравнимости результатов разделим их на максимальное значение 1,681.
Тогда показатель «качество-цена» сравниваемых приборов J примет значения (в порядке возрастания): 0,621 — «Приток-GSM»; 0,757 — «Тандем-IP»; 0,827 —
«Юпитер-IP»; 1,000 — «Hunter-PRO».
Результаты численного анализа подтверждают эффективность использования метода гребневой регрессии и нейронных сетей для обучения (калибровки) регрессионной модели. Так, даже в случае явной недостаточности для эффективного обучения модели количества образцов (известных ППКОП) погрешность прогнозирования обобщенного показателя качества весьма мала. Привлечение большего количества данных об известных приборах позволит получить еще более точную оценку.
Применение нейронных сетей дает следующие преимущества:
1. Не возникает проблемы мультиколлинеарности.
2. Двухслойная нейронная сеть при методе обучения (train) дает высокую точность калибровки модели по известным образцам приборов, однако содержит много параметров (5 — веса нейронов, 2 — смещения), часть из которых может принимать отрицательные значения.
3. Предпочтительным является использование однослойной нейронной сети при методе последовательной адаптации (adapt), обеспечивающее не отрицательность весов нейронов и дающее наиболее высокую точность прогнозирования.
ЛИТЕРАТУРА
1. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. Множественная регрессия : монография: пер. с англ. — 3-е изд. — М.: Диалектика, 2007. — 912 с. 2. Эсбенсен К. Анализ многомерных данных. Избранные главы: пер. с англ.; под ред. О.Е. Родионовой. — Черноголовка: Изд-во ИПХФ РАН, 2005. — 160 с.
3. Бухарин С.В., Мельников А. В., Навоев В. В. Экспертиза приемно-контрольных приборов охранно-пожарной сигнализации // Вестник Воронежского института МВД России. — 2013. — № 1. — С. 37—48.
4. Бухарин С.В., Мельников А.В. Кластерно-иерархические методы экспертизы экономических объектов: монография. — Воронеж: Научная книга, 2012. — 276 с.
5. Саати Т. Принятие решений: Метод анализа иерархий: пер. с англ. — М.: Радио и связь, 1993. — 278 с.
6. Хайкин С. Нейронные сети: полный курс: пер. с англ. — 2-е изд. — М.- СПб.-Киев: Вильямс, 2006. — 668 с.
REFERENCES
1. Dreyper N., Smit G. Prikladnoy regressionnyiy analiz. Mnozhestvennaya regressiya: monografiya: per. s angl. — 3-e izd. — M.: Dialektika, 2007. — 912 s.
2. Esbensen K. Analiz mnogomernyih dannyih. Izbrannyie glavyi: per. s angl.; pod red. O.E. Rodionovoy. — Chernogolovka: Izd-vo IPHF RAN, 2005. — 160 s.
3. Buharin S.V., Melnikov A.V., Navoev V.V. Ekspertiza priemno-kontrolnyih pri-borov ohranno-pozharnoy signalizatsii // Vestnik Voronezhskogo instituta MVD Rossii. — 2013. — N 1. — S. 37—48.
4. Buharin S.V., Melnikov A.V. Klasterno-ierarhicheskie metodyi ekspertizyi eko-nomicheskih ob'ektov: monografiya. — Voronezh: Nauchnaya kniga, 2012. — 276 s.
5. Saati T. Prinyatie resheniy: Metod analiza ierarhiy: per. s angl. — M.: Radio i svyaz, 1993. — 278 s.
6. Haykin S. Neyronnyie seti: polnyiy kurs: per. s angl. — 2-e izd. — M.- SPb.-Kiev: Vilyams, 2006. — 668 s.