СПИСОК ЛИТЕРАТУРЫ
1. Загоруйко Н. Г. Методы распознавания образов:состояние и перспективы.- М.:Сов. Радио, 1972.120 с.
2. Васильев В. М. Распознающие системы.- М.: Киев:Наукова думка,- 180 с.
3. Ковалевский В. А. Методы распознавания изображений. - М.: 1975.-380 с.
4. Батугин С. А., Ковалевская В. А. Комплекс программ прогноза и управления многофакторными процессами.- Кемерово. КузГТУ, 1980.- 116 с.
5. Андерсон Т. Введение в многофакторный статистический анализ. - М.: Наука, 1968.- 500 с.
6. Ковалевская В. А., Кубрак В. М., Андреев В. Е. Прогноз успешности обучения курсантов высшей математике по данным вступительных экзаменов и профессионально-технического отбора. / Сборник научно-методических статей вузов МО РФ по математическим и общим естественно-научным дисциплинам.- // Новочеркасск.- 1998.- 85 с.
7. Ковалевская В.А., Козлова И. Д., Шаламанов В. А. Оценка перспективности угольных предприятий Кузбассак на примере шахт ОАО "Компании "Кузбассуголь" по графу прогноза и принятия решений" // Вестн. КузГТУ, 2001. №5. С. 96-100.
□ Авторы статьи:
Ковалевская Валентина Алексеевна, проф. каф. математики и инженерной графики КФВУС
Кубрак
Валентина Михайловна - зав. каф. математики и инженерной графики КФВУС
УДК 519.6
В. А. Ковалевская, В. М. Кубрак, Л.Е.Мякишева
НАУЧНО-МЕТОДИЧЕСКИЕ ОСНОВЫ ПРИМЕНЕНИЯ РАСПОЗНАВАНИЯ ОБРАЗОВ ДЛЯ МНОГОФАКТОРНОГО ПРОГНОЗА ПРИ РЕШЕНИИ ПРИКЛАДНЫХ ЗАДАЧ
Методы распознавания образов позволяют эффективно решать задачи классификации, прогноза и управления многофакторными процессами и принятия в заданных условиях наиболее рационального решения в тех случаях, когда есть опыт прошлого (обучающая выборка). К таким задачам относятся: прогноз безопасности технологического процесса; состояния, надежности и долговечности приборов и систем; техникоэкономических показателей ра-
боты предприятия; прогноз качества продукции; распознавания звуковых образов и изображений; задачи социологии, военного дела, теории связи и др.[1, 2, 6, 7, 10, 11].
С непрерывным ростом сложности изучаемых процессов, при исследовании которых необходимо принимать во внимание значительное число взаимосвязанных факторов, методы теории распознавания позволяют автоматизировать процесс обработки информации и
использовать эти методы в исследовательской работе [8].
Этапы оптимизации решения многофакторных задач прикладной направленности. Принимая оптимальное
решение (лучшее в том или ином смысле, т. е. по некоторому критерию оптимальности [4, 9]) , полагают, что множество возможных решений каким -либо образом упорядочено, например, по надёжности результатов (критерию точности), минимуму суммарных затрат
Таблица 1
Расчёт безразмерных координат по фактору Х.
1 Интервалы фактора Х . 1(отХ0 доХ 1) 2(отХ1 доХ2 ) 3 г (отХг-1 до Хг) Е
2 Число объектов класса А в интервале па і ПА2 ПАг ыа
3 Число объектов класса В в интервале ПВ1 пВ2 ПВг Ыв
4 Значение безразмерной координаты Zii ¿Г £ П А2 / П1 ПАг / Пг
5 Обозначения 7ц 7 . г }
Р(М1еА/х,)
Ах =
хтах хт/п
(1)
Рис. 1 График эмпирической (ломанная линия) и теоретической (кривая) вероятности принадлежности объектов обучающей выборки к классу А по фактору Х) к классу А по отдельно взятому фактору X.
прогноза и принятия решений (критерию экономической эффективности), максимуму
безопасности (социальная эффективность) и др.
При решении прикладных задач, в том числе военноинженерных, методами распознавания образов выделяются следующие четыре основных этапа.
1. Обоснование критерия разделения на классы и формирование обучающей и контрольной выборок; введение безразмерных координат.
2. Выбор эффективной системы факторов для прогноза.
3. Разработка методов вероятностного прогноза и правила принятия оптимальных альтернативных решений о классе объекта.
4. Оценка надёжности прогноза и принятия решений, а также экономического и социального эффекта и возможности управления каждым объектом или группой объектов.
Частотный способ введения безразмерных координат. В многофакторной инженерной
задаче факторы могут иметь разную размерность, различный диапазон изменения; наряду с количественными могут быть и качественные факторы. Поэтому вводятся безразмерные величины (координаты), учитывающие опыт прошлого, зафиксированный в обучающей выборке распознаваемых классов. Эти безразмерные координаты являются вероятностно-
статистическими количественными показателями принадлежности объектов к одному из выделенных классов и их расчёт основан на анализе вариационных рядов значений факторов в размерных координатах в общей обучающей выборке и в выборке, соответствующей прогнозируемому классу [7, 9].
При традиционном расчёте частотных безразмерных координат определяют экстремальные хт/п и хтах значения каждого фактора и диапазон разбивают на Ь интервалов с длиной, определяеемой по формуле Стэрджесса
1 + 3,2^М где N - общее число объектов классов А и В (для качественных факторов число интервалов определяется числом градаций факторов).
В каждом интервале г определяется число объектов пАг класса А и пВг класса В, а также пг =пАг +пАг - общее
число объектов. Новой безразмерной координатой является 2. - условная частость принадлежности /-го объекта (М ) по .-му фактору (X) к классу А:
4 1 = Р(М/ еА/х.)>
рассчитываемая по формуле: пАг
(2)
Если число объектов в интервале меньше заданной величины Н & 5, то интервал объединяется с соседним.
Затем каждое значение данного фактора (1 ) на каждом объекте ( / ) х. обучающей выборки заменяется соответствующей безразмерной координатой 2. - частостью принадлежности объекта с данным значением фактора к классу А.
По составленным таблицам по каждому фактору строятся графики зависимости принадлежности объекта М/.
С помощью рассчитанных таблиц перехода от размерных координат объектов х/. к без
размерным 2/. или по построенным графикам составляются обучающие матрицы объектов образов А и В в безразмерных координатах для всей обучающей выборки (объём обучающей выборки N=NA+Nв )
Оценка степени информативности факторов и ранжирование факторов по степени информативности (под информативностью фактора понимается его влияние на принадлежность объекта к тому или иному классу). Степень информативности определяется по критериям Пирсона ^, Шен-
нона, Колмогорова-Смирнова, Кульбака, Стьюдента, Фишера, Уилкоксона [3, 7].
После определения информативности факторов по всем критериям производится ранжирование факторов в порядке уменьшения значений оценок их информативности по каждому эксперту (критерию). Вычисление коэффициентов компетентности экспертов первого приближения осуществляется по формулам [9]:
1 п
К1 =у! хч ■х,, <3)
Л1=1
где
п т * = І І хіі • хі і-1і —1
т
хі = І хі] • К0у К° - 1/т
і=1
- коэффициент компетентности .-го эксперта, п - количество факторов, т - число экспертов, 1 - номер эксперта, / - номер
фактора, К0 - начальное значение коэффициентов компетентности экспертов, х/. - число, представляющее собой оценку /-го фактора .-м экспертом.
Вычисление сумм центрированных рангов для /-го фактора производится по формуле т
г/ = Е К1 ■ щ , (4)
1=1
где г/1 - ранг, присвоенный 1м экспертом /-му фактору.
Далее факторы упорядочиваются по цепочке неравенств Г1<Г2<..<Г/<..Гп, /=1,2,..,п . Количественной мерой согласованности мнений экспертов является дисперсионный коэффициент конкордации
12Б (5)
2 3
т (п — п) — т І Ті І=1
где
Н
І
Ті - І (к{—Нк)
к-1
показатель связанных рангов в
1-й ранжировке, Н - число групп равных рангов в 1-й ранжировке, Ик - число равных рангов в К-й группе связных (одинаковых) рангов при ранжировке 1-м экспертом:
п т я = Е(Е/ -г), 1=11=1
где
1 п т
г = - Е Е щ. п/=1}=1
Коэффициент конкордации Ж изменяется в пределах 0<Ж<1 : Ж=1, если все ранжировки экспертов одинаковы, и Ж=0, если они различны.
Оценка значимости коэффициента конкордации Ж при п >7 производится по критерию Пирсона. В случае отсутствия одинаковых рангов
Xрасч = Жт(п — 1), (6)
при наличии одинаковых рангов
2 12Я
X =--------------------------
расч. 1 т
тп(п +1)------- Е Т1
п—11=1
(7)
Число степеней свободы равно у = п - 1 .
Практически реализация оценки информативности выполняется в два этапа .
I. Для каждого фактора X' по соответствующим экспериментальным данным оценивается информативность факторов по критерию Пирсона. Здесь
а) рассчитывается фактическое значение критерия:
г Т 2
Е (пкА — птА)
= к=1_______________(8)
Ж
расч.
Т
пкА
где
т
на
• Пк - теоре-
кА N
тическая частота объектов класса А в каждом интервале, вычисленная в предположении о равномерном распределении объектов класса А по интервалам, т. е. в предположении, что
значения данного фактора не влияют на разделение классов;
б) определяется табличное значение Ж - критерия, т. е. его предельное допустимое значение [3] , при котором фактор X можно считать не влияющим на процесс распознавания А и В;
в) определяется диагностическая величина:
,2
Ах* (Хі) =
= X2 (Х1)- X2 (Х1) (9)
расч. табл.
г) делается вывод об информативности или неинформа-тивности фактора для процесса распознавания: если
Ж2 (Хі)> х" (Хі)
расч. табл.
2
(т. е. Ах (Xі ) > 0 ), то гипотеза о равномерном распределении объектов класса А по интервалам значений фактора X' отвергается. Следовательно, это распределение неравномерно и фактор X влияет на распределение классов, т. е. является информативным.
II. Результаты расчётов информативности сводятся в таблицу и делается вывод не только об информативности каждого фактора, но и об относительной информативности, основанной на величине пре-2
вышения Ах і (табл. 2).
Определение степени взаимосвязи факторов. Устанавливается корреляционная связь между факторами в исходной обучающей выборке и из каждой пары зависимых факторов оставляют какой-либо один (решается на профессиональном уровне), так как в нем заключена информация об обоих факторах. Поскольку факторы могут быть измерены в различных шкалах (отношений, интервалов, наименований, порядка и дихотомии), то в зависимости от сочетания различных шкал измерения двух факторов вычисляются различные меры связи:
,2
Таблица 2
Ранги факторов, соответствующие степени информативности
Фактор Число интервалов г Число степеней свободы ( = г - 2 ж2 расч. 2 Ж (0,05) табл. * Ранг Я
Z і 3 1 13,2 3,8 +9,4 I
Z 2 4 2 6,6 6,0 +0,6 III
Z 3 5 3 10,8 7,8 +3,0 II
г 4 6 4 9,6 9,5 +0,1 IV
Z 5 7 5 9,8 11,1 (-1,3) V
а) - выборочный коэффициент линейной корреляции, б) выборочный коэффициент ранговой корреляции Спирмена; в) точечный бисериальный выборочный коэффициент корреляции Пирсона; г) выборочный коэффициент корреляции Крамера; д) р - выборочный коэффициент сопряженности Пирсона [3, 4, 9].
При этом в качестве основного показателя степени взаимосвязей факторов берётся выборочный коэффициент линейной корреляции г/1 , который для факторов, заданных в шкале отношений или интервалов, вычисляется по формуле [3]
Я)к гв =■
(10)
где
8і к - І (хі і ті ) (хі к тк) і-1
1 п п
— - І (Хіі — Ті) •І (Хік — Тк)
Ч-1
і-1
п,
1 ' ]
Ті - І хі і ,
пі і-1
і пк тк - І хі і ,
пкі-1
і и 3'2к: - выборочные
дисперсии.
Построение матрицы и графа взаимосвязей. Ввод безразмерных частотных координат вместо размерных координат различных шкал измерения с методической точки зрения позволяет в качестве количественной характеристики си-
Ъ і (Я=І)-Оставлен
(К=ііі)22
Рис. 2 Граф взаимосвязей факторов с учетом их рангов по информативности
лы (степени) взаимосвязи факторов использовать широко распространённый в прикладных исследованиях выбороч-
ный коэффициент линейной корреляции, разработанный для количественных факторов, т. к. факторы, измеренные в безразмерных координатах, непре-
рывно изменяются на интервале [0; 1] ( 2 е [0; 1] ).
Здесь вычисляются парные коэффициенты и строится корреляционная матрица и граф взаимосвязей.
Можно рекомендовать построение упрощённой корреляционной матрицы, где в клетке на пересечении 1 - ой строки и I -го столбца ставится знак +, если Х; и X зависимы, то
есть если между ними сущест-
вует тесная связь (табл.3). Для наглядности проведённых расчётов целесообразно построить граф взаимосвязи в системе факторов. На графе взаимосвязей исследуемой системы факторов (рис.2) соединяют линией (ребром) вершины, если между ними есть тесная связь.
Минимизация призна-
кового пространства. После обнаружения факта наличия связи между признаками из каждой пары зависимых факторов оставить один (более информативный), так как в нём заключена информация не только о нём, но и о другом факторе. Если, например, между факторами, имеющими ранги, приведенные в последнем столбце табл.2, установлены значимые взаимо-
Таблица 3
Матрица взаимосвязей
При- знаки ¿1 ¿2 ¿3 ¿4 ¿5
1 + _ + +
¿2 1 +
гэ 1 +
¿4 1 _
¿5 1
связи, зафиксированные в матрице взаимосвязей (табл. 3), то в систему наиболее информативных и независимых факторов будут входить только факторы 1г и Х3 (рис.2).
Формирование оконча-
тельной обучающей и контрольной выборки. Окончательно обучающие и контрольные выборки классов А и В имеют вид:
а) факторы описаны безразмерными координатами,
б) по минимальной системе факторов,
в) порядок следования факторов соответствует их рангам: вначале тот фактор Х , который имеет ранг I , затем фактор с рангом II и т.д.
Следует заметить, что для большей точности решения задачи распознавания факторы необходимо исследовать на информативность и независимость по нескольким критериям.
Третий этап оптимизации решения прикладной задачи включает в себя разработку алгоритмов вероятностного прогноза выделенного класса объектов по минимальной и эффективной системе факторов и решающего правила альтернативной классификации. При этом для выбора алгоритмов распознавания, приемлемых для решения задачи, или разработки новых алгоритмов необходимо учитывать характеристики взаимного расположения объектов распознаваемых классов в п
- мерном признаковом пространстве информативных и независимых факторов.
Характеристики положения образов. На основе значений факторов в окончательной обучающей выборке, переведенных в безразмерные координаты, вычисляются следующие характеристики образа А и образа В (рис.3):
а) координаты центров тяжести образов Оа и Ов :
ОА =Ы>?А2~....?А1.....?АМ 1
ОВ = {^в 1, ^В2,..., Ув1,..., Увы1
(11)
где
ТАу =
На
І Тау
і-1 на ’
Нв І ТВі]
Тв] = ——
ВВ Нв
- безразмерные координаты і-го объекта по і-му фактору классов А и В соответственно.
б) расстояние от начала координат до центра тяжести образа А и образа В
РОА
т
ч І ТА]
Ь-1
(12)
в) расстояние между центрами тяжести образов
РАВ =
т
І (Таі -ТВ]>
і-1
2
г) угол
(13)
между радиус-
векторами центров тяжести об разов
М _ _
І ТА] ТА]
І-1
cos р -
(14)
РОА•РОВ
С учетом полученных характеристик положения образов в п - мерном пространстве про-
изводятся выбор одного из алгоритмов распознавания для вычисления обобщенных координат объектов по комплексу факторов. При этом все известные алгоритмы распознавания [1, 2, 5] модифицированы нами для вероятностного прогноза.
Алгоритм 1. Распознавание по разности расстояний от объектов до центров тяжести образов (классов).
Объект принадлежит к тому классу, к центру тяжести которого находится ближе.
Для всех объектов классов А и В вычисляются расстояния
РАг и рв/ от объектов Ы/(Уц, У/2,., У/],..., У/ы) до центров тяжести классов ОА и Ов,
/=1,2,..^ (рис.3)
РА/ = ЫОа\ = 1'1?А1 — У Рвг = Ы/ Ов | =
(15)
где т - число факторов.
Определяются обобщенные координаты
Р/ =Ра/ -Рв/ (16)
Алгоритм 2. Распознавание по разности углов между радиус-векторами объектов и центров тяжести образов.
Объект принадлежит к тому классу, где угол между радиус-векторами объекта и центров тяжести образов меньше.
и их характеристик
Для объектов М классов А и В вычисляются косинусы углов между радиус-векторами объектов ОМ/ и соответственно радиус-векторами центров тяжести образа А - ОА , образа
В - Ов (рис.3)
cos<pAi =
OA ■ OMi
OA ■ \OMi
M _
Z ZAj ■Zij j=1
(17)
Z Z2 IM
ZZAj V=i
z z2,
cosVB. =
OB ■ OMi
OB
OMi
M _
Z zb j ■ Zi j j=1
(18)
ll b2
По значениям cospAi =CAi , cosp Bi =CBi определяются
величины углов и обобщенные координаты объектов
Pi =VAi -Щг (19)
Алгоритм 3. Распознавание по расстоянию от объектов до гиперплоскости, проходящей
через середину отрезка, соединяющего центры тяжести образов, нормально к нему.
Объекты, расположенные
по разные стороны от такой гиперплоскости, принадлежат разным классам.
Гиперплоскость проходит через середину отрезка OAOB, т.е. через точку
2(Zai + Zbi),
D =
(ZA2 + Z B2 ),■■■,
1(ZAM + Zbm)
и перпендикулярно вектору
(ZB1 - ZA1), OaOb = -(ZB2 - ZA2),-,
(Zbm - zam)
Для каждого объекта определяется обобщенная координата
Рі =
( 2 2 А] + 2 В] Л
2іІ
2
- І (2ВІ — 2А])
І=1
(21)
Алгоритм 4. Распознавание по расстоянию от начала координат до каждого объекта.
Разделяющей образы поверхностью является гиперсфера с центром в начале координат и радиусом ¥0, определяемым порогом, установленным на профессиональном уровне.
Для всех объектов М( 2ц , 2і2 , 2І3 2іт) вычисляются
их расстояния рМІ от начала координат, которые и принимаются за обобщенные
Pi = PMi = .
m -
z z2
j=1
(22)
Алгоритм 5. Распознавание по условной вероятности совместного влияния всех факторов. Значения 2у (2) являются условными вероятностями принадлежности /-го объекта по 1-му фактору к классу А.
Для каждого объекта вычисляются вероятности принадлежности объекта к классу А по всем факторам, предполагая, что факторы независимые.
Величина обобщенной координаты равна
Pi
=m
m
П Zij ■ j=1
(23)
Построение вероятност-
ных прогнозных кривых на
основе рассчитанных обобщённых координат объектов по комплексу факторов.
После вычисления обобщенной координаты по каждому алгоритму составляется вариационный ряд этой координаты и строится график зависимости вероятности принадлежности к классу А для каждого интервала значений обобщённой координаты, т. е. вероятностная кривая прогноза. Для этого
1. рассчитаем шаг по обоб-
щённой координате f' (zi) —pi д0 , _ p max ~ p min 1 + 3,32lnN
и построим интервальный вариационный ряд для p;
2. рассчитаем координаты эмпирической прогнозной кривой по обобщенной координате p
ой _ ^
mk
(рк - эмпирические условные вероятности - относительные частоты объектов класса А в к -ом интервале вариационного ряда для р);
3. определим параметры
теоретической (нормальной)
кривой
а = Omax+р min
2
а = ,(р max р min) ; (24) 6
4. сгладим эмпирическую кривую теоретической
Р
теор.
= L + Ф ( Pk a ) , (25) 2 а
Ф ( / ) - интегральная функция Лапласа ([3], табл. 2 ),
Рк— а й
I к =------- - условный
а
параметр к -го интервала, т. е.
Ртеор- = 2+Ф(к);
к 2
5. по интервалам Ар и частостям Рк построим гистограмму зависимости условной частости принадлежности объекта к классу А от обобщенной координаты р/=/(2) , которая сглаживается теоретической вероятностной кривой (рис.4).
Построение решающего правила классификации. После оценки для каждого объекта вероятности отнесения его классу А - количественный прогноз, следует осуществить и итоговый альтернативный прогноз, т.е. принять решение - к какому из двух классов относится объект М/, если для него рассчитана Р (М/ е А).
Для этого используется
Рис.4 График теоретической вероятностной кривой прогноза класса объектов
простейшее решающее правило классификации:
Решение:
(классА, Р(ЩеЛ) )~Р0 \кяассВ, Р(М^еЛ) < Р0
( Ро = 0,5) (26)
В случае известных стоимостей ошибок I и II рода с1 и с2 априорных вероятностей классов ц1, ц2 - решающее правило уточняется с учетом этой информации. При этом достаточно знать только соотношение стоимостей ошибок (во сколько раз одна из них больше другой), а не реальные (экономические) показатели, т. е.
Ро =—!— <27>
1 + он-Ч2с2
Дополнительный учёт взаимосвязей факторов для
повышения надёжности прогноза и осуществления управления многофакторным процессом. Он возможен при учёте сочетаний значений факторов и реализуется в логических алгоритмах теории распознавания и многофакторного статистического анализа
Решающей функцией в логических алгоритмах является конъюнкция: сочетание значений факторов или интервалов значений факторов. Так, например, в медицине широко из-
вестны под понятием “синдром”, сочетания двух, трех и более факторов при диагностике какого-либо заболевания или при дифференциации одного заболевания от другого. Аналогичные сочетания можно рассчитать в распознаваемых классах объектов любой природы. При этом ищутся и используются только такие сочетания, которые встречаются максимальное число раз в своем классе и минимальное число раз - в “чужом" (пример диагностического сочетания в медицинской диагностике - “возраст” Х1 до 50 лет при нижней величине артериального давления Х2
менее 80).
Можно перейти к булевым переменным, задав порог равным, например, 45 лет, т. е. (если Х1<45, то Х1=0,а если Х1>45, то Х1=1), а по Х2-порог 60 (т.е. при Х2<60 Х2=0, а по Х2>60 Х2=1.) Тогда это же сочетание будет описано как "Х1=1 л
Х2=0 ".
При решении практических задач такой перебор возможных сочетаний значений факторов под силу только ЭВМ с высокой степенью быстродействия, поэтому для решения многих задач можно использовать более простые, наглядные и не менее эффективные логические алгоритмы распознавания, реа-
лизуемые в виде графа -"дерева" прогноза и принятия решений.
Алгоритм 6. Граф прогноза и принятия решений (логический алгоритм )
Для построения графа прогноза используются положения системного подхода к построению математических моделей: последовательность, иерархичность, наглядность и оперативность. Принципиальная схема разработки графа прогноза и принятия решений подробно описаны в комплексе программ прогноза и управления многофакторными процессами (Куз-ГТУ) [7] и в разработанном кафедрой математики КФВУС учебном пособии по применению статистических методов теории распознавания образов к решению задач прикладной направленности [11] .
На практике использование принципов системного подхода означает использование ранее полученных результатов.
1. Ранжирование факторов по степени информативности каждый из факторов прогноза определяет один из иерархических уровень в соответствии с его информационным рангом.
2. Рассчитанные при вычислении безразмерных координат граничные значения между областями А и В по каждому фактору определяют ветви графа по каждому уровню.
3. Сочетания возможных значений всех факторов определяют обобщённые ветви графа -реально встречающиеся сочетания значений факторов, характерные для решаемой задачи. При этом значения факторов могут как усиливать, так и ослаблять их совокупное влияние на итоговый показатель принадлежности объектов к выделенному классу.
4. Итоговые вероятности принадлежности объекта к классу А в данном методе рассчитываются как отношение числа пЛ объектов класса А к общему числу п объектов по выделенным ветвям:
Р (ХI е А) = пЛ / п.
Рис. 5. Граф прогноза класса успешности обучения высшей математике по комплексу факторов.
5. В заключительном столбце графа приведены результаты альтернативного решения о классе объекта, рассчитанный на основе решающего правила классификации.
В качестве примера приведём граф-метод прогноза и принятия решений о классе успешности обучения курсантов в третьем семестре по данным профессионально педагогического отбора и вступительных экзаменов (рис.5)
Первый уровень прогноза -на основе значений главного по информативности фактора Х і . Граничным значением Х10= 4 область его значений разбивается, например, на две ветви. Для каждой из них определяется отношение числа объектов класса А к общему числу объектов:
-ЛМ--------= рк (к =1,2)
пкА + пкВ
- вероятности принадлежности к классу А : Рі , Р2 (только по первому фактору)
Второй уровень - учитыва-
ется совместное влияние уже двух факторов. Получаем: Р11, Р12 , Р21 , Р23 - четыре ветви второго уровня графа.
Дальнейшая детализация по всем другим информативным факторам позволяет выделить обобщённые (итоговые) ветви графа с соответствующими им вероятностями принадлежности к классу А, т. е.
Р(Мг еЛ) = = Р(х11,х12,х13,х14)
Прогноз нового объекта и осуществляется следующим образом.
1) По значениям фактора прослеживается его путь на графе- определённая его обобщённая ветвь.
2) Вероятность принадлежности М 0 к классу А, т. е. Р (М 0 е А) равна итоговой вероятности обобщённой ветви.
3) Альтернативное реше-
ние о классе успешности нового объекта принимается на основе единого вероятностно-
альтернативного решающего
правила классификации (26-27), учитывающего динамику изменения стоимости ошибок I и II рода и априорные вероятности распознаваемых классов.
В схеме граф-метода этап принятия решений проводится на основе заключительного столбца (рис. 5)
Оценка надежности методов прогноза по контрольной выборке объектов - это заключительный этап оптимизации решения задачи. На нём проверяется адекватность разработанных на основе обучающих выборок моделей многофакторного прогноза. Для контрольной выборки берутся новые объекты, не вошедшие в исходную обучающую выборку.
Данные контрольной выборки переводятся в безразмерные координаты по таблицам перевода, составленным по
окончательной обучающей выборке. Вычисляются условные вероятности = Р(Хг е А) -принадлежности объекта к классу А. Значения сравни-
ваются с порогом принятия ре-
шения ро , установленным из соображений специфики решаемой задачи на профессиональном уровне. Если < ро ,
то объект относится к классу В, если Wi > ро , то к классу А ( В большинстве случаев р0= 0,5 ).
Затем производится сопоставление прогнозируемых значений с фактическими. Определяется количество ошибок прогноза по каждому классу. При этом различают ошибки I и II рода: ошибка I рода - если объект класса А прогнозируется как объект класса В, ошибка II рода
- если объект класса В прогнозируется как объект класса А.
По каждому у-му алгоритму вычисляются вероятности ошибки прогноза I рода П1 П2
р, - -. .. рола р2 = —.
вероятность суммарной ошибки
П1 + П 2
Гош -—----------— (28)
гош. + Н2
и надёжность прогноза
Н = (1 - Рош )100% , (29) где п, и п2 - число ошибок I и II рода, соответственно, при прогнозе по данному алгоритму, а N , Ы2 - общее число объектов в контрольных выборках классов А и В [2].
Выбор оптимального метода прогноза и принятия решений для решаемой прикладной задачи проводится на основе алгоритма, обеспечивающего не только наибольшую надёжность прогноза, но и минимум затрат на принятие решений. На практике имеет значение оперативность и наглядность проведения прогноза и принятия решений о классе новых объектов, а также возможность управления ими, т. е. такому изменению параметров процес-
са, которое при заданных начальных условиях и имеющихся экономических, технических и социальных условиях позволит перевести прогнозируемый объект в "желаемый" класс.
В наших исследованиях сравнительная оценка надёжности, экономической эффективности, а также социального эффекта при решении многофакторных задач, касающихся
учебно-воспитательного процесса и научно-исследова-
ельской работы студентов и учащихся школ, показала, что наиболее надёжным из рассмотренных в данной статье алгоритмов распознавания образов является граф-метод прогноза и принятия альтернативных решений, допускающий к тому же возможность управления прогнозируемом процессом.
СПИСОК ЛИТЕРАТУРЫ
1. Загоруйко Н. Г. Методы распознавания образов: состояние и перспективы. - М.: Сов. радио, 1972. - 120 с.
2. Васильев В. М. Распознающие системы. - Киев: Наукова думка, - 180 с.
3. Гмурман В. Е. Теория вероятностей и математическая статистика. -М.: Высш. шк., 1972.- 386 с.
4. Зельдович Я. Б., Мышкис Я. С. Элементы прикладной математики. - М.: Наука, 1967. - 646 с.
5. Ковалевский В. А. Методы распознавания изображений. - М.: 1975-380с.
6. Васильев С. К., Захаров В. Н. Прохоров Ю. Ф. Кибернетика в системах военного назначения. -М.: Воениздат. 1980
7. Комплекс программ прогноза и управления многофакторными процессами. - Кемерово. КузГТУ. 1980. - 116 с.
8. Ковалевская В. А., Славолюбова Н. Б., Севидова И. И. Методические указания по выполнению ВНР курсантами КФВУС.- Кемерово. - 2001 - 20 с.
9. Андерсон Т. Введение в многофакторный статистический анализ. - М.: Наука, 1968. - 500 с.
10. Батугин С. А. Вопросы классификации распознавания / Механика горных пород.- Кемерово, 1972. с.- 40-44.
11. Ковалевская В. А., Кубрак В. М. Применение статистических методов теории распознавания образов к решению задач прикладной направленности. Учебное пособие.- Кемерово, 2003.- 57 с.
□ Авторы статьи:
Ковалевская Валентина Алексеевна -проф. каф. математики
инженерной графики КВУС
Кубрак
Валентина Михайловна
- зав. каф. математики инженерной графики КФВУС
Мякишева Любовь Евтафьевна
- доц. каф. прикладной математики