УДК 004.93
ОБ ЭФФЕКТИВНОСТИ АНАЛИЗА И РАСПОЗНАВАНИЯ ИЗОБРАЖЕНИЙ МЕТОДОМ ГЛАВНЫХ КОМПОНЕНТ И ЛИНЕЙНЫМ ДИСКРИМИНАНТНЫМ АНАЛИЗОМ
В.В. Мокеев, С.В. Томилов
Рассматриваются некоторые аспекты применения метода главных компонент и линейного дискриминантного анализа для решения задачи распознавания изображений. Технология распознавания изображений на основе этих методов состоит из двух этапов: сначала изображение лица проецируется из исходного пространства признаков в редуцированное подпространство главных компонент, а затем линейный дискриминантный анализ используется для построения классификатора. В статье основное внимание сосредоточено на разработке эффективного алгоритма вычисления главных компонент для больших наборов изображений. Метод линейной конденсации представляет новую технологию расчета главных компонент больших матриц. Для повышения эффективности метода линейной конденсации предлагается использовать процедуру блочной диагонализации матрицы. Оценивается точность и быстродействие разработанного алгоритма.
Ключевые слова: распознавание лиц, метод главных компонент, линейный дискриминантный анализ, собственный вектор.
Введение
Одной из важнейших проблем измерения и обработки информации является проблема распознавания объектов. Автоматизация процесса распознавания объектов ведёт к ускорению работы систем измерения и обработки данных и повышению их эффективности. Большой интерес к данной проблеме в различных областях науки и техники обусловлен многообразием прикладных задач, в которых используются либо сами изображения, либо результат их обработки. Необходимость в обработке и анализе изображений возникает не только при распознавании объектов, но и при изучении природных ресурсов Земли из космоса, управлении движущимися объектами, количественной оценке параметров объектов и т. п.
При анализе и распознавании изображений отдельное изображение представляется в виде вектора признаков, каждый из которых отражает значение яркости одного пикселя. Таким образом, если изображение описывается матрицей пикселей a х Ь , размерность вектора равна произведению а на Ь . Поскольку вектор каждого изображения имеет достаточно большую размерность, задача обработки большого количества изображений является нетривиальной.
Большинство систем анализа изображений основывается на методах построения пространства признаков меньшей размерности. Задача снижения размерности важна еще и потому, что сложность большинства алгоритмов экспоненциально возрастает с увеличением размерности изображений, а практическая реализация таких алгоритмов требует мощных вычислительных средств. Одним из широко распространенных методов сокращения размерности изображений является метод главных компонент (МГК). В настоящее время для решения задачи поиска и распознавания лиц предлагаются множество алгоритмов, использующих МГК.
Идея использования главных компонент для представления изображений лиц описывается в работе [1]. Любой набор изображений лиц может быть приблизительно восстановлен с помощью небольшого набора главных компонент и весовых коэффициентов для каждого изображения. Поскольку главные компоненты имеют ту же самую размерность, что и исходные изображения лиц, их часто называют «собственными лицами» или «собственными изображениями». Весовые коэффициенты, описывающие каждое изображение, будем называть главными факторами. Изображение хранится как набор главных факторов в базе данных в форме, которая может использоваться в качестве ключа поиска. В этом случае каждый фактор отображает не единичный пиксель, а группу пикселей, которые могут быть представлены в виде изображений (собственных лиц). Когда главные компоненты определяются на основе всех изображений, они создают полное
пространство базисных векторов, то есть необходимая точность описания любого изображения достигается путем увеличения количества главных компонент. Если в качестве главных компонент используются все собственные вектора, то изображение восстанавливается точно.
Линейный дискриминантный анализ является мощной технологией распознавания лиц, преобразующей исходное пространство изображений в низкоразмерное пространство признаков, в котором изображения классов группируются вокруг их центров, а центры классов удаляются друг от друга настолько, насколько это возможно [2-4].
В работе [5] предложен подход, состоящий из двух шагов. На первом шаге используется метод главных компонент для сокращения размерности изображений. На втором шаге применяется ЛДА для преобразованных данных. Для вычисления главных компонент формируется учебная выборка, состоящая из изображений, сгруппированных в классы. Изображения одного класса описывают лицо одного человека. Один класс может содержать десятки и даже сотни изображений одного лица.
Вычисление главных компонент сводится к задаче собственных значений больших матриц. Известно, что вычисление собственных значений для небольших матриц практически закрытая проблема. Однако в случае больших матриц задача перестает быть тривиальной.
Методы понижения порядка матриц (конденсации) являются эффективным средством нахождения собственных векторов больших матриц, так как целью конденсации является получение матрицы меньшего порядка, которая была бы подобна исходной матрице в том смысле, что собственные значения этих матриц в заданном диапазоне совпадали бы с заданной точностью. Различные схемы конденсации (частотно-динамическая конденсация [6], частотная конденсация [7], линейная конденсация [8]) были предложены для повышения точности решений. Метод линейной конденсации используется для получения решений в заданном интервале собственных значений. В данной работе для повышения точности линейной конденсации предлагается использовать процедуру блочной диагонализации матрицы.
Распознавание изображений на основе МГК и ЛДА
Метод, основанный на МГК и ЛДА, состоит из 2 шагов: сначала мы проецируем изображение лица из исходного пространства признаков в подпространство собственных лиц с помощью метода главных компонент, затем используем ЛДА, чтобы получить линейный классификатор. Допустим, существует набор изображений, каждое из которых описывается вектором х1 (} = 1, 2, 3, ..., т), где т - число различных изображений в обучающем наборе. Размерность п вектора х1 равна числу пикселей изображения. Таким образом, все изображения могут быть представлены в виде матрицы, столбцы которой являются векторами х1 . Средний вектор обу-
Подход МГК плюс ЛДА можно рассматривать как линейное преобразование исходной пространства изображений в проекцию пространства главных компонент, то есть
где Z - р х т матрица главных компонент, W - п х р матрица преобразования.
Как известно, метод главных компонент является техникой снижения размерности, основанной на извлечении желаемого числа главных компонент из многомерных данных. Первая главная компонента представляет линейную комбинацию исходных признаков, которая имеет максимальную дисперсию, ап -я главная компонента является линейная комбинация с самой высокой дисперсией среди т — п +1 главных компонент и ортогональной п —1 первых главным компонентам.
Известно, что матрица X0 может быть представлена в виде сингулярного разложения.
вычитается из каждого изображения в обучающем наборе. Та-
ким образом, получается новое пространство X0 = х° х2 " • х°т , где х0 = хг- — V .
Z = WTX0 ,
(1)
гональная матрица (р х р), диагональные элементы которой гц, г2,..., гр являются положительными собственными значениями матрицы X0 . Здесь р - ранг матрицы X0 .
Ключевым моментом МГК является вычисление матрицы главных компонент Vpca . Матрица главных компонент Vpca формируется из правых собственных векторов Voг■, которым соответствуют наибольшие собственным значениям г.
Матрица собственных векторов Vpca может определяться как
У^а = Л-^а X0. (3)
Матрица левых собственных векторов ирса образуется из собственных векторов уравнения
(Ат — *Iт )«0 = 0, (4)
2
где 1т - единичная матрица с порядком т, и0г- - собственный вектор, а А,г- = г - собственное
значение матрицы Ат = — (X0 ) X0 .
т' '
Обозначим средний вектор класса k как vk, а среднее значение всех изображений как V
1 mk 1 к 1 mk
& тх; v=1± s:zk.
т ,=1 к к тк ,=1
Здесь К - число классов, а тк - число изображений лиц в классе к . Матрица межклассовых различий Аь может быть вычислена как
К тк гр
А, =-У У (2* — ^)( 2* —V 4
1 K mk т
1TT(t -vk)(zk -vk) . (5)
ю
mk=1 i=1
Матрица внутриклассовых различий определяется как
* ^
1 K T
Ab = — Tmk (vk -v)(vk -v) . (6)
m k
С помощью ЛДА ищется такое преобразование, которое максимизирует межклассовые и минимизирует внутриклассовые различия
Vlda = argmax
VeRnxr
VT Ab V
VT AraV
(7)
Чтобы определить Vida, решается задача собственных значений
(A,-X Лю) vd = 0. (8)
Решение уравнения (8) представляет обобщенную задачу собственных значений.
Комбинируя МГК и ЛДА, мы получаем матрицу линейного преобразования, которая проецирует изображение сначала в подпространство собственных лиц Z, а потом в пространство классификации
W = VldaVpCa, (9)
где Vlda - линейное дискриминантное преобразование в пространстве главных факторов. После такого линейного преобразования распознавание изображения выполняется в пространстве дискриминантных факторов с использованием различных метрик, например, Евклидова расстояния.
Вычисление главных компонент больших наборов данных
Разработка систем распознавания лица требует компромисса между универсальностью, требуемой точностью и быстродействием. Когда задача распознавания лиц ограничена небольшим набором людей, достаточно небольшого количества собственных лиц, чтобы описать интересующие лица. Однако если систему нужно обучить новым лицам или представить в ней значи-
v
тельное число людей, потребуется больший набор собственных лиц. В этом случае необходимо решить проблему собственных значений для больших матриц.
Задача вычисления наибольших собственных значений уравнения (4) сводится к задаче нахождения наименьшего собственного значения уравнения
(1т “Ц Ат ) У0 = ^ (10)
где ц = 1/ А.
Мы делим вектор Уо на две части, а именно, вектор основных и вспомогательных переменных. Вектор основных переменных содержит признаки, которые сохраняются при сокращении матрицы. Вектор вспомогательных переменных включает признаки, которые удаляются. В соответствии с таким делением уравнение (10) переписывается в разделенной форме следующим образом
1 о NN 1 0 •4 I A I A
1 i> —ц
1 NN О 1 0 3 _A sr I s s As
V,
0г [ = 0, (11)
0s J
где индекс r относится к основным признакам, а индекс s - к вспомогательным признакам. Используя нижнее уравнение системы (11), можно определить связь вектора вспомогательных и основных переменных
v0s =^(Iss -^Ass ) Asr V0r . (12)
Путем подстановки вектора вспомогательных переменных (12) в уравнение (11) мы получаем
(Irr - цАrr + Drr (ц)) V0r = 0 , (13)
где D rr (ц) — ц A rs (Ц A ss — I ss ) Asr .
Сокращение матрицы Am осуществляется путем аппроксимации матрицы Drr(ц) выраже-
нием
Drr (ц)« I*r — цА*гг . (14)
Коэффициенты подматриц аГг и I*r определяются из условия совпадения матриц Drr (ц) и
I*rr — цАгг в граничных значениях заданного диапазона собственных значений (Ц1, ^). Это соответствует линейной аппроксимации матрицы Drr (ц) . В этом случае матрицы аГг и I*r определяются по следующим формулам:
I*rr = Drr (М1 ) — ц1
Drr (ц1 ) — Drr (ц2 ).
А„ = —
ц — ц2
Drr (ц1 ) — Drr (ц2 )
(15)
М1 “Ц2
Когда ц = 0, соотношения (15) записываются следующим образом
С = 0;
А* = ^ (^) . (16)
Агг =
Ц2
После сокращения матрицы Ат уравнение (10) можно записать в виде
(1Г-Ц*АГ) у0г = 0, (17)
* *
где Аг = Агг + Агг и 1Г = 1ГГ + 1ГГ. В случае, когда ц1= 0, решение уравнения (17) является стандартной задачей собственных значений; в случае, если ц > 0, решение уравнения (17) представ-
ляет обобщенную задачу собственного значения.
Решение уравнения (17) является приближенным решением уравнения (10). Причиной ошиб-
ки в решении является то, что матрица БГГ (ц) аппроксимируется линейным матричным выражением. Ошибка аппроксимации матрицы БГГ (ц) определяется как
Егг (ц) ИгГ (ц) (-ГГ МАГГ ) .
(18)
Значение коэффициента ёГГ (ц) достигает бесконечности для Ц = Ц, где ц - собственное значение матрицы Аш . Таким образом, коэффициенты матрицы ЕГГ (ц) достигают бесконечности при Ц = Цд.
Оценка максимальной величины ошибки собственных значений может быть получена на основе нормы матрицы ЕГГ (ц) . Чтобы получить такую оценку, вычтем из уравнения (13) уравне-
*
ние (16), считая у0г = у0г , в результате получается следующее уравнение
(ЛЦА г +Егг (ц)) у0г = 0. (19)
Оценка величины ошибки собственных значений может быть получена в виде
ЛЦ — Аг1 ЕГГ (ц)
(20)
Учитывая тот факт, что коэффициенты матрицы ошибок достигают максимального значения внутри диапазона ц1^ц2, середину диапазона цт =(ц1 +Ц2)/2 можно использовать для оценки максимальной ошибки. Подставляя Ц = Цт в соотношение (20), получим оценку максимальной ошибки собственных значений. Для Ц1 = 0 соотношение (20) будет иметь вид
Лц —
А-1 (Бгг (Цт )“Цт Вгг (Ц2 ) Ц2
(21)
Если ц (собственное значение матрицы Аш) лежит в диапазоне ц1^ц2, то Лц становится равным бесконечности, так как матрица ц А88 -188 становится вырожденной. В качестве критерия, характеризующего величину Лц , можно использовать фактор ц3/Ц2 .
Метод линейной конденсации реализуется в форме алгоритма многоуровневой линейной конденсации, суть которого заключается в том, что признаки исключаются не все сразу, а группами. Алгоритм многоуровневой линейной конденсации включает пять шагов, которые описаны в работе [8]. Первый шаг представляет собой многоуровневую процедуру понижения порядка матриц, которая начинается с того, что все признаки сортируются в порядке убывания диагональных коэффициентов ковариационной матрицы А . На первом уровне выбирается группа признаков с минимальными диагональными коэффициентами аи . Блок удаляемых формируется из признаков с наименьшими диагональными коэффициентами. Решение об исключении выбранных признаков принимается при выполнении условия
Цтт ^ ксЦ2 . (22)
Здесь цт^ - наименьшее собственное значение блока удаляемых переменных, кс называется фактором отсечения.
Таким образом, степень сжатия матриц уравнения (4) зависит от значений диагональных коэффициентов. Для повышения эффективности процедуры понижения порядка матриц предлагается использовать блочные вращения, диагонализирующие матричные блоки, лежащие на диагонали.
Процедура диагонализации выполняется до начала понижения порядка матриц. Пусть матрица А* разбита на f блоков
А f =
А11 А
12
А21 А
22
А
А
1f
2 f
Af1 А f 2
А
(23)
Пусть имеется ортогональная матрица Рг-, диагонализирующая матричный блок Аи, т. е.
т *
Р Аи Р = 2ІІ, где 2ІІ - диагональная матрица.
Тогда вектор ирса можно представить в виде
Рі 0 • 1 0 ЇГ и1
ирса = 0 Р2 • • 0 < ҐГ и2
0 0 • 1 / С
ри
(24)
Подставляя (24) в уравнение (4) и умножая справа на матрицу Рг и учитывая, что
Р I тР = 1т , получим
(А" -11т ) и"
= 0,
(25)
где А1г = Р АР . С учетом блочного разбиения матрица А*г может быть представлена в виде
2П
Р2 А21Р1
Рт А Р
V А г 1Р1
Рт А Р
Р1 Л12Р2
2
22
Рт А Р
Р/ А Г 2Р2
Рт А Р
Рі АіГРг
Рт А Р
Р2 А2ГР/
2
її
Нетрудно заметить, что ортогональная матрица Рг- может быть получена из решения следующего уравнения
(А, -А\)р = 0. (26)
Экспериментальные исследования
В экспериментах используется подмножество базы данных FERET [9]. Подмножество состоит из 1731 изображения 121 человека в оттенках серого цвета. Каждый человек представлен в наборе минимум 10 образцами. Размер изображений 112x196 пикселей. Эти изображения охватывают широкий спектр вариаций освещения, выражений лиц, наклонов и поворотов головы. Предварительная обработка изображений не выполняется. Рис. 1 показывает некоторые примеры использованного подмножества.
Рис. 1. Некоторые образцы из базы данных FERET
Исследуется влияние точности вычисления главных компонент алгоритмом многоуровневой линейной конденсации на качество распознавания лиц. Для этого используется подмножество изображений из базы FERET, которое разделено на 2 набора данных: обучающий набор и тестовый набор. Обучающий набор состоит из 1089 образцов. Тестовый набор состоит из 642 образцов. Совпадений между двумя наборами нет.
Г лавные компоненты обучающего набора вычисляются с использованием метода линейной конденсации с различным значением фактора отсечения. Рассматриваются три вариации фактора отсечения: 1,5; 2 и 2,5. Точность главных компонент вычисляется по формуле
, где У0і - главные компоненты, вычисляемые алгоритмом линейной конденсации, а У0і - главные компоненты, полученные методом Хаусхолдера.
На рис. 2 показана зависимость ошибки главных компонент (гі) от их номера (і). Как видно из рисунка погрешность расчета достигает максимальных значений лишь для небольшого количества главных компонент. В то время как средняя погрешность главных компонент, как правило, на порядок меньше максимальных значений ошибки.
* /
єі = у0і - у0і / у0і
Рис. 2. Зависимость ошибки вычисления главных компонент от их номера
В таблице представляются максимальные значения ошибки расчета главных компонент при различных значениях фактора отсечения. Из таблицы видно, что чем больше значение фактора отсечения, тем меньше максимальная ошибка вычисления главных компонент.
Зависимость максимальной ошибки расчета главных компонент от фактора отсечения
Фактор отсечения 1,5 2 2,5
Ошибка расчета главных компонент 0,58 0,127 0,00862
Как видно из таблицы, наибольшая ошибка вычисления главных компонент достигается, когда значение фактора отсечения равно 1,5. Однако при значении фактора отсечения 2,5 величина ошибки уже незначительна.
Для оценки точности распознавания изображений используется тестовый набор, содержащий 642 изображения. В экспериментах для каждого обучающего набора вычисляются главные компоненты, которые используются при вычислении дискриминантных компонентов. Классификатор ближайшего центра класса используется для распознавания лиц. Этот классификатор исполь-
зует среднее арифметическое всех изображений одного класса в качестве прототипа класса. Квадрат расстояния от x до класса i определяется по формуле di (x) = ||x - v;-1|. Если расстояние между x и классом i минимально, то решением классификатора ближайшего центра класса является то, что x принадлежит классу i .
На рис. 3 представлена зависимость коэффициента распознавания изображений тестового набора Ktest от числа дискриминантных компонент (r ). Зависимости получены для 140 главных компонент, которые используются для вычисления дискриминантных компонент. Сплошная линия показывает результаты, полученные с использованием главных компонент, вычисленных методом Хаусхолдера. Коэффициенты распознавания, полученные при использовании главных компонент, вычисленных с помощью алгоритма линейной конденсации, изображены пунктирной линией (CF = 1,5), штриховой линией (CF = 2), штрихпунктирной линией (CF = 2,5). Здесь CF (Cut-off Factor) - фактор отсечения.
Рис. 3. Зависимость коэффициента распознавания тестового набора от числа дискриминантных компонент: метод Хаусхолдера ( сплошная линия), линейная конденсация ( CF = 1,5 - пунктирная линия; CF =2 - штрихпунктирная линия; CF =2,5 - штриховая линия )
Как видно из рис. 3, использование метода линейной конденсации для вычисления главных компонент не приводит к снижению точности распознавания.
Для демонстрации эффективности разработанной процедуры диагонализации вычисляются главные компоненты набора, состоящего из 1731 изображения, с использованием блоков различных размеров. Размеры блока диагонализации (Ь) варьировались от 50 до 600. Время вычисления главных компонент сравнивается с временем расчета главных компонент методом Хаусхолдера. Рис. 4 показывает относительное время Т = Тс/Тк для вычисления 167 главных компонент в зависимости от размера блока диагонализации Ь . Здесь Тс - время вычисления главных компонент методом линейной конденсации, Т - время для вычисления главных компонент методом Хаусхолдера.
Как видно из рис. 4, увеличение размера блока диагонализации способствует уменьшению времени расчета главных компонент, но только до определенных пределов. После того, как размер блока диагонализации превысил величину 350, относительное время вычисления начинает расти.
0,65 0,60 0,55 0,50 0,45 0,40 0,35
0,30 --------1------1-------1-------1------1-------1-------1------1-------1-------1------1-------
100 150 200 250 300 350 400 450 500 550 600 L
Рис. 4. Относительное время вычисления главных компонент в зависимости от размера
блока диагонализации
Заключение
В статье рассмотрены некоторые аспекты использования метода главных компонент и линейного дискриминантного анализа для распознавания изображений. Основное внимание сосредоточено на вычислении главных компонент больших наборов изображений алгоритмом многоуровневой линейной конденсации. Алгоритм многоуровневой линейной конденсации использует аппроксимацию, позволяющую сократить порядок матриц с сохранением собственных значений в заданном диапазоне. Описана процедура блочной диагонализации матрицы, позволяющей повысить эффективность алгоритма. Демонстрация быстродействия разработанного алгоритма выполнена на примере обработки изображений базы данных FERET.
Литература
1. Kirby, M. Application of the KL procedure for the characterization of human faces / M. Kirby, L. Sirovich //IEEE Trans. Pattern Anal. Mach. Intell. - 1990. - Vol. 12, no. 1. - P. 103-108.
2. Lu, J. Face Recognition Using LDA-Based Algorithms / J. Lu, K.N. Plataniotis, A.N. Venelsano-poulos //IEEE Trans, on Neural Networks. - 2003. -Vol. 14, no. 1. - P. 195-200.
3. Martinez, А.М. РСА versus LDA / А.М. Martinez, А. С. Kak // IEEE Trans, on Pattern Analysis and Machine Intelligence. - 2001. - Vol. 23, no. 2. - P. 228-233.
4. Etemad, K. Discriminant Analysis for Recognition of Human Face Images / K. Etemad, R. Chel-lappa // Journal of the Optical Society of America A. - 1997. - Vol. 14, no. 8. -P. 1724-1733.
5. Belhumeur, P.N. Eigenfaces vs.Fisherfaces: recognition using class specific linear projection / P.N. Belhumeur, J.P. Hespanha, D.J. Kriegman // IEEE Trans. Pattern Anal. Mach. Intell. - 1997. -Vol. 19. - P 711-720.
6. Гриненко, Н.И. О задачах исследований колебаний конструкций методом конечных элементов /Н.И. Гриненко, В.В. Мокеев //Прикладная механика. - 1985. - 21 (3) - С. 25-30.
7. Мокеев, В.В. О задаче нахождения собственных значений и векторов больших матричных систем / В.В. Мокеев // Журнал Вычислительной Математики и Математической Физики. -1992. - 32 (10). - C. 1652-1657.
8. Мокеев, В.В. О повышение эффективности вычислений главных компонент в задачах анализа изображений /В.В. Мокеев //Цифровая обработка сигналов. -2011. - № 4. - C. 29-36.
9. The FERET evaluation methodology for face recognition algorithms / P.J. Phillips, H. Moon, P.J. Rauss, S. Rizvi //IEEE Trans. Pattern Anal. Mach. Intell. - 2000.- Vol. 22, no. 10. - P 1090-1104.
Мокеев Владимир Викторович, д-р техн. наук, заведующий кафедрой информационных систем, Южно-Уральский государственный университет (г. Челябинск); [email protected].
Томилов Станислав Владимирович, аспирант кафедры информационных систем, ЮжноУральский государственный университет (г. Челябинск); [email protected].
Bulletin of the South Ural State University Series “Computer Technologies, Automatic Control, Radio Electronics”
2013, vol. 13, no. 3, pp. 61-70
ON EFFECTIVENESS OF IMAGE ANALYSIS AND RECOGNITION BY PRINCIPAL COMPONENT METHOD AND LINEAR DISCRIMINANT ANALYSIS
V. V. Mokeyev, South Ural State University, Chelyabinsk, Russian Federation, mokeyev@mail. ru,
S.V. Tomilov, South Ural State University, Chelyabinsk, Russian Federation, [email protected]
In paper, some aspects of image analysis based on principal component analysis and linear discriminant fnalysis are considered. The image recognition technique on base this methods consists of two steps: first we project the face image from the original vector space to a reduced subspace of principal components, second we use LDA to obtain a linear classifier. Main attention is focused on the development of efficient algorithm for computing principal components for large image set. A linear condensation method is used as a new technique to calculate the principal components of a large matrix. To improve the efficiency of the linear condensation method is proposed to use a process of block diagonalization of the matrix. The accuracy and high performance of the developed algorithm is evaluated.
Keywords: face recognition, principal component analysis, linear discriminant analysis, eigenvector.
References
1. Kirby M., Sirovich L. Application of the KL Procedure for the Characterization of Human Faces. IEEE Trans. Pattern Anal. Mach. Intell, 1990, vol. 12, no. 1, pp. 103-108.
2. Lu J., Plataniotis K.N., Venelsanopoulos A. N. Face Recognition Using LDA-Based Algorithms. IEEE Trans, on Neural Networks, 2003, vol. 14, no. 1, pp. 195-200.
3. Martinez А.М., Kak А.С. РСА versus LDA. IEEE Trans, on Pattern Analysis and Machine Intelligence, 2001, vol. 23, no. 2, pp. 228-233.
4. Etemad K., Chellappa R. Discriminant Analysis for Recognition of Human Face Images. Journal of the Optical Society of America A, 1997, vol. 14, no. 8, pp. 1724-1733.
5. Belhumeur P.N., Hespanha J.P., Kriegman D.J. Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection. IEEE Trans. Pattern Anal. Mach. Intell, 1997, vol. 19, pp. 711-720.
6. Grinenko N.I., Mokeev V.V. Problems of Studying Vibrations of Structures by the Finite-element Method [O zadachakh issledovaniy kolebaniy konstruktsiy metodom konechnych elementov]. Priklad-naya mechanika [International Applied Mechanics], 1985, vol. 21, no 3, pp. 231-236.
7. Mokeyev V.V. On the Problem of Finding the Eigenvalues and Eigenvectors of Large Matrix Systems, Arising in Use a Finite Element Method [O zadache nakhozhdeniya sobstvennykh znacheniy i vektorov bolshikh matrichnykh sistem]. Zhurnal vychislitelnoy matematiki i matematicheskoy fiziki] [Computational Mathematics and Mathematical Physics], 1992, vol. 32, no 10, pp. 1652-1657.
8. Mokeyev V.V. On Effectiveness Increase of Principal Components Computation in Image Analysis Problem [O povyshenii effektivnosti vychisleniy glavnykh komponent v zadachakh analiza izobra-zheniy] [Tsifrovaya obrabotka signalov], Digital Signal Processing, 2011, no 4, pp. 29-36.
9. Phillips P.J., Moon H., Rauss P. J., Rizvi S. The FERET Evaluation Methodology for Face Recognition Algorithms. IEEE Trans. Pattern Anal. Mach. Intell, 2000, vol. 22, no 10, pp. 1090-1104.
Поступила в редакцию 26 марта 2013 г.