Научная статья на тему 'Эмпирическое обобщение и распознавание: классы задач, классы математических моделей и применимость теорий. Часть i'

Эмпирическое обобщение и распознавание: классы задач, классы математических моделей и применимость теорий. Часть i Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
44
11
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Донской В.И.

Предложена классификация задач распознавания по их основным свойствам. Обосновывается целесообразность выбора методов решения, согласованных с особенностями классов задач.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Classification of pattern recognition problems is offered. This classification is founded on the basic properties of pattern recognition problems. It is shown, a choice of methods of decisions must be coordinated with features of classes of pattern recognition problems.

Текст научной работы на тему «Эмпирическое обобщение и распознавание: классы задач, классы математических моделей и применимость теорий. Часть i»

УДК 519.95

ЭМПИРИЧЕСКОЕ ОБОБЩЕНИЕ И РАСПОЗНАВАНИЕ: КЛАССЫ ЗАДАЧ, КЛАССЫ МАТЕМАТИЧЕСКИХ МОДЕЛЕЙ И ПРИМЕНИМОСТЬ ТЕОРИЙ. ЧАСТЬ I

© Донской В.И.

Таврический национальный университет им. В.И. Вернадского

факультет математики и информатики

пр-т Вернадского, 4, г. Симферополь, 95007, Украина е-ма1ь: donskoy@tnu.crimea.ua

Abstract. Classification of pattern recognition problems is offered. This classification is founded on the basic properties of pattern recognition problems. It is shown, a choice of methods of decisions must be coordinated with features of classes of pattern recognition problems.

Введение

Современное состояние распознавания образов как науки характеризуется появлением вполне обоснованных теорий, иногда базирующихся на существенно различающихся исходных предположениях. Широко известны алгебраическая теория распознающих и классифицирующих алгоритмов Ю. И. Журавлева [4], статистическая теория распознавания В. Н. Вапника и А. Я, Червопепкиса [1,2], статистическая параметрическая теория, базирующаяся на байесовском подходе и ведущая свое начало от работ Р. Фишера, структурно-лингвистические теории, MDL, другие теории и их модификации. Закономерно возникает вопрос о применимости каждой из рассматриваемых теорий к различным задачам и выделении в этой связи специфических классов задач. С указанным вопросом также связаны выбор моделей распознавания, методов обучения и их обоснование. Выбор подхода к решению конкретной задачи распознавания и его обоснование - нетривиальная проблема. Но она, как правило, остается в тени; усилия исследователей направлены на создание алгоритмов обучения и оценивание вероятности ошибок распознавания [1-4]. Существен и педагогический аспект рассматриваемой в настоящей работе проблемы: преподавание предмета «Математические методы распознавания образов». Здесь неизбежно возникает вопрос сравнительного анализа областей применимости различных теорий.

Приведенные соображения, возникшие в процессе научной и педагогической деятельности в области распознавания образов, побудили автора к написанию настоящей статьи. Цель работы - изложить и обосновать подход к определению областей применимости (или неприменимости) основных теорий обучения и распознавания. Соответствующие области представляют собой классы задач распознавания, определяемые общностью их основных свойств. Будем также называть такие классы задач распознавания семействами, если слово «класс» будет использоваться в контексте для обозначения множества объектов генеральной совокупности.

1. Концептуальная схема построения правил распознавания и

классификация решаемых задач

На рис, 1 приведена схема, представляющая связь объектов и процессов, происходящих при построении решающих правил распознавания,На этой схеме указаны некоторые свойства рассматриваемых объектов, В соответствии с концептуальной схемой выделен круг признаков, используя которые можно описать классы решаемых задач распознавания.

Выборочное пространство

пар "объект-свойство" (генеральная совокупность)

Модель извле (таблиць чения выборки обучения)

Обучающая выборка (таблица)

Стратегия разделения выборки на обучающую и контрольную

Метод обучения - модель экстремального выбора

Свойства генеральной совокупности:

- стохастическая;

- детерминированная;

- дискретная;

- непрерывная;

- другого типа;

- к- параметрическая;

- непараметрическая;

- с ограничением представления данных;

- прочие свойства.

Анализ выборки]

Правило распознавания А

Дополнительная внешняя информация:

- линейность;

- монотонность;

- компактность;

- ограничения, области запрета;

- другая информация.

Класс или семейство классов, из которых извлекается правило А

Способ оценивания качества, функционал

Окончательное решение о приемлемости правила распознавания А

Рис. 1. Связь основных объектов и процессов, происходящих при выборе решающих правил распознавания

Выборочное пространство X состоит из объектов X = (х1,..., х71), называемых допустимыми, компоненты которых (неремеппые-призпаки) принимают значения из множеств Г),. г = 1,,,,,п, Эти множества могут быть непрерывными,

дискретными, разнотипными. Полагается существующим некоторый набор основных свойств (предикатов) ujj : D1 х ••• х Dn —у {0; 1}, j = l,...,s , Множества Kj = {X G X : LOj(X) = 1} называют классами; ей = U'i (.Y).....)) -

двоичный вектор, определяющий принадлежность объекта классам. Значения этого вектора можно считать номерами классов (при пересекающихся классах-номерами комбинаций классов). Выборочное пространство X является генеральной совокупностью объектов, из которой извлекается конечное подмножество объектов {Xi,,,,, Xi} = Xi - выборка, которая вместе с полученными некоторым способом значениями u)(JYi),..., сo(Xi) образует таблицу обучения. Таблица обучения -это совокупность пар {(Xq,u(Xq)),q = 1,,,,,/}, Выборочное пространство обладает набором свойств, которые отражаются в таблице обучения.

Вообще говоря, не исключено, что таблица обучения может иметь пропуски в данных и ошибки - как в значениях признаков, так и в значениях принадлежности классам. Задача обучения распознаванию состоит в нахождении по таблице обучения решающей функции, позволяющей правильно (или приближенно, но как можно более точно) находить для любого объекта X из генеральной совокупности значение номера класса ей (X), Будем, обобщая, называть задачей распознавания задачу обучения вместе с задачей использования найденной решающей функции для определения номера класса Сй(Х) произвольного X G X,

В соответствии с концептуальной схемой, основные свойства задач распознавания сведены в представленную ниже таблицу, В стохастических задачах все данные в таблице обучения являются случайными величинами, извлеченными из генеральной совокупности, вообще говоря, с неизвестными законами распределения, В некоторых случаях эти законы полностью или с точностью до параметров априорно известны, В детерминированных задачах как объекты в генеральной совокупности, так и вся информация в таблицах обучения достоверны, но возможны пропуски и/или ошибки в данных, связанные с процессом их извлечения, В недетерминированных задачах часть данных не определена, и нет никакой дополнительной информации об их возможных значениях.

Модель извлечения обучающей выборки определяет схему её выбора из генеральной совокупности. Например, случайный и независимый выбор объектов, выбор «типичных представителей в каждом классе». Модель извлечения выборки определяет типы возможных ошибок в полученной таблице обучения. От длины выборки зависит качество построенного решающего правила распознавания. Не всегда удаётся получить выборку, имеющую достаточную для получения желаемого качества распознавания длину. Иногда использование длинных выборок может повлечь перенастройку (over fitting) решающих правил. Большие выборки целесообразно разделять на две части: обучающую, по которой происходит индуктивный синтез решающих правил, и контрольную, по которым оценивается качество выбранного решающего правила. Контрольная выборка не участвует в обучении и оценивает единственное решающее правило, найденное на предварительном этапе синтеза.

Метод обучения определяет, как использовать таблицу обучения для выбора экстремального по качеству решающего правила распознавания из некоторого зафиксированного семейства правил. Метод может учитывать целый ряд деталей и использовать различные приёмы, В частности, может учитываться последовательность предъявления объектов таблицы обучения (если от этой последовательности может зависеть результат), Возможно исключение и добавление объектов выборки в процессе обучения. Скользящий контроль также может рассматриваться как метод обучения.

Правило распознавания извлекается в процессе обучения из некоторого заранее зафиксированного семейства правил. Фиксация этого семейства происходит с учётом внешней дополнительной информации о задаче, например, заведомой линейности диекриминантных функций, которые являются геометрическим эквивалентом решающих правил распознавания. Качество извлечённого правила может оцениваться различными способами, например, числом (частотой) ошибок на обучающей выборке, числом ошибок на контрольной выборке, длиной алгоритмического описания найденного решающего правила. Окончательное решение о приемлемости извлеченного правила распознавания принимается на основе анализа всех указанных свойств задачи и задаваемых параметров - требуемой точности, надёжности, алгоритмической сложности извлечённого правила. Указанное выше окончательное решение теоретически может приниматься автоматически, определяя завершение процесса решения задачи распознавания или продолжение поиска с возможными изменениями в выборе фиксируемого семейства решающих правил и других свойств. Однако такой автоматический выбор в настоящее время не разработан на алгоритмическом уровне, поэтому он реализуется исследователями на основе некоторых соображений, сформулированных в процессе решения практических задач распознавания.

Далее предлагается описывать классы задач распознавания в терминах значений свойств, которые представлены в таблице, по схеме:

>77>/ГЛ/,7>7Ли/>7л,;/,Ш/. (1)

Запись вида (1) называется кодом задачи распознавания. При невозможности характеризации некоторого свойства задачи в соответствующую позицию кода задачи ставится пропуск. Пропуск означает, что соответствующее свойство может быть любым из его перечисленных значений в таблице, и никакой информации о предпочтительном значении нет. Например, запись

определяет детерминированную задачу распознавания с бинарными признаками и случайным, независимым и безошибочным извлечением небольшого числа пар «объект-класс» в таблицу обучения. При этом дополнительная информация для задачи отсутствует. Кроме этого, в синтаксисе кодов будем допускать логические связки «И», «ИЛИ», «НЕ» для комбинированного описания свойств задач. Например, Ь будет обозначать нелинейность; Е^Т V 1\>1 ~ безошибочный выбор объектов из генеральной совокупности с безошибочной их классификацией «учителем» или безошибочный выбор пар «объект-номер класса» из генеральной совокупности пар,

Обозначение свойства Наименование свойства Возможные значения свойства задачи: коды и расшифровки

БТБ Стохастичность или детерминированность Б - стохастическая непараметрическая; Б к - стохастическая ^-параметрическая; £) _ детерминированная; NI) - недетерминированная.

УАЕ Дискретность или непрерывность Б), - й-значные переменные; С — непрерывные переменные; М — смешанные переменные.

БРМ Модель извлечения и формирования выборки Я±Т — случайный, независимый и безошибочный выбор объектов из генеральной совокупности с безошибочным (при БТБ = £>) указанием (учителем) классов, которым эти объекты принадлежат; Л2р .......... случайный, независимый выбор пар «объект-номер класса» из генеральной совокупности пар с возможными ошибками в любых их компонентах; БТ - специальным образом организованное извлечение не содержащей ошибок таблицы обучения (например, выбор типичных объектов или описание прецедентов экспертами); _ специальным образом организованное извлечение таблицы обучения, возможно с ошибками.

БЬеп Длина выборки ББ - малая выборка, не допускающая поплнение; АБ - выборка средней длины; ЬБ - большая или пополняемая выборка.

АВ1 Дополнительная информация о задаче Ь — линейность; М — монотонность; СМ - компактность классов; ЕЕ - наличие областей запрета в признаковом пространстве; Б1 - другая специальная информация.

Класс задач распознавания £>/ - / /.у/' V 11,1 V БТ/ББ/-Рассмотрим класс задач распознавания, определяемый кодом

О/ - ¡ВАТ V /,'./ V БТ/ББ/ - .

Значение параметра БЬеп = определяет малую выборку. Малой считается выборка, при обработке которой способами, основанными на статистических методах группировки наблюдений и аппроксимации, невозможно достичь заданной точности

и достоверности. Рассматриваемые задачи - детерминированные с точной обучающей таблицей: каждый объект достоверно принадлежит одному классу (или одновременно нескольким классам, если классы пересекаются). Пересечения классов, не теряя общности, можно считать отдельно выделенными классами.

Выбор методов и моделей решения таких задач определяется следующими соображениями, Разбиение исходной выборки на собственно обучающую и контрольную при решении задач рассматриваемого семейства нецелесообразно по следующим причинам. Точность оценивания, недостижимая на малой выборке, тем более будет недостижимой на ее части; безошибочность информации в выборке и малое число прецедентов делает нецелесообразным отказ от использования всех начальных данных при обучении.

При удачном выборе семейства решающих правил в детерминированных задачах иногда можно указать достаточную длину обучающей выборки для получения точного и единственного решения, В таком случае некорректность по Адамару, свойственная большинству задач распознавания, не будет иметь места. Скользящий контроль нецелесообразен по причине недостаточной представительности начальных данных. Выбор решающего правила, ошибочно классифицирующего хотя бы один объект таблицы обучения, может повлечь большие ошибки при классификации произвольных допустимых объектов. Поэтому применение корректных алгоритмов и только их приемлемо для решения задач распознавания рассматриваемого класса. Действительно, для рассматриваемых задач некорректность (наличие некоторого числа ошибок на обучающей выборке) влечёт не меньшее число ошибок для извлечённых решающих правил по всей генеральной совокупности. Перечисленные соображения определяют для класса задач

О/ - ¡ВАТ V /,'// V БТ/ББ/-

стратегию поиска решающего правила, не допускающего ошибок на объектах таблицы обучения (корректного на выборке) с использованием всей имеющейся выборки при обучении. Поскольку корректные на выборке алгоритмы обучения доставляют нулевое значение эмпирическим функционалам качества обучения, отказ от скользящего контроля становится еще более обоснованным.

При каких же условиях указанная стратегия для класса задач

О/ - ¡ВАТ V /,'./ V БТ/ББ/-

будет успешной: построенное решающее правило действительно будет обучено распознаванию объектов, не принадлежащих таблице обучения?

Предположим, решающее правило будет выбираться в процессе обучения из семейства правил 5 , Семейство 5 обычно определяется методом решения задачи распознавания (методы решения задач распознавания интенсивно разрабатывались в течение прошедшего полувека; например, широко применяются метод вычисления оценок [4], методы обучения нейронных сетей, методы обучения на основе синтеза решающих деревьев и другие [5]), Задачи распознавания, не теряя общности, можно исследовать для случая только двух классов, соответственно, с номерами 0 и 1, Далее будут рассматриваться задачи с двумя классами (единственным основным

свойством). Используя таблицу обучения {(Хд,ш(Х(])),д = 1,,,,,/}, составим функциональную систему

' /№) = а1; /№) = а2;

............ (2)

/№) = од

в которой п,; = Л',;) является нулем или единицей - номером класса допустимого объекта Хд. Решением функциональной системы (2), если оно существует, является любое корректное на обучающей выборке решающее правило (функция) /* е Б . Процесс обучения, направленный на поиск корректного на выборке решающего правила, можно рассматривать как поиск решения /* системы (2), При этом результат, очевидно, определяется выбором семейства Б, в рамках которого идет поиск. Выбор корректного решения /* е 5 (решающего правила) будем называть точной настройкой на выборку. Предположим, для любой таблицы обучения с произвольным «столбцом» номеров классов при выбранном семействе 5 возможна точная настройка, причём существует не единственное корректное (на таблице обучения) правило /* е Б, а обучение происходит по всей выборке и оценивается функционалом эмпирического риска по этой же самой выборке. Тогда никаких гарантий правильного распознавания правилом /* объектов, не участвовавших в обучении, нет. Действительно, при достаточно «богатом» семействе 5 можно построить для любого конечного множества, содержащего т допустимых объектов, не участвовавших в обучении, корректную на исходной таблице обучения функцию /* е Б, ошибающуюся на всех этих т объектах. Для этой цели каждому из них сопоставляется неправильный номер класса, и полученная таблица сливается с таблицей обучения ш(Хд)), д = 1,,,,,/} , Если в семействе 5 найдется корректный алгоритм для такой объединенной таблицы длины I + т, то он будет примером случая, когда указанная стратегия обучения в рассматриваемом классе задач, несмотря на точную настройку, даёт неприемлемый результат, В таком случае говорят, что обучаемость не имеет места.

Другая ситуация возникает, когда точная настройка при выбранном семействе 5 возможна только для некоторого множества допустимых выборок, таких, в которых все объекты в каждом классе обладают некоторыми отличающими их от объектов другого класса свойствами. Тогда возможность получения решения системы (2) с ростом длины выборки I связывается именно с проявлением в выборке указанных свойств (закономерностей - по Колмогорову) и обеспечивается существованием в классе 5 правила, способного «улавливать» эти свойства. Именно наличие закономерностей в генеральной совокупности в свою очередь влечет появление в таблице обучения не любых из 2" возможных двоичных «столбцов» а = (а^,,,,, ад,,,,, а:/), ад = ш(Хд), д = 1,а «столбцов» лишь из некоторого, определенного существующей закономерностью, множества.

Далее УСВ(Б) обозначает емкость семейства решающих правил (размерность Вапннка-Червоненкиса [1,2])

Теорема 1. Если VCD(S) > I, то найдётся выборка {-Xi,,,, ,Х[} = Х[ такая, что для, любого а по таблице (Xi,a) возможна точная, настройка.

Доказательство. Следует из определения VCD(S) - ёмкости семейства S □

Теорема 2. Если для, любой выборки Х[ существует такой булевский набор а, что по таблице{Х1,а) невозможна, точная, настройка, то VCD(S) < I.

Доказательство. Достаточно заметить, что утверждение теоремы 2 равносильно утверждению теоремы 1 □

Последняя теорема дает необходимое условие обучаемости для задач распознавания класса

D/ - /ВЛТ V /.V/ V ST/SS/-при выборе стратегии, направленной на построение корректных на обучающих таблицах алгоритмов: емкость семейства решающих правил, используемого для настройки, должна быть меньше длины выборки. Заметим, что неотрицательная величина I — VCD(S) может быть использована для получения оценки неслучайности обнаружения закономерности по обучающей выборке [6]. Условие VCD(S) < I обосновывает важность знания емкости используемого для решения задачи распознавания класса, В связи с этим следующий результат, предполагающий использование хорошо изученных математических свойств некоторых классов функций, представляется полезным при изучении VCD.

Теорема 3. Пусть функциональная система (2) при зафиксированном, семействе решающих функций S для, любой выборки Х[ и любых двоичных значениях щ,... = а может иметь не более одного решения, и при этом, найдется выборка, Х[ такая, что для, любого а существует решение f\. Тогда, VCD(S) = I.

Доказательство. Поскольку существует выборка ,,,, Х[}, для которой функциональная система (2) имеет решение при любом двоичном наборе a>i,...,a>i , в семействе S найдутся функции, разбивающие эту выборку на два класса всеми способами, Поэтому VCD(S) > I. Если к любой выборке {-Xi,,,,, Xi} длины I добавить один произвольный не принадлежащий ей элемент Z из генеральной совокупности допустимых объектов, то множество решений функциональной системы

/№) = «ь

/№) = а2;

/№) = «/; 1 j f{Z) =

fes,

при любом ¡3 G {0; 1} будет не шире множества решений системы (2), Поэтому, в силу условия теоремы, система (3) может иметь не более одного решения. Если она не имеет решений, то для выборки {-Xi,,,, ,X¡,Z} длины I + 1 при помощи функций семейства S невозможно получить разбиение, соответствующее булеву набору п |.....i\j. J. Если же решение /* системы (3) существует, то по условию теоремы

оно единственное для функциональных систем (2) и (3), Тогда ß = f*(Z), но при помощи функций системы S невозможно получить разбиение выборки {JYi,... ,Xi, Z} длины I + 1, соответствующее булеву набору а,\,... ,a>i, ß. Учитывая, что последнее заключение получено в результате рассмотрения любой выборки {JYi,... ,Xi} длины I, получаем неравенство VCD(S) < I, которое вместе с неравенством VCD(S) > I дает результат: VCD(S) = I □

Заключение

В статье предложена классификация задач распознавания по их основным свойствам, Обосновывается целесообразность выбора методов решения таких задач в соответствии с особенностями указанных классов. Представлена первая часть исследования в этом направлении и рассмотрен детерминистский класс задач

D/ - /R]T V /,'./ V ST/SS/ - .

Для указанного класса приведено необходимое условие обучаемости и обосновано применение корректных алгоритмов. Дальнейшие исследования в этом направлении связаны с изучением других классов задач распознавания в соответствии с их классификацией,

список литературы

1. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. - М.: Наука, 1979. — 448 с.

2. Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. М.: Наука, 1974. - 416 с.

3. Воронцов К. В. Комбинаторные оценки качества обучения по прецедентам // Докл. РАН. -2004. - Т.394, т. - С. 175 -178.

4. Журавлев Ю.И. Об алгебраическом подходе к решению задач распознавания или классификации // Проблемы кибернетики. - Вып.33. - М.: Наука, 1978. - С. 5 - 68.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

5. Devroye L., Gyorfi L., Lugosi G. A Probabilistic Theory of Pattern Recognition. Springer-Verlag, NY, 1996. - 636 p.

6. Donskoy V. I. The Estimations Based on the Kolmogorov Complexity and Machine Learning from Examples // Proceedings of the Fifth International Conference "Neural Networks and Artificial Intelligence"(ICNNAI'2008). - Minsk: INNS. - 2008. - P. 292 - 297.

Статья поступила в редакцию 20.06.2010

i Надоели баннеры? Вы всегда можете отключить рекламу.