Научная статья на тему 'Вероятностная модель токенизации в проекте Открытый корпус'

Вероятностная модель токенизации в проекте Открытый корпус Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
383
60
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Бочаров В. В., Грановский Д. В., Суриков А. В.

В проекте Открытый Корпус [1, 2] существует ступенчатая процедура добавления текста в корпус. Одним из начальных этапов этой процедуры, как и начальным этапом анализа текста вообще, является токенизация, то есть деление текста на минимальные линейные компоненты токены.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Вероятностная модель токенизации в проекте Открытый корпус»

Вероятностная модель токенизации в проекте Открытый корпус

12 12 1 Бочаров В.В. ' , Грановский Д.В. ' , Суриков А.В.

1 OpenCorpora, Санкт-Петербург

2 Санкт-Петербургский государственный университет

{bocharov, granovsky, [email protected]

Введение

В проекте "Открытый Корпус" [1, 2] существует ступенчатая процедура добавления текста в корпус. Одним из начальных этапов этой процедуры, как и начальным этапом анализа текста вообще, является токенизация, то есть деление текста на минимальные линейные компоненты - токены.

Если судить по количеству публикаций на русском языке, токенизации уделяется не так много внимания по сравнению с более высокоуровневыми этапами анализа, например, морфологическим разбором. При этом вполне очевидно, что токенизация - необходимая стадия обработки текста перед его дальнейшим анализом, и ошибки токенизации существенно влияют на работу морфологического парсера; так, авторы статьи [3] решали в т.ч. задачу полностью автоматического морфологического анализа текста на русском языке и обнаружили, что наихудшим по качеству компонентом Р08-таггера оказался токенизатор, основанный на правилах.

Токенизаторы, основанные на более или менее сложных правилах, являются, по-видимому, самым популярным подходом для русскоязычного текста. В частности, в описании графематического модуля АОТ/Б1аНп§ [4] нет явного указания на правила, но анализ исходного кода [5] подтверждает, что используется функция, содержательно реализующая именно набор правил. Простейшим набором может быть, например, такой: разделить текст по пробелам; отрезать от каждой получившейся цепочки букв все крайние подцепочки, букв не содержащие.

Проблемы токенизации

Токенизация в "Открытом корпусе" подчиняется нескольким принципам:

• внутри токена не может быть пробелов,

• пробел токеном не является,

• сходные цепочки должны разбиваться единообразно,

• все непробельные символы, присутствующие в исходном тексте, сохраняются (о пользе пунктуации для синтаксического анализа см., например, [6]).

Кириллические цепочки, как правило, не представляют особенной сложности, за исключением слов, написанных через дефис. Можно выделить некоторые показательные случаи:

• словарные слова из закрытых классов (какой-нибудь, где-то),

• произвольные слова с клитиками (мы-то, он-де),

• приложения (дворник-таджик),

• составные слова с изменяемой первой частью (кресло-кровать, ракета-носитель),

• составные слова с неизменяемой первой частью (офис-менеджер, веб-сайт),

• имена собственные (Жан-Поль, Санкт-Петербург),

• сокращения, в т.ч. с числами (3-й, 24-летний, г-н),

• названия моделей, событий и т.п. (ТУ-154, Евровидение-2011),

• ошибки (как-бы, то-есть),

• произвольные авторские комбинации (Тот-кого-нельзя-называть).

• Некоторые проблемы вызывают и некириллические цепочки. Перечислим самые распространенные, по нашему опыту, спорные случаи:

• несколько подряд идущих знаков препинания, в частности если эти знаки одинаковые,

• "смайлики",

• обозначения времени (12:25) и даты (31.12.2011),

• составные числа (16.3) и дроби (1/4),

• слова иностранных языков (donne-moi).

В каждом из описанных случаев от токенизатора требуется определить, следует ли считать цепочку одним токеном или несколькими. Логика работы здесь, конечно, зависит от требований конкретного проекта (например, в Открытом корпусе принято, что случаи типа "веб-сайт" надо рассматривать как один токен, а случаи типа "Жан-Поль" - как три), но это не очень важно по сравнению с требованием единообразия, которое, как нам кажется, универсально.

Машинное обучение

На начальном этапе мы также предполагали использовать токенизатор, основанный на правилах, однако довольно быстро выяснилось, что для приемлемого качества токенизации с учетом всевозможных видов токенов количество этих правил должно быть очень велико. В таком случае естественное решение - использование машинного обучения.

Процесс добавления текстов в корпус организован так, что результаты работы токенизатора на каждом предложении проверяются вручную. Чем более качественный (в нашем случае - близкий к инструкции) результат выдает токенизатор, тем менее трудоемка такая проверка. На начальной стадии (пока для обучения не было данных) все предложения разбивались вручную.

В качестве обучающего множества используются все уже токенизированные предложения корпуса. Каждое предложение представлено в виде пары (s, T), где s -исходная, нетокенизированная запись предложения (строка), а T - упорядоченное множество токенов, на которые оно разбито. При этом s всегда можно получить, "склеив" все элементы T по порядку, вставляя пробелы, если нужно1. Следовательно, для каждой позиции j в s можно определить, стоит ли после j-го символа граница токенов.

Модель устроена очень просто и представляет собой вероятностный бинарный

Ф2

икатор: для каждой позиции j вычисляется некоторое количество логических контекстных функций, ее характеризующих (см. ниже), и из результатов вычисления составляется вектор, например, <0, 0, 1, 1, 0, 1>, если функций 6. Накапливая информацию о парах (вектор, наличие границы), после обработки всего обучающего множества получаем для каждого вектора вероятность встретить границу токенов при данных условиях.

1 Это утверждение неверно для случаев, когда в тексте имеется несколько пробелов подряд, но нам кажется, что это несущественно, поскольку относится скорее к типографике, чем к языку.

2 Имеется в виду функция, возвращающая одно из двух значений: 0 или 1.

Таким образом, применение модели для токенизации текста выглядит так: в каждой позиции текста по тем же правилам, что и при обучении, вычислить вектор двоичных признаков, найти в таблице соответствующую вероятность и решить, достаточно ли эта вероятность высока для постановки границы в данной позиции.

Сходные модели применяются для сегментации русского текста на предложения ([7, 8]), причем во втором случае предлагается более сложный (и, по-видимому, более эффективный) метод, использующий деревья решений. Нет никаких сомнений, что этот вариант применим и в нашем случае; мы планируем исследовать его в будущем.

Контекстные функции

Большинство контекстных функций работают с минимальным, символьным контекстом - левым или правым. Сюда, например, относятся:

• "является ли символ слева буквой кириллицы",

• "является ли символ справа дефисом",

• "является ли символ справа закрывающей скобкой любого вида" и т.п.

Для работы таких функций достаточно информации, содержащейся во входном тексте.

Кроме того, некоторые функции принимают во внимание всю цепочку непробельных символов, внутри которой находятся - неважно, оказывается ли она в левом контексте, правом или обоих. Это имеет смысл, когда такая цепочка может оказаться объектом некоторого класса, который подразумевает действие "всегда разделять" или "никогда не разделять", например:

• адресом интернет-ресурса (http://domain.eom/a/b/c/page.html) или электронной почты ([email protected]),

• обозначением времени (08:23),

• словарным словом с дефисом (по-английски) и т.д.

Некоторым из таких функций требуются внешние источники информации -например, список всех словарных слов с дефисом или список исключений. Это можно реализовать по-разному; так, в первом случае мы используем запросы к базе данных1, а во втором - простой текстовый файл, загружающийся один раз при запуске программы.

Понятно, что функции могут быть взаимно зависимыми или независимыми. Скажем, функция "является ли следующий символ пробелом" и функция "является ли следующий символ латинской буквой", очевидно, зависимы, поскольку символ не может быть одновременно пробелом и латинской буквой. Зависимость функций, в принципе, никак не влияет на модель, но её можно использовать, чтобы составить более короткий вектор без потери информации (закодировав, например, значения 4 функций двумя битами вместо четырёх), что может быть полезно, если функций много.

На момент написания статьи модель использует 33 функции (в том числе 12 функций, применяемых поочередно к левому и правому символу из минимального контекста), которые - за счет зависимости - порождают 13-битовый вектор.

1 В версии модели для скачивания (см. Заключение) запросы к БД также заменены на читаемый при

запуске файл.

Порог отсечения

Принцип работы модели подразумевает, что каждой позиции нетокенизированного текста приписывается некоторая вероятность встретить в этой позиции границу токенов. Очевидно, что для разбиения этого недостаточно, так как необходимо привести каждую вероятность к бинарному значению (разбивать или не разбивать), для чего, в свою очередь, необходимо выбрать порог отсечения - т.е. значение вероятности, начиная с которого следует считать границу "достаточно" вероятной.

Стратегия выбора порога отсечения в целом представляется понятной: необходимо подобрать такое значение, при котором токенизатор будет показывать наибольшую точность работы (в широком смысле) при разбиении предложений обучающего множества (см. раздел "Оценка качества"). Это, очевидно, эффективная стратегия в случае, если в дальнейшем предполагается полностью автоматическая работа токенизатора. Однако если по каким-то причинам важнее, допустим, максимизировать полноту за счет точности (иными словами, лучше поставить несколько лишних границ, чем пропустить границу), то порог имеет смысл снизить примерно до 0,011.

Оценка качества

Точность бинарных классификаторов (каковым является токенизатор) общепринято оценивать путем подсчета количества ошибок, которые модель допускает при классификации объектов из некоторого корпуса, при этом ошибки бывают первого рода (ложное срабатывание) и второго рода (пропуск события). В нашем случае ошибка первого рода - неверно поставленная граница токенов, а второго - пропуск правильной границы. Если рассматривать токенизацию как задачу поиска границ, то можно воспользоваться терминологией информационного поиска и, зная количество ошибок обоих типов, вычислить точность и полноту классификатора.

При оценке мы воспользовались известной техникой кросс-валидации (cross-validation, в русскоязычной литературе встречается также перевод "скользящий контроль") [9], которая подразумевает, что некоторое размеченное множество примеров (в нашем случае - весь доступный корпус, около 700 тыс. токенов) разбивается на N подмножеств, после чего производится N измерений, в каждом из которых очередное подмножество выступает как тестовое, а остальные в совокупности - как обучающее. Затем результат усредняется. Мы выбрали N = 10: это значение достаточно велико, чтобы усреднение имело смысл, но ещё не столь велико для того, чтобы объём тестового множества стал слишком мал.

Поскольку, как мы уже упоминали, в проекте принято соглашение, что пробел всегда является разделителем токенов, довольно бессмысленно считать все верно расставленные границы до и после пробелов. Поэтому такие случаи были исключены из оценки.

На рис. 1 представлена зависимость точности (P), полноты (R) и Fi-меры от порога отсечения (шаг по оси абсцисс - 0,05, кроме того, добавлены значения 0,01 и 0,99).

1 По нашему опыту, снижение до 0 даёт побочные эффекты, вызванные шумом (например, опечатками) в

исходных данных, см. Рис. 1.

0.99 0.98 0.97 0.96

0.94 0 0.92 0.91 0.9

V Р1

0.1

0.2

0.3 0.4 0.5 0.6

0.7

0.8 0.9

Рис. 1

Как и следовало ожидать, при увеличении порога отсечения точность монотонно растет, а полнота монотонно убывает. Интересно, что точность при пороге 0 составляет всего около 4%, а при пороге 0,01 уже более 96%. Полнота при пороге 1 составляет около 91%. Максимум Б1-меры достигается при пороге около 0,45-0,5 и составляет примерно 99,15%. Как показывает практика использования токенизатора в Открытом корпусе, это соответствует вполне удовлетворительному качеству токенизации, при котором большинство частотных случаев классифицируется верно. Самые спорные случаи классифицировать иначе, чем вручную, по-видимому, невозможно.

Заметим, что таким образом мы оцениваем, разумеется, не саму вероятностную модель, а конкретную ее реализацию, главным образом - набор контекстных функций, а также - в некоторой степени - качество обучающего множества.

Для сравнения мы проанализировали результат работы простейшего эвристического токенизатора с двумя правилами: всегда разбивать по пробелам, всегда разбивать на границе буквы и не буквы. Бгмера составила около 92%.

Преимущества и недостатки метода

Описанный метод, в принципе, обладает обычным преимуществом статистических методов: существенно проще - по сравнению с моделями, основанными на правилах - менять поведение токенизатора на некотором классе случаев (путем изменения набора контекстных функций).

При этом видятся три основных недостатка:

• невысокая скорость работы как при обучении, так и при классификации, не менее чем линейно зависящая от числа функций,

• зависимость от качественных (т.е. размеченных согласно единому стандарту) обучающих примеров,

• при собственном стандарте токенизации - необходимость изначально существующего размеченного множества примеров для первичного обучения.

Очевидно, что для некоторых задач этот метод токенизации не подойдет. Мы предполагаем два сценария, в которых его применение, скорее всего, оправдано:

• разметка объемного корпуса, особенно в условиях меняющегося по ходу стандарта токенизации,

• токенизация текста для задач, где детали стандарта токенизации не очень

0

0

важны (подразумевается наличие уже обученной модели, см. ниже). Будущая работа

Качество текущей модели является в целом удовлетворительным. Основным направлением, в котором её можно улучшать, нам видится добавление новых классов сущностей, которые отвечают двум критериям: во-первых, не определяются в рамках существующей модели, во-вторых, при любом осмысленном стандарте токенизации должны трактоваться единообразно. Примером такого класса могут быть "смайлики".

Кроме того, мы планируем исследовать влияние объёма обучающего множества на качество токенизации. There is no data like more data1, но в нашем случае огромный (миллионы примеров) объем обучающего множества, во-первых, не всегда достижим, во-вторых, непосредственно влияет на скорость (пере)обучения модели. С другой стороны, если количество контекстных функций (и, соответственно, размерность векторного пространства) растёт, то данные становятся всё более разреженными, что можно компенсировать только увеличением объёма. Таким образом, это вполне насущная проблема.

Заключение

Описанная модель реализована в виде программного модуля на языке Perl, который доступен для свободного скачивания и применения [10]. Вместе с моделью распространяются данные для неё, т.е. модель уже обучена. К сожалению, на данный момент программный код, реализующий собственно обучение, доступен в менее удобном для использования виде [11].

Список литературы

• Bocharov V., Bichineva S., Granovsky D., Ostapuk N., Stepanova M. Quality assurance tools in the OpenCorpora project // Компьютерная лингвистика и интеллектуальные технологии: По материалам ежегодной Международной конференции «Диалог» (Бекасово, 25-29 мая 2011 г.). Вып. 10 (17). — М.: РГГУ, 2011.

• Бочаров В.В., Грановский Д.В. Программное обеспечение для коллективной работы над морфологической разметкой корпуса // Труды международной конференции «Корпусная лингвистика - 2011». 27-29 июня 2011 г., Санкт-Петербург. — СПб.: С.-Петербургский гос. университет, Филологический факультет, 2011.

• Sharoff S., Nivre J. The Proper Place of Men and Machines in Language Technology: Processing Russian Without Any Linguistic Knowledge. // Компьютерная лингвистика и интеллектуальные технологии: По материалам ежегодной Международной конференции «Диалог» (Бекасово, 25-29 мая 2011 г.). Вып. 10 (17). — М.: РГГУ, 2011.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

• Сокирко А.В. Семантические словари в автоматической обработке текста (по материалам системы ДИАЛИНГ). Дисс. на соиск. степени кандидата технических наук.— М., 2001.

• Исходный код системы ДИАЛИНГ. URL: http://seman. svn. sourceforge.net/viewvc/seman/trunk/S ource/GraphanLib/graline. cp

1 Приблизительно переводится как "чем больше данных, тем лучше"; известная эвристика машинного

обучения, приписываемая разным авторам.

p?revision= 176&view=markup

• Окатьев В.В., Ерехинская Т.Н., Скатов Д.С. Модели и методы учета пунктуации при синтаксическом анализе предложения русского языка. // Компьютерная лингвистика и интеллектуальные технологии: По материалам ежегодной Международной конференции «Диалог» (27-31 мая 2009 г.). Вып. 8 (15). — М.: РГГУ, 2009.

• Урюпина О. Автоматическое разбиение текста на предложения для русского языка. // Компьютерная лингвистика и интеллектуальные технологии: По материалам ежегодной Международной конференции «Диалог» (4-8 июня 2008 г.). Вып. 7 (14). — М.: РГГУ, 2008.

• Кудинов А.С., Воропаев А.А., Калинин А.Л. Высокоточный метод распознавания концов предложений. // Компьютерная лингвистика и интеллектуальные технологии: По материалам ежегодной Международной конференции «Диалог» (Бекасово, 25-29 мая 2011 г.). Вып. 10 (17). — М.: РГГУ, 2011.

• Kohavi R. A Study of Cross-Validation and Bootstrap for Accuracy Estimation and Model Selection // International Joint Conference on Artificial Intelligence, 1995.

• Суриков А. Модуль Lingua::RU::OpenCorpora::Tokenizer. URL: http://search.cpan.org/~ksuri/Lingua-RU-OpenCorpora-Tokenizer/

• Исходный код проекта OpenCorpora. URL: http://code.google.com/p/opencorpora/source/browse/trunk/scripts/tokenizer/collect_ data.pl

i Надоели баннеры? Вы всегда можете отключить рекламу.