Научная статья на тему 'Применение деревьев решений для задач интерпретации результатов геофизических исследований скважин'

Применение деревьев решений для задач интерпретации результатов геофизических исследований скважин Текст научной статьи по специальности «Математика»

CC BY
369
156
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Мыльцев В. А., Ворончак В. И.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Применение деревьев решений для задач интерпретации результатов геофизических исследований скважин»

Мыльцев В.А., Ворончак В.И. ПРИМЕНЕНИЕ ДЕРЕВЬЕВ РЕШЕНИЙ ДЛЯ ЗАДАЧ ИНТЕРПРЕТАЦИИ РЕЗУЛЬТАТОВ ГЕОФИЗИЧЕСКИХ ИССЛЕДОВАНИЙ СКВАЖИН

Одной из важнейших геофизических задач является интерпретация данных каротажных исследований, ставящая своей целью определение величины и характера возможной продуктивности пластов, вскрытых скважиной. Сложность изучаемых природных процессов делают зачастую неоднозначными результаты интерпретации. В связи с этим широкое применение при решении задач ГИС находят методы классификации и распознавания образов, позволяющие упростить и упорядочить полученную информацию, учесть имеющиеся априорные данные, а также, по возможности, устранить элементы субъективности [1,2].

Каротажная диаграмма представляет собой кривую в аналоговой или оцифрованной форме, отражающую изменение какого-либо одного параметра по глубине скважины. Зная значение этого параметра в различных породах и при различных мощностях пластов, можно на основе КД выполнить литологическое расчленение, т.е. определить тип и мощность изучаемых пластов, а также их возможную продуктивность (перспективную газо-, нефте-, водоотдачу).

Значения результатов измерений, осредненных по коллектору, определяют свойства скважины.

Результаты успешного применения для интерпретации геофизических исследований скважин методов, основанных на нейронных сетях, нечеткой логике, приведены в работе [3]. Метод классификации, основанный на деревьях решений, имеет в качестве преимуществ следующие свойства:

- быстрый процесс обучения;

- генерация правил в областях, где эксперту трудно формализовать свои знания;

- извлечение правил на естественном языке;

- интуитивно понятная классификационная модель;

- достаточно высокая точность прогноза, сопоставимая с другими методами;

- построение непараметрических моделей.

Эти положительные свойства приближают методологию деревьев решений к системам, основанным на нечеткой логике, выигрывая у них в быстроте процесса обучения.

Деревья решений - один из методов извлечения знаний из данных. Введем основные понятия из теории деревьев решений:

- объект - пример, шаблон, наблюдение;

- атрибут - признак, независимая переменная, свойство;

- метка класса - зависимая переменная, целевая переменная, признак определяющий класс объекта;

- узел - внутренний узел дерева, узел проверки;

- лист - конечный узел дерева, узел решения;

- проверка - условие в узле.

Деревья решений - это способ представления правил в иерархической, последовательной структуре, где каждому объекту соответствует единственный узел, дающий решение. Под правилом понимается логическая конструкция, представленная в виде if A then B (A^ B) .

Областью применения деревья решений является, в частности, классификация - отнесение объектов к одному из заранее известных классов. Целевая переменная при этом имеет дискретные значения.

Пусть задано некоторое обучающее множество X , содержащее объекты, каждый из которых характеризуется m атрибутами и один из них указывает на принадлежность объекта к определенному классу.

Через {С,} обозначим классы. Тогда существуют 3 ситуации:

1) - множество X содержит один или более примеров, относящихся к одному классу С . Тогда дерево решений для X - это лист, определяющий класс С ;

2) - множество X не содержит ни одного примера X =0. Тогда это снова лист, и класс, ассоциированный с листом, выбирается из другого множества отличного от X , например, из множества, ассоциированного с родителем;

3) - множество X содержит примеры, относящиеся к разным классам. В этом случае следует разбить множество X на некоторые подмножества. Для этого выбирается один из признаков, имеющий два и более отличных друг от друга значений Wj, j = 1,n . X разбивается на подмножества Xj, j = 1,n , где

каждое подмножество содержит все примеры, имеющие значение для выбранного признака. Это процедура будет рекурсивно продолжаться до тех пор, пока конечное множество не будет состоять из примеров, относящихся к одному и тому же классу.

Данная процедура лежит в основе многих алгоритмов построения деревьев решений (метод разделения и захвата). Построение дерева решений происходит сверху вниз.

Поскольку все объекты были заранее отнесены к известным классам, такой процесс построения дерева решений называется обучением с учителем.

Известно несколько подходов к построению деревьев решений [4]. Метод CART (Classification and Regression Tree) - это алгоритм построения бинарного дерева решений - дихотомической классификационной модели. Каждый узел дерева при разбиении имеет только двух потомков. Метод C4.5 - алгоритм построения дерева решений, количество потомков у узла не ограничено. Не умеет работать с непрерывным целевым полем, поэтому решает только задачи классификации.

При построении деревьев решений необходимо решить следующие вопросы:

а) выбор критерия атрибута, по которому пойдет разбиение;

б) остановка обучения;

в) отсечение ветвей.

Выбор критерия атрибута

Для построения дерева на каждом внутреннем узле необходимо найти такое условие, которое бы разбивало множество, ассоциированное с этим узлом на подмножества [5] . В качестве такой проверки должен быть выбран один из атрибутов. Выбранный атрибут должен разбить множество так, чтобы получаемые в итоге подмножества состояли из объектов, принадлежащих к одному классу, или были максимально приближены к этому, т.е. количество объектов из других классов в каждом из этих множеств было как можно меньше.

Для выбора наиболее подходящего атрибута в алгоритме C4.5, применяется теоретикоинформационный критерий.

элемент этого множе-

Имеется обучающее множество примеров X = |х1',Ск },1 = 1, Р;к = 1,К , где каждый ства описывается атрибутами X = ^ х1 ^,/ = 1, ш и принадлежит одному из классов ск. Количество примеров

в множестве равно р является мощностью этого множества |Х| .

Задача заключается в построении иерархической классификационной модели в виде дерева из множества примеров X = |Х', С{ |, ] = 1, р; к = 1, К . Процесс построения дерева происходит сверху вниз. Сначала

создается корень дерева, затем потомки корня и т.д. На первом шаге имеется пустое дерево (есть только корень) и исходное множество, ассоциированное с корнем).

Требуется разбить исходное множество на подмножества. Это можно сделать, выбрав один из атрибутов в качестве проверки. Тогда в результате разбиения получаются п (по числу значений атрибута) подмножеств и соответственно создаются п потомков корня, каждому из которых поставлено в

Затем

соответствие свое подмножество, полученное при разбиении множества X = {xJ,CJk }, j = 1,p;k = 1,K

эта процедура рекурсивно применяется ко всем подмножествам (потомкам корня) и т.д. Любой из атрибутов можно использовать неограниченное количество раз при построении дерева.

Определим в качестве проверки t какой-либо атрибут, принимающий значения xt = ( Wj ) ,i = 1, m; j = 1, n. Тогда разбиение X по проверке t дает соответствующие подмножества Xj, j = 1,n . Критерий выбора определяется Единственная информацией о том, каким образом классы распределены в множестве X и его подмножествах, получаемых при разбиении по t .

Обозначим P,, к = 1, K;i = 1, m; q = 1, n вероятность принадлежности классу , по атрибуту i и q -му пороговому значению xt = (w#),i = 1,m;j = 1,n , а Pk - вероятность попадания в класс к . В качестве меры

среднего количества информации, необходимого для определения класса примера из множества X берется энтропия Шеннона K

Hx =-2Pk loS2 Pk . к=1

Разбиению множества X по проверке t соответствует выражение для энтропии K

Hqq =-2Pq log2 Р^ .

к=1

Критерием выбора является выражение

HX - Hiq ^ maX

или

Hiq ^ min .

Минимальное значение энтропии H/(? ответствует максимуму вероятности появления одного из классов. Выбранный атрибут и пороговое значение , минимизирующие Hiq ,

(i, q) = ArgMin нiq

используются для проверки значения по этому атрибуту и дальнейшее движение по дереву производится в зависимости от полученного результата.

Данный алгоритм применяется к полученным подмножествам и позволяет продолжить рекурсивно процесс построения дерева, до тех пор, пока в узле не окажутся примеры из одного класса. Если в процессе работы алгоритма получен узел, ассоциированный с пустым множеством (т.е. ни один пример не попал в данный узел), то он помечается как лист, и в качестве решения листа выбирается наиболее часто встречающийся класс у непосредственного предка данного листа.

Для нахождения пороговых величин для числового атрибута значения xj ,i = 1, m; j = 1, p сортируются по возрастанию и

(xJt + xji +1) ------- -------------

: A------------------->-,i = 1,m; j = 1, p -1

, ш; 1 ■ 2 '

определяют порог, с которым должны сравниваться все значения атрибута. Следует отметить, что все числовые тесты являются бинарными, т.е. делят узел дерева на две ветви.

Правила остановки разбиения узла

1) Использование статистических методов для оценки целесообразности дальнейшего разбиения.

2) Ограничение глубины дерева. Остановить дальнейшее построение, если разбиение ведет к дереву с глубиной, превышающей заданное значение.

3) Разбиение должно быть нетривиальным, т.е. получившиеся в результате узлы должны содержать не менее заданного количества примеров.

Правило отсечения ветвей дерева

Предназначено для предотвращения сложных деревьев, трудных для понимания, которые имеют много узлов и ветвей.

Примем за точность распознавания дерева решений отношение правильно классифицированных объектов при обучении к общему количеству объектов из обучающего множества, а под ошибкой - количество неправильно классифицированных. Предположим, что известен способ оценки ошибки дерева, ветвей и листьев. Тогда, возможно использовать следующее правило:

1) построить дерево;

2) отсечь или заменить поддеревом те ветви, которые не приведут к возрастанию ошибки.

Отсечение ветвей происходит снизу вверх, двигаясь с листьев дерева, отмечая узлы как листья, либо заменяя их поддеревом.

Для проведения геофизических исследований скважин применяются разнообразные группы методов: электрометрические, акустические, радиометрические, термометрические и др. Для обработки будем использовать результаты измерений полученные несколькими методами.

1. BK - метод - основан на измерении зондом электрического сопротивления пласта.

2. AK - акустический метод - измерение интервального времени пробега DT продольной звуковой волны.

3. GR - гамма-метод заключается в регистрации кривой изменения интенсивности естественного гамма-излучения пород в разрезе скважины при перемещении в ней радиометра.

4. NGR - нейтронный гамма-метод, основанный на измерении поглощения и рассеяния нейтронов.

5. ^ - метод кавернометрии, заключающийся в измерении фактического диаметра необсаженной

скважины.

Рассмотрена выборка из р =210 точек. Анализ проводился на определении в коллекторе воды, углеводородов либо их смеси. Результирующее дерево показано на рис.1.

ВК> 0.328:

ВК > 0.788:Углеводороды ВК <= 0,788:

1— АК > 0.31: Углеводороды АК <= 0.31:

1— КМ <= 0.66: Смесь воды и углеводородов КМ > 0.66:Углеводороды

ВК<= 0.320:

1— ВК <= 0.076: Бода ВК > 0.078:

I--|«5Й<= 0.167:

вя <= 0.215:Углеводороды > 0,215;

1— вк > 0.163: Смесь воды и углеводородов вк <= 0,163:

1—АК. <= 0,432: Вода

АК> 0.432: Смесь воды и углеводородов N014 > 0.1 Б7:

1—КМ <= 0.763: Вода КМ > 0.763:

1—чек > 0.629: Вода

ИвЯ <= 0.629:

1— №1* > 0.332:Смесь воды и углеводородов №!*<= 0.332:

1--АК <= 0.И03:Вода

АК > 0.403:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1— <= 0.33Б:Углеводороды

вп> 0.336: Вода

Рис.1. Дерево классификации разреза скважины на наличие продуктивных пластов

Из 210 примеров 167 отнесены к водосодержащим, 28 - к углеводородосодержащим и 19 - к смеси «вода + углеводороды». При этом 4 пласта «Вода» отнесены к смеси «вода + углеводороды». 2 пласта «Углеводороды» также отнесены к смеси. Таким образом, точность распознавания продуктивных пластов-коллекторов достаточно высокая.

Время расчета данного дерева значительно меньше времени, требуемого для обучения как нейронной сети, так и системы нечеткого логического вывода. Структура дерева поясняет процесс интерпретации и может быть полезной для эксперта-интерпретатора.

ЛИТЕРАТУРА

1. Дьяконова Т.Ф. Применение ЭВМ при интерпретации данных геофизических исследований скважин. М.: Недра, 1991. - 220c.

2. Латышова М.Г. Венделынтейн Б.Ю., Тузов В.П. Обработка и интерпретация геофизических исследований скважин. - М.: Недра, 1990. - 312c.

3. Сенилов М.А., Тененев В.А. Интеллектуальные алгоритмы интерпретации геофизических исследований скважин. СПб: Изд-во СПбГЭТУ «ЛЭТИ»,2004. - 128c.

4. Kiselev, M.V., Ananyan, S. M., and Arseniev, S. B. Regression-Based Classification Methods and Their Comparison with Decision Tree Algorithms, In: Proceedings of 1st European Symposium on Principles of Data Mining and Knowledge Discovery, Trondheim, Norway, Springer, 1997. - pp 134144.

5. Wang Q. R. and C. Y. Suen. Large tree classifier with heuristic search and global training. IEEE Transactions on Pattern Analysis and Machine Intelligence, 9(1):91-102, 1987.

i Надоели баннеры? Вы всегда можете отключить рекламу.