Научная статья на тему 'Модификация метода последовательного прогнозирования вероятностей для выбора оптимальной сложности математической модели пласта-коллектора'

Модификация метода последовательного прогнозирования вероятностей для выбора оптимальной сложности математической модели пласта-коллектора Текст научной статьи по специальности «Математика»

CC BY
82
24
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Денисов С. В., Исмагилов Р. И.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Модификация метода последовательного прогнозирования вероятностей для выбора оптимальной сложности математической модели пласта-коллектора»

Денисов С.В., Исмагилов Р.И. МОДИФИКАЦИЯ МЕТОДА ПОСЛЕДОВАТЕЛЬНОГО ПРОГНОЗИРОВАНИЯ ВЕРОЯТНОСТЕЙ ДЛЯ ВЫБОРА ОПТИМАЛЬНОЙ СЛОЖНОСТИ МАТЕМАТИЧЕСКОЙ МОДЕЛИ ПЛАСТА-КОЛЛЕКТОРА

В статье предлагается модификация метода последовательного прогнозирования вероятностей (МППВ) для дискриминантного анализа моделей пласта по данным гидродинамических исследований скважин (ГДИС). Данная модификация МППВ нацелена, главным образом, на снижение вычислительных затрат. Это достигается за счет объединения метода последовательной регрессии и теории вероятностей. Приведены результаты сравнения МППВ с его модифицированной версией.

В [1] предложен МППВ для дискриминантного анализа моделей пласта по результатам ГДИС. Данный подход является относительно эффективным средством идентификации оптимальной модели коллектора путем сравнения всех моделей-кандидатов пласта и последующего вычисления вероятности того, что каждая из них корректно предскажет реакцию на изменение давления. При этом модели-кандидаты и начальные оценки их параметров должны быть определены заранее.

В статье описывается модифицированный МППВ. Главным недостатком обычного МППВ являются достаточно высокие вычислительные затраты для его реализации. В частности, на каждом шаге последовательной процедуры МППВ необходимо производить оценку параметров с помощью нелинейной регрессии. Для получения оптимальных значений параметров нелинейная регрессия требует итераций. В целом, вычислительные затраты увеличиваются пропорционально количеству последовательных шагов МППВ, хотя, надо заметить, что число итераций может оказаться невелико, поскольку на каждом новом шаге используются оценки параметров, полученных на предыдущем шаге.

Модификация МППВ нацелена, главным образом, на снижение вычислительных затрат. Это достигается за счет объединения метода последовательной регрессии и теории вероятностей. Метод последовательной регрессии - это частный случай методов нелинейной регрессии. Он используется в тех случаях, когда оптимальные значения параметров могут быть получены на основе п точек данных. Когда становится доступной п +1-я точка данных, оптимальные значения параметров для п +1 точек данных определяются непосредственно из оптимальных значений параметров и матрицы Гессе для п точек данных. Данный метод не требует итераций и в сравнении с нелинейной регрессией может заметно уменьшить количество вычислений. Применительно к ГДИС метод последовательной регрессии для оценки параметров исследовался, например, в [2; 3].

Введем следующие обозначения: Е - целевая функция; Р - функция, описывающая модель пласта;

0 - неизвестные параметры пласта; х. - зависимая переменная (время); у - независимая переменная (давление).

Из определения условной вероятности следует, что

п ( | \ Р {У1,--;Уп,Уп+1)

Р [Уп+1 \У1,-■;Уп)=—-----------ч-Л (!)

Р(У1,-.;Уп)

Это приводит к следующему выражению:

Р {Уп+2\У1’--’Уп>Уп+1)'Р {Уп+\\У\’-’Уп) = _Р {У1,--;Уп,Уп+1,Уп+2) Р {У1---,Уп,Уп+1)_ р {Уи—,Уп,Уп+\) Р {Уи-,Уп) _Р {У1,-,Уп’Уп+\’Уп+2) Р{Уи-,Уп) '

Уравнение (2) показывает, что произведение условных вероятностей численно эквивалентно суммарной вероятности. Так если стали известны данные о давлении в точках х„+\ и х 2 , произведение

Р (уп+^У\т ■ Уп?Уп+1)'-^ {Уп+^У\?-■ Уп) может быть получено с использованием значений Р (у,-.уп) и

Р (у,-•Уур Уп+ь Уп+2 ) • Данное обстоятельство позволяет существенно снизить вычислительные затраты.

Для начала необходимо определить Р (у,..уп) и Р (у,..Уп+\ Уп+2^) • Р {У\^-^ Уп) можно вычислить, используя для параметров локально равномерное априорное распределение вероятностей (неинформативное априорное распределение вероятностей):

(2)

Р {Уіт-;Уп) = \ь{®\Уіт-;Уп)-Р (е)й?е = |£(е|Уі,...,Уп)м,

(3)

где

У1 - Р (в (п), X,)

Уп - Р

(в(п), Хп )

ЩУ1,..,УП) = + (в - 0(В))Т Ни (е - 0(в))

(5)

(4)

и„

” [ сР у сР

(6)

й(п)

Компоненты вектора Ки и матрицы Ип рассчитываются на основе оценок параметров по результатам (п) -

п измерений ( в' ' )

По определению для многомерного нормального распределения

|И|12 ґ і т Л

[—И— ехрI—т(в - в) н(в - в) ав = 1. 1(,12Жа\т I 2^2 ( ) ( >)

Поэтому (3) упрощается до (у/Ъга)

(7)

И,

|12

(>/їжа)

1 ехр (-акх'.

(8)

вычисляется как

Аналогично р (Уі>--->У„>У„+1)

Р {Уі,--;У„,У„+і) = \Р{®\Уі,--;УтУп+і)-Р ($)<№ = \ь(ъ\у1,...,уп,уп+1)м, (9)

У„, Уп+1) = у ехр[-^[]^+1Кя+1 +(е -9<"+1>)Т Ня+1 (е -9<я+1>) I |. (10)

Компоненты вектора Ки+1 и матрицы Ни+1 рассчитываются на основе оценок параметров по результа-(п+1) ,

там п +1 измерения ( 0( ) ).

Уравнение (9) упрощается до

Р (Уі,--;Уп> Уп+1):

(■ДЖа)т

И

|12

гехР| кТ+ікп+і

(її)

Поделив (11) на (8), получим

I1/2

Р {Ухт-^Уп’Уп+х) 1 |н„| ( 1 / т тгттг 'О '1°'

---п"7--------\---- Г— --------Л7ТеХР _^ГТ(Ки+1Ки+1 _КиКи) ■ (12)

Р(у1,...,уп) у/Ъгст |Нв+1| I 2^ >)

Нас интересует связь между Нл и Ни+1 и между Кп и Кп+1 , которую можно установить с помощью

метода последовательной регрессии.

Целевая функция имеет следующий вид

п

/ _ ✓ _ ч \ 2

Ч- • V (13 )

/=1

Еп (в) = Ь (У.- - Р (в. х ))

Тогда произведения и К+1К п+1 можно выразить как

К Т» п = Еп

(в м)

(14)

= Еп+і (в(п+1)) = Еп (в(п+1)) + е„2+і (в(п+1)),

(15)

где

(16)

Предположим, что в области пространства параметров достаточно близкой к оценкам параметров целевые функции можно представить в следующем виде:

чТ

Еп (в) = Еп (в(п) ) + (в - в(п)) Нп (в - в(п)) (17)

Еп+і (в) = Еп+і (в(п+У)) + (в - в(п+У >) Нп+у (в - в(п+У))

(18)

Также будем считать, что для области пространства параметров (размерности т ) достаточно близ-

в(п)

кой к оценкам параметров

Р (в, Хп+у) = Р (в(^, Хп+^ + g++l (в - в(п

функцию, описывающая модель, можно выразить как

(19)

где

§п+1

Тогда 2

(20)

Єї+1 (в) = (Уп+1 - Р (в, Хп+у)) =

= Єп2+1 (в(п) ) - 2Єп+1 (в(п) )вТ+1 (в - в(п)) +(в - 0(п) )Т gп+1§Т+1 (в - в(п)) ,

е„+1 (в(п = Уп+1 -п(в(^, п). (22)

Объединяя уравнения (17) и (21), получим

где

и

е

и

где

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Еп+, (0) = Еп (0) + егп+, (0) = Еп (0(п)) + (0 - 0(п)) Н (0 - 0(п)) + +*2+1 (0(п)) - 2 еп+1 (0(п) ^ (0 - 0(п)) + (0 - 0(п) )Т gи+1gT+1 (0 - 0(п)).

Минимизация Е^+1 (0) требует, чтобы ее производная относительно 0 равнялась нулю в точке экс-

0. (24)

тремума: дЕп+1 (в) дв

Подстановка (23) в (24) дает

в(п+1) = в(п) + A-1gп+1Єп+1

(в(п))

(25)

А = Ип + §п+1§Т+1. (26)

Покажем, что А = И , . Из (23) следует, что

Еп+1 (в) - Еп+1 (в^1) = (в - вМ) А (в - в^) - 2еп+1 (в^ )Вп+1 (в - в<п)) -

-(в(п+1) - 0(п)) а(в<п+1) - в<п)) + 2еи+1 (в<п)) gT+1 (<

Уравнение (25) можно записать как

(27)

ел +1

(ё<п)^Т+1 = (в(п+1) -в(п)) А. (28)

Подстановка (28) в (27) дает

(29)

Еи+і (в) - Еи+1 (в(п+) = (в - в(п)) Т А (в - в(п)) - 2 (в(п+- в(п)) Т А (в - в(п)) --(0(п+1) - 0(п)) Т а(в(п+1) - вМ) + 2(в(п+1) - в(п)) Т А(в(п+1) - в(п)) =

= (в - в(п+1))Т А (в - в(п+1»).

Сравнение (18) и (29) доказывает, что А = И +і , т.е.

Ип+1 = Ип + §п+1§Т+1. (30)

В результате, для определителей Ии и И +і будет выполняться следующее равенство: 1Ип+1=|Ип+gп+lg++У=ІИп| (і+g++lи-1gп+l).

1

п п+1 п+1 п

Из (31) следует, что |1/2

(31)

_!Ит

|И„

|1/2

(32)

Теперь необходимо связать между собой КТК„

Д (п)

и Кя+1Кп+1 • Для этого положим, что значение в ' достаточно

близко к в , чтобы выполнялось (17)• В этом случае,

(33)

Еп (в(п+1)) - Еп (в(п)) = (в(п+1) - в(п)) Н (в(п+1) - в(п)).

Объединяя уравнения (14), (15) и (21) с уравнением (33), получим

= Еп+1 (в(п+1)) - Еп (в(п)) = Еп (в^1) + е'п+1 (в(п+1)) - Еп (в^) = (в(п+1) - в<п))1 н (в(п+1) - в(п)) + еи2+1 (в<п)) - 2ея+1 (в(п)) gT+1 (в(п+1 - в(п)) -

п+1 п+1 п п

(п+1) _ Д(п)\

+(0(п+1) - 0(п)) gи+lgT+l (0(п+1) -0(п)) = (0(п+1) - 0Н) ни+! (0 +£+1 (0М)-2еи+1 (0Н)ВТ+1 (0(п+1) -0(п)).

Из (25) следует, что

0(п+1) - 0(п) = Н-+1§п+1еп+1 (0(п)). (35)

Подстановка (35) в (34) даст

кТ+1к„+1 - кТК = ёТ+1Н-+1§„+1 • еп+1 (0(п))+

+е„2+1 (0(п))- 2gn+lHn+lg„+l • е„2+1 (0(п)) = (1 - gT+lHn+lg„+l) е„2+1 (0(п ]).

Н-+1 можно вычислить, зная Н-1 и ёп+1 , следующим образом:

Нп §п+1 (Нп §п+1)

(34)

(36)

И-+1 = И -1 -

1+g++1ИB1gп+1

(37)

Это легко может быть проверено путем умножения (30) на (37). В результате, подставив уравнение

(37) в (36) , получим

где

^+1^+1 -ИИ = -----------— (у+1 -р(0(п), х+1 ))2. (38)

1 + §п+1Нп §п+1

Наконец, воспользовавшись выведенными соотношениями (32) и (38), уравнение (12) примет вид

е (>,1;---;>,л;>,л+1)

Р {Уи-,Уп)

( \ (39)

2

6ХР, 2Т (1 + §Т+1Н—^+1)(^+1 Р (в ’ ^+1))

Полученное выражение численно совпадает с уравнением (9) в [1], однако между ними есть фундаментальное различие. При выводе уравнения (9) в [1] предполагалось, что были даны п наблюдений (у1?..уп ) , но п+1

наблюдение у ! известно не было. То есть, после того, как по результатам п наблюдений была определена формула для прогнозной вероятности появления у ! в точке х !, становилось известным действительное значение п +1 наблюдения, которое затем использовалось для нахождения конкретной величины прогнозной вероятности. С другой стороны, при выводе уравнения (39) считалось, что п +1 наблюдений (у1?..у , Уп+\ ) известны заранее. При этом суммарная вероятность событий у15...,у вычисляется на основе п наблюдений, а суммарная вероятность событий у1?..у , Уп+\ ~ на основе п +1 наблюдений. Другими словами, уравнение (9) в [1] выводится до того, как доступно п +1 наблюдение, а уравнение (39) - после этого. Основное допущение, которое

может связать эти два уравнения, базируется на том, что оценка параметров 0(п+1) достаточно близка к оценке л(п)

0 ' (ср. уравнения (2) в [1] и (19)).

Предположим, что число данных на начальной стадии составило п , а на конечной стадии - п+к .

Считается, что п + к точек данных известны заранее.

Из уравнения (2) вытекает, что

р {Уп+к\У\’--’Уп’Уп+\’-’Уп+к-\)---Р (Уп+1\У1’---’Уп) = _ Р {Уи—,Уп,Уп+\,--;Уп+к) Р {У1---,Уп,Уп+0_

(40)

р {Уъ---,Уп,Уп+ъ--;Уп+к-\) Р {Уъ—,Уп)

_Р {у1,...,Уп,Уп+\’--’Уп+к)

Р{Уи-,Уп) '

В данном случае произведение условных вероятностей требует вычислений к условных вероятностей, тогда как суммарная вероятность - только два вычисления: Р (у15...5уп) и

Р (у15...5уп5уп+1,...5уп+^) . С увеличением к снижение вычислительных затрат становится особенно заметным.

2

Если дисперсия т известна, то в соответствии с (12) получим

Р {У1,— ,Уп,Уп+1,~;Уп+к) _

Р {У1,-,У„)

1 |нГ ' * ^ (41)

■/ ,---- чк | |1/2"еХр{ - 2 (Ип+кИп+к Ип^.

(л&) 1Нп+к| V 2т ' Ч

В ином случае, при условии, что п — т > 30 , уравнение (41) видоизменится: р {У1,---,Уп,Уп+1,--;Уп+к) _

Р (У1,-,Уп) (л/2^ )

(^^+к )

п+к—т |„ а/2 Р I г. 2 ип+кип+к + 2

|Нп+к\ V 2 Sл+k 2

(42)

где

2 55егг

*1 =-----------; (43)

^еггп = ипип =^\У р хX 1) . (44)

I=1

Аналогично вычисляются *2+к и ^^еггп+к.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В результате, уравнение (42) принимает вид

/ «-- \п-т

Р(У1,-,Уп,Уп+1,-,Уп+к) \^2жЧ |н„Г _( к

Р(У1’-’У») =(^п+к)п+к-ткХехр1~2

(45)

Нормализованная суммарная вероятность, соответствующая ] -й модели, для обычного МППВ определяется как [1]

У\пр п+\

^п+1 _ г у_______

г _ пт

г ппрп+1

г _1

п+1

где Р

J

- прогнозная вероятность п +1-го наблюдения для у -й модели, вычисленной на базе п наблюдений.

Для модифицированного МППВ суммарная вероятность для у -й модели на конечной стадии рассчитывается в соответствии с (46) следующим образом:

YYl+k _ YYl ^ С^і ‘У пі Уп+1> => Уп+к)

(47)

Р (Уи--;Уп)

Нормализованная суммарная вероятность для у -й модели получают путем деления (47) на результат суммирования (47) по всем у .

Таблица 1. Результаты расчетов с помощью обычного МППВ

і Время, ч Модель і Время, ч Модель

Число итераций Нормализованная суммарная вероятность Число итераций Нормализованная суммарная вероятность

1 2 1 2 1 2 1 2

42 1,1220 8 8 0 824 9 0 1751 62 11,2202 6 19 1 0000 0 0000

43 1,2589 7 7 0, 9657 0, 0343 63 12,5893 5 5 1, 0000 0, 0000

44 1,4125 7 7 0, 9810 0, 0190 64 14,1254 5 5 1, 0000 0, 0000

45 1,5849 8 8 0, 9897 0, 0103 65 15,8489 5 5 1, 0000 0, 0000

46 1,7783 7 7 0, 9903 0, 0097 66 17,7828 5 20 1, 0000 0, 0000

47 1,9953 7 7 0, 9945 0, 0055 67 19, 9526 5 9 1, 0000 0, 0000

48 2,2387 7 7 0, 9932 0, 0068 68 22,3872 5 9 1, 0000 0, 0000

49 2,5119 7 7 0, 9919 0, 0081 69 25,1189 5 9 1, 0000 0, 0000

50 2,8184 6 6 0, 9969 0, 0031 70 28,1838 5 8 1, 0000 0, 0000

51 3,1623 5 5 0 9964 0 0036 71 31,6228 5 9 1 0000 0 0000

52 3,5481 6 6 0 9978 0 0022 72 35,4813 5 8 1 0000 0 0000

53 3,9811 6 20 0, 9990 0, 0010 73 39,8107 5 9 1, 0000 0, 0000

54 4,4668 7 18 0, 9998 0, 0002 74 44,6684 5 8 0, 9999 0, 0001

55 5,0119 6 6 0, 9999 0, 0000 75 50,1187 5 8 0, 9994 0, 0006

56 5,6234 6 16 1, 0000 0, 0000 76 56,2341 5 8 0, 9985 0, 0015

57 6,3096 6 6 1, 0000 0, 0000 77 63,0957 5 7 0, 9802 0, 0198

58 7,0795 6 6 1, 0000 0, 0000 78 70, 7 94 6 5 7 0, 7 687 0, 2313

59 7,9433 6 6 1, 0000 0, 0000 79 7 9, 4328 5 7 0, 2896 0, 7104

60 8,9125 6 23 1, 0000 0, 0000 80 89, 1251 5 7 0, 0329 0, 9671

61 10,0000 5 11 1 0000 0 0000 81 100,0000 5 7 0 0030 0 9970

Для сравнения обычного МППВ и его модифицированной версии проводился дискриминантный анализ двух моделей пласта-коллектора: модели радиального течения в бесконечном пласте и модели пласта с непроницаемой внешней границей, которые далее обозначены как Модель 1 и Модель 2 соответственно. Данные об изменении давления были получены на основе модели пласта с непроницаемой внешней границей, к которым добавлялись случайные ошибки,

распределенные по нормальному закону с дисперсией 2,5 *10 3 МПа2 . Информация о пласте и насыщающем его флюиде взята из [4]. Общее количество точек данных составило 81 точку. Результаты, полученные обычным МППВ, приведены в табл. 1, из которой видно, что общее число итераций для Моделей 1 и 2 составило 230 и 361 соответственно.

Таблица 2.

Информация, необходимая для модифицированного МППВ_______________________________

Модель т к п + к і |и|

Модель 1 3 0 41 0,0493 1,8514-103

26 67 0,0496 1,3451 -108

40 81 0,2800 3,0655 -1010

Модель 2 4 0 41 0,0500 3,2647 -10-23

26 67 0,0475 1,0567 -102

40 81 0,0523 5,1822 -104

Далее рассматривались два случая. В первом искалось значение нормализованной суммарной вероятности на момент времени х67 = 19,9520 ч , во втором случае имелся весь объем данных ГДИС. Считалось, что дисперсия ошибок не

известна, поэтому для расчета условной вероятности использовалось уравнение (45) . Вся необходимая этой формуле информация для двух случаев представлена в табл. 2. Так, например, в первом случае для Модели 1 по формуле (47) значение суммарной вероятности будет равно

тт67 тт41 Р У4\> Уа2->'—> Увч)

Р(«.......,„) ■

\1/2

(фл-0,0493) (1,8514-103) ( 26^

= 0,5 ±-----------^--ехр I----|_ 1,1642 -101

(л[2ж-0,0496) (1,3451-108) 1 2 )

Для Модели 2 это значение составило 4,2395-106 . После нормализации получим соответственно 1,0000 и 3,6415-10~9 , что практически совпадает с результатами, полученными обычным МППВ (см.

табл. 1) . Модифицированному МППВ потребовалось всего 5 (для Модели 1) и 9 (для Модели 2) итераций.

Во втором случае нормализованная суммарная вероятность, вычисленная с помощью модифицированного МППВ, для Модели 1 составила 8,6271*10 48 , для Модели 2 - 1, 0000, что также хорошо согласуется с результатами в табл. 1. Теперь модифицированному МППВ потребовалось уже 8 итераций, как для Модели 1, так и для Модели 2.

Таким образом, предлагаемые модификации МППВ позволяют, с одной стороны, получать схожие с изначальным методом результаты вычислений нормализованной суммарной вероятности, а с другой, - значительно уменьшить вычислительные затраты. Кроме того, вычисление условной вероятности по формуле (42) или (45) позволяет избежать необходимости в обращении матрицы Гессе. Тем не менее, следует заметить, что модифицированный МППВ не дает всей картины поведения нормализованной суммарной вероятности в процессе дискриминантного анализа. В ряде случаев это имеет даже большее значение, чем само значение суммарной вероятности. Поэтому дальнейшим развитием метода является создание некоторого гибридного варианта, объединяющего достоинства обычного и модифицированного МППВ.

Литература

1. Лялин В.Е., Денисов С.В., Исмагилов Р.Н. Исследование возможности проведения различий между

моделями пласта на основе прогнозной дисперсии параметров коллектора // Вестник Московской академии рынка труда и информационных технологий. - 2004. - № 3 (11). - С. 34-52.

2. Padmanabhan, L. and P.T. Woo, A new approach to parameter estimation in Well Testing // Paper SPE 5741 presented at the SPE Symposium on Reservoir Simulation, Los Angeles, 1976.

3. Padmanabhan, L. WELLTEST - A program for computer-aided analysis of pressure transient data from well tests // Paper SPE 8391 presented at the SPE Annual Technical Conference and Exhibition, Las Vegas, 1979.

4. Сидельников К.А., Денисов С.В. Метод последовательного прогнозирования вероятностей для дискриминатного анализа моделей пласта по данным ГДИС // Искусственный интеллект. Интеллектуальные системы. Материалы IX международной научно-технической конференции. В 2-х т. - Донецк: ИПИИ «Наука i осв^а», 2008. - Т. 2. - С. 74-83.

i Надоели баннеры? Вы всегда можете отключить рекламу.