Научная статья на тему 'ВАРИАЦИОННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯИ ОПРОСА ДИНАМИЧЕСКИХ БАЙЕСОВСКИХ СЕТЕЙ В УСЛОВИЯХ ЧАСТИЧНОЙ НАБЛЮДАЕМОСТИ ПАРАМЕТРОВ'

ВАРИАЦИОННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯИ ОПРОСА ДИНАМИЧЕСКИХ БАЙЕСОВСКИХ СЕТЕЙ В УСЛОВИЯХ ЧАСТИЧНОЙ НАБЛЮДАЕМОСТИ ПАРАМЕТРОВ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
78
17
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ДИНАМИЧЕСКАЯ БАЙЕСОВСКАЯ СЕТЬ / ВАРИАЦИОННЫЙ ВЫВОД / ЦЕПЬ МАРКОВА / МАРКОВСКОЕ ПОКРЫТИЕ / МОДЕЛЬ ПЕРЕХОДА / ДИСТАНЦИЯ КУЛЬБАКА - ЛЕЙБЛЕРА / МЕТОД МОНТЕ-КАРЛО / ЛОГАРИФМ ПРАВДОПОДОБИЯ / НЕРАВЕНСТВО ЙЕНСЕНА

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Полухин Павел Валерьевич

Использование вероятностных моделей на основе байесовских сетей является распространенным механизмом для описания процессов, протекающих в условиях неопределенности. Одним из актуальных направлений, связанных с оптимизацией расчета вероятностных характеристик динамических байесовских сетей, является оптимизация решения задач факторизации, распространения свидетельств и вычисления полного совместного распределения каждой из вершин графа байесовской сети. В исследовании рассматривается возможность представления байесовских сетей в виде гиперграфов. Исследование данного вопроса связано с необходимостью разработки оптимальных алгоритмов обучения байесовских сетей и определением основных подходов к реализации процедур опроса сети. Рассмотрены особенности использования вариационного вывода при формировании моделей перехода для нескольких смежных временных срезов с учетом семантики динамических байесовских сетей. Представлены алгоритмы для дискретных и непрерывных моделей динамических байесовских сетей. Предложенные подходы позволяют оптимизировать процедуру расчета априорных распределений динамической байесовской сети, упростить ее топологическую структуру, а также оптимизировать процедуру опроса сети в момент получения новых свидетельств и определения распределения вероятностей для скрытых переменных с учетом данных свидетельств.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Полухин Павел Валерьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

VARIATIONAL LEARNING AND SURVEY ALGORITHMS OF DYNAMIC BAYESIAN NETWORKS IN PARTIAL OBSERVABILITY OF PARAMETERS

Probabilistic models based on Bayesian networks are used as a common mechanism to describe processes occurring in uncertainty. The optimization of solving factorization problems, distributing evidence, and calculating the complete joint distribution of each vertices of the Bayesian network graph represents a current direction associated with optimizing the calculation of dynamic Bayesian networks’ variational features. The study considers the possibility of presenting Bayesian networks as hypergraphs resulting from the need to develop optimal learning algorithms of Bayesian networks and determine the main approaches to implementation of the network’s survey. Specifics of variational inference in forming transition models applied to certain adjacent time samplings are studied, with semantics of dynamic Bayesian networks considered. Algorithms for discrete and continuous models of dynamic Bayesian networks are presented. The proposed approaches make it possible to optimize the procedure for calculating a priori distributions of a dynamic Bayesian network, simplify its topological structure, as well as optimize the network’s survey when obtaining new evidence and determining the probability distribution for hidden variables according to evidence data.

Текст научной работы на тему «ВАРИАЦИОННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯИ ОПРОСА ДИНАМИЧЕСКИХ БАЙЕСОВСКИХ СЕТЕЙ В УСЛОВИЯХ ЧАСТИЧНОЙ НАБЛЮДАЕМОСТИ ПАРАМЕТРОВ»

Научная статья УДК 519.857

doi: 10.34822/1999-7604-2022-2-75-84

ВАРИАЦИОННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ И ОПРОСА ДИНАМИЧЕСКИХ БАЙЕСОВСКИХ СЕТЕЙ В УСЛОВИЯХ ЧАСТИЧНОЙ НАБЛЮДАЕМОСТИ ПАРАМЕТРОВ

Павел Валерьевич Полухин

Воронежский государственный университет, Воронеж, Россия alfa_force@bk.ru, http://orcid.org/0000-0001-5645-6312

Аннотация. Использование вероятностных моделей на основе байесовских сетей является распространенным механизмом для описания процессов, протекающих в условиях неопределенности. Одним из актуальных направлений, связанных с оптимизацией расчета вероятностных характеристик динамических байесовских сетей, является оптимизация решения задач факторизации, распространения свидетельств и вычисления полного совместного распределения каждой из вершин графа байесовской сети. В исследовании рассматривается возможность представления байесовских сетей в виде гиперграфов. Исследование данного вопроса связано с необходимостью разработки оптимальных алгоритмов обучения байесовских сетей и определением основных подходов к реализации процедур опроса сети. Рассмотрены особенности использования вариационного вывода при формировании моделей перехода для нескольких смежных временных срезов с учетом семантики динамических байесовских сетей. Представлены алгоритмы для дискретных и непрерывных моделей динамических байесовских сетей. Предложенные подходы позволяют оптимизировать процедуру расчета априорных распределений динамической байесовской сети, упростить ее топологическую структуру, а также оптимизировать процедуру опроса сети в момент получения новых свидетельств и определения распределения вероятностей для скрытых переменных с учетом данных свидетельств.

Ключевые слова: динамическая байесовская сеть, вариационный вывод, цепь Маркова, марковское покрытие, модель перехода, дистанция Кульбака - Лейблера, метод Монте-Карло, логарифм правдоподобия, неравенство Йенсена

Для цитирования: Полухин П. В. Вариационные алгоритмы обучения и опроса динамических байесовских сетей в условиях частичной наблюдаемости параметров // Вестник кибернетики. 2022. № 2 (46). С. 75-84. DOI 10.34822/1999-7604-2022-2-75-84.

Original article

VARIATIONAL LEARNING AND SURVEY ALGORITHMS OF DYNAMIC BAYESIAN NETWORKS IN PARTIAL OBSERVABILITY OF PARAMETERS

Pavel V. Polukhin

Voronezh State University, Voronezh, Russia alfajorce@bk.ru, http://orcid.org/0000-0001-5645-6312

Abstract. Probabilistic models based on Bayesian networks are used as a common mechanism to describe processes occurring in uncertainty. The optimization of solving factorization problems, distributing evidence, and calculating the complete joint distribution of each vertices of the Bayesian network graph represents a current direction associated with optimizing the calculation of dynamic Bayesian networks' variational features. The study considers the possibility of presenting Bayesian networks as hypergraphs resulting from the need to develop optimal learning algorithms of Bayesian networks and determine the main approaches to implementation of the network's survey. Specifics of variational inference in forming transition models applied to certain adjacent time samplings are studied, with semantics of dynamic Bayesian networks considered. Algorithms for discrete and continuous models of dynamic Bayesian networks are presented. The proposed approaches make it possible to optimize the procedure for calculating a priori distributions of a dynamic Bayesi-

an network, simplify its topological structure, as well as optimize the network's survey when obtaining new evidence and determining the probability distribution for hidden variables according to evidence data.

Keywords: dynamic Bayesian network, variational inference, Markov chain, Markov blanket, transition model, Kullbak-Leibler divergence, Monte Carlo method, likelihood logarithm, Jensen inequality

For citation: Polukhin P. V. Variational Learning and Survey Algorithms of Dynamic Bayesian Networks in Partial Observability of Parameters // Proceedings in Cybernetics. 2022. No. 2 (46). P. 75-84. DOI 10.34822/1999-7604-2022-2-75-84.

ВВЕДЕНИЕ

В настоящее время разработка инструментов на основе стохастических вероятностных моделей динамических байесовских сетей (далее - ДБС) находит широкое применение в различных интеллектуальных системах тестирования программных приложений и их компонентов. Формализация представления знаний, настройка параметров сети реализуются за счет решения задач обучения и логического вывода. Применение такого подхода позволяет использовать модели байесовских сетей в условиях частичной наблюдаемости переменных, а также снизить чувствительность алгоритмов к объему обучающей выборки. ДБС представляет собой набор статических байесовских сетей, развернутых на интервале и имеющих непосредственные связи между вершинами двух смежных временных срезов. Построение структуры сети производится на основе двух основных подходов. Экспертный подход заключается в задании структуры сети на основе заранее имеющихся знаний относительно предметной области, для которой происходит моделирование, а также наличия связей между отдельными функциональными элементами, представляемыми в виде узлов байесовский сети. Подход на основе обучения заключается в использовании алгоритмов обучения для установления связей между узлами сети за счет анализа обучающей выборки и проведения тестов на условную независимость. Когда структура сети определена, одной из основных задач становится реализация процедуры опроса сети, заключающейся в определении распределения вероятностей скрытых переменных при наличии таблиц условных вероятностей (далее - ТУВ) наблюдаемых переменных и свидетельств, поступающих из среза динамической байесовской сети. Среди наиболее распространенных алгоритмов опроса сети вы-

деляют стохастические алгоритмы на основе метода Монте-Карло, кластеризации. Особый интерес представляет возможность построения и использования вариационных методов для реализации процедуры опроса и получения априорных распределений вероятностей ДБС. Применение данного подхода к структуре динамической байесовской сети позволяет в значительной мере упростить процедуру ее опроса. В рамках исследования предлагается разработка моделей динамической байесовской сети и разработка алгоритмов, реализующих процедуру опроса сети. Математический аппарат на основе применения вариационных методов позволяет сократить общее число обучаемых параметров, исключить неоднозначность получения распределений для скрытых переменных в процессе выполнения процедуры опроса. Актуальность исследования заключается в разработке алгоритма опроса сети с учетом вероятностных особенностей ДБС, а также возможности его использования для сетей с дискретным и непрерывным распределением параметров. В работе рассматривается оценка точности получения априорных распределений вероятностей за счет вычисления дистанции Кульбака - Лейблера.

МАТЕРИАЛЫ И МЕТОДЫ

Байесовская сеть (далее - БС) представляет собой направленный ациклический граф в = ( X,и), состоящий из множества

переменных Х = {х,х2, ..., хп} и ребер и = {щ,и2,..., иот} . Направленным ребром байесовской сети является пара и' = (х, X ), где для каждой вершины х,х2,..., хп выполняется условие х п х2 = 0 . В таком случае вершина х будет являться родительской по отношению к вершине х и будет входить в состав ее марковского покрытия (далее -

МП). Все переменные БС условно можно разделить на три основных множества: наблюдаемые переменные X, скрытые Н переменные и свидетельства Е .

Для определения полного совместного распределения БС можно воспользоваться цепным правилом [1]:

Р(x2,..., хп) -

= Р (Xi - Xi, X2 - х2, Xn - хп ) -

п

-П ( х \Parents (Xi)),

(1)

i-1

где Parents (Xi) - множество родительских вершин графа БС, соответствующих переменной х.

Динамические байесовские сети представляют собой набор БС, взятых в хронологическом порядке на временном интервале (t; t + к) . Задание ДБС производится путем определения начального распределения Р ( X0), моделей перехода Р (Xi+k\Xt) и вос-

приятия Р(Е(+к \Хг+к ) . Для получения данных

распределений можно воспользоваться методом оценки на основе правдоподобия. В таком случае процедура вычисления Р (Х,+) для каждого нового временного

среза будет связана с непосредственной оценкой весов каждой из генерируемых выборок, полученных в соответствии с поступающим свидетельством Ен+к. Множество скрытых переменных Х1+к совместно со свидетельствами Е1:г+к образует марковский процесс £ ( г) первого порядка [1]:

Р (£( гя+1 )) = Р(%( гя+1 ) = Хпг, ) =

= Х1, ..., £( гп ) = Хп) = (2)

= Р (£( гп+1 ) = Хп+1 \ %(гп ) = Хп).

Обобщенная структура ДБС, состоящая из скрытых переменных Х1:г+к, 2Х.1+к и свидетельств Е1:г+к = Уул+к, представлена на рис. 1.

Рис. 1. Динамическая байесовская сеть из t + к состояний

Примечание: составлено автором.

Полное совместное распределение ДБС со перехода и восприятия воспользуемся мето-

скрытыми и наблюдаемыми параметрами, приведенное на рис. 1, будет иметь следующий вид [3-4]:

дом максимума апостериорных вероятностей (далее - МАВ) и сформулируем его в следующем виде [5]:

Р ({Z t+к' Xt + к 5 Y+к }) = Р ( Z+к )ПP(Zt+к\ Zt+к-l)'

0 - argmaxln Р(X^ | в) + ln Р (0),

(4)

Р (Xt+к +к \ Xt+к-1)ПР (Y+к \ Z t+к' Xt+к) 5

(3)

где в - набор параметров ДБС, соответствующей обучающей выборке Б.

Если в сети имеются скрытые перемен-

где Т - общее число временных состоя- ные, распределение Р(Х{+к \ 0) с учетом ний ДБС.

Для обучения параметров ДБС и получе- скрытых переменных к и Хг+к может

ния априорных распределений для моделей быть записано в следующем виде:

к-1

P (Y+1 \0)-- JP(Jt+k \ 0)P(Yt+1 \

Zt+k, Xt+k,

0).

(5)

Рассмотрим вычисление оценки МАВ в условиях полной наблюдаемости модели БС при отсутствии скрытых переменных. Для этого для получения искомой оценки в и соответствующего ему распределения Р(У{+к| 9)

можно воспользоваться аппроксимацией Лапласа. Запишем правило Байеса для вычисления параметров модели БС при условии отсутствия скрытых переменных Zг+(t и Zг+(t :

РШ Y )- P0)P(Y+k \0) Р(0\ Y+k)- Р(YЛ .

(6)

Для числителя, стоящего в выражении (5), запишем логарифм правдоподобия:

L (0)-ln (Р (0) Р (Y+k \0)) =

n

- Р (0)+!Р (Y+ k \0).

(7)

i-1

Тогда, раскладывая Ь(в) в ряд Тейлора, получим следующую аппроксимацию:

L

(0)-L (°) + (0-°) ^

+1 (0-0)2

91V > ЯЙ2

+

+ ...+

dnL (0)

+... +1 (0-0)

П . d 0 0-0

L (0)* L (0) +1 (0-0)2 H (0).

(8)

где Н (в) - матрица Гессе, соответствующая

оценке МАВ.

Матрица Гессе, полученная в соответствии с выражением правдоподобия (3), будет иметь следующий вид:

H

(0)

dL (0) _dг1о^Р{в \ Yt+k)

d02

d02

(9)

Подставляя аппроксимацию (7) в выражение (6) и интегрируя по параметру в, пере-

пишем значение логарифма правдоподобия в следующем виде:

1п Р (X,+, | с ) = 1п | Р (в) Р (у+к |в) йв, » Ь (в) +11п (Н Ч ).

Тогда получим:

1п Р (У,+к |в) = 1п Р (в) + 1п Р (У,+к |в)-

п 1

+—1п2^- 1'1п | Н|,

(10)

(11)

где — - параметрическая параметра, соответствующая — .

С учетом выражения (10) определим распределение Р (У{+к) параметров БС через соответствующую оценку МАВ на основе аппроксимации Лапласа:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Р (У,+к ) = Р (в) Р ( X,+к |ву 2ж\ Н ^ (12)

В условиях наличия скрытых переменных применение аппроксимация Лапласа и прямое вычисление оценки МАВ становится проблематичным, в связи с чем возникает необходимость использования других алгоритмов, в частности алгоритма ожидания максимизации (далее - ОМ). Данный алгоритм логически делится на два этапа: ожидание и максимизация. На этапе ожидания будем полагать, что в ДБС будут отсутствовать скрытые переменные. В таком случае можно задать логарифм правдоподобия в соответствии со следующим выражением [6-7]:

Ь (в) = 1п Р ( X,+к| в) =

п

= 1п Р(X,+к ' " + к У +к|Х( +к, " +к +к ) '

i-1 ^

(13)

n

in Zi Q (X+k, 7+k)

i-1 Zfi

P (X

t+k' 7t +k ,Yt + k

\0)'

Q ( x,

7

t + k, 7t + k

)

где Q(Х(+к,2{+к) - распределение по всем скрытым переменным, соответствующим состоянию модели ДБС на срезе , + к, для которого выполняются следующие условия:

Q (х,+к , +к ): 0 < Q (X,+к

, +к) < < 1, ЁП=ё (X+к, 2+к).

(14)

Так как функция правдоподобия Ь (в)

будет являться выпуклой, для нее будет справедливо неравенство Йенсена, запишем его в следующем обобщенном виде:

f (5),

V 1=1 у

(15)

¡=1

где 5 = . ••> - значения переменных

из области определения функции f;

а = а, «2,..аи - положительные числа.

Используя (14) применительно к логарифму правдоподобия из выражения (13), получим следующее неравенство:

1п

п

Ё/ Q ( X,+к, 2-+к )

¡=1 2

Р (X

2

,+к, +к,

У,+к |в)"

п

>Ё| Q(X,+к,2,+к ) 1п

¡=1 2 2

Q (X Р (X,

,2 )

,+к> I+к ;

>

,2, ,+к'+к,

У,+к |в)

Q (X,

2

,+к, +к

)

Для получения распределения Q( хг+(1, 2 ) , соответствующего оптимальной оценке в, рассмотрим ситуацию, когда неравенство (16) будет обращаться в равенство. Данное условие выполнимо только в том случае, если случайная величина, стоящая в правой и левой части неравенства, равна математическому ожиданию:

Р ( X,+к, 2

,+к' +к |в)

= Е£/ =

(?(х{+к,2{+к) (17) = ЁП=1Р(X,-к,2+к |в) = Р(X,+к|в).

Учитывая, что на этапе ожидания все параметры модели ДБС являются фиксированными, распределение по всем скрытым переменным будет иметь следующий вид:

Q(Х+к,2,+к) = Р({х,+к, 2,+к}| У+к,в). (18)

На этапе максимизации происходит определение максимума логарифма правдоподобия по всем скрытым переменным:

в = агатах Ёх £ (х,+к ,+к )

Р (хt+к,+к У+к|в)

х 1п

Q (X,+к, 2,+к )

(19)

Применение вариационного вывода обусловлено необходимостью расчета оценки в в случае, если ДБС имеет сложную структуру и достаточно большое число параметров, что затрудняет применение классического алгоритма ОМ. Для того чтобы сформулировать алгоритм ОМ с вариационным выводом (далее - ОМиВВ), обозначим логарифм правдоподобия в виде функции от скрытых переменных Ь(в) = ¥(0(X,+к+к),9). Тогда

нижняя граница функции правдоподобия будет определяться в следующем виде:

¥ ( Q ( X,

(16) =Ё / Q (х;+k, 2;+к) 1п

2

,+к ' +к

) ,в)=

Р1 У' 2' V' I

Р (х,+к,2,+к,У,+к|

)

Q ( х\+к, 2,+к ) Ё 1п Р (У,+к |в) +ЁЁ / Q ( X,- к, 21 к )х

(20)

х 1п

' Q(хit+k,2it+k)

Р ( х,+к, 2,

у

,+ к | +к ''

)

Так как первое слагаемое в выражении (20) содержит только распределение по наблюдаемым переменным У , то выражение, стоящее под знаком интеграла, будет являться дистанцией Кульбака - Лейблера (далее -КЛ) [8] между вариационным распределением Q (к, 2г+к ) и распределением по срытым

переменным Р (х,+к,2+к | У+к,9) . Получим:

КЬ ( Q ( X,+к, 2,+к ), Р ( X,+к, 2,+к |У,+к, 9 )) =

IQ ( X,+к, 2,+к ) 1п

Q (х,

2

,+к, +к

)

Р ( X, > 0.

2 | У

,+к^,+к I ,+к ~>

9)

> (21)

Тогда выражение для этапа максимизации алгоритма ОМ, соответствующего выражению (21), может быть переписано с учетом

введенной дистанции Кульбака - Лейблера и будет иметь следующий вид:

б? = КЬ(0( х+к , +к ), Р(Хг+к , +к \ ^ ш (22)

Из выражения (22) следует, что алгоритм обучения ДБС на основе вариационного вывода базируется на замене логарифма правдоподобия Ь (б) на соответствующую

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

дистанцию Кульбака - Лейблера (в соответствии с вариационным распределением по всем скрытым переменным).

Рассматривая решение задачи оптимизации процедуры опроса ДБС в условиях наличия скрытых переменных на основе вариационного вывода, следует отметить, что целесообразна комбинация методов вариационного вывода и выборки по значимости (далее -ВВиВЗ). Метод выборки по значимости является разновидностью метода Монте-Карло с применением цепи Маркова. Применение ВЗ обусловлено тем, что модель перехода Р (Х(+1 X) в соответствии с формулой (2) представляет собой марковский процесс £(г„+1) первого рода. Такой подход позволяет

нам получить распределение по значимости, используя вариационное распределение Q (Х+*> Zí+Jt ), полученное по результатам

обучения параметров ДБС. В результате выполнения алгоритма ВВиВЗ мы можем получить распределение по всем переменным запроса Р(Х;+к,21+к\Уг+к), веса всех выборок Ж(Х+к,), а также оценить дистанцию

КЛ для апостериорного вариационного распределения и распределения, полученного по результатам точного вероятностного вывода. Для определения алгоритма ВВиВЗ сформулируем метод Монте-Карло применительно к модели ДБС.

В основе метода Монте-Карло лежит оценка ожидаемого значения функции р( Х(+к)

в соответствии с распределением вероятностей

Р (Х;+к ) . Пусть Х;+к = {Х;+к, ^+к } - переменные запроса модели ДБС. Тогда процедура формирования рандомизированных выборок осуществляется на основе распределения Р (), где каждая из выборок ассоциирует-

ся с соответствующей вероятностью наступления соб^ггия {Х+k : X;+k ~ Р(Xt+к ). Оценка для функции р( х) может быть определена в виде следующего интеграла, лежащего в основе метода Монте-Карло. Запишем данную оценку в следующем виде:

р-р( Xt+к ) Р ( Xt+к\ Y+к ) dXt+к,

n (23)

рр -E (Xi+к ), Х+к ~ Р (Xt+k\rt+к), ( ) i-1

где X i - выборка, соответствующая переменной Xi+i ДБС, формируемая в соответствии с распределением Р (Х+к \ Y+*).

Следовательно, по закону больших чисел предел от общего числа выборок Р ( X Y ) будет иметь следующее значение:

Nmp( N)-p. (24)

Определим алгоритм ВВиВЗ. Для этого зададим вариационное распределение Q (Xi+Jt) из начального распределения

модели ДБС Р(Х1+к \ Х]+к_J , соответствующее переменным запроса Xt+к. Обобщенную формулу для искомого распределения вероятностей с учетом полученных весов выборок можно записать в виде следующего выражения:

Р ( Xt+к \Et+к )-

- St+к ( Xt+к5 Et+к )Wt+к ( Xt+к5 Et+к ) -m

-ПР ( х;+к \РагеМ's ( Xt+k ))х (25)

i-1 п

х ПР(С parents (у;+к )), i-1

где St+k (Х+к, Et+k) - распределение по всем сформированным выборкам, которое формируется в соответствии с весами W .

Для определения распределения Р (Xi+jfc \ Et+k )

введем выражение для определения весов выборок с учетом вариационного распреде-

ления. Значение весов каждой выборки будет пропорционально следующему отношению вероятностей [9]:

W —

P(X1:t+к I Y1:t+к ) Q( X:t+JY:t+к )'

(26)

= El-

log

Оценка близости распределений P (X) и Q (X) может быть получена за счет вычисления дистанции Кульбака - Лейблера:

dkl (Q (xt+к), P (xt )) —

Q(xt+k\Yv.t+k) P(Xt+k\Y\:t+k)

. 1 £ log 4X±!Y4 = (27)

N P ( X+к I Y1.t+к)

1 N

= -^ ZlogW(X+к I Ybt+к ).

N i—i

Нормализуя веса W, получим следующее значение оценки ф:

Z N.W (xi :t+к I 1:t+к ) f (X+к)

ZN— W ( X1:t+к I Y1:t+к )

N

= ^Wp-.t+kft+k (Х+£ ) •

(28)

i—1

Для определения распределения Р(Х+к) запишем выражение, соответствующее функции значимости с учетом всех наблюдений Уъ+к, полученных до текущего момента времени [4]:

Q (X,t+к lYi.t+к ) = — Q (Xt+к IX :t+к-1, Y1:t+к ) Q ( X1:t+к-JY1:t+к-1 ) —

n

— Q (Xt+к-1 )№( Xt+к IX :t+к? 1:t+к/'

к—2

(29)

В таком случае выражение (23) для оценки рр можно выразить через соответствующие веса Ж и привести к следующему виду [11]:

Ф = J f ( X:t+к ) Q( X:t+к ) P(XL4 dX:t+к —

Q ( X 1:t+к )

— .1 yWf (X ) W = P (Xvt+к)

N ZWf (X1 :t+к ) • W q (X1^ ).

(30)

Учитывая, что формирование выборок

Х;+ к ~ Q (Х;+к \\:;+к ) производится за счет

умножения выборок Х1.;+кQ (Х; + к \\;+к )

и Х+! ~ Q(Х;+к-1 \ Х1:;+к-1. Е1:;+к ) , распределение по всем скрытым переменным Р(Х+к\Е\-г+к) получим за счет рекурсивного применения теоремы Байеса [12]:

P ( Xt + к I Y1:t+к ) _P (Y+к I Xt+к) P (Xt+к Xt+к-1) P (Yt+к I Y1:t+к-1 ) Х P ( X1:t+к -1I Y1:t+к-1 ).

(31)

Тогда веса выборок, полученных с учетом вариационного распределения Q(Хи+к),

можно записать в соответствии с моделями перехода и восприятия ДБС:

Ж = Ж Р(х;+к \ Х;+к)Р(Х\+к \ Х;+к-1)

Q(Х; + к \ Х1:;+к-1Д:;+к )

Для получения распределения фильтрации из выражения (30) будем полагать, что Q (Х;+1\Х1

:; +к-1' 1:;+к ) = ^ +к \ Х;+к-1,^;+к ) . Следовательно, вариационное распределение

Q (Х;+\+к-1,:;+к ) будет иметь непосредственную зависимость только от переменных Х;+к-1 и Е{+к , и тогда выражение для расчета

обновленных весов выборок с учетом вариационного распределения можно привести к следующему виду [13]:

W*+к = Wf P(Yt+к I Xt+к)P(Xt+к I Xt+к-1) ^^

Q(Xt+к I Xt+к-1, Y1:t+к

)

Общее число выборок, необходимых для обеспечения требуемого уровня точности алгоритма ВВиВЗ, будет определяться в соответствии со следующим выражением:

N -

N

1 + E(cf*)

,N<NS,

(34)

где Е(оГ) = р(х;+к\Е1л+к)/0(х;+к I Х[,Е,+к) .

В процессе выполнения алгоритма ВВиВЗ происходит расчет весов +1 и формирование выборок N , пропорциональных данному весу. Выборки с наименьшими весами, которые не в полной мере согласованы с наблюдаемыми переменными , отбрасываются и не вносят вклад в формирование апостериорного распределения Р ( Хг+к\Е1+к ).

РЕЗУЛЬТАТЫ И ИХ ОБСУЖДЕНИЕ

Применение вариационных методов для оптимизации процедур обучения и опроса сети позволяет оптимизировать существующие алгоритмы, а также повысить точность определения статистических и вероятностных параметров модели ДБС. Для проведения вычислительного эксперимента были

разработаны распределенные алгоритмы обучения и опроса ДБС, представленные в данном исследовании.

Для подтверждения основных теоретических и практических результатов научного исследования была использована распределенная параллельная платформа Spark [14], состоящая из 10 вычислительных узлов со следующей аппаратной конфигурацией: 2 процессора Intel Xeon Gold 2.5 ГГц, 16 ядер, 128 ГБ ОЗУ, жесткий диск 10 TB. Размер распределенной файловой системы 59.5 ТБ, канал связи между узлами обеспечивает скорость до 10 Гб/с. В качестве обучающей выборки используются данные объемом 100 ГБ, предварительно загружаемые на распределенную файловую систему Hadoop HDFS. Оценки времени выполнения разработанных алгоритмов, по сравнению с классическими алгоритмами ОМ и ВЗ в зависимости от числа доступных вычислительных ядер параллельной платформы Spark, приведены на рис. 2.

Рис. 2. Производительность параллельных алгоритмов ОМиВВ и ВЗиВВ

Примечание: составлено автором.

Приведенные гистограммы алгоритмов ОМиВВ и ВЗиВВ доказывают высокую эффективность алгоритмов на основе вариационного вывода. При сравнении ВЗ и ВЗиВВ

будем наблюдать эквивалентные генерации, полученные в результате опроса ДБС, однако с ростом числа выборок применение алгоритма ВЗиВВ будет являться предпочтитель-

ным. Рассмотренные алгоритмы обучения и опроса сети являются универсальными для случаев как дискретного распределения параметров ДБС, так и непрерывного, что позволяет получить наиболее точные априорные и апостериорные распределения вероятностей ДБС. Предложенные алгоритмы обладают хорошей масштабируемостью и позволяют независимо производить формирование выборок St+k в соответствии с весовым распределением выборок Wt+k.

ЗАКЛЮЧЕНИЕ

Оптимизация алгоритмов обучения и опроса динамических байесовских сетей в условиях наличия скрытых переменных направлена на совершенствование математических методов расчета априорных и апостериорных распределений ДБС, позволяет повысить алгоритмическую эффективность и снизить временные затраты на проведения расчетов. Представленные в рамках работы алгоритмы на основе вариационного вывода обладают хорошей точностью и адаптированы к решению задач обучения и опроса для ДБС со сложной структурой и большим числом параметров, в том числе параметров, участвующих в формировании модели перехода для каждого из срезов из интервала

Список источников

1. Pearl J. Causality: Models, Reasoning and Inference. Cambridge University Press, 2009. 484 p.

2. Тихонов В. И., Миронов М. А. Марковские процессы. М. : Сов. радио, 1977. 488 с.

3. Jensen F. V., Nielsen T. D. Bayesian Networks and Decision Graphs. New York : Springer, 2007. 441 p.

4. Рассел С., Норвиг П. Искусственный интеллект: современный подход. М. : Вильямс, 2006. 1408 с.

5. Zacks S. Introduction to Reliability Analyses: Probability Models and Statistical Models. New York : Springer-Verlag, 1992. 212 p.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

6. Murphy K. P. Machine Learning: A Probabilistic Perspective. Massachusetts : MIT Press, 2012. 1067 p.

7. MacKay D. J. C. A Practical Bayesian Framework for Backpropagation Networks // Neural Computation. 1992. Vol. 4, No. 3. P. 448-472.

8. Kullbak S., Leibler R. A. Information and Sufficiency // Ann Math Statist. 1951. Vol. 22, No 1. P. 79-86.

9. Bardenet R., Doucet A., Holmes C. Towards Scaling up Markov Chain Monte Carlo: An Adaptive Subsampling Approach // PMLR. 2014. Vol. 32, Is. 1. P. 405-413.

(t; t + k). Использование вариационного вывода в процессе фильтрации позволяет исключить неоднозначность получения весов W''+k,

а также обеспечить требуемый уровень согласованности вариационного распределения

Q(Xut+k I Ei:t+k ) с выб°рками Yl:t+k, поступающими от начального состояния модели ДБС, вплоть до момента времени t + k.

Другим важным научно-практическим результатом является разработка параллельных алгоритмов ОМиВВ и ВЗиВВ, позволяющих производить процедуру обучения и опроса сети с использованием распределенных вычислительных систем, что позволяет обеспечить требуемый уровень точности алгоритмов за счет увеличения общего числа обучающих и формируемых в процессе опроса выборокS и Si+k. В процессе опроса сети это дает возможность формирования выборок независимо друг от друга, так как весовое распределение уже будет заведомо определено с учетом вариационного распределения (Xt+k I Y1.t+k). Все предложенные алгоритмы обладают высокой точностью и сходимостью, что доказывает правильность научных предположений и выводов, представленных в данном исследовании.

References

1. Pearl J. Causality: Models, Reasoning and Inference. Cambridge University Press, 2009. 484 p.

2. Tikhonov V. I., Mironov M. A. Markovskie protsessy. Moscow : Sov. radio, 1977. 488 p. (In Russian).

3. Jensen F. V., Nielsen T. D. Bayesian Networks and Decision Graphs. New York : Springer, 2007. 441 p.

4. Russel S., Norvig P. Artificial Intelligence: A Modern Approach. Moscow : Williams, 2006. 1408 p. (In Russian).

5. Zacks S. Introduction to Reliability Analyses: Probability Models and Statistical Models. New York : Springer-Verlag, 1992. 212 p.

6. Murphy K. P. Machine Learning: A Probabilistic Perspective. Massachusetts : MIT Press, 2012. 1067 p.

7. MacKay D. J. C. A Practical Bayesian Framework for Backpropagation Networks // Neural Computation. 1992. Vol. 4, No. 3. P. 448-472.

8. Kullbak S., Leibler R. A. Information and Sufficiency // Ann Math Statist. 1951. Vol. 22, No 1. P. 79-86.

9. Bardenet R., Doucet A., Holmes C. Towards Scaling up Markov Chain Monte Carlo: An Adaptive

10. Полухин П. В. Инструменты оптимизации многочастичного фильтра для вероятностных моделей динамических систем // Системы управления и информ. технологии. 2021. № 4 (86). С. 4-10.

11. Del Moral P., Doucet A., Jasra A. On Adaptive Resampling Procedures for Sequential Monte Carlo Methods // Bernoulli. 2012. Vol. 18, No. 1. P. 252-278.

12. Ross S. M. Stochastic Processes. 2nd edition. New York: Wiley, 1996. 510 p.

13. Del Moral P. Nonlinear Filtering: Interacting Particle Resolution // Markov Processing and Related Fields. 1996. Vol. 2, No. 4. P. 555-580.

14. Zaharia M., Chowdhury M., Das T. Resilent Distributed Datasets: A Fault-Tolerant Abstraction for InMemory Cluster Computing // 9th USENIX Symposium on Networked Systems Design and Implementation, April 25-27, 2012, San Jose. P. 1-15.

Subsampling Approach // PMLR. 2014. Vol. 32, Is. 1. P. 405-413.

10. Polukhin P. V. Particle Filter Optimization Tools for Dynamical Systems Probabilistic Models // Sistemy upravleniia i informatsionnye tekhnologii. 2021. No. 4 (86). P. 4-10. (In Russian).

11. Del Moral P., Doucet A., Jasra A. On Adaptive Resampling Procedures for Sequential Monte Carlo Methods // Bernoulli. 2012. Vol. 18, No. 1. P. 252-278.

12. Ross S. M. Stochastic Processes. 2nd edition. New York: Wiley, 1996. 510 p.

13. Del Moral P. Nonlinear Filtering: Interacting Particle Resolution // Markov Processing and Related Fields. 1996. Vol. 2, No. 4. P. 555-580.

14. Zaharia M., Chowdhury M., Das T. Resilent Distributed Datasets: A Fault-Tolerant Abstraction for InMemory Cluster Computing // 9th USENIX Symposium on Networked Systems Design and Implementation, April 25-27, 2012, San Jose. P. 1-15.

Information about the author

Информация об авторе П. В. Полухин - кандидат технических наук.

P. V. Polukhin - Candidate of Sciences (Engineering).

i Надоели баннеры? Вы всегда можете отключить рекламу.