Научная статья на тему 'Оценка параметров ациклических марковских моделей при сегментации растровых текстурных изображений'

Оценка параметров ациклических марковских моделей при сегментации растровых текстурных изображений Текст научной статьи по специальности «Математика»

CC BY
284
70
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ГРАФИЧЕСКИЕ МОДЕЛИ / МАРКОВСКИЕ ПОЛЯ / ТЕКСТУРНЫЕ ИЗОБРАЖЕНИЯ / МАШИННОЕ ОБУЧЕНИЕ / СЕГМЕНТАЦИЯ / ИНТЕЛЛЕКТУАЛЬНЫЙ АНАЛИЗ ДАННЫХ / GRAPHICAL MODELS / MARKOV RANDOM FIELDS / TEXTURED IMAGES / MACHINE LEARNING / SEGMENTATION / INTELLECTUAL DATA ANALYSIS

Аннотация научной статьи по математике, автор научной работы — Двоенко С. Д., Динь Вьет Ш.

Показано, что сегментация растрового изображения на области однородных в некотором смысле текстур выполняется на основе восстановления маргинальных апостериорных распределений скрытого марковского поля классов. Оцениваются параметры ациклических марковских моделей, позволяющие добиться наилучшего качества сегментации.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Двоенко С. Д., Динь Вьет Ш.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PARAMETER EVALUATING OF ACYCLIC MARKOV MODELS FOR THE GEGMENTATION OF RASTER TEXTURED IMAGES

The segmentation of a raster image field to homogeneous in some sense textures is based on the restoring of the marginal posterior distributions of the hidden Markov random field of classes. Parameters of acyclic Markov models are evaluated to achieve the most quality of the segmentation.

Текст научной работы на тему «Оценка параметров ациклических марковских моделей при сегментации растровых текстурных изображений»

УДК 004.93

ОЦЕНКА ПАРАМЕТРОВ АЦИКЛИЧЕСКИХ МАРКОВСКИХ МОДЕЛЕЙ ПРИ СЕГМЕНТАЦИИ РАСТРОВЫХ ТЕКСТУРНЫХ ИЗОБРАЖЕНИЙ

С.Д. Двоенко, Ш. Динь Вьет

Показано, что сегментация растрового изображения на области однородных в некотором смысле текстур выполняется на основе восстановления маргинальных апостериорных распределений скрытого марковского поля классов. Оцениваются параметры ациклических марковских моделей, позволяющие добиться наилучшего качества сегментации.

Ключевые слова: графические модели, марковские поля, текстурные изображения, машинное обучение, сегментация, интеллектуальный анализ данных.

Ациклические марковские модели и алгоритмы сегментации.

В интеллектуальном анализе данных и машинном обучении интенсивно развивается направление, получившее название графических моделей, опирающееся на графы соседства элементов множества для построения эффективных алгоритмов обработки изображений [1].

Пусть массив данных представлен в виде двухкомпонентного марковского случайного поля скрытых классов элементов массива и их наблюдаемых признаков. Взаимосвязи в массиве реальных данных аппроксимированы набором ациклических графов соседства элементов массива. Требуется по наблюдениям восстановить скрытую компоненту случайного поля. В данной статье развивается подход, основанный на численной оценке маргинальных распределений вероятностей скрытых классов, где неизвестные маргинальные распределения вероятностей скрытых классов относительно исходного графа соседства заменяются линейной комбинацией маргинальных распределений относительно заданных ациклических графов соседства [2-4]. Марковские матрицы переходов между скрытыми классами являются параметрами таких ациклических моделей и, как показано в данной статье, могут быть определены только одним диагональным элементом, который ранее [2-4] обычно задавался эвристически.

Пусть массив Т взаимосвязанных объектов tеТ представлен как двухкомпонентное случайное поле (X, У). Наблюдаемая компонента У = (у, t е Т) принимает значения из множества у е©, определенного природой источника данных. Скрытая компонента X = (—, t е Т) подлежит восстановлению и в задаче распознавания принимает значения номеров классов объектов ^ = {1,..., т}. Наблюдения условно независимы относительно реализации скрытого случайного поля классов объектов ¥, (У t1 х) = ¥, (У t1 ^ ).

На множестве элементов t еТ массива данных определено симметричное антирефлексивное бинарное отношение, представленное в виде неориентированного графа О без петель, ребра которого (я, t) е Т соединяют соседние элементы массива данных я е Т и t еТ. Граф О является деревом или цепью, т.е. не содержит циклов. Скрытое поле X является марковским, если для всех t еТ выполнено qt (х | Х(/)) = qt (х | Х^), где приняты обозначения Х(/) = (х, я е Т \ t), Х^ = (х, я е Т \ t, (я, t) е О) .

Древовидный граф О разбивает окрестность нетерминального элемента х{ на две части: Х(°/} = Х~° У . Вершина I* е Т в качестве корня

задает естественный нисходящии и восходящии порядок просмотра, опре-

А-0

Ч /)

деляя окрестность X® = x из одного элемента, предшествующего x , и

окрестность непосредственных потомков xt.

Можно доказать [2-4], что такое априорное поле является односторонним марковским qt (xt | X^) = qt (xt | xr). Можно также доказать [2-4], что апостериорное скрытое поле относительно того же графа G остается односторонним марковским pt(xt | X(i), Y) = pt(xt | xr, Yt+), где Yt+ - поддерево с корнем в y, включая его.

Для решений о поле X можно использовать, например, байесовское правило xt(Y) = argmax pt(xt | У), t e T, где pt(xt \ Y) - локальные ano-

xt eQ

стериорные маргинальные распределения вероятностей скрытых классов в элементах массива t eT.

Восстановленная компонента X формирует связные области одинаковых номеров классов, образуя сегментацию поля наблюдений, например, растрового изображения на области с разными типами текстур.

Базовый алгоритм. Процедура восстановления скрытой компоненты названа базовым алгоритмом распознавания. Скрытое поле X распознается в общем случае за три прохода по дереву G [3, 4].

1. Задаются начало обработки в корне t* и априорное распределение q*( xt*), х* eQ. Нисходящим просмотром для всех t e T вычисляются

априорные распределения классов qs(xs) = ^qs(x1 xt)qt(xt), x eQ,

xteQ

я eT+0 я eT(t) •

2. Восходящим просмотром от терминалов к корню вычисляются «фильтрационные» апостериорные маргинальные распределения классов

pt (xt1Y+)« pt (xt1 Yt^Pt (xt1 yt), xeQ t eT,

pt(xt IYÜ)Ps(Xя IY;)^, яeT^,

я x.eQ

где Yt - поддерево с корнем в y, включая его. Апостериорные маргинальные распределения pt (xt | y) получены на этапе независимого обучения. В терминальных вершинах принимается pt (xt | Yt +) = pt (xt | y ).

3. На последнем восходящем шаге распределение в корне опирается на все наблюдения pt*(xt* | Y* +) = p*(xt* | Y), xt* eQ. Такое «интерполяционное» апостериорное маргинальное распределение значений корневой переменной позволяет принять решение о классе хД7) = argmax \ Y).

xt*eQ

4. Нисходящим просмотром от корня для всех t еГ вычисляются интерполяционные апостериорные маргинальные распределения

Ps (Xs 1 Y) Ps (X 1 Xt,Y )Pt (Xt \ Y X X , ^

+0

sV^s I ^t'^ 7/^t V^t I ^ ^ " ' ° ^ (i) '

xteQ

+ \ Is(xs\xt)

Ps (xs \ xt,Y) X Ps (xs \ Ys (xt У qs (xs)

и принимаются решения о классах xs(Y) = arg max ps(xs \ Y).

xseQ

Итерационный алгоритм. Для заданных ациклических графов соседства Gk, к = 1,..., K, аппроксимирующих исходный граф соседства элементов реального массива данных, итерационный алгоритм распознавания построен на основе базового алгоритма и имеет следующий вид [4].

1. Для каждого ациклического графа Gk базовым алгоритмом формируются апостериорные распределения p)(xt \ Y), к = 1,., K, t eT, и формируются апостериорные распределения pt(xt \ Y) = Х^WP1)(X \ Y),

t eT для заданных весов wk > 0, Х^ W = 1.

2. Только что найденные распределения pt (xt \ Y) принимаются за исходные вместо распределений Pt(xt \ y), и для каждого ациклического графа соседства в отдельности базовый алгоритм применяется вновь.

3. Итерационный алгоритм останавливается, когда распределения перестают изменяться, позволяя принять решения о классах xt(Y), t е J .

Схема Гаусса-Зайделя. Веса графов в линейной комбинации определяются по схеме Гаусса-Зайделя, где изменение веса графа Gk в диапазоне от 0 до 1 считается аналогом покоординатного варьирования [4].

1. На начальном шаге распределение весов всех графов изменяется от 1/(K"-1),...,0,...,1/(K"-1), когда граф Gk полностью исключен, до 0,...,1,...,0 , когда есть только граф Gk . Шаг заканчивается после варьирования всех весов и выбора того графа, чей вес обеспечил минимальное число ошибок распознавания на обучающем множестве изображений.

2. На очередном шаге варьируется вес 0 < P < 1 графа Gk. Нормированный вес графа Gk в линейной комбинации имеет значение wk = P.

Остальные графы имеют к данному шагу постоянные веса , г = 1,..., К , г ф к, где их сумма также постоянна: V = ^, г ф к. Их нормированные веса wi = V. (1 - р)/ V изменяются от wi = V. / V до wi = 0 .

Каждое пробное варьирование проверяется однократным комбинированием уже вычисленных маргинальных распределений р'к(X | У), ? е Г, к = 1,...,К и распознаванием с подсчетом числа ошибок для решений хп Шаг заканчивается после варьирования всех весов и выбора но-

вого веса того графа, для которого получено минимальное число ошибок.

Частная модель марковского случайного поля. Марковское априорное случайное поле классов X определяет его одностороннее свойство в виде условных распределений вероятностей на множестве значений переменной х еО относительно любой переменной х еХ(0/} из марковской окрестности х. Для каждой пары вершин (г, ?) е О, соединенных ребром, определена пара условных распределений я,(х | х) и Яг(хг IX).

Выбор некоторой вершины в качестве корня t* е Т задает нисходящее и восходящее направления просмотра.

Односторонняя марковская модель поля X является однородной конечной марковской цепью с неизменными условными распределениями в восходящем и нисходящем направлениях, где яг(хг | х() = q(xr | х(),

Я? (X | X) = q(X | X), и определена двумя матрицами Q(m х т) и Q(т х т) условных вероятностей переходов. Односторонняя марковская модель является эргодической неразложимой марковской цепью и имеет финальное распределение р(X), X еО в корне t*. Для такой марковской цепи матрицы Q и Q связаны через финальное распределение вероятностей Я (xt | X) = я(X | xt) р(xt) / р(X). В такой модели начальное априорное маргинальное распределение вероятностей я(xt) можно задать в любой вершине t еТ, тогда соответствующие маргинальные распределения оказываются известными во всех остальных вершинах дерева О , в том числе и в его корне. Корень t * естественно связать с началом обработки, а начальное распределение сделать корневым: я*^^),X* еО.

Если априорное распределение классов в корне равномерное и финальное Я,*^*) = р(X*) = 1/ т, то маргинальные априорные распределения скрытых классов в остальных элементах также равномерны. В этом случае Я (X | X) = я(X | X). Это позволяет выполнить приведенный выше базовый алгоритм всего за два просмотра, исключив первый просмотр.

В итоге остается только одна симметричная и дважды стохастичная матрица переходов Q. Предполагается, что такая матрица имеет одинаковые диагональные элементы и одинаковые недиагональные элементы. В

такой частной модели матрица Q задается только одним значением ее диагонального элемента q, который требует настройки. Качество сегментации улучшается по сравнению с независимым распознаванием при q > 1/ m. Ранее предполагалось, что достаточно, например, обеспечить 0,95 < q < 1, получив относительно редко переключающуюся марковскую цепь [2-4].

Оценка параметров ациклических марковских моделей. Расширим схему Гаусса-Зайделя поиска весов графов для одновременной оценки диагонального элемента матрицы переходов. Заметим, что при однократном распознавании шаг варьирования диагонального элемента в диапазоне 1/ m < q < 1 оказывается вырожденным, т.к. при любом наборе весов ациклических графов увеличение диагонального элемента при условии q < 1 монотонно уменьшает число ошибок распознавания. Чтобы задача поиска не оказалась вырожденной, в новых алгоритмах поиска будем применять многократное распознавание при оценке числа ошибок.

Алгоритм 1. Поиск единственного диагонального элемента и весов. Все ациклические марковские модели, соответствующие графам Gk, к = 1,..., K, определяются одним общим диагональным элементом q .

Сначала все веса одинаковы: w* = {wt = 1/ K, i = 1,..., K}.

1. Проварьируем q и найдем его значение при минимальном числе ошибок E: q = arg min E(w*, q).

1/m<q<1

2. Шаг варьирования весов по всем графам. Варьируется вес wk очередного графа Gk в диапазоне 0 < wk < 1 при масштабировании весов остальных графов. Каждое пробное варьирование проверяется многократным распознаванием с подсчетом числа ошибок E(w, q*). Для каждого графа G определим число ошибок и оптимальный вектор весов

* / * \ т—г* • 7—» / * \ * т—» / * \

wk = (Wl,..., wk^.^ wK): E* = min q ), wk = argmin E(w, q ) .

0<wk <1 0<wk <1

3. Среди всех наборов w*, k = 1,., K найдем набор w * = w**, k* = argmin E*, обеспечивший наименьшее число ошибок.

1<k <K

4. Повторим шаги 1-3 до тех пор, пока число ошибок распознавания не перестанет изменяться.

Алгоритм 2. Первая схема последовательного поиска диагональных элементов и весов. Каждому графу Gk, к = 1,., K соответствует своя марковская модель с диагональным элементом qk, k = 1,., K . Сначала все веса одинаковы: w * = {wi = 1/ K, i = 1,., K}.

1. Проварьируем одновременно все диагональные элементы q = q, k = 1,., K и найдем значение q при минимальном числе ошибок

7—» * / * * \ • 7—т / * \

e : q = (q ,...,q ) = argmm E(w ,q).

1/m<q<1

2. Шаг варьирования весов по всем графам. Варьируется вес wk очередного графа Gk в диапазоне 0 < wk < 1 при масштабировании весов остальных графов. Каждое пробное варьирование проверяется многократным распознаванием с подсчетом числа ошибок E(w, q*). Для каждого графа G определим число ошибок и вектор весов: E* = min E(w, q*),

0< wk <1

wk = argmin E(w,q*), где w*k = (w^..., w*k,..., wK).

0< wk <1

3. Среди всех наборов w*, k = 1,., K найдем набор w*= w**, k * = argmin E*, обеспечивший наименьшее число ошибок.

1<k < K

4. Шаг варьирования всех диагональных элементов. В диапазоне 1/ m < q^, < 1 варьируется диагональный элемент qk, соответствующий графу G . Остальным графам соответствуют элементы q., i = 1,., K, i ф k, найденные до варьирования q , которые остаются постоянными. Найдем значение qk при минимальном числе ошибок: q* = argmin E(w *, q).

1/m<qk <1

Новое значение q применяется при варьировании диагональных элементов q^,+1,..., q^. В итоге получим оптимальный вектор q*.

5. Повторим шаги 2-4 до тех пор, пока число ошибок распознавания не перестанет изменяться.

Алгоритм 3. Вторая схема одновременного поиска диагональных элементов и весов. Каждому графу Gk, k = 1,., K соответствует отдельная ациклическая марковская модель со своим диагональным элементом qk, k = 1,., K . Сначала все веса одинаковы: w* = {w. = 1/ K, i = 1,., K}.

1. Проварьируем одновременно все диагональные элементы qk = q, k = 1,., K и найдем значение q при минимальном числе ошибок

* / * * \ • 7—г / * \

e : q = (q ,..., q ) = argmin E(w ,q).

1/m<q<1

2. Шаг варьирования весов и диагональных элементов по всем графам. Варьируется вес wk очередного графа Gk в диапазоне 0 < wk < 1 при масштабировании весов остальных графов. Каждое пробное варьирование проверяется многократным распознаванием с подсчетом числа ошибок E(w,q*). Определим число ошибок и вектор весов w^ = (w1,.,w*k,...,wK) из условия E* = min E(w,q*), w* = argmin E(w,q*). Далее варьируется

0 <wk <1 0<wk <1

элемент q, соответствующий графу Gk, в диапазоне 1/ m < q^, < 1. Остальным графам соответствуют элементы qt, i = 1,., K, i ф k, найденные до

варьирования qk, которые остаются постоянными. Найдем значение qk при минимальном числе ошибок q*k = argmin E(w*k,q) .Значение q*k опреде-

1/m<ql <1

ляет вектор qk = (q^.. ^ qlqK).

3. Среди пар (wl,ql), k = 1,...,K найдем пару (w*,q*) = (wl*,ql*), k * = argmin E (w*, q*), обеспечившую наименьшее число ошибок.

1<l < K

4. Повторим шаги 2-3 до тех пор, пока число ошибок распознавания не перестанет изменяться.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Исследование алгоритмов. Решалась задача сегментации 100 модельных растровых изображений размером 201 х 201 пикселей. Текстуры трех классов представлены реализациями трех нормально распределенных случайных величин с немного отличающимися средними в пространстве красной и зеленой компонент (на рис. 1 в градациях серого представлены: слева - пример первого изображения, справа - заданная сегментация текстур на первых четырех из 100 тестовых изображений). Таким образом, точки трех классов сильно пересекались в пространстве цветовых RG-компонент. Независимое распознавание дает не менее 30 % ошибок сегментации. На рис. 2 показаны ациклические графы соседства, заменяющие растровые решетки.

KS

Рис. 1. Пример текстуры и заданных сегментаций

Ступенч. дерево Спираль Гориз. змейка Верт. змейка Диаг. змейка

Рис. 2. Ациклические графы соседства

Сравнивались четыре алгоритма оценки параметров (Г-З - схема Гаусса-Зайделя поиска весов без оценки диагонального элемента, А1 -

оценка единственного диагонального элемента и весов, А2 - первая схема оценки диагональных элементов и весов, А3 - вторая схема оценки диагональных элементов и весов) и алгоритм TRWS [5, 6]. Изображения просматривались в случайном порядке, где средняя ошибка сегментации вычислялась после добавления очередного изображения к множеству. На рис. 3 показаны кумулятивные графики ошибок для одной из случайных последовательностей заданных изображений. Легко увидеть одинаковый характер линий средних ошибок для всех алгоритмов. Алгоритмы с поиском марковских параметров (А1-А3) резко улучшают качество сегментации по сравнению с алгоритмом по схеме Гаусса-Зайделя (Г-З) без такого поиска (показан на врезке). Алгоритм TRWS не является однозначно лучшим, так как на части изображений уступает по качеству распознавания.

Рис. 3. Среднее число ошибок (%)

Очевидно, что характер поведения таких кумулятивных характеристик изменяется с увеличением размера выборки, становясь плавным. На рис. 3 алгоритм А1 систематически проигрывает по средней ошибке остальным алгоритмам. Тем не менее, на начальном участке видно, что на каждом отдельном изображении он может выигрывать в качестве, давая меньшее число ошибок. Так и происходит: все сравниваемые алгоритмы (А1-А3, TRWS) достаточно часто уступали друг другу в качестве на различных отдельных изображениях. В частности, при сравнении с алгоритмом TRWS оказалось, что алгоритм А1 был лучше только в 35 случаях из 100, сделав суммарно на 1721 ошибку больше; алгоритм А2 был лучше уже в 55 случаях из 100, сделав суммарно на 17 ошибок больше; алгоритм А3 был лучше в 50 случаях из 100, сделав суммарно на 43 ошибки больше.

В итоге алгоритмы с поиском марковских параметров сравнимы по качеству между собой и с алгоритмом TRWS, который сегодня считается

93

одним из эффективных алгоритмов обработки изображений. Например, при уровнях значимости а = 0,001; 0,01; 0,05 и, вообще, при а< 0,3788 (т.е. для всех значений правой границы Z > 0,88 двухсторонней критической области функции Лапласа, где | | = 0,88 соответствует максимальному из значений критерия, полученному для алгоритма А1) гипотеза о равенстве среднего уровня ошибок алгоритмов с поиском марковских параметров (А1 - А3) и TRWS не отвергается.

Визуально результаты сегментаций разными алгоритмами отличаются лишь мелкими деталями и выглядят практически, как заданные сегментации (см. рис. 1). Ниже в таблице показаны параметры настройки алгоритмов на примере некоторых изображений из 100.

Параметры настройки алгоритмов

Изоб- А1 А2 А3

ражение Веса q Веса q Веса q

0,04282 0,03947 0,90 0,02000 0,75

0,20338 0,23684 0,89 0,09287 0,93

1 0,24000 0,86 0,25000 0,91 0,36836 0,92

0,25690 0,23684 0,90 0,25939 0,89

0,25690 0,23684 0,89 0,25939 0,89

0,16894 0,17000 0,89 0,16000 0,89

0,09034 0,17000 0,80 0,12643 0,89

2 0,18863 0,89 0,17000 0,90 0,20205 0,87

0,36209 0,32000 0,90 0,33540 0,88

0,19000 0,17000 0,91 0,17612 0,90

0,16486 0,46511 0,37 0,15000 0,36

0,23356 0,13000 0,61 0,21329 0,89

52 0,23356 0,89 0,14111 0,90 0,21329 0,89

0,25000 0,14111 0,92 0,21329 0,89

0,11803 0,12267 0,82 0,21012 0,94

Видно, что марковские параметры отличаются от предполагаемых эвристических значений. Единственный диагональный элемент оказывается достаточно большим, но меньше, чем предполагалось эвристически. Диагональные элементы для каждого графа соседства, например, на первых двух изображениях, также достаточно велики, но снова меньше, чем предполагалось эвристически. Это заметно, например, на изображении 52, для которого диагональный элемент, соответствующий первому графу соседства (ступенчатое дерево), оказался относительно небольшим.

Работа поддержана грантами РФФИ 10-07-00489, 13-07-00529.

Список литературы

1. Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference// Foundations and Trends in Machine Learning. 2008. Vol.1. P. 1-305.

2. Двоенко С.Д., Копылов А.В., Моттль В.В. Задача распознавания образов в массивах взаимосвязанных объектов. Постановка задачи и основные предположения// Автоматика и телемеханика. 2004. № 1. С. 143158.

3. Двоенко С.Д., Копылов А.В., Моттль В.В. Задача распознавания образов в массивах взаимосвязанных объектов. Алгоритм распознавания// Автоматика и телемеханика. 2005. № 12. С. 162-176.

4. Dvoenko S.D. Recognition of dependent objects based on acyclic Markov models// Pattern Recognition and Image Analysis. 2012. Vol. 22. № 1. P. 28-38. DOI: 10.1134/ S1054661812010130.

5. R. Szeliski [et al.] Comparative Study of Energy Minimization Methods for Markov Random Fields with Smoothness-Based Priors/ Zabih R., Scharstein D., Veksler O., Kolmogorov V., Agarwala A., Tappen M., Rother C.A.// IEEE Trans. on PAMI. 2007. Vol. 6. P. 1068-1080.

6. URL: http://vision.middlebury.edu/MRF/code/MRF2.1.zip (дата обращения: 29.12.2012).

Двоенко Сергей Данилович, д-р физ.-мат. наук, доцент, профессор, dsdatsu. tula.ru, Россия, Тула, Тульский государственный университет,

Динь Вьет Шанг, аспирант, dvietsang@gmail. com, Россия, Тула, Тульский государственный университет

PARAMETER EVALUA TING OF ACYCLIC MARKOV MODELS FOR THE GEGMENTA TION OF RASTER TEXTURED IMAGES

S.D. Dvoenko, S. Dinh Viet

The segmentation of a raster image field to homogeneous in some sense textures is based on the restoring of the marginal posterior distributions of the hidden Markov random field of classes. Parameters of acyclic Markov models are evaluated to achieve the most quality of the segmentation.

Key words: graphical models, Markov random fields, textured images, machine learning, segmentation, intellectual data analysis.

Dvoenko Sergey Danilovich, doctor of physic-mathematical sciences, docent, professor, dsd@tsu.tula.ru, Russia, Tula, Tula State University,

Dinh Viet Shang, postgraduate, dvie tsanga gmail. com, Russia, Tula, Tula State University

i Надоели баннеры? Вы всегда можете отключить рекламу.