Научная статья на тему 'Метод групповой адаптации с фиксацией смещений нейронов (афсн) для прогнозирования показателей качества объемных извещателей'

Метод групповой адаптации с фиксацией смещений нейронов (афсн) для прогнозирования показателей качества объемных извещателей Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
98
16
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОБОБЩЕННЫЙ ПОКАЗАТЕЛЬ КАЧЕСТВА / НЕЙРОННОЕ МОДЕЛИРОВАНИЕ / МЕТОД АДАПТАЦИИ НЕЙРОННОЙ СЕТИ С ФИКСАЦИЕЙ СМЕЩЕНИЙ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Бухарин С.В., Мельников А.В., Навоев В.В.

Нейронное моделирование зачастую не гарантирует выполнения принципа общности нейронная модель, обученная на одном наборе данных, может оказаться неадекватной при подаче на ее вход данных из другого набора. Поэтому при использовании нейронного моделирования необходима процедура тестирования полученных результатов с помощью метода гребневой (ridge) регрессии, основанного на теории регуляризации некорректно поставленных задач. Существо предлагаемого метода адаптации нейронной сети с фиксацией смещений (АФНС) состоит в следующем: 1. Вместо двухслойной нейронной сети для адаптации рекомендуется однослойная нейронная сеть, более полно отвечающая использованию метода характеристических точек, в качестве которых выбираются взвешенные суммы отдельных групп признаков. 2. Для устранения проблемы неоднозначности, вызванной традиционным выбором случайных начальных условий, начальные значения весов и смещений нейронов выбираются равными нулю. 3. Для методологического единства решения прямой и обратной задачи экспертизы на веса и смещения нейронной сети программно накладываются следующие ограничения: веса [0, 1], а смещения принудительно полагаются равными нулю путем выбора параметра скорости адаптации. 4. Результаты нейронного моделирования часто могут быть недостоверными в силу нарушения принципа общности и для проверки его соблюдения необходимо обязательное тестирование полученных результатов, например, с помощью метода гребневой регрессии. Как следует из представленных результатов, во всех случаях следует пользоваться предложенными методами последовательной и групповой адаптации с фиксацией смещений нейронов, поскольку при этом имеется возможность восстановления исходной регрессионной модели. При фиксации нулевых смещений нейронов их найденные веса приобретают значения из диапазона [0, 1], что обеспечивает методологическое единство решения прямой и обратной задачи экспертизы.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Бухарин С.В., Мельников А.В., Навоев В.В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Method of group adaptation with fixing of biases of neurons (AFSN) for forecasting of indicators of quality of volume announcers

Neural modeling often doesn't guarantee performance of the principle of a community the neural model trained on one data set can be not adequate when giving on its entrance of data from other set. Therefore when using neural modeling procedure of testing of the received results by means of the method of ridge regression based on the theory of regularization incorrectly of objectives is necessary. The being of the offered method of adaptation of a neural network with fixing of shifts (ABNS) is as follows: 1. Instead of a two-layer neural network for adaptation the single-layer neural network more fully answering to use of a method of characteristic points as which the weighed sums of separate groups of signs get out is recommended. 2. For elimination of a problem of the ambiguity caused by a traditional choice of casual entry conditions, initial values of scales and shifts of neurons get out equal to zero. 3. For methodological unity of the solution of a straight line and the return problem of examination, on weight and shift of a neural network the following restrictions are programmatically imposed: the weight [0, 1], and shifts forcibly rely equal to zero by an adaptation speed parameter choice. 4. Results of neural modeling can often be doubtful owing to violation of the principle of a community and check of its observance requires obligatory testing of the received results, for example, by means of a method of ridge regression. As appears from the presented results, in all cases it is necessary to use the offered methods of consecutive and group adaptation with fixing of shifts of neurons, as thus there is a possibility of restoration of initial regression model. When fixing zero shifts of neurons their found weight gain values from the range [0, 1] that provides methodological unity of the solution of a straight line and return problem of examination.

Текст научной работы на тему «Метод групповой адаптации с фиксацией смещений нейронов (афсн) для прогнозирования показателей качества объемных извещателей»

УДК 004.896 Профессор С.В.Бухарин

(Воронеж. гос. ун-т инж. технол.) кафедры экономической безопасности и финансового

мониторинга. тел. (473) 255-37-51

старший преподаватель А.В. Мельников

(Воронежский институт МВД России) кафедра автоматизированных информационных систем органов внутренних дел. тел. (473) 200-55-00 начальник Управления В.В. Навоев

(Управление вневедомственной охраны Главного управления МВД России по Свердловской области). тел. (343) 257-62-50 E-mail: v.navoev@ mail.ru

Professor S.V. Bukharin

(Voronezh state university of engineering technologies) Department of Economic Security and financial monitoring. phone (473) 255-37-51

senior lecturer A.V. Mel'nikov

(Voronezh Institute of Russian Ministry of Internal Affairs) Department of automated information systems of the Interior. phone (473) 200-55-00

Head of the Office V.V. Navoev

(Office of the private security of Main Department of the Russian Interior Ministry in the Sverdlovsk region). phone (343) 257-62-50 E-mail: v.navoev @ mail.ru

Метод групповой адаптации с фиксацией смещений нейронов (АФСН) для прогнозирования показателей качества объемных извещателей

Method of group adaptation with fixing of biases of neurons (AFBN) for forecasting of indicators of quality of volume announcers

Реферат. Нейронное моделирование зачастую не гарантирует выполнения принципа общности - нейронная модель, обученная на одном наборе данных, может оказаться неадекватной при подаче на ее вход данных из другого набора. Поэтому при использовании нейронного моделирования необходима процедура тестирования полученных результатов с помощью метода гребневой (ridge) регрессии, основанного на теории регуляризации некорректно поставленных задач. Существо предлагаемого метода адаптации нейронной сети с фиксацией смещений (АФНС) состоит в следующем: 1. Вместо двухслойной нейронной сети для адаптации рекомендуется однослойная нейронная сеть, более полно отвечающая использованию метода характеристических точек, в качестве которых выбираются взвешенные суммы отдельных групп признаков. 2. Для устранения проблемы неоднозначности, вызванной традиционным выбором случайных начальных условий, начальные значения весов и смещений нейронов выбираются равными нулю. 3. Для методологического единства решения прямой и обратной задачи экспертизы на веса и смещения нейронной сети программно накладываются следующие ограничения: веса [0, 1], а смещения принудительно полагаются равными нулю путем выбора параметра скорости адаптации. 4. Результаты нейронного моделирования часто могут быть недостоверными в силу нарушения принципа общности и для проверки его соблюдения необходимо обязательное тестирование полученных результатов, например, с помощью метода гребневой регрессии. Как следует из представленных результатов, во всех случаях следует пользоваться предложенными методами последовательной и групповой адаптации с фиксацией смещений нейронов, поскольку при этом имеется возможность восстановления исходной регрессионной модели. При фиксации нулевых смещений нейронов их найденные веса приобретают значения из диапазона [0, 1], что обеспечивает методологическое единство решения прямой и обратной задачи экспертизы.

Summary. Neural modeling often doesn't guarantee performance of the principle of a community - the neural model trained on one data set can be not adequate when giving on its entrance of data from other set. Therefore when using neural modeling procedure of testing of the received results by means of the method of ridge regression based on the theory of regularization incorrectly of objectives is necessary. The being of the offered method of adaptation of a neural network with fixing of shifts (ABNS) is as follows: 1. Instead of a two-layer neural network for adaptation the single-layer neural network more fully answering to use of a method of characteristic points as which the weighed sums of separate groups of signs get out is recommended. 2. For elimination of a problem of the ambiguity caused by a traditional choice of casual entry conditions, initial values of scales and shifts of neurons get out equal to zero. 3. For methodological unity of the solution of a straight line and the return problem of examination, on weight and shift of a neural network the following restrictions are programmatically imposed: the weight [0, 1], and shifts forcibly rely equal to zero by an adaptation speed parameter choice. 4. Results of neural modeling can often be doubtful owing to violation of the principle of a community and check of its observance requires obligatory testing of the received results, for example, by means of a method of ridge regression. As appears from the presented results, in all cases it is necessary to use the offered methods of consecutive and group adaptation with fixing of shifts of neurons, as thus there is a possibility of restoration of initial regression model. When fixing zero shifts of neurons their found weight gain values from the range [0, 1] that provides methodological unity of the solution of a straight line and return problem of examination.

Ключевые слова: обобщенный показатель качества, нейронное моделирование, метод адаптации нейронной сети с фиксацией смещений.

Key words: composite index of quality, neural modeling, method of adaptation a neural network with fixing of shifts.

© Бухарин С.В., Мельников А.В., Навоев В.В., 2015

В работах [1, 2] было установлено, что для решения обратной задачи экспертизы наиболее предпочтительным с точки зрения минимума числа необходимых итераций является алгоритм Левенберга-Маркуардта (LM). Однако этот алгоритм является наилучшим и с точки зрения других показателей. Так, в работе [3, стр.75] приведена таблица сравнения эффективности двух градиентных алгоритмов и алгоритма LM при решении одной и той же задачи, и показано, что последний существенно превосходит градиентные алгоритмы по требуемому времени (соответственно — 57,7 с, 19,2 с, 1,8 с) и необходимому числу элементарных операций.

Однако реализация этого метода с помощью графического редактора GUI языка MATLAB имеет два серьезных недостатка: 1) неоднозначность решения, обусловленная случайным выбором начальных весов и смещений; 2) получение набора весов, противоречащих весам V исходной регрессионной модели.

Поясним второй недостаток, рассматривая уравнения линейной множественной регрессии [4, 5]:

" J" хи X12 ... ... X1m V"

J 2 = X21 X22 ... ... X2m V2 , (1)

_ J _ _ Xk1 Xk 2 ... ... Xkm _ V _ m _

где VI — коэффициенты регрессии (весовые

коэффициенты).

В задачах экспертизы предполагается [6], что весовые коэффициенты неотрицательны и принимают значения из промежутка [0, 1]. Например, в работе [7] вектор весовых коэффициентов, определенный для экспертизы объемных извещателей, имел вид:

V = (0,649 0,122 0,229 1,000)7, (2) т.е. его элементы положительны и не превосходят величины 1,0.

При нейронном моделировании в той же статье нами был введен расширенный вектор весов и смещений для двухслойной сети:

Q = (^2, ^3, ^4, Ь1; Ь2)Т ,

I

где Wj,■ — синаптические веса 1-го нейрона

и

(I = 1,2), Ь1 — смещения 1-го нейрона (I = 1,2).

Даже для случая одного нейрона в скрытом слое вектор Q был получен в виде [7]:

Q = (1,426 -0,614 -1,723 2,307 0,224

0,297 -0,880f , (3)

что совершенно отличается от (2). Как видим, нарушено требование неотрицательности весовых коэффициентов и требование | Vj1 < 1.

Полученные результаты являются следствием известной [5] проблемы переобучения нейронной сети. Действительно, для калибровки регрессионной модели требуется найти 4-мерный вектор весовых коэффициентов Vi}, а решение задачи мы ищем в 7-мерном

пространстве весов и смещений.

Таким образом, при нейронном моделировании осуществляется калибровка одно- или двухслойной нейронной модели, а не модели линейной множественной регрессии. Иначе говоря, при использовании описанного выше подхода обучения (train) нейронной сети с применением средства nntool и графического редактора GUI калибровка линейной регрессионной модели невозможна. Это является крайне нежелательным фактором, поскольку означает разрыв методологического единства решения прямой и обратной задач экспертизы.

Целью данной статьи является разработка метода адаптации нейронной сети с фиксацией смещений (АФСН), обеспечивающего прогнозирование показателя качества нового объекта экспертизы с обеспечением возможности восстановления регрессионной модели.

Сравним различные методы прогнозирования обобщенного показателя качества нового объекта экспертизы (рисунок 1). Последовательно, слева направо, представлены два метода нейронного моделирования (обучение с учителем и адаптация) и метод решения тестовой задачи.

Во всех трех случаях исходной информацией является множество референтных данных объектов экспертизы X и множество показателей качества известного набора образцов J.

Как было отмечено выше, метод обучения на основе средства nntool и графического редактора GUI не дает возможности калибровки регрессионной модели. Однако, если пропустить этот этап, прогнозирование показателя все же возможно с помощью процедуры sim, причем с достаточно высокой точностью.

Множество референтных данных

X J

Методы нейронного моделирования

z:

Создание тестовой модели

Формирование двухслойной нейронной сети Формирование однослойной нейронной сети Метод гребневой (ridge) регрессии

+

Принудительная настройка смещений Введение параметра регуляризации а

1 г

Обучение «с учителем» нейронной сети Последовательная или групповая адаптация Метод МНК с регуляризацией XTX + al

1 г 1 г г

Калибровка регрессионной модели (невозможна) Калибровка регрессионной модели: веса { V } Калибровка регрессионной модели: веса {V }

1 г 1 г 1 г

Прогнозирование показателя качества нового образца SIM Прогнозирование показателя качества нового образца SIM Расчет показателя качества нового образца с использованием оценок {V}

1 1 г 1 г

Результаты прогноза показателя качества нового образца Jpr

Рисунок 1. Методы прогнозирования обобщенного показателя качества нового объекта экспертизы

Второй метод, метод адаптации, позволяет ограничиться рассмотрением однослойной нейронной сети и осуществить калибровку регрессионной модели. Однако этот метод труднее реализуем, чем метод train с использованием графического интерфейса GUI: при последнем нейронная модель во многом создается автоматически, а процедура adapt требует создания специальных программ на языке MATLAB, называемых М-файлами или М-функциями. Прогнозирование значений показателя Jpr нового образца по-прежнему осуществляется с помощью процедуры sim.

Третий алгоритм (на рисунке 1 представлен справа) осуществляет тестирование полученных с помощью нейронного моделирования результатов. Дело в том, что нейрон-

ное моделирование зачастую не гарантирует выполнения принципа общности [1, 3]. Последний заключается в том, что нейронная модель, обученная на одном наборе данных, окажется адекватной при подаче на ее вход данных из другого набора.

Иными словами, предварительно обученная нейронная сеть может просто «не увидеть» данных нового набора. При этом ошибки могут быть не только значительными, но и чрезмерными (100-200 %). Например, при использовании процедуры adapt из-за неправильного выбора параметра скорости адаптации lr для весов нейрона алгоритм просто расходится.

Поэтому при использовании нейронного моделирования абсолютно необходима процедура тестирования полученных результатов с по-

мощью другого, «не нейронного» метода. Таким надежным методом представляется метод гребневой (ridge) регрессии, основанный на теории регуляризации некорректно поставленных задач.

Рассмотрим метод адаптации с фиксацией смещений нейронов (АФСН). Как отмечалось ранее, методы «обучения с учителем», реализованные в среде MATLAB с помощью графического интерфейса GUI, обладают следующими недостатками: 1) неоднозначностью результатов моделирования, обусловленной случайным выбором начальных условий; 2) полным несоответствием (даже противоречием) полученных весов Wj исходным весам Vj регрессионной модели в

силу эффекта переобучения; 3) нарушением принципа общности — обученная на одном наборе данных нейронная сеть не воспринимает данные нового набора.

В отличие от использования графического интерфейса GUI, для реализации методов адаптации требуется создание программ на языке MATLAB в виде М-файлов или М-функций. Существо нововведений предлагаемого метода АФСН состоит в следующем:

1. Вместо двухслойной нейронной сети для адаптации рекомендуется однослойная нейронная сеть, более полно отвечающая использованию метода характеристических точек, в качестве которых выбираются взвешенные суммы отдельных групп признаков.

2. Для устранения проблемы неоднозначности, вызванной традиционным выбором случайных начальных условий, начальные значения весов и смещений нейронов выбираются нулевыми.

3. Для методологического единства решения прямой и обратной задачи экспертизы на веса и смещения нейронной сети программно накладываются следующие ограничения: веса wi е [0,1], а смещения принудительно полагаются равными нулю путем выбора параметра скорости адаптации смещений lr = 0.

4. Результаты нейронного моделирования часто могут быть недостоверными в силу нарушения принципа общности. Для проверки его соблюдения необходимо обязательное тестирование полученных результатов, например, с помощью метода гребневой регрессии.

Предложенный метод адаптации АФСН может быть реализован в виде двух вариантов:

1) последовательная адаптация нейронной сети;

2) групповая адаптация нейронной сети. Последовательная адаптация была рассмотрена ранее [7]. Поэтому в данной работе мы ограничимся лишь случаем групповой адапта-

ции для тех же референтных данных X, J, что и в статье [7].

При этом матрица нормированных признаков, соответствующая трем известным объемным извещателям (образцам):

X =

0,929 0,460 0,646 1,000 0,976 1,000 0,628 0,782 0,651 0,539 0,887 0,953

(4)

а вектор показателей качества известных из-вещателей:

3 = (1,807 1,681 1,644)7 . (5)

Рассмотрим групповую адаптацию нейронной сети. Сформируем однослойную нейронную сеть с линейной функцией активации (рисунок 2), и положим начальные значения весов wj и смещения Ь1 равным нулю:

пйШ{1}=[0 0 0 0];

пе!Ь{1}=0.

Кроме того, запретим изменение Ь1 в процессе адаптации командой, означающей приравнивание нулю скорости адаптации смещения 1г :

netЫases{1,1}ЛeamParamЛr=0, (6)

а скорость адаптации весов выберем равной 0,2:

net.inputWeights{1,1}.leamParam.lr=0.2. (7)

Layer

Рисунок 2. Символьная схема однослойной сети с линейной функцией активации /'(z) = риге1т(z)

Параметр 1г в формуле (7) играет решающую роль в определении степени устойчивости алгоритма. Параметр определяется в ходе вычислений экспериментально, и при неправильном выборе алгоритм резко расходится.

На вход нейронной сети одновременно подаются векторы нормированных признаков различных образцов, заданные совершенно иначе, чем в выражении (4) - в виде массива чисел двойной точности:

P =[0.929 0.976 0.651; 0.460 1.000 0.539; 0.646 0.628 0.887; 1.000 0.782 0.953],

(8)

В качестве вектора целей T был выбран вектор обобщенных показателей (также массив чисел двойной точности):

T =[1.807 1.681 1.644]. (9)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Результаты групповой адаптации с помощью процедуры adapt однослойной нейронной сети приведены на рисунке 3.

После 30 шагов (циклов) адаптации погрешности оценки отдельных показателей J1 - J3 равны:

5 J1 = 0,0680, 5 J2 = -0,0391, 5 J3 = -0,0264, (10)

а усредненный квадрат СКО калибровки равен 0,0023. Как видим, после процедуры адаптации сформированный вектор весов нейрона:

IW(1) = (0,6147 0,2247 0,4918 0,7483)T (11)

содержит только неотрицательные значения весов из интервала [0, 1], что соответствует обычной практике экспертных систем [6]. В этом состоит серьезное преимущество метода групповой адаптации перед рассмотренным ранее [7] методом обучения (train).

Кроме того, полученный вектор весов (11) оказался сильно коррелированным с исходным вектором V (2), использованным при расчете референтных данных X:

kWV = corr (W,V) = 0,917. (12)

Групповой метод адаптации

ш

О 5

10"

10-

10'

А». ..........

Л г 1

0 5 10 15 20 25 30

к

iyp&rlГ ■

1 I

0 5 10 15 20 25 30

1 r ™ 1 1 i : [ ____L..........i.___________:___________I___________:__________

++ г г : ; : + + + + ++ + + + + + + -(- + + + + ++ + + +-1 1 1 t 1

10 15 20

Циклы (шаги| адаптации

25

30

Рисунок 3. Значения выходов, весов нейрона, и ошибки при групповой адаптации нейронной сети

Подав на вход сформированной однослойной сети характеристический вектор нового объемного извещателя «Сокол-Р» (также в виде массива чисел двойной точности) с помощью процедуры моделирования ^2,рГ] = sim(net,P2), получим для нового объекта значение показателя качества 3 = 1, 5655 с от-

и рг '

носительной погрешностью 6,93 %.

Сравним методы обучения и адаптации. Для трех рассмотренных выше методов сведем результаты калибровки и прогноза обобщенного показателя качества нового объекта экспертизы в единую таблицу (таблица 1), используя результаты данной работы и статьи [7]. Приведем также для сравнения данные работы тестовой

программы, основанной на методе гребневой регрессии.

Как следует из представленных результатов (см. таблицу 1), во всех случаях следует пользоваться предложенными методами последовательной и групповой адаптации (adapt) с фиксацией смещений нейронов (АФСН), поскольку при этом имеется возможность восстановления исходной регрессионной модели. При фиксации нулевых смещений нейронов

(b1 = 0) их найденные веса W1 приобретают

значения из диапазона [0, 1], что обеспечивает методологическое единство решения прямой и обратной задачи экспертизы.

Т а б л и ц а 1

Результаты калибровки и прогноза показателя нового образца

Метод калибровки модели Восстановление Vt Погрешность калибровки Прогноз показателя Погрешность прогноза

Тестовый метод гребневой (ridge) регрессии + 0,2082 1,565 6,9%

Обучение двухслойной нейронной сети 6,371 ■ 10-10 1,529 4,4 %

Последовательная адаптация методом АФСН + 0,0019 1,548 5,8 %

Групповая адаптация методом АФСН + 0,0023 1,566 6,9 %

В тех же практических ситуациях, когда требуется лишь прогнозировать значение обобщенного показателя качества 3рг нового объекта экспертизы, а веса и смещения двух-

ЛИТЕРАТУРА

1 Хайкин С. Нейронные сети: полный курс. М.- СПб.-Киев: Вильямс, 2006. 668 с.

2 Медведев В.С., Потемкин В.Г. Нейронные сети. МАТЪАВ 6. М.: ДИАЛОГ-МИФИ, 2002. 496 с.

3 Осовский С. Нейронные сети для обработки информации. М.: Финансы и статистика, 2004. 344 с.

4 Дрейпер Н., Смит Г.Прикладной регрессионный анализ. Множественная регрессия: монография. М.: Диалектика, 2007. 912 с.

5 Эсбенсен К. Анализ многомерных данных. Избранные главы. Черноголовка: Изд-во ИПХФ РАН, 2005. 160 с.

6 Бухарин С.В., Мельников А.В. Кла-стерно-иерархические методы экспертизы экономических объектов: монография. Воронеж: Изд-во «Научная книга», 2012. 276 с.

7 Бухарин С.В., Мельников А.В., Навоев В.В. Прогнозирование значений обобщенного показателя качества объемных извещателей на основе нейронного моделирования // Вестник ВИ МВД России. 2014. № 2. С. 165-174.

слойной нейронной сети интереса не представляют и могут быть произвольными, возможно использование метода обучения (train).

REFERENCES

1 Khaykin S. Neironnye seti [Neural networks]. Moscow, Saint-Petersburg, Kiev: Williams, 2006. 668 p. (In Russ.)

2 Medvedev V.S., Potemkin V.G. Neironnye seti. MATLAB 6 [Neural networks. MATLAB 6]. Moscow: DIALOG-MIFI, 2002. 496 p. (In Russ.)

3 Osovskii S. Neironnye seti dlya obrabotki informatsii [Neural networks for information processing]. Moscow: Finansy i statistika, 2004. 344 p. (In Russ.)

4 Dreyper N., Smith G. Prikladnoi regres-sionnyi analiz. Mnozhestvennaya regressiyaAp-plied regression analysis. Multiple regression]. Moscow: Dialektika, 2007. 912 p. (In Russ.)

5 Esbensen K. Analiz mnogomernykh dannykh. Izbrannye glavy [Analysis of multidimensional data. Elected heads]. Chernogolovka, Izd-vo IPKhF RAN, 2005. 160 p. (In Russ.)

6 Bukharin S.V., Mel'nikov A.V. Klasterno ierarkhicheskie metody ekspertizy ekonomich-eskikh ob"ektov [Cluster-hierarchical methods of examination of economic objects]. Voronezh, Nauchnaya kniga, 2012. 276 p. (In Russ.)

7 Bukharin S.V., Mel'nikov A.V., Navoev V.V. Forecasting of values of the generalized indicator of quality of volume announcers on the basis of neural modeling. Vestnik VIMVD Rossii. [Bulletin of Voronezh institute of the ministry Internal affairs of Russia], 2014, no. 2, pp. 165-174. (In Russ.)

i Надоели баннеры? Вы всегда можете отключить рекламу.