Научная статья на тему 'Классификация систем машинного обучения'

Классификация систем машинного обучения Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
2045
413
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОБУЧЕНИЕ С УЧИТЕЛЕМ / ОБУЧЕНИЕ БЕЗ УЧИТЕЛЯ / ЧАСТИЧНОЕ ОБУЧЕНИЕ / ОБУЧЕНИЕ С ПОДКРЕПЛЕНИЕМ / SUPERVISED LEARNING / UNSUPERVISED LEARNING / SEMISUPERVISED LEARNING / REINFORCEMENT LEARNING

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Полетаева Наталья Григорьевна

Приведена классификация методов машинного обучения в зависимости от способа обучения, рассмотрены основные алгоритмы машинного обучения и область применения. Особое внимание уделено обучению с подкреплением на основе Марковских процессов принятия решений.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Полетаева Наталья Григорьевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CLASSIFICATION OF SYSTEMS MACHINE LEARNING

The classification of machine learning methods is given depending on the technique of learning, the main algorithms of machine learning and the scope of application are considered. Particular attention is paid to reinforcement learning based on Markov decision processes.

Текст научной работы на тему «Классификация систем машинного обучения»

МАТЕМАТИКА И ИНФОРМАТИКА

УДК 681.3.07

Н. Г. Полетаева КЛАССИФИКАЦИЯ СИСТЕМ МАШИННОГО ОБУЧЕНИЯ

Приведена классификация методов машинного обучения в зависимости от способа обучения, рассмотрены основные алгоритмы машинного обучения и область применения. Особое внимание уделено обучению с подкреплением на основе Марковских процессов принятия решений.

The classification of machine learning methods is given depending on the technique of learning, the main algorithms of machine learning and the scope of application are considered. Particular attention is paid to reinforcement learning based on Markov decision processes.

Ключевые слова: обучение с учителем, обучение без учителя, частичное обучение, обучение с подкреплением.

Keywords: supervised learning, unsupervised learning, semisupervised learning, reinforcement learning.

Машинное обучение — это методика анализа данных, которые позволяют компьютерам самостоятельно обучаться посредством решения массива сходных задач. Классификация и область применения систем машинного обучения приведена на рисунке 1 (с. 6). В [1] выделяют еще категорию «частичное обучение», большинство алгоритмов частичного обучения являются комбинациями алгоритмов обучения с учителем и без.

Обучение с учителем

Обучающие данные включают желательные решения, называемые метками (label). Можно выделить самые важные алгоритмы обучения с учителем:

— линейная регрессия;

— логистическая регрессия;

— метод fc-ближайших соседей;

— метод опорных векторов;

— деревья принятия решений и случайные леса;

— нейронные сети.

Обучение с учителем (или контролируемое обучение) может быть использовано для решения задач регрессии, чтобы прогнозировать целевое числовое значение переменной, располагая набором характеристик или признаков. Регрессионные проблемы, для которых входы имеют временную разницу, иногда называют анализом временных ря-

5

© Полетаева Н. Г., 2020

Вестник Балтийского федерального университета им. И. Канта. Сер.: Физико-математические и технические науки. 2020. № 1. С. 5 — 22.

дов. Обнаружение аномалий — это слой поверх регрессии: он относится к проблеме определения, когда наблюдаемое значение существенно отличается от прогнозируемого значения.

6

Рис. 1. Классификация и область применения систем машинного обучения

Некоторые алгоритмы регрессии могут применяться также для классификации. Например, логистическая регрессия, так как она способна получать вероятность принадлежности к заданному классу.

Так, метод k-ближайших соседей (k-nearest neighbors — KNN) — один из простых и часто используемых непараметрических методов классификации. Он состоит из следующих шагов:

— выбрать число k и метрику расстояния;

— найти k-ближайших соседей образца, который необходимо классифицировать;

— присвоить метку класса мажоритарным голосованием.

Метрики расстояния для определения того, как «ближние» точки

расположены друг к другу в пространстве признаков, обычно представляют собой евклидово расстояние для непрерывных переменных и расстояние Хэмминга — для дискретных переменных. Основной недостаток алгоритма KNN заключается в создании моделей больших размеров, которые должны хранить все обучающие данные, содержащие векторы признаков и метки.

Идея ближайшего соседа расширяется и на другие задачи. Например, в задаче восстановления плотности вероятности с применением обобщенных оценок типа k-ближайших узлов [2]:

N (

xk)=NSNoo) Уh

- x(i) 1

Sn (x, k)

(1)

где параметр локальности б] (х, к) есть радиус наименьшего шара с центром в точке х такого, что в нем находится не менее к узлов X(1), X) е Я" .

Настроечным параметром оценки (1) является значение к, то есть количество ближайших узлов. Для его определения применяется принцип максимума эмпирического перекрестного правдоподобия в форме

N

kN = argmaxL(k), L(k) = ^_/NN7)(X(j),k), (2)

k j=1

где оценка плотности вероятности )(х, к) вычислена по всем узлам {х(') ], кроме ;-го:

N ( X) Л

I

fN\x, k) =---У h

JNK,) NSn (x, k) £

Sn (x, k)

(3)

i * j

Задача разбиения экспериментального материала на обучающую и контрольную группы в данном случае имеет тот же смысл и порождает те же проблемы, что и в задачах классификации и построения регрессионных зависимостей. Соотношения (2), (3) определяют один из вариантов экономного использования экспериментального материала, при котором одни и те же данные различным образом многократно разбиваются на обучающее и контрольное множества. Таким способом формирования функции правдоподобия приходится пользоваться при сравнительно небольших объемах выборки N. Подчеркнем содержательно наиболее важный момент: то или иное разбиение наблюдений на две группы необходимо для проверки качества оценок — возможности их использования для интерполяции восстанавливаемой зависимости.

Метод опорных векторов (support vector machine — SVM) является (в простейшем виде) линейным классификатором подобно логистической регрессии, так как создает гиперплоскость в векторном пространстве, которая пытается разделить два класса в наборе данных. Метод SVM отличается от логистической регрессии функцией издержек. Логистическая регрессия использует функцию логарифмического правдоподобия, которая штрафует все точки пропорционально ошибке в оценке вероятности — даже те, которые находятся на правильной стороне гиперплоскости. Классификатор SVM пытается найти гиперплоскость с максимальным зазором, разделяющую два класса, где «зазор» указывает расстояние от разделяющей плоскости (границы решения) до ближайших обучающих образцов с каждой стороны, так называемых опорных векторов. Метод SVM использует петлевую функцию, ко-

7

торая штрафует только точки, расположенные на неправильной стороне гиперплоскости или очень близко к ней на правильной стороне (нарушение зазора образцом равно 0, если он расположен вне полосы на корректной стороне).

Еще одна причина, по которой модели SVM столь популярны, в том, что их можно легко модифицировать с использованием ядра для решения нелинейных задач классификации. Ключевая идея в основе ядерных методов для решения задач с линейно неразделимыми данными состоит в том, чтобы создать нелинейные комбинации исходных признаков и функцией отображения ф0 спроецировать их на пространство более высокой размерности, где они становятся линейно разделимыми. Затем ту же самую функцию отображения ф(-) можно использовать для трансформации новых, ранее не наблюдавшихся данных, чтобы их классифицировать при помощи линейной модели SVM [3]. Именно в этом подходе можно применить так называемый ядерный трюк (или подмену скалярного произведения функцией ядра). На математическом уровне ядро преобразует одно векторное пространство V1 в другое пространство V2 и представляет собой функцию K(x, y) на V х V2 . Каждый x eV1 отображается с помощью K(x, •), а V2 — пространство, охватываемое всеми такими функциями. На практике нужно всего лишь на шаге прямого вычисления скалярного произведения между двумя точками подставить ядерную функцию:

K(x(l), x( j)) = ф(х(1))Тф(х( j)).

Одним из наиболее часто используемых ядер является гауссово ядро радиальной базисной функции (radial basis function — RBF):

K(x(i), x(j)) = exp^- r\x(i) - x(j)||2 j,

1 ii ■ ii

где y =-j — параметр, который нужно оптимизировать; x(l) - x(■)

2а " "

— евклидово расстояние. Термин ядро можно интерпретировать как

функцию подобия между парой образцов. Теперь необходимо обучить

ядро SVM, чтобы оно могло провести нелинейную границу решения,

хорошо разделяющую данные.

Чтобы продемонстрировать работу метода, сначала создадим набор

данных для нелинейной задачи классификации, который имеет вид

логического элемента XOR, используя для этого функцию logical_xor из

библиотеки NumPy языка программирования Python, где первым

100 образцам назначается метка класса 1, другим 100 образцам — метка

класса -1:

8

import numpy as np import matplotlib.pyplot as plt from numpy import random

пр.гапдош^ееЩО)

Х_хог = пр.гапдош.гапдп(200 , 2)

у_хог = np.logical_xor(X_xor[ :, 0] >0 , Х_хог[: , 1] > 0)

у_хог = пр.шЬеге (у_хог , 1, - 1)

рк.8сайег(Х_хог[у_хог==1 , 0] , Х_хог[у_хог==1 , 1] ,

с= 'tab:orange', шагкег= 'л', 1аЬе1= '1') рк.8сайег(Х_хог[у_хог==-1 , 0] , Х_хог[у_хог==-1 , 1],

с= 'tab:blue', шагкег= '8', 1аЬе1= '-1') plt.yliш (-3.0) plt.legend () рк.8Ьош ()

Набор данных ХОИ со случайным шумом, сгенерированный приведенным выше кодом, показан на рисунке 2. Совершенно очевидно, что не получится хорошо разделить образцы из положительного и отрицательного классов, применив в качестве границы решения линейную гиперплоскость, построенную методом линейной логистической регрессии либо линейной модели БУМ.

Рис. 2. Набор данных для нелинейной задачи классификации

Для решения поставленной задачи будем использовать Python-пакет Scikit-Learn (универсальная библиотека с открытым исходным кодом для анализа данных), в котором реализованы все основные алгоритмы машинного обучения. Применим класс SVC из библиотеки Scikit-Learn со следующими параметрами:

from sklearn.svm import SVC

svm = SVC(kernel= 'rbf', random_state=0 , gamma=0.10, C=10.0)

Здесь kernel — ядро RBF; gamma — параметр ядра; C — параметр регуляризации SVC, управляющий зазором и общий для всех ядер метода SVM.

9

После обучения SVM с ядром радиальной базисной функции на демонстрационном наборе данных получим относительно хорошее разделение данных XOR (рис. 3):

from mlxtend.plotting import plot_decision_regions svm.fit(X_xor, y_xor)

plot_decision_regions (X_xor, y_xor, clf=svm)

plt.legend(loc='upper right')

plt.show()

10

Рис. 3. Использование ядерного трюка для нахождения разделяющих гиперплоскостей

Параметр у (gamma) является параметром отсечения для гауссовой сферы. С ростом величины у увеличивается охват обучающих образцов, что ведет к более мягкой границе решения.

Наивные байесовские классификаторы очень популярны в приложениях фильтрации спама в электронных сообщениях, так как имеют тенденцию обучаться быстрее других классификаторов. Классификатор называют «наивным», потому что он делает сильное статистическое предположение: признаки выбираются независимо от некоторого (неизвестного) распределения, по каждому признаку собираются простые статистики классов.

Деревья принятия решений — универсальные контролируемые модели обучения, которые имеют важное свойство — быть легко интерпретируемым. Этот алгоритм можно использовать как для классификации, так и для прогнозирования. Дерево решений представляет собой древовидную структуру в виде набора связанных узлов. Во многих задачах применяется бинарное дерево, каждый узел такого дерева разбивает данные на два множества с помощью порогового значения одного из информативных признаков. Дочерние подмножества далее рекурсивно разделяются на меньшие подмножества на основе других условий. Условия разделения автоматически выбираются на каждом шаге для наилучшего разбиения набора элементов.

Для того чтобы расщепить узлы в самых информативных признаках, определим в качестве целевой функции, которую необходимо оптимизировать алгоритмом обучения на основе дерева, прирост информации (information gain — IG) при каждом расщеплении:

IG(DV, f) = I(Dp)(4)

j=1 NV

где f — это признак, по которому выполняется расщепление; Dp и Dj — набор данных родительского и j-ro дочернего узла; I — мера неоднородности; Np — общее число образцов в родительском узле и Nj — число образцов в j-ом дочернем узле.

Прирост информации является мерой «чистоты» подмножеств, полученных в результате разделения. Из соотношения (4) видно, что IG — это разница между неоднородностью родительского узла и суммой не-однородностей дочерних узлов (чем меньше неоднородность дочерних узлов, тем больше прирост информации). Для уменьшения комбинаторного пространства поиска в большинстве библиотек (включая Scikit-Learn) реализованы бинарные деревья решений, то есть каждый родительский узел расщепляется на два дочерних узла.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В бинарных деревьях решений обычно используются три меры неоднородности, или критерия расщепления: мера неоднородности Джини (Ig), энтропия (Ih) и ошибка классификации (Ie).

Энтропия для всех непустых классов р(*Ю ^ 0 определяется следующим образом:

c

Ih (t) = -2 V(i|t )!og2 V(i 11),

i=1

где p(i 11) — это доля образцов, которая принадлежит классу i для отдельно взятого узла t. Энтропия равна 0, если все образцы в узле принадлежат одному и тому же классу, и энтропия максимальна, если распределение классов равномерное.

Мера неоднородности Джини определяется как критерий, который минимизирует вероятность ошибочной классификации:

Ig (t) = 2 V(i 11)(1 - V(i It)) = 1 -2 V2(i 11).

i=1 i=1

Подобно энтропии, мера неоднородности Джини максимальна, если классы полностью перемешаны — например, в конфигурации с бинарными классами (с = 2): IG (t) = 0,5. Однако на практике мера неоднородности Джини и энтропия, как правило, дают очень похожие результаты.

Еще одной мерой неоднородности является ошибка классификации: Ie (t) = 1 - max{p(i|t)}.

11

Этот критерий менее чувствителен к изменениям вероятностей классов в узлах.

Теперь, используя библиотеку Scikit-Leaгn, можно обучить дерево решений с максимальной глубиной 2 для набора данных «ирисы Фишера», применив в качестве критерия неоднородности энтропию (рис. 4). Соответствующий исходный код выглядит следующим образом:

12

from sklearn.datasets import load_iris

from sklearn.tree import DecisionTreeClassifier, plot_tree

import matplotlib.pyplot as plt

iris = load_iris()

X = iris.data[:, 2:] # длина и ширина лепестка y = iris.target

tree_clf = DecisionTreeClassifier(criterion='entropy', max_depth=2)

tree_clf.fit(X, y)

plt.figure(figsize=((10,8)))

plot_tree(tree_clf, filled=True, feature_names=iris.feature_names[2:],

class_names=iris.target_names, rounded=True) plt.show()

petal width (cm) <= 0.8 entropy = 1.585 samples - 150 value = [50, 50, 50] class = setosa

entropy = 0.0 samples = 50 value = [50, 0, 0] class = setosa

petal width (cm) <= 1.75 entropy = 1.0 samples - 100 value = [0, 50, 50] ciass = versicolor

entropy = 0.445

samples = 54 value = [0, 49, 51 class - versicolor

entropy = 0.151

samples = 46 value - [0, 1, 45] class = vlrginica

Рис. 4. Дерево принятия решений для набора данных «ирисы Фишера»

Важным качеством деревьев принятия решений является относительная простота объяснения результатов классификации или регрессии, поскольку каждое предсказание может быть выражено в серии логических условий, которые прослеживают путь от корня дерева до конечного узла.

Случайный лес — модель, состоящая из множества деревьев решений. Вместо того чтобы просто усреднять прогнозы разных деревьев (такая концепция называется просто «лес»), эта модель обучает группу классификаторов на основе деревьев принятия решений, задействовав для каждого отличающийся случайный поднабор обучающего набора.

В процессе обучения каждое дерево случайного леса учится на случайном образце из набора данных. Выборка образцов происходит с заменой (возвращением) — в статистике этот метод называется бутстреп-пингом (bootstrapping). Это дает возможность повторно использовать образцы одним и тем же деревом. При тестировании результат выводится путем усреднения прогнозов, полученных от каждого дерева. Подход, при котором каждый обучающийся элемент получает собственный набор обучающих данных (с помощью бутстреппинга), после чего результат усредняется, называется бэггинг (bagging, сокр. от bootstrap aggregating). Когда выборка выполняется без замены, такой метод называется вставкой или вклеиванием (pasting). После обучения каждого отдельного дерева решений общие предсказания случайных лесов делаются путем выбора статистического режима прогнозов отдельных деревьев для деревьев классификации (то есть каждое дерево «голосует») и среднего статистического значения прогнозов отдельных деревьев для деревьев регрессии. Однако повышенная сложность случайных лесов затрудняет анализ предсказаний по сравнению с одиночными деревьями решений.

Класс RandomForestClassifier из библиотеки Scikit-Learn имеет определенные параметры, которые либо уникальны для случайных лесов, либо особенно важны: параметр n_estimators задает число деревьев решений для включения в лес; параметр max_features определяет максимальное число отбираемых признаков; параметр bootstrap позволяет установить тип выборки — с заменой (настройка по умолчанию) или без замены.

Одиночные деревья принятия решений имеют тенденцию перестраиваться под свои обучающие наборы, и случайные леса смягчают этот эффект, принимая среднее значение нескольких деревьев принятия решений, что обычно улучшает производительность модели. Кроме того, поскольку каждое дерево в случайном лесу может быть обучено независимо от всех других деревьев, распараллелить алгоритм обучения очень просто. Поэтому случайные леса крайне эффективны для обучения.

Еще одним замечательным качеством случайных лесов является то, что они позволяют легко измерить относительную важность каждого признака. Scikit-Learn измеряет важность признака путем выяснения, насколько узлы дерева, использующие этот признак, уменьшают загрязненность в среднем (по всем деревьям в лесу). Точнее, это взвешенное среднее, где вес каждого узла равен количеству связанных с ним обучающих образцов.

Scikit-Learn вычисляет эту оценку автоматически для каждого признака после обучения, а затем масштабирует результаты так, чтобы сумма всех значимостей была равна 1. Можно получить доступ к итоговому признаку с помощью переменной feature_importances_. Например, следующий код обучает RandomForestClassifier на наборе данных «ирисы Фишера» и выводит значение каждого признака:

13

from sklearn.ensemble import RandomForestClassifier from sklearn.datasets import load_iris iris = load_iris()

rnd_clf = RandomForestClassifier(n_estimators=500, n_jobs=-1) rnd_clf.fit(iris["data"], iris["target"])

for name, score in zip(iris["feature_names"], rnd_clf.feature_importances_):

print(name, score)

sepal length (cm) 0.112492250999

sepal width (cm) 0.0231192882825

petal length (cm) 0.441030464364

petal width (cm) 0.423357996355

Очевидно, что наиболее важными признаками являются длина лепестка (44 %) и ширина (42 %), в то время как значимость длины и ширины чашелистика по сравнению с ними намного ниже (11 % и 2% соответственно).

Нейронные сети. Другим способом прогнозирования данных временных рядов является использование искусственных нейронных сетей, в частности рекуррентных нейронных сетей (recurrent neural network — RNN), которые уникально спроектированы для изучения тенденций и моделей при вводе временных рядов в целях классификации или прогнозирования.

Многослойный персептрон (multilayer perceptron — MLP) относится к классу простых нейронных сетей прямого распространения, которые могут создавать нелинейные границы принятия решений. Для обучения MLP применяют алгоритм обратного распространения ошибки. Его можно описать как градиентный спуск, использующий автоматическое дифференцирование в обратном режиме. Для каждого обучающего образца алгоритм сначала вырабатывает прогноз (прямой проход), измеряет ошибку, затем проходит через каждый слой в обратном направлении, чтобы измерить вклад в ошибку каждой связи (обратный проход), и, наконец, немного подстраивает веса связей с целью уменьшения ошибки (шаг градиентного спуска). Чтобы этот алгоритм работал правильно, разработчики внесли ключевое изменение в архитектуру MLP: заменили ступенчатую функцию активации логистической функцией f (z) = 1/(1 + exp(-z)).

Нейронные сети применяются для построения очень сложных моделей, особенно в случае больших наборов данных. Однако, во-первых, они чувствительны к масштабированию данных, а во-вторых, требуется много времени для обучения таких моделей. Гибкость нейронных сетей также является одним из их главных недостатков: существует много гиперпараметров для подстройки. Можно не только применять любую воображаемую топологию сети (способ связывания нейронов друг с другом), но даже в простом MLP допускается изменять число слоев, количество нейронов на слой, тип функции активации, используемой в каждом слое, логику инициализации весов и др. Для нахождения наи-

лучшей комбинации значений гиперпараметров применяют два метода: решетчатый поиск и рандомизированный. Чтобы выполнить решетчатый поиск, необходимо задействовать класс Сп^еагсЬСУ из библиотеки Sdkit-Leam, передав ему набор параметров и значения, которые нужно опробовать. Сг^еагсЬСУ оценит всевозможные комбинации значений гиперпараметров, применяя перекрестную проверку. Подход с решетчатым поиском хорош для небольшого числа комбинаций, но, когда пространство поиска гиперпараметров является большим, предпочтительнее воспользоваться рандомизированным поиском, который реализован классом RandomizedSeaгchCV. Этот класс можно применять почти так же, как и класс GгidSeaгchCV, но, вместо того чтобы опробовать всевозможные комбинации, он оценивает заданное количество случайных комбинаций, выбирая случайное значение для каждого гиперпараметра на любой итерации.

Для контролируемого обучения необходимо разделить набор данных на обучающие и тестовые наборы. По сути, алгоритм машинного обучения берет в себя набор учебных материалов и выводит модель. Модель представляет собой алгоритм, который принимает новые точки данных в том же виде, что и данные обучения, и выводит предсказание. Все алгоритмы машинного обучения определяются тремя взаимозависимыми компонентами:

1) семейство моделей, в котором описывается множество моделей, из которых можно выбирать;

2) функция издержек, которая позволяет количественно сравнивать разные модели;

3) процедура оптимизации, выбирающая лучшую модель из множества.

15

Обучение без учителя

Обучающие данные не помечены, система пытается обучаться без учителя. Если в контролируемом обучении система на маркированных тренировочных данных пытается извлечь модель, которая позволяет делать прогнозы о ранее не встречавшихся или будущих данных, то в неконтролируемом обучении система старается самостоятельно найти шаблоны непосредственно из набора данных. Основные алгоритмы обучения без учителя:

а) кластеризация:

— метод ^-средних;

— иерархический кластерный анализ;

— максимизация ожиданий;

— нейронная сеть Кохонена;

б) визуализация и понижение размерности:

— анализ главных компонентов;

— ядерный анализ главных компонентов;

— локальное линейное вложение;

— стохастическое вложение соседей с ^распределением;

в) обучение ассоциативным правилам.

Метод к-средних применяется к вещественным векторам, когда точно известно количество кластеров. Цель алгоритма — назначить каждую точку набора данных кластеру таким образом, чтобы сумма расстояний от каждой точки до центра кластера была минимальной. Здесь понятие «расстояние» является обычным евклидовым расстоянием в векторном пространстве:

В математических терминах алгоритм k-средних вычисляет кластерное назначение W: X^(1,...,k), которое минимизирует внутрикла-стерную сумму квадратичных ошибок (SSE):

«инерцией» кластера.

Иерархический кластерный анализ используется для группировки непомеченных точек данных, имеющих сходные характеристики. Существует два основных подхода к иерархической кластеризации: диви-зивный (разделяющий) и агломеративный (объединяющий). Дивизив-ный алгоритм начинается с единственного кластера, который охватывает все образцы и итеративно расщепляет кластер на более мелкие, пока каждый кластер не будет содержать всего один образец. В агломе-ративном алгоритме принят противоположный подход: каждый образец рассматривается как отдельный кластер, далее алгоритм объединяет ближайшие пары кластеров.

Агломеративная иерархическая кластеризация представлена двумя стандартными алгоритмами: методом одиночной связи (single linkage) и методом полной связи (complete linkage). Используя метод одиночной связи для каждой пары кластеров вычисляются расстояния между самыми похожими членами и объединяются два кластера, для которых расстояние между самыми похожими членами наименьшее. Подход на основе полной связи подобен методу одиночной связи, но в каждой паре кластеров сравниваются наиболее различающиеся члены для объединения.

Результаты работы иерархических алгоритмов обычно представляются в виде дендрограммы, построенной по сжатой матрице расстояний [3].

Анализ главных компонент (principal component analysis — PCA) — это метод линейного преобразования, который широко используется в самых разных областях, чаще всего для снижения размерности. Алгоритм PCA определяет ось, на долю которой приходится самая крупная

d(x, y) = x - yi )2 =|\X - Y\\.

i=1 j=1

где k — число кластеров; /(j) — центры масс векторов X(i) е Rn, i=1,2,...,N, ®(1,1 = 1 в случае, если образец X(i) находится в группе j, и m(i,j) = о в противном случае. Значение SSE иногда также называется

величина дисперсии в обучающем наборе. Он также находит вторую ось, ортогональную к первой, на долю которой приходится самая крупная величина оставшейся дисперсии, и т. д. При проекции на такие оси (снижении размерности) сохраняется наибольшее количество информации. Ортогональные оси (главные компоненты) нового подпространства можно интерпретировать как направления максимальной дисперсии при условии, что оси новых признаков ортогональны друг другу. Класс PCA из библиотеки Scikit-Learn реализует метод PCA с использованием сингулярного разложения SVD. Следующий код применяет PCA для уменьшения размерности набора данных до двух измерений (алгоритм автоматически выполняет центрирование данных):

from sklearn.decomposition import PCA pca = PCA(n_components = 2) X2D = pca.fit_transform(X)

После подгонки преобразователя PCA к набору данных можно обращаться к главным компонентам с помощью переменной components_, которая хранит их в виде горизонтальных векторов, поэтому, например, первым главным компонентом будет pca.components_.T[:, 0].

Более того, ядерный трюк может быть применен к PCA, что позволяет выполнять сложные нелинейные проекции для понижения размерности. Этот алгоритм называется ядерным PCA (kPCA). Например, следующий код использует класс KernelPCA из библиотеки Scikit-Learn для выполнения kPCA с ядром RBF:

from sklearn.decomposition import KernelPCA

rbf_pca = KernelPCA(n_components = 2, kernel='rbf', gamma=0.04)

X_reduced = rbf_pca.fit_transform(X)

Обучение на базе многообразий (manifold learning) — это класс алгоритмов без учителя, нацеленных на описание наборов данных как низкоразмерных многообразий, вложенных в пространство большей размерности.

1. Метод t-SNE (t-distributed stochastic neighbor embedding — распределенное стохастическое соседнее вложение) используется для визуализации отображения пространства высокой размерности в пространство меньшей размерности. Алгоритм t-SNE начинается с преобразования многомерного евклидового расстояния между точками в условные вероятности, отражающие сходство точек:

expl-|\xi -x,|| /2af

Pj\i 7

Jk

17

Zk« eXp(-lX -Xk\\1 /2°1)

где среднеквадратичное отклонение ai — параметр, который нужно оптимизировать.

18

Теперь определим матрицу сходства для исходного набора данных как симметричный вариант условной вероятности:

Рц =

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рц +

2N

Также определим матрицу сходства для точек отображения:

/(|X - х1|)

Е**/(Х -^)

с /(2) =

1 + 22

(5)

(6)

Здесь применяется такой же подход, как и для точек данных, но используется другое распределение (распределение Стьюдента с одной степенью свободы или распределение Коши вместо гауссова распределения). Алгоритм Ь-БМБ стремится к тому, чтобы две эти матрицы были максимально близкими, это соответствует минимизации расстояния Кульбака — Лейблера между распределениями (5) и (6):

Рц

Щ Р||0) ^Л^ -

1,1 Ча

2. Многомерное шкалирование (МББ) понижает размерность, одновременно пытаясь сохранить расстояния между образцами.

3. Изометрическое отображение (кошар) создает граф, соединяя каждый образец с его ближайшими соседями, а затем понижает размерность, пытаясь сохранить геодезические расстояния между образцами (геодезическое расстояние между двумя узлами в графе представляет собой количество узлов на кратчайшем пути между этими узлами).

Локально-линейные методы снижения размерности базируются в основном на сохранении свойств в малых окрестностях точек.

Например, вот как работает метод локально линейного вложения (ЬЬБ): сначала для каждого обучающего образца х(1) е Я" алгоритм идентифицирует его к-ближайших соседей, а затем пытается восстановить х(1) как линейную функцию этих соседей. Более конкретно, он находит такие веса , у, которые минимизируют сумму квадратичных ошибок:

N

РР = а^шт^ х(1) ,

1=1

N

х( 1)

1=1

при условии

1 = 0, х(1 г Бк),

1,1

N

2 щ, 1 = 1,1 = 1,2,..., N'

1=1

1

2

щ

где Щ — матрица весов, содержащая все веса {г,у; Б^ — множество к-бли-

жайших соседей х(г). Второе ограничение нормализует веса для каждого обучающего образца х(г).

После этого шага матрица весов \М(тг у) представляет локальные

линейные связи между обучающими образцами. Теперь второй шаг — отобразить обучающие образцы на ¿-мерное пространство (где й < и) с одновременным сохранением как можно большего числа имеющихся локальных связей. Если 2(г) является образом х(г) в этом й-мерном пространстве, то необходимо минимизировать квадрат расстояния между

2(г) и ^ . 1 {г у2(у). Таким образом, получаем задачу безусловной оптимизации:

N

f . N ^

Z = argmin^ z(i)Wi,jZ('')

2

z

i=1

Г

'v j=1

где Z — это матрица, содержащая все z(i). Это очень похоже на первый шаг, но, вместо того чтобы фиксировать образцы и находить оптимальные веса, делаем обратное: фиксируем веса и находим оптимальное положение отражений образцов в пространстве с более низким числом измерений.

Обучение ассоциативным правилам. Выявление закономерностей между связанными событиями может быть использовано для понимания природы анализируемых данных. Основные меры поиска ассоциативных правил: поддержка (support) — частота появления правила, достоверность (confidence) — показатель, характеризующий уверенность в том, что правило на самом деле верное (оценка условной вероятности).

19

Обучение с подкреплением

Обучающая система или программный агент может наблюдать, выбирать и вышолнять действия внутри среды (среда — это замкнутый физический или виртуальный объект), получая в ответ награды или штрафы в форме отрицательных наград. Затем агент должен определить наилучшую стратегию, называемую политикой, для получения максимальной награды [1]. Например, политикой может быпь нейронная сеть, которая на входе принимает наблюдения и выщает действие, подлежащее выполнению, по оценочным вероятностям для каждого действия (рис. 5). Другие способы исследования пространства политик связаны с использованием генетических алгоритмов и градиентных методов для определения оптимальной политики.

20

Рис. 5. Политика в форме нейронной сети

Марковские системы принятия решений. Марковский процесс принятия решений состоит из множества состояний Б, множества действий А, функции перехода Т(э,а,Б) из состояния б в состояние б' при условии, что агент выбрал действие а е А и функции вознаграждения К(э,а,э) для этого перехода. Для марковского процесса справедливо утверждение: вероятности переходов между состояниями не зависят от истории предыдущих переходов.

Оценка оптимальной ценности V (б) состояния, предложенная Р. Беллманом, представляет собой ожидаемую суммарную прибыль с учетом дисконтной ставки у:

V

(б) = тах У Т(э, а, б ){к(э, а, б ) + у -V (б )}.

Обозначим через п(а, э) вероятность выбора действия а е А в состоянии б, Q (б, а) — оптимальная Q-ценность пары «состояние — действие» (э,а). Тогда, если агент будет следовать оптимальной стратегии п(а,б) , то для всех пар (э,а) справедливо:

Qk+х(э, а) ^ У Т(э, а, э )! Р(э, а, э ) + у - тах (э , а )

(7)

Выбор оптимальной политики определяется из подсчитанных значений Q (б,а):

п (б) = а^тахQ (э, а).

(8)

Данный подход (7), (8) был адаптирован для поиска оптимального маршрута передвижения мобильного агента в условиях дорожного движения и сохранения конфиденциальности его местоположения [4].

б

б

а

Коммуникационные возможности мобильных устройств позволяют отслеживать местоположение мобильных агентов по их уникальному идентификатору путем прослушивания сети.

Предположим, что злоумышленник имеет ограниченное число прослушивающих станций для расположения в сети с целью обнаружения мобильных агентов на перекрестках. Ограничение на количество прослушивающих станций связано с затратами на установку каждой станции.

Для обеспечения своей конфиденциальности мобильные агенты могут использовать несколько уникальных идентификаторов. Смена идентификаторов происходит в зонах смешивания, которые требуют определенных затрат — стоимости смены псевдонимов и пребывания в состоянии молчания для мобильного агента [5].

В моделируемой конфликтной ситуации, основанной на теоретико-игровом взаимодействии мобильных агентов и злоумышленника, при расчете ценности состояний вводятся некоторые определенные правила в качестве исходных данных для выбора оптимальной стратегии [4].

Предположим, что a — действие, выполняемое в состоянии s (выбор пути). Оно определяется следующим образом (рис. 6):

0,8 = const для выбранного направления движения, 0,1 = const для всех остальных возможных вариантов.

Агент

Рис. 6. Действие a, выполняемое агентом в состоянии s

21

Применим метод Беллмана для связанного графа, представленного на рисунке 7.

Рис. 7. Ценности состояний в связанном графе, у = 1 и R(s) =-0,04

Для оценивания предлагаемого метода Беллмана были рассмотрены следующие алгоритмы: Дейкстры, Флойда — Уоршелла. Среднее время выполнения алгоритмов оптимизации приведено в таблице.

Сравнение разработанных алгоритмов по скорости

Процессор AMD Athlon II X4 630 2,8 ГГц Метод Беллмана Алгоритм Дейкстры Алгоритм Флойда — Уоршелла

Среднее время поиска 0,821 с 0,648 с 0,810 с

22

Классические алгоритмы поиска выдали путь 0-2-3 (рис. 7), так как расстояние между этими узлами минимальное. Это ведет к раскрытию агента, поскольку он проходит через перекресток, на котором с большой долей вероятности находится прослушивающая станция Q(2) = -0,05. Алгоритм Беллмана предложил маршрут 0-2-4-3, так как ценность данного маршрута максимальна: агент меняет идентификатор в зоне смешивания Q(4) = 0,96, чтобы безопасно достичь цели в вершине 3. При этом реализация метода Беллмана не сильно уступает реализации алгоритма Дейкстры по скорости, находясь на том же уровне, что и алгоритм Флойда — Уоршелла [4].

Список литературы

1. Жерон О. Прикладное машинное обучение с помощью Scikit-Learn и Ten-sorFlow: концепции, инструменты и техники для создания интеллектуальных систем. СПб., 2018.

2. Катковник В.Я., Полетаева Н. Г. Принцип максимума эмпирического правдоподобия для выбора параметра сглаживания в непараметрических оценках плотности // Вопросы кибернетики. Актуальные задачи адаптивного управления. М., 1982. Вып. 89. С. 90 — 102.

3. Рашка С. Python и машинное обучение. М., 2017.

4. Васильев С. П., Полетаева Н. Г. Применение методов машинного обучения в задачах оптимизации // Информационные системы и технологии: теория и практика : сб. науч. тр. СПб., 2019. Вып. 11. С. 28 — 40.

5. Buttyan L., Holczer T., Vajda I. On the effectiveness of changing pseudonyms to provide location privacy in VANETs // Proceedings of 4th European Workshop on Security and Privacy in Ad-hoc and Sensor Networks. Cambridge, 2007. Р. 129 — 141.

Об авторе

Наталья Григорьевна Полетаева — канд. техн. наук, ст. преп., Балтийский федеральный университет им. И. Канта, Россия.

E-mail: spur49@mail.ru

The author

Dr Natalya G. Poletaeva, Assistant Professor, Immanuel Kant Baltic Federal University, Russia.

E-mail: spur49@mail.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.