Научная статья на тему 'Нейронные сети глубокого доверия в сравнение с многослойным персептроном'

Нейронные сети глубокого доверия в сравнение с многослойным персептроном Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1111
296
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННЫЕ СЕТИ ГЛУБОКОГО ДОВЕРИЯ / МНОГОСЛОЙНЫЙ ПЕРСЕПТРОН / MNIST / NEURAL NETWORKS OF DEEP TRUST / MULTILAYER PERCEPTRON

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Татьянкин Виталий Михайлович, Дюбко Ирина Сергеевна

В статье рассматривается результат обучения нейронных сетей глубоко доверия и обучения многослойного персептрона. В качестве обучающей и тестовой выборки используется база данных MNIST.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The article discusses the results of learning neural networks are deeply trust and training of multilayer perceptron. As a learning and test sample database is used MNIST.

Текст научной работы на тему «Нейронные сети глубокого доверия в сравнение с многослойным персептроном»

ВЕСТНИК ЮГОРСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА

2015 г. Выпуск 2 (37). С. 87-89

УДК 004.855

НЕЙРОННЫЕ СЕТИ ГЛУБОКОГО ДОВЕРИЯ В СРАВНЕНИИ С МНОГОСЛОЙНЫМ ПЕРСЕПТРОНОМ

В. М. Татьянкин, И. С. Дюбко Введение

В настоящее время нейронные сети глубокого доверия входят в список 10 наиболее перспективных высоких технологий, которые в ближайшее время изменят человеческую жизнь. Большинство современных систем интеллектуальной обработки данных, разрабатываемых такими компаниями как Google, Microsoft, используют нейронные сети глубокого доверия, что подтверждает их высокий потенциал развития [1].

В России данная технология малоизвестна, поэтому в статье будет показаны значительные преимущества нейронных сетей глубокого доверия по сравнению с классическим подходом [2].

Постановка задачи

Обучить многослойный персептрон и нейронную сеть глубокого доверия. После обучений сетей, проверит качество работы на тестовой выборке.

Обучения нейронных сетей

В качестве обучающей и тестовой выборки выступает база изображений рукописных цифр MNIST [3]. Размер обучающей выборки - 60000 изображений, а тестовой - 10000 изображений. Данные изображения представляют собой картинку размером 28 на 28 пикселей, сам образ (цифра) на картинке не превышает размеров 20 на 20 пикселей. После отбора изображений, где образ соответствует размеру 20 на 20 пикселей, размер обучающей выборки составит 9700 изображений, а тестовой 1500 изображений.

Для обучений многослойного персептрона выберем архитектуру сети, представленную на рисунке 1.

Обрабатывающий

слой

Рисунок 1 - Архитектура многослойного персептрона

Входной слой представленного на рисунке 1 многослойного персептрона имеет 400 нейронов, то есть каждый нейрон отвечает за каждый пиксель изображения. Обрабатывающий слой содержит 1000 нейронов, это значение получено при использовании алгоритма описанного в [4]. Выходной слой содержит 10 нейронов, которые соответствуют цифрам от нуля до девяти. При обучении весовых коэффициентов будет использоваться модифицированный алгоритм обратного распространения ошибки, описанный в [5].

График ошибки обучения многослойного персептрона представлен на рисунке 2.

87

В. М. Татьянкин, И. С. Дюбко

Рисунок 2 - Ошибка обучения персептрона

Используя архитектуру нейронной сети, соответствующей минимальной ошибке, определим количество верно идентифицированных образов: для обучающей выборки это 92 %, для тестовой 82 %. Эти результаты являются хорошими, если учитывать, что идентифицируются рукописные цифры, которые даже человеку затруднительно распознать. Пример таких цифр приведён на рисунке 3, которые взяты из тестовой выборки.

Восемь Пять

Рисунок 3 - Рукописные цифры

Для обучения нейронных сетей глубокого доверия с архитектурой 400-300-200-10, используется алгоритм, описанный в [1]:

1. Предобучаем нейронные сети методом послойного обучения, используя автоэкодер-ный подход: обучаем каждый нейронный слой как авто ассоциативную нейронную сеть с целью минимизации суммарной ошибки реконструкции информации. Для обучения используется алгоритм обратного распространения ошибки.

2. Осуществляется точная настройка с использованием алгоритма обратного распространения ошибки:

• Конструируется авто ассоциативная сеть с входным слоем X, скрытым слоем Y и выходным слоем X.

3. Обучается автоассоциативная сеть, например, при помощи алгоритма обратного распространения ошибки (как правило не более 100 эпох) и фиксируются синаптические связи первого слоя W1.

4. Берется следующий слой и формируется автоассоциативная сеть аналогичным образом.

5. Используя настроенные синаптические связи предыдущего слоя W1, подаем входные данные на вторую автоассоциативную сеть и обучаем ее аналогичным образом. В результате получаются весовые коэффициенты второго слоя W2.

6. Процесс продолжается до последнего слоя нейронной сети.

7. Берется последний слой нейронной сети и обучается с учителем.

8. Обучается вся сеть для точной настройки параметров при помощи алгоритма обратного распространения ошибки.

88

Нейронные сети глубокого доверия в сравнении с многослойным персептроном

Обрабатывающие слои нейронной сети глубокого доверия выбраны случайным образом. После обучения нейронная сеть глубокого доверия верно идентифицировала 99 % обучающей выборки и 90 % тестовой выборки.

Заключение

Как показал численный эксперимент, нейронная сеть глубокого доверия способна запоминать почти всю обучающую выборку, при этом сохраняя обобщающие свойства, которые позволили верно идентифицировать 90 % неизвестных изображений. В то же время у многослойного персептрона результаты ниже, в среднем на 10 %. В связи с этим, подтверждается преимущество нейронных сетей глубокого доверия в сравнении с многослойным персептроном.

Литература

1. Головко, В. А. Применение нейронных сетей глубокого доверия для выделения семантически значимых признаков [Электронный ресурс] / В. А. Головко. - Режим доступа : http://libeldoc.bsuir.by/bitstream/123456789/4138/1/Применение%20нейронных%20сетей.PDF (дата обращения: 13.01.2015).

2. Головко, В. А. Нейронные сети: обучение, организация и применение : учеб. пособие для вузов [Текст] / В. А. Головко ; под общ. ред. А. И. Галушкина. - Кн. 10. - М. : ИПРЖР, 2000.

3. База изображений рукописных цифр MNIST [Электронный ресурс]. - Режим доступа : http://yann.lecun.com/exdb/mnist/ (дата обращения: 13.01.2015).

4. Татьянкин, В. М. Алгоритм формирования оптимальной архитектуры многослойной нейронной сети [Текст] / В. М. Татьянкин // Новое слово в науке: перспективы развития : материалы II междунар. науч.-практ. конф. - 2014. - С. 187-188.

5. Татьянкин, В. М. Модифицированный алгоритм обратного распространения ошибки [Текст] / В. М. Татьянкин // Приоритетные направления развития науки и образования : материалы III междунар. науч.-практ. конф. (Чебоксары, 04 декабря 2014 г.). - Чебоксары : ЦНС «Интерактив плюс», 2014 ; [Электронный ресурс]. - Режим доступа : http://interactive-plus.ru/e-articles/collection-20141204/collection-20141204-5263.pdf (дата обращения: 01.06.2015).

89

i Надоели баннеры? Вы всегда можете отключить рекламу.