Научная статья на тему 'ОБ ОСОБЕННОСТЯХ СВЕРТОЧНОЙ АРХИТЕКТУРЫ НЕЙРОСЕТИ'

ОБ ОСОБЕННОСТЯХ СВЕРТОЧНОЙ АРХИТЕКТУРЫ НЕЙРОСЕТИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
85
14
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
персептрон / сверточная архитектура / нейросети / perceptron / convolutional architecture / neural networks

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Бабенко А.А.

В данной статье рассмотрены особенности сверточной архитектуры нейросети, модель искусственного нейрона. Архитектура свёрточных нейросетей позволяет закодировать определенные свойства под архитектуру.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Бабенко А.А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ABOUT THE PECULIARITIES OF THE NEURAL NETWORK ARCHITECTURE

This article describes the features of the convolutional neural network architecture, the model of an artificial neuron. The architecture of convolutional neural networks allows you to encode certain properties under the architecture.

Текст научной работы на тему «ОБ ОСОБЕННОСТЯХ СВЕРТОЧНОЙ АРХИТЕКТУРЫ НЕЙРОСЕТИ»

фильмах и сеансах и так же посетители этого web-ресурса смогут отправить администратору сайта и кинотеатра сообщение об ошибке во времени проведения сеанса, или же забронировать билет на тот или иной фильм через интернет.

Использованные источники:

1. МакКоннел Стив. Совершенный код. - СПб.: Питер, 2005. — 860 с

2. Дейт К. Дж. Введение в системы баз данных. — 8-е изд. — М.: «Вильямс», 2006. — 1328 с.

УДК 608.2

Бабенко А. А. студент магистратуры НИУ «БелГУ» Россия, г. Белгород

Бабенко А. А. студент магистратуры НИУ «БелГУ» Россия, г. Белгород ОБ ОСОБЕННОСТЯХ СВЕРТОЧНОЙ АРХИТЕКТУРЫ НЕЙРОСЕТИ Аннотация: в данной статье рассмотрены особенности сверточной архитектуры нейросети, модель искусственного нейрона. Архитектура свёрточных нейросетей позволяет закодировать определенные свойства под архитектуру.

Ключевые слова: персептрон, сверточная архитектура, нейросети.

Babenko A. A., graduate student NRU "BelSU" Russia, Belgorod Babenko A. A., graduate student NRU "BelSU" Russia, Belgorod ABOUT THE PECULIARITIES OF THE NEURAL NETWORK

ARCHITECTURE

Annotation: this article describes the features of the convolutional neural network architecture, the model of an artificial neuron. The architecture of convolutional neural networks allows you to encode certain properties under the architecture. Keywords: perceptron, convolutional architecture, neural networks.

В настоящее время существует множество задач, в которых требуется принять некоторое решение в зависимости от присутствия на изображении объекта и классифицировать его. Исследованием и разработкой методов, алгоритмов и систем для решения таких задач на ЭВМ занимается дисциплина, получившая название распознавание образов. Для создания искусственного интеллекта необходимо разработать модель поведения как у живого организма, способного учиться. Такой моделью является искусственная нейронная сеть. Все искусственные нейронные сети состоят из так называемых нейронов — модели, представляющей из себя пороговую

величину, и связей между нейронами — синапсами. Модель нейрона показана на рисунке 1.

Рисунок 1 - Модель искусственного нейрона Из рисунка можно получить общее представление о работе искусственного нейрона. На вход поступает некоторое количество сигналов, которое заранее определено архитектором нейронной сети по критериям отбора, связанными с типом решаемой задачи. Эти сигналы умножаются на вес W и суммируются. После, функция активации преобразует полученные данные в своего рода ответ. Обычно этот ответ находится в диапазоне [0;1] или [-1;1].

С учётом того, что каждый нейрон имеет вид, представленный на рисунке 2, можно сказать, что слой элементов S никак не преобразует данные, а лишь передаёт их на следующий слой, таким образом, его можно исключить [4]. Даже такая модель может решить задачу классификации и сформировать

базовый логический элемент, например, исключающее ИЛИ.

Рисунок 2 - Архитектура персептрона Перед использованием нейронной сети её необходимо обучить. Процесс обучения нейронной сети заключается в подстройке ее внутренних параметров под конкретную задачу. Процесс обучения осуществляется на обучающей выборке. Обучающая выборка включает входные значения и соответствующие им выходные значения набора данных. В ходе обучения нейронная сеть находит некие зависимости выходных полей от входных. Таким образом, возникает вопрос - какие входные поля необходимо использовать. Сложность может вызвать вопрос о количестве наблюдений в

наборе данных. Количество необходимых наблюдений зависит от сложности решаемой задачи. При увеличении количества признаков количество наблюдений возрастает нелинейно, эта проблема носит название "проклятие размерности". При недостаточном количестве данных рекомендуется использовать линейную модель.

Аналитик должен определить количество слоев в сети и количество нейронов в каждом слое. Далее необходимо назначить такие значения весов и смещений, которые смогут минимизировать ошибку решения. Веса и смещения автоматически настраиваются таким образом, чтобы минимизировать разность между желаемым и полученным на выходе сигналами, которая называется ошибка обучения.

Ошибка обучения для построенной нейронной сети вычисляется путем сравнения выходных и желаемых значений. Из полученных разностей формируется функция ошибок.

Переобучение возникает в случае слишком долгого обучения, недостаточного числа обучающих примеров или переусложненной структуры нейронной сети. Так же переобучение связано с тем, что выбор обучающего множества является случайным. С первых шагов обучения происходит уменьшение ошибки. На последующих шагах с целью уменьшения ошибки параметры подстраиваются под особенности обучающего множества. Однако при этом происходит "подстройка" не под общие закономерности ряда, а под особенности его части - обучающего подмножества. При этом точность прогноза уменьшается.

Описанный процесс проиллюстрирован на рис. 1.6.

-ошибка на тестовом множестве

-ошибка на обучающем множестве

Ошибка \ .

ч^ Конец реального обучения

Шаги обучения

Рисунок 6 - Процесс обучений сети На первом шаге ошибки прогноза для обучающего и тестового множества одинаковы. На последующих шагах значения обеих ошибок уменьшаются, однако с семидесятого шага ошибка на тестовом множестве начинает возрастать, т.е. начинается процесс переобучения сети.

В качестве метода минимизации ошибки используется метод градиентного спуска, суть этого метода сводится к поиску минимума (или максимума) функции за счет движения вдоль вектора градиента. Для поиска

минимума движение должно быть осуществляться в направлении антиградиента. Метод градиентного спуска в соответствии с рис. 1.7.

Рисунок 7 - Метод градиентного спуска

Для скрытых слоев расчет ошибок осуществляется с помощью алгоритма обратного распространения ошибки. Суть алгоритма заключается в последовательном вычислении ошибок скрытых слоев с помощью значений ошибки выходного слоя, т.е. значения ошибки распространяются по сети в обратном направлении от выхода к входу. Алгоритм обратного распространения ошибки продемонстрирован ниже на рис. 1.8.

FP

Рисунок 8 - Алгоритм обратного распространения ошибки При проектировании автоматизированной системы необходимо не только изучение алгоритмов и архитектур нейронных сетей, но и так, же выбор технологий реализаций. Одним из важных аспектов создания системы, является база данных. База данных - это информация, объединённая по общему признаку, используемая прикладными программами, для удовлетворения информационной потребности пользователей или организации.

На основе исследований была выбрана сверточная архитектура нейронной сети, а так же алгоритм обратного распространения ошибки. Архитектура свёрточных нейросетей делает явное предположение вида «входные данные есть изображения», что позволяет закодировать определенные свойства под архитектуру. Благодаря этой особенности,

предварительное объявление можно реализовать более эффективно, уменьшая при этом количество параметров в сети.

Использованные источники: Каллан Р. Нейронные сети. Краткий справочник: учебник / Р. Каллан. - М. : ООО «И. Д. Вильямс», 2017. - 288 с.

Москалев Н. С. Виды архитектур нейронных сетей: учебник /Н. С. Москалев// Молодой ученый.- Москва, 2016. — №29. — 401 с.

Николенко С. Глубокое обучение: учебник/С. Николенко, А. Кадурин, Е. Архангельская// ДМК Пресс - СПб. : Питер, 2018. - 481с.

УДК 378

Бекузарова Н.В., к.п.н., доцент доцент кафедры «Информационных технологий обучения и непрерывного образования» Институт педагогики, психологии и социологии Сибирский федеральный университет Россия, г. Красноярск Юдина М.А. студент 4 курс, направление «Педагогическое образование» Институт педагогики, психологии и социологии Сибирский федеральный университет Россия, г. Красноярск АНАЛИЗ ДОСУГОВОЙ ДЕЯТЕЛЬНОСТИ СТУДЕНТОВ БАКАЛАВРИАТА СИБИРСКОГО ФЕДЕРАЛЬНОГО

УНИВЕРСИТЕТА Аннотация:В статье анализируются результаты анкетирования студентов бакалавриата Сибирского федерального университета. Анкетирование было посвящено досуговой деятельности обучающихся. Его основной задачей было выяснение ориентированности студентов СФУ на использование досуговой деятельности в будущей профессиональной деятельности. Также в статье сделаны выводы о результатах анкетирования.

Ключевые слова: студент, бакалавриат, досуговая деятельность, Сибирский федеральный университет (СФУ), анкетирование.

Bekuzarova N. V., candidate of Pedagogical Sciences, assistant professor assistant professor of the Department of Information Technologies for

Education and Continuing Education Institute of Education, Psychology and Sociology

Siberian Federal University Russia, Krasnoyarsk Yudina M.A.

4th year student of direction «Pedagogical education»

i Надоели баннеры? Вы всегда можете отключить рекламу.