А.Н. Голубинский,
доктор технических наук, доцент, АО «Концерн «Созвездие»
А.А. Толстых
ВЫБОР АРХИТЕКТУРЫ ИСКУСТВЕННОЙ НЕЙРОННОЙ СЕТИ НА ОСНОВЕ СРАВНЕНИЯ ЭФФЕКТИВНОСТИ МЕТОДОВ РАСПОЗНАВАНИЯ ИЗОБРАЖЕНИЙ
SELECTION OF THE ARCHITECTURE OF THE ARTIFICIAL NEURAL NETWORK BASED ON COMPARISON OF THE EFFECTIVENESS METHODS OF IMAGES RECOGNITION
Проведен анализ эффективности методов распознавания объектов на телевизионных изображениях, использующих полносвязные и сверточные нейронные сети. Приведены результаты сравнения набора классификаторов на основе указанных методов.
The analysis of the efficiency of objects recognition methods on television images using fully connected and convolutional neural networks were analyzed. The results of comparison of a set of classifiers on the basis of these methods are given.
Введение. Распознавание объектов на телевизионных изображениях представляет собой актуальную задачу автоматизации. Классификаторы, которые обладают достаточной точностью и скоростью работы могут применяться в области беспилотных летательных аппаратов, интегрированных системах безопасности, а также во многих других практических приложениях. На данный момент наиболее перспективным методом решения задачи распознавания объектов на телевизионных изображениях является использование искусственных нейронных сетей (ИНС) в качестве классификаторов. Основный проблемой при построении подобных классификаторов остается отсутствие формального аппарата выбора типа и архитектуры ИНС. Эффективность классификатора на основе ИНС определяют его гиперпараметры. Основным гиперпараметром ИНС является ее концептуальная архитектура, которая определяет характер слоев и связей
между ними. Для построения эффективного классификатора на основе ИНС необходимо провести подбор гиперпараметров.
Целью работы является проведение сравнительного анализа эффективности распознавания объектов на телевизионных изображениях с применением аппарата полносвязных и сверточных нейронных сетей (СНС).
Теоретический анализ. Под гиперпараметрами понимается совокупность особенностей архитектуры, количество нейронов на каждом слое, их тип, количество слоев, первоначальная инициализация сети, а также методика обучения [1]. В настоящее время активно ведутся исследования по формализации процесса подбора наилучших гиперпараметров. В табл. 1 приведены основные существующие методы подбора гиперпараметров [2—6].
Поиск гиперпараметров по матрице — наиболее простой, но неэффективный метод выбора гиперпараметров [6]. На каждом шаге итерации подбора гиперпараметров придется полностью переобучать ИНС.
Пошаговое изменение архитектуры является сложным с точки зрения математической формализации методом. Эффективность определяется исключительно знаниями и опытом специалиста, работающего с архитектурой ИНС.
Таблица 1
Методы подбора гиперпараметров_
Название метода Описание Эффективность В ычислительная сложность
Поиск по матрице [2] Создается матрица из значений гиперпараметров, на каждой итерации происходит обучение СНС с данными гиперпараметрами и оценка ее эффективности по заданному критерию Низкая (определяется слепым полным перебором значений матрицы гиперпараметров) Высокая (приблизительно равна времени обучения одной СНС, умноженному на количество значений матрицы гиперпараметров)
Пошаговое изменение архитектуры [2] Выбирается начальная архитектура СНС и границы изменений в ней. На каждой итерации происходит переобучение СНС с данной архитектурой и оценка ее эффективности по заданному критерию Низкая (определяется как эффективность решений по изменению архитектуры разработчиком на основе опыта) Высокая (приблизительно равна времени обучения одной СНС, умноженному на количество итераций изменений в архитектуре)
Случайный поиск [2] Создается матрица из значений гиперпараметров, на каждой итерации случайно выбираются значения из данной матрицы и происходит обучение СНС с последующей оценкой ее эффективности по заданному критерию Средняя (определяется слепым частичным перебором значений матрицы гиперпараметров, зависящим от начальных значений) Средняя (приблизительно равна времени обучения одной СНС, умноженному на количество итераций случайного поиска)
Название метода Описание Эффективность В ычислительная сложность
Метод, основанный на использовании гауссовского процесса с ожидаемым улучшением [3] Каждому гиперпараметру ставится в соответствие гауссовское распределение, затем происходят итерации поиска по заданным распределениям Средняя (определяется методом вычислений направления в пространстве гиперпараметров) Средняя (приблизительно равна времени обучения одной СНС, умноженному на количество итераций метода)
Метод, основанный на использовании древовидных оценочных функций Парзена [4] Начальный этап алгоритма повторяет метод гауссовского процесса с ожидаемым улучшением. Затем строится дерево решений и происходит поиск по нему Высокая (определяется методом вычислений направления в пространстве гиперпараметров) Средняя (приблизительно равна использованию поиска по дереву, что значительно сокращает время поиска)
Выбор гиперпараметров с помощью нейронной сети [5] Специализированная сеть-учитель производит оценку данных и выбранной архитектуры, затем вносит соответствующие изменения В настоящее время ведутся исследования по оценке эффективности данного метода Низкая (приблизительно равна вычислению прямого прохода сети-учителя)
Случайный поиск концептуально похож на поиск по матрице, но вместо того, чтобы пытаться использовать все возможные комбинации в фазовом пространстве, используется случайно выбранное подмножество параметров. Существуют различные методы конструирования квазислучайных последовательностей:
1) последовательность Собола;
2) набор Хаммерсли;
3) последовательность Халтона;
4) выборка пуассоновского диска.
Однако основным недостатком данных последовательностей является неэффективная работа при больших размерностях [7].
Метод, основанный на использовании гауссовского процесса с ожидаемым улучшением, использует сопоставление каждому гиперпараметру функции нормального распределения:
/ (х I )=-=!: 4 7 42т
(х\ц,а2 ) = ^= * 2а , (1)
. 1та
2
где х — значение гиперпараметра; а — дисперсия; ц — математическое ожидание. Для оперирования с несколькими гиперпараметрами используется многомерное нормальное распределение, для построения которого используются вектор математического ожидания и матрица ковариаций. В качестве критерия выбора набора параметров для последующего шага поиска гиперпараметров используется решающая функция. Существует множество различных функций такого рода [8], наиболее часто используемая — функция ожидаемого улучшения. В зависимости от функции ошибки, определяемой над сконструированным пространством гиперпараметров, выделяют два вида функции ожидаемого улучшения: для поиска минимума или максимума функции ошибки. Они определяются следующими выражениями:
gmin (Х) = maX (0 Jmin " У1е ) ; (2)
gmax (Х) = max (0, Уке - Уmx ), (3)
где gmin(g), gmax(g) — функции ожидаемого улучшения для нахождения минимума и максимума соответственно; ymin — минимальное значение функции (1); ymax — максимальное значение функции (1); yfe — наименьшее возможное значение функции (1) в доверительном интервале; yfe — наибольшее возможное значение функции (1) в доверительном интервале. Недостатками данного метода являются следующие:
• не эффективен при категориальных признаках гиперпараметрв (тип функции активации нейрона; тип подвыборки и т.д.);
• в связи с тем что нейронные сети сильно рандоменизированны (при фиксированных значениях инициализации и параметрах обучения процесс нахождения весов будет всегда отличаться, за исключением случаев фиксирования генератора случайных чисел), метод не обладает достаточной устойчивостью;
• прямая зависимость количества гиперпараметров и вычислительной сложности.
Древовидные оценочные функции Парзена устраняют недостатки метода гауссов-
ских процессов с ожидаемым улучшением. На каждой итерации древовидные оценочные функции Парзена собирают новые данные, в конце итерации алгоритм решает, какой из наборов параметров будет использован в следующей итерации. В начале работы алгоритма определяется начальное распределение для гиперпараметров.
Таким образом, наиболее эффективными в практических задачах выступают древовидные оценочные функции Парзена, однако для получения характеристик классификаторов на основе ИНС в пространстве гиперпараметров целесообразно использовать поиск по матрице с переменным шагом.
Проблема использования полносвязных ИНС для распознавания изображений заключается в необходимости разложения трехмерного массива, описывающего изображение, в одномерный вектор. Существует два основных метода: построчное разложение и разложение с помощью скользящего окна.
При построчном разложении изображения в одномерный вектор варьируются последовательности представления цветовых каналов. Данный метод рассматривается в [7]. Встречаются вариации метода с использованием предварительной бинаризации изображения — изменения числа каналов с 3 до 1.
Метод на основе скользящего окна использует концепцию окон для трехцветного изображения [9]. Цветовая составляющая каждого пикселя в окне соответствующего размера последовательно записывается. На рис. 1 представлена схема выбора пикселей внутри скользящего окна.
Рис. 1. Схема выбора пикселей внутри скользящего окна
Каждое окно генерирует вектор размерностью w х h х 3, где w и h соответствуют ширине и высоте окна. Вариации данного метода заключаются в изменении параметров сдвига и размера окна. В работе рассматриваются обе методики преобразования входных данных.
Основным набором данных для построения классификаторов объектов на телевизионных изображениях выступает ImageNet [10], который содержит 1000 классов и около 1.2 х10б изображений. Основными архитектурами, продемонстрировавшими наименьшую ошибку на обучающих данных, являются: AlexNet, GoogLeNet, VGG-19, ResNet-50, ResNet-152, Inception v4. На рис. 2 представлена сводная статистика наиболее значимых работ по данному набору.
В настоящей работе решалась задача распознавания 5 классов изображений: люди, мелкие животные, легковые автомобили, грузовые автомобили и мототехника. В данной задаче распознавания рассматривались 5 классов сложных изображений с частичным перекрытием классов — большим количеством визуально схожих черт (легковой и грузовой автомобили).
Методика. Анализ эффективности решения задачи распознавания объектов на телевизионных изображениях проводился для двух классов ИНС: полносвязные и сверточ-ные. Входное изображение представляло собой трехмерный массив размерностью 150 х150 х 3, обучающая выборка содержала по 300 изображений для каждого из 5 классов. В качестве итоговой оценки эффективности распознавания использовалось сравнение предсказанного класса с истинным и приведение полученного абсолютного значения ошибки к процентному виду.
Рассмотрим результаты обучения полносвязных и сверточных ИНС. Получение набора архитектур СНС основывалось на модификации полносвязной части архитектуры [11]. В процессе обучения оценивалось время обучения, количество параметров и итоговая точность работы. Все сети инициализировались одинаковым методом — инициализации Хи [12]:
55
Рис. 2. Сводная статистика работ по набору данных ImageNet
2
1 № (4)
П + п2
где W — массив инициализируемых весов слоя i, инициализация происходит последовательно по слоям; п, П — количество входных и выходных весов в слое соответственно. Обучение происходило с помощью оптимизатора адаптивного момента, описываемого следующими соотношениями:
л _
щ = щ -1 —т==— т -1, (5)
т =
V-1
т
1 -Д
Д (6)
V =
1 -А
т =Ат-1+(1 -Д) &;
2 (7)
-1+О -Д) я;,
где mt — оценка первого момента, математического ожидания; vt — оценка второго момента, дисперсии; Д, Д — константы затухания для первой и второй оценки соответственно; & = УЬ (щ) — темп обучения весов w на каждом шаге п — темп обучения,
заданный для метода; w — веса ИНС.
Следует отметить, что наиболее значимым для значения ошибки является количество нейронов во втором скрытом слое, в то время как количество нейронов первого скрытого слоя влияет на время обучения. Наименьшая ошибка, которой удалось достичь на данном наборе полносвязных ИНС, составляет 64%, что соответствует сети с 200 нейронами в первом скрытом слое и 120 во втором. Для рассматриваемой задачи ошибка в 80% соответствует случайному выбору. При использовании метода разложения посредством скользящего окна (размеры окна 3 х 3 пикселя, сдвиг по вертикали и горизонтали 1 пиксель) результаты обучения в среднем лучше на 5,91%. Наилучшая продемонстрированная ошибка в данном ансамбле классификаторов для случая построчного разложения изображения — 64%, при использовании разложения с помощью скользящего окна — 52,08%. Полученные результаты явно свидетельствуют о неэффективности использования полносвязных ИНС в задачах классификации изображений.
На первом этапе моделирования для разных вариантов архитектур наилучшая ошибка, которой удалось достичь для СНС, составила 15,07%, что соответствует сети с 800 нейронами в первом скрытом полносвязном слое и 80 во втором. Таким образом, СНС более чем на порядок эффективнее относительно полносвязных ИНС, использующих как построчное разложение, так и преобразование с помощью окна. На рис. 3 представлена сводная диаграмма ошибки распознавания СНС и ИНС типа архитектуры.
75 65 £ 55
£ 45
ю 45 к
I 35 ° 25 15 5
22
2222
00 00 00
ЧО ю ю ю Наименование архитектуры
- I» -Построчное разложение —•— Преобразование с помощью окна —А- -Сверточные
нейронные сети
Рис. 3. Зависимость ошибки распознавания от вида архитектуры
Из графика на рис. 3 можно сделать вывод, что СНС позволяют более эффективно преобразовывать изображение в форму вектора. Ввиду цикличности данного графика было сделано предположение, что веса полносвязного участка СНС разделяются в близкой к равной пропорции с соразмерным увеличением количества нейронов в первом и втором полносвязном слое участка. Исходя из данного предположения, на втором этапе были рассмотрены дополнительные архитектуры, содержащие меньше нейронов в обоих слоях, с сохранением общей пропорции. На рис. 4 представлена визуализация полученных данных при разном количестве нейронов в первом и втором полносвязных слоях СНС.
80 70
^ 60
$ 50 40
ЕЭ 30
о 20 10 0
/
\
/
\
5 0 0 0 5 0 0 0 5 0 0 0 5 0 0 0
га 5 о ^ сч 5 о СЧ 5 о га 5
1 о о о 5 О о о 0 О о о
1 1 1 5 5 5 1 0 0 0
Наименование архитектуры
Рис. 4. Зависимость ошибки распознавания от вида архитектуры (количество нейронов в первом и втором слоях полносвязного участка СНС)
На рис. 4 видна зона порога, после которой уменьшение числа нейронов в полносвязных слоях влечет к случайной классификации - ошибка начинает осциллировать около значения 80%. Данный факт может быть объяснен недостаточной внутренней размерностью полносвязной ИНС, вследствие чего все объекты становятся неотличимы
33
друг от друга (занимают одинаковые точки в гиперпространстве). Архитектура со 100 нейронами в первом полносвязном слое и 10 во втором, значение ошибки которой являлось наименьшим (9,13%), соответственно, использовалась в качестве базовой для уменьшения ошибки путем изменения гиперпараметров сверточной части СНС. Рассмотрим еще одну характеристику обучения ИНС — влияние количества параметров на время обучения. На рис. 5 приведена зависимость времени обучения от количества весов в полносвязных слоях ИНС.
2050
d 1550 § 1050
<и сг
& 550 «
<и CP
m
50
■ ■1-цД f-J
Полносвязная нейронная.
55
т т
5
т
iT) чо о ^ о о ^ ^
о кГ
к
К
<и
&
о
(U CP
m
13000 12800 12600 12400 12200 12000
— & - Сверточная нейронна...
с— с— с— г— 0000
23344
Количество параметров, 107
00000000000 Количество параметров, 107
Рис. 5. Зависимость времени обучения от количества весов
Из рис. 5 следует, что количество параметров полносвязных ИНС прямо пропорционально времени расчета. Важную роль играют затрачиваемые ресурсы. Верхнее ограничение при проведении эксперимента (6 Гб ОЗУ, intel core i5) — архитектура с 1200 нейронами в первом скрытом слое и 120 во втором. Данная сеть использует около 4 Гб ОЗУ при обучении, что ведет к аварийному завершению (2 Гб — поддержка работы ОС). Файлы с обученными сетями имеют размер от 154 до 927 Мб. Значительный эффект в смысле увеличения параметров сети оказывает первый скрытый слой, что очевидно, так как обусловлено наличием связей с каждым цветовым каналом каждого пикселя входного изображения. Следует отметить, что количество параметров у полносвязной ИНС одинаково как в случае построчного разложения, так и при преобразовании с помощью окна, однако время обучения незначительно различается в связи с программной реализацией скользящего окна.
В случае СНС изменения количества нейронов как в первом, так и во втором скрытом слое не влекут за собой значительных изменений времени обучения. Разница во времени обучения в 20 раз объясняется наличием операции свертки. Данная операция является попиксельной и требует большего времени расчета, чем классическое перемножение весовых матриц. Это компенсируется меньшим требованием к ресурсам (до 2 Гб оперативной памяти) и меньшим размером файла весов (от 7,7 до 16,3 Мб).
В среднем процесс обучения у всех сетей идентичен, однако встречаются выбросы, характеризуемые параличом сети. Данный факт может быть обусловлен инициализацией сети или недостатком количества эпох обучения. Следует отметить, что веса сети сохранялись при достижении наименьшего показателя ошибки при указанном числе эпох. Критерий сохранения заключался в сравнении текущего значения функции ошибки (категориальной кросс-энтропии) и наименьшего значения, сохраненного на предыдущих эпохах. Некоторые сети достигали данного показателя за 50 эпох, другие — за 100.
Это обусловлено большой размерностью гиперплоскости, на которой происходит оптимизация, что влечет за собой проблему множества локальных минимумов. Ситуация с обучением СНС идентична ситуации с обучением полносвязных ИНС. Основной проблемой здесь также является наличие множественных локальных минимумов.
Для дальнейшего уменьшения значения ошибки СНС производился поиск по гиперпараметрам сверточной части: функции активации, количеству и геометрии фильтров. Итоговая СНС демонстрирует ошибку в 1,33%. При использовании данных, не входящих в тренировочный и валидационный наборы, ошибка составила 10,47%. Для уменьшения значения ошибки производилось дообучение сети с шагом темпа обучения в 10 раз меньшим, чем при первичной тренировке, для более точной настройки весов. При подобном подходе ошибка осциллирует вблизи значения 8%, что позволяет сделать вывод о нахождении наименьшего из определенных локальных минимумов (на данной истории обучения).
В табл. 2 приведены результаты сравнения аппарата полносвязных нейронных сетей и сверточных нейронных сетей в задачах классификации объектов на изображениях. Из данных табл. 2 очевидно, что СНС гораздо эффективнее полносвязных ИНС в задачах распознавания изображений, при этом количество настраиваемых весов и размер файла весов меньше на два порядка, однако время обучения примерно на порядок больше.
Таблица 2
Сравнение данных двух сессий обучения_
Параметр сравнения Полносвязные нейронные сети Сверточные нейронные сети Отношение показателей полносвязной нейронной сети к сверточной
Наименьшая ошибка на тестовых и валидационных данных, % 64% 1,3% 48,1
Наименьшая ошибка на тестовых данных (без использования валидации), % 67% 3,3% 20,3
Минимальная ошибка на данных, не входящих в тестовый (тренировочный) и валидационный наборы, % 80% 7,5% 10,6
Количество параметров при минимальной ошибке, шт. 40549085 561677 72,2
Время обучения при минимальной ошибке, с 1340 11601 0,1
Размер файла весов при минимальной ошибке, Мб 464 6,5 71,6
Выводы. Полученные в работе результаты подтверждают эффективность применения СНС для распознавания объектов на телевизионных изображениях. При этом точность СНС превосходит точность для полносвязных ИНС более чем в 48 раз. Таким образом СНС эффективнее полносвязных ИНС по всем параметрам, за исключением времени обучения. Разработанная СНС позволяет решать задачу распознавания при относительно небольшом размере архитектуры и эффективном использовании вычислительных ресурсов. Полученные результаты можно использовать при построении искусственных нейронных сетей для распознавания объектов на изображениях в практических приложениях.
ЛИТЕРАТУРА
1. Snoek J., Larochelle H., Adams R.P. [1206.2944] Practical Bayesian Optimization of Machine Learning Algorithms 2012. — URL: https://arxiv.org/abs/1206.2944 (дата обращения: 03.09.2017).
2. Matuszyk P., Castillo R.T., Kottke D., Spiliopoulou M. A Comparative Study on Hyperparameter Optimization for Recommender Systems // Workshop on Recommender Systems and Big Data Analytics (RS-BDA'16). — 2016. — С. 13—21.
3. Snoek J., Larochelle H., Adams R.P. Practical Bayesian Optimization Of Machine Learning // arXiv.org e-Print archive. 2012. — URL: https://arxiv.org/abs/1206.2944v2 (дата обращения: 07.10.2017).
4. Bergstra J., Bardenet R., Bengio Y., Kegl B. Algorithms for Hyper-Parameter Optimization // 25th Annual Conference on Neural Information Processing Systems (NIPS 2011).
— 2011. — С. 35—44.
5. Xu C., Qin T., Wang G., Liu T.Y. An Actor-Critic Algorithm For Learning Rate // 5th International Conference on Learning Representations (ICLR 2017). —2017. — P. 1—12.
6. Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение. — Москва : ДМК Пресс, 2017. — 652 с.
7. Хайкин С. Нейронные сети. Полный курс. 2-е изд. — Москва : Вильямс, 2006.
— 1104 с.
8. Буре В. М., Парилина Е. М. Теория вероятностей и математическая статистика.
— Санкт-Петербург : Лань, 2013. — 416 с.
9. A simple example of feedforward neural network and image recognition // Talking trees. Take away work from people: [сайт]. [2012]. URL: https://dummas.word-press.com/2012/01/14/a-simple-example-of-feedforward-neural-network-with-image-recogni-tion/ (дата обращения: 28.10.2017).
10. ImageNet Large Scale Visual Recognition Competition (ILSVRC) // ImageNet. — URL: http://www.image-net.org/challenges/LSVRC/ (дата обращения: 25.10.2017).
11. Толстых А. А., Голубинский А. Н. Распознавание объектов на телевизионных изображениях с использованием аппарата сверточных нейронных сетей // Вестник Воронежского института МВД России. — 2017. — № 1. — C. 7—17.
12. He K., Zhang X., Ren S., Sun J. [1502.01852] Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification // arXiv.org e-Print archive. 2015. — URL: https://arxiv.org/abs/1502.01852 (дата обращения: 25.12.2016).
REFERENCES
1. Snoek J., Larochelle H., Adams R.P. [1206.2944] Practical Bayesian Optimization of Machine Learning Algorithms 2012. — URL: https://arxiv.org/abs/1206.2944 (data obrascheniya: 03.09.2017).
2. Matuszyk P., Castillo R.T., Kottke D., Spiliopoulou M. A Comparative Study on Hyperparameter Optimization for Recommender Systems // Workshop on Recommender Systems and Big Data Analytics (RS-BDA'16). — 2016. — S. 13—21.
3. Snoek J., Larochelle H., Adams R.P. Practical Bayesian Optimization Of Machine Learning // arXiv.org e-Print archive. 2012. — URL: https://arxiv.org/abs/1206.2944v2 (data obrascheniya: 07.10.2017).
4. Bergstra J., Bardenet R., Bengio Y., Kegl B. Algorithms for Hyper-Parameter Optimization // 25th Annual Conference on Neural Information Processing Systems (NIPS 2011). — 2011. — S. 35—44.
5. Xu C., Qin T., Wang G., Liu T.Y. An Actor-Critic Algorithm For Learning Rate // 5th International Conference on Learning Representations (ICLR 2017). — 2017. — P. 1—12.
6. Gudfellou Ya., Bendzhio I., Kurvill A. Glubokoe obuchenie. — Moskva : DMK Press, 2017. — 652 s.
7. Haykin S. Neyronnyie seti. Polnyiy kurs. 2-e izd. — Moskva : Vilyams, 2006. — 1104 s.
8. Bure V. M., Parilina E. M. Teoriya veroyatnostey i matematicheskaya statistika. — Sankt-Peterburg : Lan, 2013. — 416 s.
9. A simple example of feedforward neural network and image recognition // Talking trees. Take away work from people: [sayt]. [2012]. URL: https://dummas.word-press.com/2012/01/14/a-simple-example-of-feedforward-neural-network-with-image-recogni-tion/ (data obrascheniya: 28.10.2017).
10. ImageNet Large Scale Visual Recognition Competition (ILSVRC) // ImageNet. — URL: http://www.image-net.org/challenges/LSVRC/ (data obrascheniya: 25.10.2017).
11. Tolstyih A. A., Golubinskiy A. N. Raspoznavanie ob'ektov na televizionnyih izo-brazheniyah s ispolzovaniem apparata svertochnyih neyronnyih setey // Vestnik Voronezh-skogo instituta MVD Rossii. — 2017. — # 1. — C. 7—17.
12. He K., Zhang X., Ren S., Sun J. [1502.01852] Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification // arXiv.org e-Print archive. 2015. — URL: https://arxiv.org/abs/1502.01852 (data obrascheniya: 25.12.2016)
СВЕДЕНИЯ ОБ АВТОРАХ
Голубинский Андрей Николаевич. Начальник отдела. Доктор технических наук, доцент.
АО «Концерн «Созвездие».
E-mail: [email protected]
Россия, 394018, Воронеж, ул. Плехановская, 14. Тел. (473) 252-12-13.
Толстых Андрей Андреевич. Адъюнкт.
Воронежский институт МВД России.
E-mail: [email protected]
Россия, 394065, Воронеж, проспект Патриотов, 53. Тел. (473)200-52-68.
Golubinskiy Andrey Nikolaevich. Head of Department. Doctor of Technical Sciences, Assistant Professor.
JSC "Concern "Sozvezdie".
E-mail: [email protected]
Work address: Russia, 394018, Voronezh, Plehanovskaya Str., 14. Tel. (473) 252-12-13.
Tolstykh Andrey Andreevich. Post-graduate cadet.
Voronezh Institute of the Ministry of the Interior of Russia.
E-mail: [email protected]
Work address: Russia, 394065, Voronezh, Prospect Patriotov, 53. Tel. (473) 200-52-68.
Ключевые слова: полносвязные нейронные сети; сверточные нейронные сети; распознавание объектов; построение классификатора.
Key words: fully connected neural networks; convolution neural networks; object recognizing; classifier
building.
УДК 004.932:004.032.26