Научная статья на тему 'РАСПОЗНАВАНИЕ МИКРОСКОПИЧЕСКИХ ИЗОБРАЖЕНИЙ ПЫЛЬЦЕВЫХ ЗЕРЕН С ПОМОЩЬЮ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ VGG-16'

РАСПОЗНАВАНИЕ МИКРОСКОПИЧЕСКИХ ИЗОБРАЖЕНИЙ ПЫЛЬЦЕВЫХ ЗЕРЕН С ПОМОЩЬЮ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ VGG-16 Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
129
28
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МАШИННОЕ ОБУЧЕНИЕ / СВЕРТОЧНЫЕ НЕЙРОННЫЕ СЕТИ / ЗАДАЧИ РАСПОЗНАВАНИЯ ПЫЛЬЦЕВЫХ ЗЕРЕН / ПЫЛЬЦЕВЫЕ ЗЕРНА / КЛАССИФИКАЦИЯ / VGG-16

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Камалова Юлия Борисовна, Андриянов Никита Андреевич

В статье приводится результат эксперимента по применению трансферного обучения с помощью сверточной нейронной сети Visual Geometry Group with 16 layers (VGG-16) применительно к задаче распознавания пыльцевых зерен на изображениях. Анализ информационно-теоретической базы по применению алгоритмов машинного обучения к задаче классификации пыльцевых зерен за последние несколько лет показал необходимость разработки (применения) нового метода к распознаванию изображений пыльцевых зерен, полученных с помощью оптического микроскопа. В настоящее время автоматическая классификация для идентификации пыльцы становится очень активной областью исследований. В статье обоснована задача автоматизации классификации пыльцевых зерен. Целью исследования является анализ эффективности и точности классификации микроскопических изображений пыльцевых зерен с помощью трансферного обучения сверточной нейронной сети VGG-16. Трансферное обучение было выполнено с помощью нейронной сети VGG-16, имеющей 13 сверточных слоев, группируемых в 5 блоков с пулингом и 3 сглаживающих слоя на выходе. Поскольку применяется трансферное обучение, то количество эпох обучения можно выбрать небольшим. У данной сети меняются только сглаживающие выходные слои, а извлечение признаков осуществляется с весами классической модели. Поэтому было выбрано использовать 10 эпох обучения. Другие гиперпараметры - регуляризация Drop Out с вероятностью 50 %, метод оптимизации - ADAM, функция активации - sigmoid, функция потерь - кросс-энтропия, размер батча - 32 изображения. В результате за счет настройки гиперпараметров модели и использования аугментаций удалось достичь доли верных распознаваний порядка 80 %. При этом в связи с разным количеством обучающих примеров частные характеристики по классам несколько отличаются. Так, максимальные точность и полнота достигают 94 и 83 % соответственно для типа Одуванчик. В будущем планируются исследования для применения аугментации в качестве предобработки для создания сбалансированной выборки. За счет применения сверточной нейронной сети VGG-16 к задаче распознаваний изображений пыльцевых зерен были достигнуты высокие показатели точности и эффективности метода.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Камалова Юлия Борисовна, Андриянов Никита Андреевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

RECOGNITION OF MICROSCOPIC IMAGES OF POLLEN GRAINS USING THE CONVOLUTIONAL NEURAL NETWORK VGG-16

The article presents the result of an experiment on the application of transfer learning using the Visual Geometry Group with 16 layers (VGG-16) convolutional neural network in relation to the problem of recognizing pollen grains in images. An analysis of the information-theoretical base on the application of machine learning algorithms to the problem of classifying pollen grains over the past few years has shown the need to develop (apply) a new method for recognizing images of pollen grains obtained using an optical microscope. Currently, automatic classification for pollen identification is becoming a very active area of research. The article substantiates the task of automating the classification of pollen grains. The aim of the study is to analyze the efficiency and accuracy of classifying microscopic images of pollen grains using transfer learning of the VGG-16 convolutional neural network. Transfer learning was performed using the VGG-16 neural network, which has 13 convolutional layers grouped into 5 blocks with pooling and 3 smoothing layers at the output. Since transfer learning is used, the number of training epochs can be chosen to be small. For this network, only the smoothing output layers change, and the feature extraction remains the same as in the classical model. Therefore, it was chosen to use 10 training epochs. Other hyperparameters are as follows: Drop Out regularization with a probability of 50%, optimization method is ADAM, activation function is sigmoid, loss function is cross-entropy, batch size is 32 images. As a result, by adjusting the hyperparameters of the model and using augmentation, it was possible to achieve a share of correct recognitions of about 80%. At the same time, due to the different number of training examples, the particular characteristics of the classes differ somewhat. Thus, the maximum precision and recall reach 94% and 83%, respectively, for the Dandelion type. In the future, studies are planned to use augmentation as a preprocessing to create a balanced sample. By applying the VGG-16 convolutional neural network to the problem of pollen grain image recognition, high accuracy and efficiency of the method were achieved.

Текст научной работы на тему «РАСПОЗНАВАНИЕ МИКРОСКОПИЧЕСКИХ ИЗОБРАЖЕНИЙ ПЫЛЬЦЕВЫХ ЗЕРЕН С ПОМОЩЬЮ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ VGG-16»

Научная статья УДК 004.932

DOI: 10.14529/ctcr220304

РАСПОЗНАВАНИЕ МИКРОСКОПИЧЕСКИХ ИЗОБРАЖЕНИЙ ПЫЛЬЦЕВЫХ ЗЕРЕН С ПОМОЩЬЮ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ VGG-16

Ю.Б. Камалова, YBKamalova@fa.ru, https://orcid.org/0000-0003-0822-2161 Н.А. Андриянов, naandriyanov@fa.ru, https://orcid.org/0000-0003-0735-7697 Финансовый университет при Правительстве Российской Федерации, Москва, Россия

Аннотация. В статье приводится результат эксперимента по применению трансферного обучения с помощью сверточной нейронной сети Visual Geometry Group with 16 layers (VGG-16) применительно к задаче распознавания пыльцевых зерен на изображениях. Анализ информационно-теоретической базы по применению алгоритмов машинного обучения к задаче классификации пыльцевых зерен за последние несколько лет показал необходимость разработки (применения) нового метода к распознаванию изображений пыльцевых зерен, полученных с помощью оптического микроскопа. В настоящее время автоматическая классификация для идентификации пыльцы становится очень активной областью исследований. В статье обоснована задача автоматизации классификации пыльцевых зерен. Целью исследования является анализ эффективности и точности классификации микроскопических изображений пыльцевых зерен с помощью трансферного обучения свер-точной нейронной сети VGG-16. Трансферное обучение было выполнено с помощью нейронной сети VGG-16, имеющей 13 сверточных слоев, группируемых в 5 блоков с пулингом и 3 сглаживающих слоя на выходе. Поскольку применяется трансферное обучение, то количество эпох обучения можно выбрать небольшим. У данной сети меняются только сглаживающие выходные слои, а извлечение признаков осуществляется с весами классической модели. Поэтому было выбрано использовать 10 эпох обучения. Другие гиперпараметры - регуляризация Drop Out с вероятностью 50 %, метод оптимизации - ADAM, функция активации - sigmoid, функция потерь - кросс-энтропия, размер батча - 32 изображения. В результате за счет настройки гиперпараметров модели и использования аугментаций удалось достичь доли верных распознаваний порядка 80 %. При этом в связи с разным количеством обучающих примеров частные характеристики по классам несколько отличаются. Так, максимальные точность и полнота достигают 94 и 83 % соответственно для типа Одуванчик. В будущем планируются исследования для применения аугментации в качестве предобработки для создания сбалансированной выборки. За счет применения сверточной нейронной сети VGG-16 к задаче распознаваний изображений пыльцевых зерен были достигнуты высокие показатели точности и эффективности метода.

Ключевые слова: машинное обучение, сверточные нейронные сети, задачи распознавания пыльцевых зерен, пыльцевые зерна, классификация, VGG-16

Благодарности: За предоставленные микроскопические снимки пыльцевых зерен авторы благодарят профессора кафедры ботаники и генетики растений, заведующего лабораторией цитогене-тики и генетических ресурсов растений Пермского государственного университета Л.В. Новоселову и сотрудников кафедры.

Для цитирования: Камалова Ю.Б., Андриянов Н.А. Распознавание микроскопических изображений пыльцевых зерен с помощью сверточной нейронной сети VGG-16 // Вестник ЮУрГУ. Серия «Компьютерные технологии, управление, радиоэлектроника». 2022. Т. 22, № 3. С. 39-46. DOI: 10.14529/ctcr220304

© Камалова Ю.Б., Андриянов Н.А., 2022

Original article

DOI: 10.14529/ctcr220304

RECOGNITION OF MICROSCOPIC IMAGES OF POLLEN GRAINS USING THE CONVOLUTIONAL NEURAL NETWORK VGG-16

Yu.B. Kamalova, YBKamalova@fa.ru, https://orcid.org/0000-0003-0822-2161 N.A. Andriyanov, naandriyanov@fa.ru, https://orcid.org/0000-0003-0735-7697 Financial University under the Government of the Russian Federation, Moscow, Russia

Abstract. The article presents the result of an experiment on the application of transfer learning using the Visual Geometry Group with 16 layers (VGG-16) convolutional neural network in relation to the problem of recognizing pollen grains in images. An analysis of the information-theoretical base on the application of machine learning algorithms to the problem of classifying pollen grains over the past few years has shown the need to develop (apply) a new method for recognizing images of pollen grains obtained using an optical microscope. Currently, automatic classification for pollen identification is becoming a very active area of research. The article substantiates the task of automating the classification of pollen grains. The aim of the study is to analyze the efficiency and accuracy of classifying microscopic images of pollen grains using transfer learning of the VGG-16 convolutional neural network. Transfer learning was performed using the VGG-16 neural network, which has 13 convolutional layers grouped into 5 blocks with pooling and 3 smoothing layers at the output. Since transfer learning is used, the number of training epochs can be chosen to be small. For this network, only the smoothing output layers change, and the feature extraction remains the same as in the classical model. Therefore, it was chosen to use 10 training epochs. Other hyperparameters are as follows: Drop Out regularization with a probability of 50%, optimization method is ADAM, activation function is sigmoid, loss function is cross-entropy, batch size is 32 images. As a result, by adjusting the hyperparameters of the model and using augmentation, it was possible to achieve a share of correct recognitions of about 80%. At the same time, due to the different number of training examples, the particular characteristics of the classes differ somewhat. Thus, the maximum precision and recall reach 94% and 83%, respectively, for the Dandelion type. In the future, studies are planned to use augmentation as a preprocessing to create a balanced sample. By applying the VGG-16 convolutional neural network to the problem of pollen grain image recognition, high accuracy and efficiency of the method were achieved.

Keywords: machine learning, convolutional neural networks, pollen grain recognition problems, pollen grains, classification, VGG-16

Acknowledgments: The authors thank L.V. Novoselova, Professor of the Department of Botany and Plant Genetics, Head of the Laboratory of Cytogenetics and Plant Genetic Resources of Perm State University, and the staff of the Department for providing microscopic images of pollen grains.

For citation: Kamalova Yu.B., Andriyanov N.A. Recognition of microscopic images of pollen grains using the convolutional neural network VGG-16. Bulletin of the South Ural State University. Ser. Computer Technologies, Automatic Control, Radio Electronics. 2022;22(3):39-46. (In Russ.) DOI: 10.14529/ctcr220304

Введение

Применение методов машинного обучения на основе глубоких нейронных сетей показало высокую эффективность и точность в решении различных задач, таких как распознавание изображений на фотографиях, полученных с помощью оптического микроскопа.

В настоящее время методы машинного обучения легли в основу приложений для классификации объектов, обеспечивая высокоточные результаты для крупномасштабных наборов данных с несколькими классами [1].

Технологии машинного обучения применяются для решения задач распознавания микроскопических изображений различных биологических объектов, в том числе пыльцевых зерен.

Классификация видов и типов пыльцы является важной задачей во многих областях, таких как судебная палинология, археологическая палинология и мелиссопалинология [2].

Автоматизация классификации пыльцевых зерен окажет большое влияние на разработку недорогих инструментов для аэробиологов.

Пчеловодство - это искусство выращивания пчел с целью добиться от этой отрасли максимальной производительности при минимальных затратах. К продуктам пчеловодства относят воск, пыльцу, мед, прополис и маточное молочко.

Развитие и автоматизация технологий пчеловодства способствует развитию животноводства и защите окружающей среды (апимониторинг).

В наше время задача распознавания пыльцевых зерен актуальна из-за отсутствия всеобщей международной базы данных пыльцевых зерен, которая могла бы пополняться.

Пыльцевой анализ меда используется для дифференциации цветочного источника, который используют пчелы, периода сбора урожая и геоклиматических условий различных регионов, палеоклиматической реконструкции [3].

Необходимость автоматизации классификации изображений зерен пыльцы обусловлена тем, что пыльцевой анализ меда должен производиться по ГОСТ 31769-2012 «Мед. Метод определения частоты встречаемости пыльцевых зерен» [4], согласно которому количество пыльцевых зерен в различных видах медов регламентировано.

Количество пыльцевых зерен определяется в палинологической лаборатории оператором вручную, что допускает вероятность совершения различного рода ошибок и медленность процесса. Для экономии времени и энергии, для большей эффективности процесса классификации необходима его автоматизация.

Цель работы - анализ эффективности и точности классификации микроскопических изображений пыльцевых зерен с помощью трансферного обучения сверточной нейронной сети VGG-16.

Цель машинного обучения состоит в том, чтобы обучить алгоритм с переменными параметрами для принятия правильного решения по заданной задаче.

Глубокое обучение является такой областью машинного обучения, которая направлена на получение определенных знаний на основе примеров. Обучение с учителем, распространенное в задаче классификации, происходит таким образом, что разработчик не задает правила для решения задачи, а предоставляет модель, с помощью которой компьютер сравнивает примеры, и, помимо этого, задаются определенные инструкции для модификации на случай ошибки. С каждым обучением модель должна улучшиться так, чтобы как можно более точно решать поставленные задачи.

На основе анализа просмотренных работ можно сделать вывод: среди применяемых систем наибольшую актуальность имеют многослойные сверточные нейронные сети. Однако модификация, цели и способы применения или, говоря другими словами, приложения данного инструмента различаются от эксперимента к эксперименту.

Целью рассмотренных работ [5-14] по распознаванию пыльцы является повышение точности классификации пыльцевых зерен.

Автоматизация анализа пыльцевых зерен зависит от создания выборок изображений, содержащих множество экземпляров разных видов, классифицированных экспертами. Эта задача требует больших усилий и должна выполняться в подходящих условиях с использованием специального оборудования, такого как оптический микроскоп и предметные стекла.

В 2020 году состоялось соревнование Pollen Grain Classification Challenge [15, 16], для которого была разработана база данных пыльцевых зерен Pollen 13K примерно с 13 тысячами изображений пыльцевых зерен в пяти различных категориях из аэробиологических образцов [17]. Pollen13K содержит более 12 тысяч изображений пыльцевых зерен, включая примеры «помех», таких как пыль, пузырьки воздуха на подложках и другие.

Самой перспективной для использования в целях обучения и тестирования нейронных сетей является Pollen13K.

Методика проведения эксперимента

На основе предоставленных Лабораторией цитогенетики и генетических ресурсов растений кафедры ботаники и генетики растений Пермского государственного университета микроскопических снимков пыльцевых зерен (в частности, профессором Л.В. Новоселовой) были сформированы обучающая и проверочная выборки из образцов трех типов.

Структура выборки представлена в табл. 1.

На рис. 1 представлены примеры изображений каждого класса.

Таблица 1

Распределение выборок

Table 1

Sample distribution

Класс Тип выборки

Обучающая Тестовая Всего

1 - тип Липа 160 40 200

2 - тип Подсолнечник 286 18 304

3 - тип Одуванчик 1143 286 1429

a) b) c)

Рис. 1. Примеры изображений: a - пыльцевое зерно Липы, b - пыльцевое зерно Подсолнечника,

c - пыльцевое зерно Одуванчика Fig. 1. Sample images: a - Linden pollen, b - Sunflower pollen, c - Dandelion pollen

Будем выполнять трансферное обучение с помощью нейронной сети VGG-16 [18]. Данная сеть имеет 13 сверточных слоев, группируемых в 5 блоков с пулингом и 3 сглаживающих слоя на выходе. Поскольку применяется трансферное обучение, то количество эпох обучения можно выбрать небольшим. По сути, у сети меняются только сглаживающие выходные слои, а извлечение признаков остается, как в классической модели. Поэтому используется всего 10 эпох обучения. Другие гиперпараметры - регуляризация Drop Out [19] с вероятностью 50 %, метод оптимизации -ADAM, функция активации - sigmoid, функция потерь - кросс-энтропия, размер батча - 32 изображения. Результаты обучения (в смысле метрики достоверности accuracy и целевой функции кросс-энтропии) представлены на рис. 2. Здесь красным показаны характеристики для обучающей выборки, а зеленым - для тестовой.

tross Entropy Loss

Classification Accuracy

—i-1-1-1-1-

С 7 4 fi Я

Рис. 2. Процесс обучения модели без аугментации Fig. 2. The process of training the model without augmentation

Анализ представленного рис. 2 показывает, что, несмотря на достаточно быструю сходимость модели, результаты получаются неудовлетворительными. Это связано с тем, что в качестве функции активации используется сигмоида. Кроме того, сильное различие показателей на тесте и обучении (больше 50 %) может свидетельствовать о переобученности модели.

Чтобы бороться с данным эффектом, будем использовать технологии аугментирования [20]. Вкратце данная технология позволяет на основе обучающей выборки искусственно сгенерировать дополнительные изображения для каждого класса, что потенциально обеспечивает уход модели от переобучения. Аугментация будет применяться на уровне батча. Наконец, изменим функцию активации на softmax. Процесс обучения такой модели показан на рис. 3.

СГ055 Entropy Loss

Classification Accuracy

0 2 4 6 8

Рис. 3. Процесс обучения модели с аугментацией Fig. 3. The process of training a model with augmentation

Как видно из рис. 3, удалось значительно повысить метрику accuracy на тестовой выборке. Она составила порядка 80 %. В связи с несбалансированностью датасета (см. табл. 1) дополнительно рассмотрим другие метрики данной модели. Результаты оценки точности (precision) и полноты (recall) представлены в табл. 2.

Таблица 2

Метрики эффективности

Table 2

Performance Metrics

Истинные значения П зогнозные значения Точность Полнота

Липа Подсолнечник Одуванчик

Липа 28 3 9 0,4 0,7

Подсолнечник 3 9 6 0,3913 0,5

Одуванчик 39 11 236 0,94024 0,82517

Таким образом, видим, что наиболее хорошо модель научилась работать с одуванчиками. Это связано с тем, что таких примеров было гораздо больше в обучающей выборке.

Заключение

В проведенном исследовании было выполнено трансферное обучение модели сверточной сети VGG-16 для решения задачи распознавания пыльцы. За счет настройки гиперпараметров модели и использования аугментаций удалось достичь доли верных распознаваний порядка 80 %. При этом в связи с разным количеством обучающих примеров частные характеристики по классам несколько отличаются. Так, максимальные точность и полнота достигают 94 и 83 % соответственно для типа Одуванчик. В будущем планируются исследования для применения аугментации в качестве предобработки для создания сбалансированной выборки.

Список литературы

1. Detection and classification of pollen grain microscope images / S. Battiato, A. Ortis, F. Trenta et al. // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. 2020. P. 980-981. DOI: 10.1109/CVPRW50498.2020.00498

2. Шелехова Т.С., Слуковский З.И., Лаврова Н.Б. Методы исследования донных отложений озер Карелии: моногр. / Институт геологии КарНЦ РАН. Петрозаводск: КарНЦ РАН, 2020. 112 с.

3. Чекрыга Г.П., Нициевская К.Н., Юдина О.Б. Определение ботанического происхождения меда и бонитета медоносной растительности методом пыльцевого анализа // Известия высших учебных заведений. Пищевая технология. 2021. № 1 (379). С. 94-97.

4. ГОСТ 31769-2012. Мед. Метод определения частоты встречаемости пыльцевых зерен // Электронный фонд правовой и нормативно-технической документации [Электронный ресурс]. URL: https://docs.cntd.ru/document/1200100244.

5. Automatic pollen recognition with the Rapid-Eparticle counter: the first-level procedure, experience and next steps / Ingrida Saulien, LauraSukien, Gintautas Daunys et al. // Atmos. Meas. Tech. 2019. 12. P. 3435-3452. DOI: 10.5194/amt-2018-432

6. Logistic Model Tree and Expectation-Maximization for Pollen Recognition and Grouping / Endrick Barnacin, Jean-Luc Henry, Jack Molinié et al. // World Academy of Science, Engineering and Technology International Journal of Computer and Information Engineering. 2020. Vol. 14, no. 2. P. 46-49. DOI: 10.5281/zenodo.3669283

7. JERI 2019. The National Study Day on Research on Computer Sciences. 3rd edition of the National Study Day on Research on Computer Sciences (JERI 2019). Saida, Algeria, April 27. 2019. P. 31-41.

8. Ororbia A.G., Mali, A. Biologically Motivated Algorithms for Propagating Local Target Representations // Proceedings of the AAAI Conference on Artificial Intelligence. 2019. 33(01). P. 4651-4658. DOI: 10.1609/aaai.v33i01.33014651

9. Reducing and Stretching Deep Convolutional Activation Features for Accurate Image Classification / Guoqiang Zhong, Shoujun Yan, Kaizhu Huang et al. // Cognitive Computation. 2018. Vol. 10. P. 179-186. DOI: 10.1007/s12559-017-9515-z

10. Sevillano V., Aznarte J.L. Improving classification of pollen grain images of the POLEN23E dataset through three different applications of deep learning convolutional neural networks // PLoS ONE. 2018. Vol. 13 (9), e0201807. DOI: 10.1371/journal.pone.0201807

11. POLLEN73S: An image dataset for pollen grains classification / Gilberto Astolfi, Ariadne Barbosa Gonçalves, Geazy Vilharva Menezes et al. // Ecological Informatics. 2020. Vol. 60. P. 1574-9541. DOI: 10.1016/j .ecoinf.2020.101165

12. Pollen 73S. URL: https://figshare.com/articles/dataset/POLLEN73S/12536573 (дата обращения: 12.05.2021).

13. Pollen Grain Recognition Using Convolutional Neural Network / N. Khanzhina, E. Putin, A. Filchenkov, E. Zamyatina // ESANN 2018 proceedings, European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning. Bruges (Belgium), 25-27 April 2018, i6doc.com publ., ISBN 978-287587047-6. P. 409-414.

14. Pollen classification challenge. URL: https://iplab.dmi.unict.it/pollenclassificationchallenge/ (дата обращения: 23.05.2021).

15. Pollen Grain Classification Challenge 2020 (Challenge Report) / Sebastiano Battiato, Francesco Guarnera, Alessandro Ortis et al. // Springer Nature Switzerland AG 2021. A. Del Bimbo et al. (Eds.): ICPR 2020 Workshops, LNCS 12668. 2021. P. 469-479. DOI: 10.1007/978-3-030-68793-9_34

16. Pollen classification challenge. URL: https://iplab.dmi.unict.it/pollenclassificationchallenge/ (дата обращения: 23.05.2021).

17. Pollen13k: a large scale microscope pollen grain image dataset / S. Battiato, A. Ortis, F. Trenta et al. // 2020 IEEE International Conference on Image Processing (ICIP). 2020. P. 2456-2460. DOI: 10.1109/ICIP40778.2020.9190776

18. Simonyan K., Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition // Proceedings of ICLR-2015. 2015. P. 1-14. DOI: 10.48550/arXiv.1409.1556

19. Dropout: A Simple Way to Prevent Neural Networks from Overfitting / N. Srivastava, G. Hinton, A. Krizhevsky et al. // JMLR. 2014. 15(56). P. 1929-1958.

20. Dementyiev V.E., Andriyanov N.A., Vasilyiev K.K. Use of Images Augmentation and Implementation of Doubly Stochastic Models for Improving Accuracy of Recognition Algorithms Based on Convolutional Neural Networks // 2020 Systems of Signal Synchronization, Generating and Processing in Telecommunications (SYNCHROINFO). 2020. P. 1-4. DOI: 10.1109/SYNCHROINFO49631.2020.9166000

References

1. Battiato S., Ortis A., Trenta F., Ascari L., Politi M., Siniscalco C. Detection and classification of pollen grain microscope images. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. 2020. P. 980-981. DOI: 10.1109/CVPRW50498.2020.00498

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2. Shelekhova T.S., Slukovskiy Z.I., Lavrova N.B. Metody issledovaniya donnykh otlozheniy ozer Karelii: monogr. [Methods for studying bottom sediments of lakes in Karelia: monograph. Petrozavodsk: KarRC RAS; 2020. 112 p. (In Russ.)

3. Chekryga G.P., Nitsievskaya K.N., Yudina O.B. [Determination of the botanical origin of honey and the quality of honey plants by pollen analysis]. News of higher educational institutions. Food technology. 2021;1(379):94-97. (In Russ.)

4. GOST 31769-2012. [Honey. Method for determining the frequency of occurrence of pollen grains]. Electronic fund of legal and normative-technical documentation. (In Russ.) Available at: https://docs.cntd.ru/document/1200100244

5. Ingrida Saulien, Laura Sukien, Gintautas Daunys, Gediminas Valiulis, Lukas Vaitkevicius, Predrag Matavulj et al. Automatic pollen recognition with the Rapid-Eparticle counter: the first-level procedure, experience and next steps. Atmos. Meas. Tech. 2019;12:3435-3452. DOI: 10.5194/amt-2018-432

6. Endrick Barnacin, Jean-Luc Henry, Jack Molinié, Jimmy Nagau, Hélène Delatte, Gérard Lebreton. Logistic Model Tree and Expectation-Maximization for Pollen Recognition and Grouping. World Academy of Science, Engineering and Technology International Journal of Computer and Information Engineering. 2020;14(2):46-49. DOI: 10.5281/zenodo.3669283

7. JERI 2019. The National Study Day on Research on Computer Sciences. 3rd edition of the National Study Day on Research on Computer Sciences (JERI 2019). Saida, Algeria, April 27, 2019. P. 31-41.

8. Ororbia A.G., Mali, A. Biologically Motivated Algorithms for Propagating Local Target Representations. Proceedings of the AAAI Conference on Artificial Intelligence. 2019;33(01):4651-4658. DOI: 10.1609/aaai.v33i01.33014651

9. Guoqiang Zhong, Shoujun Yan, Kaizhu Huang, Yajuan Cai, Junyu Dong. Reducing and Stretching Deep Convolutional Activation Features for Accurate Image Classification. Cognitive Computation. 2018;10:179-186. DOI: 10.1007/s12559-017-9515-z

10. Sevillano V., Aznarte J.L. Improving classification of pollen grain images of the POLEN23E dataset through three different applications of deep learning convolutional neural networks. PLoS ONE. 2018;13(9):e0201807. DOI: 10.1371/journal.pone.0201807

11. Astolfi Gilberto; Gonçalves, Ariadne Barbosa; Menezes, Geazy Vilharva et al. POLLEN73S: An image dataset for pollen grains classification. Ecological Informatics. 2020;60:1574-9541. DOI: 10.1016/j .ecoinf.2020.101165

12. Pollen 73S. Available at: https://figshare.com/articles/dataset/POLLEN73S/12536573 (accessed 05.12.2021).

13. Khanzhina N., Putin E., Filchenkov A., Zamyatina E. Pollen Grain Recognition Using Convolutional Neural Network. In: ESANN 2018 proceedings, European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning. Bruges (Belgium), 25-27 April 2018, i6doc.com publ., ISBN 978-287587047-6. P. 409-414.

14. Pollen classification challenge. Available at: https://iplab.dmi.unict.it/pollenclassificationchallenge/ (accessed 23.05.2021).

15. Sebastiano Battiato, Francesco Guarnera, Alessandro Ortis, Francesca Trenta, Lorenzo Ascari, Consolata Siniscalco et al. Pollen Grain Classification Challenge 2020 (Challenge Report). Springer Nature Switzerland AG 2021. A. Del Bimbo et al. (Eds.): ICPR 2020 Workshops, LNCS 12668. 2021. P. 469-479. DOI: 10.1007/978-3-030-68793-9_34

16. Pollen classification challenge. Available at: https://iplab.dmi.unict.it/pollenclassificationchallenge/ (accessed 23.05.2021).

17. Battiato S., Ortis A., Trenta F., Ascari L., Politi M., Siniscalco C. Pollen13k: a large scale microscope pollen grain image dataset. In: 2020 IEEE International Conference on Image Processing (ICIP). 2020. P. 2456-2460. DOI: 10.1109/ICIP40778.2020.9190776

18. Simonyan K., Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition. In: Proceedings of ICLR-2015. 2015. P. 1-14. DOI: 10.48550/arXiv.1409.1556

19. Srivastava N., Hinton G., Krizhevsky A., Sutskever I., Salakhutdinov R. Dropout: A Simple Way to Prevent Neural Networks from Overfitting. JMLR. 2014;15(56):1929-1958.

20. Dementyiev V.E., Andriyanov N.A., Vasilyiev K.K. Use of Images Augmentation and Implementation of Doubly Stochastic Models for Improving Accuracy of Recognition Algorithms Based on Convolutional Neural Networks. In: 2020 Systems of Signal Synchronization, Generating and Processing in Telecommunications (SYNCHROINFO). 2020. P.' 1-4. DOI: 10.1109/SYNCHROINFO49631.2020.9166000

Информация об авторах

Камалова Юлия Борисовна, старший преподаватель Департамента анализа данных и машинного обучения факультета информационных технологий и анализа больших данных, Финансовый университет при Правительстве Российской Федерации, Москва, Россия; YBKamalova@fa.ru.

Андриянов Никита Андреевич, канд. техн. наук, доцент Департамента анализа данных и машинного обучения факультета информационных технологий и анализа больших данных, Финансовый университет при Правительстве Российской Федерации, Москва, Россия; naandriyanov@fa.ru.

Information about the authors

Yuliya B. Kamalova, Senior Lecturer of the Department of Data Analysis and Machine Learning of the Faculty of Information Technology and Big Data Analysis, Financial University under the Government of the Russian Federation, Moscow, Russia; YBKamalova@fa.ru.

Nikita A. Andriyanov, Cand. Sci. (Eng.), Ass. Prof. of the Department of Data Analysis and Machine Learning of the Faculty of Information Technology and Big Data Analysis, Financial University under the Government of the Russian Federation, Moscow, Russia; naandriyanov@fa.ru.

Статья поступила в редакцию 30.05.2022

The article was submitted30.05.2022

i Надоели баннеры? Вы всегда можете отключить рекламу.