Научная статья на тему 'Применение метода определения биометрических параметров вымени лактирующих животных с использованием сверточной нейронной сети'

Применение метода определения биометрических параметров вымени лактирующих животных с использованием сверточной нейронной сети Текст научной статьи по специальности «Медицинские технологии»

CC BY
97
26
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Вестник НГИЭИ
ВАК
Ключевые слова
корова / молочная ферма / обработка изображений / параметры сосков вымени / сверточная нейронная сеть / dairy farm / cow / udder teat parameters / convolutional neural network / image processing

Аннотация научной статьи по медицинским технологиям, автор научной работы — Юрочка Сергей Сергеевич, Хакимов Артем Рустамович, Довлатов Игорь Мамедяревич, Владимиров Федор Евгеньевич, Павкин Дмитрий Юрьевич

Введение. Статья посвящена применению метода автоматической оценки параметров сосков вымени коров. Определены задачи, которые необходимо решить: определение длины и ширины соска, а также расстояния до него. Для решения задачи представлена сверточная нейронная сеть, обеспечивающая определение длины и ширины соска, а также расстояние до соска на основании изображений 3D-TOF камеры. Помимо оценки применимости метода с использованием сверточной нейронной сети была изучена точность определения параметров и предложены варианты повышения точности работы метода. Материалы и методы. Используемая сверточная нейронная сеть – VGG-16, используемая для распознавания объектов в статических и динамических сценах. Модель содержит 5 блоков сверточных слоев. Для обучения был собран массив из 6 тыс. снимков. Для получения изображений использовали TOF-камеру O3D303. Результаты и обсуждение. Применяемый алгоритм выдавал результаты в виде максимальных и минимальных значений, а также среднего. По длине соска погрешность измерений составила 3,8 %. Ширина соска измерена с погрешностью 4,2 %. Расстояние от камеры до соска измерялось с помощью поправочного коэффициента, который уменьшил погрешность до 3,8 %. Были определены критерии снижения ошибок измерения, основанные на изменении подсчета пикселей изображения алгоритмом. Заключение. Предложенный метод бесконтактно определил длину и ширину сосков, а также расстояние до них. Точность достаточна для применения в реальных условиях. Предложены методы дополнительного повышения точности работы метода.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по медицинским технологиям , автор научной работы — Юрочка Сергей Сергеевич, Хакимов Артем Рустамович, Довлатов Игорь Мамедяревич, Владимиров Федор Евгеньевич, Павкин Дмитрий Юрьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Application of the method for determining the biometric parameters of the udder of lactating animals using a convolutional neural network

Introduction. The article is devoted to the application of the method of automatic assessment of the parameters of the udder teats of cows. The tasks that need to be solved are defined: determining the length and width of the nipple, as well as the distance to it. To solve the problem, a convolutional neural network is presented to determine the length and width of the nipple, as well as the distance to the nipple based on 3D-TOF camera images. In addition to evaluating the applicability of the method using a convolutional neural network, the accuracy of determining the parameters was studied and options for improving the accuracy of the method were proposed. Materials and methods. The used convolutional neural network is VGG-16 used for object recognition in static and dynamic scenes. The model contains 5 blocks of convolutional layers. For training, an array of 6 thousand images was collected. An O3D303 TOF camera was used to acquire images. Results and discussion. The applied algorithm produced results in the form of maximum and minimum values, as well as an average. Along the length of the nipple, the measurement error was 3.8 %. Nipple width measured with an error of 4.2 %. The distance from the camera to the nipple was measured using a correction factor, which reduced the error to 3.8 %. Criteria for reducing measurement errors were determined based on changing the image pixel count by the algorithm. Conclusion. The proposed method non-contact determined the length and width of the nipples, as well as the distance to them. The accuracy is sufficient for real-world applications. Methods for further improving the accuracy of the method are proposed.

Текст научной работы на тему «Применение метода определения биометрических параметров вымени лактирующих животных с использованием сверточной нейронной сети»

технологии и средства механизации сельского хозяйства

Научная статья УДК 631.171

Б01: 10.24412/2227-9407-2022-9-30-40

Применение метода определения биометрических параметров вымени лактирующих животных с использованием сверточной нейронной сети

Сергей Сергеевич Юрочка1, Артем Рустамович Хакимов2, Игорь Мамедяревич Довлатов3м, Федор Евгеньевич Владимиров4, Дмитрий Юрьевич Павкин5, Владимир Юрьевич Матвеев6

1 я 3 4 5 Федеральный научный агроинженерный центр ВИМ, Москва, Россия 6 Нижегородский государственный инженерно-экономический университет, Княгинино, Россия

1 yurochkaSR@gmail.com, https://orcid.org/0000-0002-2511 -7526

2 arty.hv@gmail.com, https://orcid.org/0000-0002-4332-9274

3 dovlatovim@mail.ru, https://orcid.org/0000-0003-3058-2446

4fvladimirov21@gmail.com, https://orcid.org/0000-0003-2480-5754 5 dimqaqa@mail.ru, http://orcid.org/0000-0001-8769-8365 6matveev_ngiei@mail.ru, http://orcid.org/0000-0002-1837-8285

Аннотация

Введение. Статья посвящена применению метода автоматической оценки параметров сосков вымени коров. Определены задачи, которые необходимо решить: определение длины и ширины соска, а также расстояния до него. Для решения задачи представлена сверточная нейронная сеть, обеспечивающая определение длины и ширины соска, а также расстояние до соска на основании изображений 3Б-Т0Б камеры. Помимо оценки применимости метода с использованием сверточной нейронной сети была изучена точность определения параметров и предложены варианты повышения точности работы метода.

Материалы и методы. Используемая сверточная нейронная сеть - УОО-16, используемая для распознавания объектов в статических и динамических сценах. Модель содержит 5 блоков сверточных слоев. Для обучения был собран массив из 6 тыс. снимков. Для получения изображений использовали ТОБ-камеру O3D303. Результаты и обсуждение. Применяемый алгоритм выдавал результаты в виде максимальных и минимальных значений, а также среднего. По длине соска погрешность измерений составила 3,8 %. Ширина соска измерена с погрешностью 4,2 %. Расстояние от камеры до соска измерялось с помощью поправочного коэффициента, который уменьшил погрешность до 3,8 %. Были определены критерии снижения ошибок измерения, основанные на изменении подсчета пикселей изображения алгоритмом.

Заключение. Предложенный метод бесконтактно определил длину и ширину сосков, а также расстояние до них. Точность достаточна для применения в реальных условиях. Предложены методы дополнительного повышения точности работы метода.

Ключевые слова: корова, молочная ферма, обработка изображений, параметры сосков вымени, сверточная нейронная сеть

Финансирование: Работа выполнена при поддержке Совета по грантам Президента Российской Федерации на право получения гранта Президента Российской Федерации для государственной поддержки молодых российских ученых - кандидатов наук - МК-2513.2022.4.

© Юрочка С. С., Хакимов А. Р., Довлатов И. М., Владимиров Ф. Е., Павкин Д. Ю., Матвеев В. Ю., 2022 Контент доступен под лицензией Creative Commons Attribution 4.0 License. The content is available under Creative Commons Attribution 4.0 License.

xxxxxx технологии и средства механизации сельского хозяйства хжхжхх

Для цитирования: Юрочка С. С., Хакимов А. Р., Довлатов И. М., Владимиров Ф. Е., Павкин Д. Ю., Матвеев В. Ю. Применение метода определения биометрических параметров вымени лактирующих животных с использованием сверточной нейронной сети // Вестник НГИЭИ. 2022. № 9 (136). С. 30-40. DOI: 10.24412/22279407-2022-9-30-40

Application of the method for determining the biometric parameters of the udder of lactating animals using a convolutional neural network

Sergey S. Yurochka1, Artem R. Khakimov2, Igor M. Dovlatov3B, Fedor E. Vladimirov4, Dmitry Y. Pavkin5, Vladimir Y. Matveev6

1 2, 3 4 5 Federal Scientific Agroengineering Center VIM, Moscow, Russia 6 Nizhny Novgorod State University of Engineering and Economics, Knyaginino, Russia

1 yurochkaSR@gmail.com, https://orcid.org/0000-0002-2511 -7526

2 arty.hv@gmail.com, https://orcid.org/0000-0002-4332-9274

3 dovlatovim@mail.ruB, https://orcid.org/0000-0003-3058-2446

4fvladimirov21@gmail.com, https://orcid.org/0000-0003-2480-5754 5 dimqaqa@mail.ru, http://orcid.org/0000-0001-8769-8365 6matveev_ngiei@mail.ru, http://orcid.org/0000-0002-1837-8285

Abstract

Introduction. The article is devoted to the application of the method of automatic assessment of the parameters of the udder teats of cows. The tasks that need to be solved are defined: determining the length and width of the nipple, as well as the distance to it. To solve the problem, a convolutional neural network is presented to determine the length and width of the nipple, as well as the distance to the nipple based on 3D-TOF camera images. In addition to evaluating the applicability of the method using a convolutional neural network, the accuracy of determining the parameters was studied and options for improving the accuracy of the method were proposed.

Materials and methods. The used convolutional neural network is VGG-16 used for object recognition in static and dynamic scenes. The model contains 5 blocks of convolutional layers. For training, an array of 6 thousand images was collected. An O3D303 TOF camera was used to acquire images.

Results and discussion. The applied algorithm produced results in the form of maximum and minimum values, as well as an average. Along the length of the nipple, the measurement error was 3.8 %. Nipple width measured with an error of 4.2 %. The distance from the camera to the nipple was measured using a correction factor, which reduced the error to 3.8 %. Criteria for reducing measurement errors were determined based on changing the image pixel count by the algorithm.

Conclusion. The proposed method non-contact determined the length and width of the nipples, as well as the distance to them. The accuracy is sufficient for real-world applications. Methods for further improving the accuracy of the method are proposed.

Keywords: dairy farm, cow, udder teat parameters, convolutional neural network, image processing

Funding: The work was carried out with the support of the Council for Grants of the President of the Russian Federation for the right to receive a grant from the President of the Russian Federation for state support of young Russian scientists - Candidates of Sciences - MK-2513.2022.4.

For citation: Yurochka S. S., Khakimov A. R., Dovlatov I. M., Vladimirov F. E., Pavkin D. Yu., Matveev V. Yu. Application of the method for determining the biometric parameters of the udder of lactating animals using a convo-lutional neural network // Bulletin NGIEI. 2022. № 9 (136). P. 30-40. (In Russ.). DOI: 10.24412/2227-9407-20229-30-40

XXXXXXXXXX technology and mechanization of agriculture XXXXXXXXXX

Введение

Необходимость цифровизации фермы подразумевает внедрение автоматического доения. Для этого необходимо определять соски вымени животного. В данной работе мы исследовали возможность использования сверточной нейронной сети для определения биометрических параметров вымени лактирующих животных. Использование нейронных сетей широко применяется во множестве областей, где нужно определить искомый объект на изображении [1; 2; 15; 16]. Обнаружение объекта состоит как в оценке точного положения объекта в пространстве, так и в определении категории объекта. Это является центральным компонентом во многих реальных приложениях, например обнаружении пешеходов и транспортных средств в автономном режиме, обнаружение людей для анализа их поведения, обнаружение и дальнейшее распознавание лиц для целей наблюдения и т. д. [3]. Однако из-за большого разнообразия точек обзора, поз, окклюзии и условий освещения обнаружение объектов остается сложной проблемой. В течение последнего десятилетия развитие глубоких нейронных сетей и, в частности, сверточных нейронных сетей (СНС) привело как к изменению парадигмы, так и к некоторым значительным улучшениям [4; 5; 17; 18]. Это повышение точности стало возможным благодаря не только методологическим достижениям, но и наличию больших объемов данных, а также увеличению вычислительной мощности. С тех пор обнаружение объектов с использованием подходов глубокого обучения развивалось с неудержимой скоростью [6; 7; 19; 20], пытаясь добиться все большей и большей точности обнаружения, а также обеспечить быстрое обнаружение для приложений реального времени.

Мы определили две задачи исследования:

1. Оценить применимость метода определения биометрических параметров вымени лактиру-ющих животных с использованием сверточной нейронной сети.

2. Определить точность применения метода определения биометрических параметров вымени лактирующих животных с использованием сверточ-ной нейронной сети.

В данной работе не будет рассматриваться процесс распознавания изображений СНС, посколь-

ку эта задача была решена многократно множеством авторов [8; 9; 10].

Материалы и методы

Используемая нейросеть построена на основе СНС VGG-16. VGG-16 - это архитектура СНС для распознавания объектов в статических и динамических сценах. Данная модель состоит из 5 блоков сверточных слоев, 3 полносвязных слоев нейронов и слоя классификатора. В двух первых блоках содержится по 2 слоя, в других трех блоках - по три слоя свертки. Подробное описание работы нейронов в СНС представлено в работах [11; 12; 13; 14; 15].

В работе используется 3D TOF камера IFM O3D303, с разрешением 352^264 пикселя. TOF-камера способна рассчитывать и выводить пространство точек (Point Cloud) в виде двумерного массива i X j, где i и j - разрешение камеры. При каждом снимке TOF-камеры фиксируется матрица ^[352,264], каждая ячейка которой соответствует расстоянию отрезков от центра координат камеры до объекта наблюдения, в зависимости от апертур-ного угла луча.

Для того чтобы определить необходимый массив обучающей выборки СНС, мы провели лабораторный эксперимент, где протестировали точность работы СНС, обученной на массивах в 30, 100 и 200 изображений. Результаты тестирования представлены на рисунке 1 (а-и). Красным цветом изображены области, выбранные ошибочно. Желтым цветом изображены правильно выбранные области.

Точность СНС, обученной на массиве в 30 снимков, оказалась ожидаемо низкой. Обучение на массиве в 100 снимков показало незначительное повышение точности, но значительно уменьшило количество ошибочных срабатываний. При увеличении обучающего массива до 200 изображений точность приблизилась к удовлетворительной. Было принято решение сформировать обучающий массив в несколько тысяч снимков и проверить результаты. СНС была обучена на 6 тыс. снимках сосков коров. Сбор данных производился на ферме Совхоз им. Ленина, г. Москва. Результаты обучения СНС на искусственных сосках и на натурных данных (рисунок 2) были применены для распознавания искусственных сосков на лабораторном стенде.

технологии и средства механизации сельского хозяйства

□□4]

m n □

~ i | i

1

4*1

J

Рис. 1. Визуализация работы обученной СНС при выборке 30, 100, 200 снимков и наличии в трехмерной карте посторонних объектов: а, б, в) выборка 30 снимков; г, д, е) выборка 100 снимков; ж, з, и) выборка 200 снимков Fig. 1. Visualization of the work of a trained SNA with a sample of 30, 100, 200 images and the presence of extraneous objects in a three-dimensional map: a, b, c) a sample of 30 images; d, e, e) a sample of 100 images; w, w, i) a sample of 200 images Источник: фото сделаны авторами в ходе исследований

Рис. 2. Сбор данных с содержанием вымени и сосков на трехмерную камеру для обучения СНС. Совхоз им. Ленина, г. Москва Fig. 2. Data collection with udder and nipple contents on a three-dimensional camera for SNS training. State farm named after. Lenin, Moscow Источник: фото сделаны авторами в ходе исследований

XXXXXXXXXX technology and mechanization of agriculture XXXXXXXXXX

Результаты и обсуждение

В начале работы нами был измерен фактический размер сосков на лабораторном стенде, составивший в данном эксперименте 0,077 м в длину и 0,024 м в ширину. Каждый замер снимался 5 раз, т. к. скорость работы камеры составляет 5 кадров в секунду. Также такая частота кадров снижает вероятность смазывания изображения при естественных колебаниях соска, вызванных движением коровы. Применено добавочное расстояние при исчислении расстояния до соска .

Алгоритм работы СНС после пяти измерений выдавал максимальные и минимальные значения, а также среднее измеренное значение. Среднее измеренное значение являлось финальным, которое выдавалось алгоритмом на выходе и сравнивалось с фактическим и использовалось в дальнейших расчетах.

Фактическая длина соска составляла 0,077 м. При пятикратном повторении вычислений алгоритм стабильно превысил по трем соскам измеренную длину на 0,003 м, заднему правому соску была присвоена длина в 0,074 м. Погрешность измерений составила 0,003 м, что в процентном выражении 3,8 %. При оценке диаметра соска передний левый и задний левый соски были оценены точно в 0,024 м. Другие два соска были оценены в 0,025 м в ширину и погрешность при измерении составила 4,2 %. Результаты приводятся в таблице 1.

Расстояние от камеры до кончика соска определялось с использованием поправочного коэффициента. Так фактическое расстояние, выставленное на экспериментальном стенде до кончика переднего левого соска, составило 0,85 м от линзы камеры. Первичное измерение показало значение 0,785 м, и погрешность составила 0,065 м (8,3 %). С учетом поправочного коэффициента 0,026 м (3,05 %). Фактическое расстояние до переднего правого соска, выставленное на стенде, составило 0,837 м, первоначально измеренное показало ошибку в 0,062 м (7,3 %), с учетом поправочного коэффициента 0,031 м (3,7 %). Фактическое расстояние до заднего левого соска, выставленное на стенде, являлось 0,995 м, ошибка при первом измерении составила 0,072 м (7,2 %), с учетом поправочного коэффициента 0,041 м (4,1 %). Фактическое расстояние до заднего левого соска составило 0,982 м, при пер-

вичном измерении ошибка была 0,074 м (7,6 %), с учетом поправочного коэффициента 0,043 м (4,4 %).

Параметры расположения сосков вымени относительно друг друга по расстоянию между передними сосками У) имеют погрешность в измерении в 0,001 м (0,6 %), расстояние между задними сосками (К) определено точно, боковое расстояние между передним правым и задним правым соском имеет погрешность в 0,015 м (10,2 %), между передним и задним левыми сосками погрешность составляет 0,013 м (8,8 %), диагональ между задним левым и передним правым сосками (В01) - погрешность в 0,012 м (6,6 %), диагональ между задним правым и передним левым (Б02) - погрешность в 0,008 м (3,7 %).

Во время измерения длины сосков погрешность не имела большого разброса и составила всего 0,002 м. При этом алгоритм стабильно определил длину трех сосков 0,08 м, с погрешностью в 0,003 м. Задний правый сосок был определен с погрешностью в 0,003 м в меньшую сторону. Алгоритм дал стабильную систематическую ошибку, которую возможно исправить, введя добавочное расстояние при измерении параметра длины соска. Для улучшения работы алгоритма необходимо ввести добавочное расстояние при измерении длины сосков равным кнн>> - 3,8 % в большую сторону. При этом полученное значение по длине сосков не может выходить за рамки установленного диапазона длины сосков для каждой породы.

При измерении диаметра сосков алгоритм ошибся в 0,001 м по переднему левому и заднему левому соскам. В соответствии с изображением, полученным трехмерной камерой во время эксперимента (рисунок 3), передний левый сосок перекрывает задний левый соскок. Диаметр переднего соска был оценен ошибочно в 0,001 м, из-за нескольких факторов:

- неверно сработанного алгоритма при определении границ двух сосков;

- задний сосок был перекрыт передним, поэтому корректная оценка диаметра заднего соска в верхней части была невозможна;

- в нижней не перекрытой части соска границы были определены корректно и ширину удалось установить.

технологии и средства механизации сельского хозяйства

Таблица 1. Результаты с чистыми сосками Table 1. Results with clean nipples

№ п/п

Наименование / Name

£

<D 1 £ E

<D

a

Рч

Режим работы 5 кадров/сек / Operating mode 5 fps

1 кадр 2 кадр 3 кадр 4 кадр

/ 1st / 2nd / 3rd / 4th

frame frame frame frame

5 кадр / 5th frame

Max

Min

e g

ar

e

> <

е е

я

д

е р

и

Разница фактического и измеренного значения, % погрешности измерения/ Difference between actual and measured values, %

1 Длина соска Пл|^„| 0,081 0,079 0,08 0,08 0,081 0,081 0,079 0,08 +0,003 (3,8 %)

2 / Teat's 0,078 0,082 0,08 0,079 0,08 0,082 0,078 0,08 +0,003 (3,8 %)

3 length 0,079 0,08 0,078 0,083 0,081 0,083 0,079 0,08 +0,003 (3,8 %)

4 0,077 м 0,075 0,074 0,075 0,074 0,074 0,075 0,074 0,074 -0,003 (3,8 %)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

5 Ширина соска/ Пл|ДС| 0,023 0,022 0,03 0,022 0,026 0,03 0,022 0,025 -0,001 (4,2 %)

6 Пп|ДС| 0,026 0,023 0,025 0,021 0,024 0,026 0,021 0,024 0 (0 %)

7 Teat's width 0,024 м 3л|ДС| 0,023 0,023 0,027 0,027 0,024 0,027 0,023 0,025 -0,001 (4,2 %)

8 3п|ДС| 0,025 0,024 0,026 0,025 0,022 0,026 0,022 0,024 0 (0 %)

10

11

12

Расстояние до соска, м / Distance to the teat, м

Z ПЛ Факт 0,85 Z ПП Факт 0,837 Z ЗЛ Факт 0,995 Z ЗП Факт 0,982

0,789 0,820 0,78 0,811 0,78 0,811 0,792 0,823 0,784 0,815 0,792 0,823 0,78 0,811 0,785 0,824

0,776 0,807 0,773 0,804 0,775 0,806 0,778 0,809 0,771 0,802 0,778 0,809 0,771 0,802 0,775 0,806

0,934 0,965 0,926 0,957 0,913 0,944 0,932 0,963 0,931 0,962 0,934 0,913 0,965 0,944 0,923 0,954

0,912 0,943 0,921 0,952 0,894 0,925 0,896 0,927 0,898 0,929 0,921 0,952 0,894 0,925 0,907 0,938

-0,062 (7,3 %) -0,031 (3,7 %)

-0,072 (7,2 %) -0,041 (4,1 %)

-0,074 (7,6 %) -0,043 (4,4 %)

Расстояния между сосками / Distance between teats Фактическое расстояние, м / Actual distance, м Автоматическое вычисление на основании среднего измеренного значения до кончика сосков / Automatic calculation based on the average measured value to the teat tip Разница фактического измерения и автоматического, % погрешности измерения / Difference between actual measurement and automatic, % measurement error

21 Параметры J 0,156 0,155 0,001 (0,6 %)

22 расположения к 0,132 0,132 0 (%)

23 сосков вымени / /п 0,147 0,132 0,015 (10,2 %)

24 Teat /л 0,147 0,134 0,013 (8,8 %)

25 placement dg1 0,196 0,183 0,013 (6,6 %)

26 parameters dg2 0,214 0,206 0,008 (3,7 %)

Источник: составлено авторами на основании исследований

9

technology and mechanization of agriculture

Рис. 3. Визуализация системы алгоритма по определению ширины сосков Fig. 3. Visualization of the algorithm system for determining the width of the nipples

Источник: разработано авторами

В визуальном примере по переднему левому соску прямая была построена от 3 пикселя верхнего ряда до 3 пикселя нижнего ряда. Ошибка в измерении возникает из-за того, что изначально СНС недостаточно корректно определила границы соска, и дальнейший алгоритм присвоил в нижнем ряду переднего левого соска 5-й пиксель, который фактически не соответствует переднему левому соску. Далее расчет центральной линии оси соска пошел от третьего пикселя (который не является центральным) верхнего ряда левого соска к третьему пикселю нижнего ряда левого соска, тем самым выдав ошибку в 3 градуса.

Для улучшения работы алгоритма необходимо ввести следующие корректировки: если ширина пикселя определяется четным количеством пикселей, например 4 пикселя, тогда вычисляется расстояние между двумя пикселями и половина от полученного размера является центральной точкой, от которой к нижнему ряду прокладывается прямая. Относительно заднего левого соска, изображенного на рисунке 3, корректировка выглядит следующим образом: П2П3

=

П1

*п2)2 + (уП1 - Уп2)2 + О,

П1

"П2

)2; (1)

Н, м =

= V (- О, О87 - (-0,084) )2 + (0, 194 - 0, 198) 2 + (1,04 1 - 1,045) 2 = = 0,006 м. (2)

xxxxxx технологии и средства механизации сельского хозяйства хххххх

Прямая между пикселем 2 и 3 составляет 0,006 м, на прямой откладывается точка, равная 0,003 м, от пикселя 2 или 3 и от этой точки строится центральная линия по соску. Дополнительно алгоритм следует доработать следующим, если видимая часть соска по нижнему видимому ряду равна 5 пикселям, а в верхней части алгоритм присвоил иное количество пикселей, верхнему ряду необходимо присвоить количество пикселей, равное нижнему ряду, - 5. Постройка ряда пикселей должна начинаться от видимой границы соска, в данном случае справа налево. При этом расстояние между пикселями для «невидимой» стороны соска должно соответствовать среднему расстоянию между пикселями видимой стороны соска. Таким образом, описанные выше уточнения позволят точнее отрабатывать алгоритму.

Параметр при измерении расстояния до кончика соска также показал стабильную ошибку. Так при измеренном расстоянии в 0,8-0,85 м от линзы камеры до ошибки в измерениях составила от 3,05 до 3,7 %. При измеренном расстоянии от 0,9 до 1 м ошибка составила от 4,1 до 4,4 %. Следовательно, для улучшения работы алгоритма следует ввести дополнительное добавочное расстояние: если автоматически вычисленное расстояние с учетом добавочного расстояния к 3 д р = 0, 0 3 1 м находится в пределах 0,8-0,9 м, то дополнительно добавить к0, 8 _0,8 5 = 0,0 2 7 м как среднее между 0,024 и 0,031 м (см. таблицу 4.2, строка «расстояние до кончика соска», передний левый и передний правый соски). Если автоматически вычисленное расстояние с учетом добавочного расстояния находится в пределах 0,09-0,1 м, то дополнительно добавить к 0, 9 _ 1 = 0,0 42 м как среднее между 0,041 и 0,043 м.

При определении параметров расположения сосков вымени с минимальной погрешностью были определены расстояния между кончиками сосков переднего и заднего ряда. Остальные параметры

имеют ошибку от 3,7 до 10,2 %. Это напрямую связано с качеством определения параметра «расстояние до кончика соска».

По результатам анализа результатов эксперимента с чистыми сосками к доработке в алгоритмах подлежит следующее:

- ввести добавочное расстояние при измерении длины сосков равным - 3,8 % в большую сторону;

- строить центральную линию сосков по нечетными пикселям или при наличии четных пикселей выбирать центральную точку между ними, через которую будет проложена центральная линия соска;

- для более точного определения расстояния до кончиков сосков дополнительно к расстоянию

следует добавить расстояние мм, если измеряемый объект был определен на расстояниях в пределах 0,8-0,9 м с учетом добавочного расстояния , и коэффи-

циент м, если измеряемый объект

лежит в пределах 0,9-1 м.

Заключение

Предложенный метод бесконтактно определил длину и ширину сосков, а также расстояние до них. Во время измерения длины сосков погрешность не имела большого разброса и составила всего 0,002 м. Алгоритм дал стабильную систематическую ошибку, которую возможно исправить, введя добавочное расстояние при измерении параметра длины соска. При измерении ширины сосков алгоритм ошибся в 0,001 м по переднему левому и заднему левому соскам. При измерении расстояния до сосков погрешность не превышала 4,5 %. Точность работы СНС достаточна для применения в реальных условиях.

Предложены методы дополнительного повышения точности работы метода. Введение поправочного коэффициента при стабильной систематической ошибке приемлемо. Результаты справедливы в случае применения СНС на расстоянии 0,9-1 метра между объектом и камерой.

СПИСОК ИСТОЧНИКОВ

1. Сирота А. А., Митрофанова Е. Ю., Милованова А. И. Анализ алгоритмов поиска объектов на изображениях с использованием различных модификаций сверточных нейронных сетей // Вестник Воронежского государственного университета. 2019. № 3. С. 123-137.

2. Pham M.-T., Courtrai L., Friguet C., Lefevre S., Baussard A. YOLO-Fine: One-Stage Detector of Small Objects Under Various Backgrounds in Remote Sensing Images // Remote Sensing. 2020. 12. 2501.

3. Zhengxia Z., Zhenwei S., Yuhong G., Jieping Y. Object Detection in 20 Years: A Survey // Arxiv. 2019. 1905.05055v2.

4. Liu L., Ouyang W., WangX., Fieguth P., Chen J., Liu X., Pietikainen M. Deep learning for generic object detection: A survey // International Journal of Computer Vision. 2020. 128. P. 261-318.

XXXXXXXXXX technology and mechanization of agriculture XXXXXXXXXX

5. Jiao L., Zhang F., Liu F., Yang S., Li L., Feng Z., Qu R. A survey of deep learning-based object detection // IEEE Access. 2019. 7. 128837-128868.

6. Власенкова Т. А., Козырева Ю. Ю. Цифровизация как основа эффективного ведения сельского хозяйства // Менеджмент в АПК. 2021. № 2. С. 11-16.

7. Симонов Г. А., Маклахов А. В., Задумкин К. А. Качественные показатели молока коров черно-пестрой породы при беспривязном содержании и доении на установках роботах // Эффективное животноводство. 2018. № 7. С. 56-59.

8. Иванько А. Ф., Иванько М. А., Сизова Ю. А. Нейронные сети: общие технологические характеристики // Научное обозрение. Технические науки. 2019. № 2. С. 17-23.

9. Черных Е. М., Коняева Е. М., Чашин Ю. Г. Распознавание рукописных цифр с использованием искусственных нейронных сетей // Аллея науки. 2018. Т. 7. №. 11. С. 914-920.

10. Головко В. А., Михно Е. В., Брич А. Л. Редуцированная сверточная нейронная сеть для точного распознавания рукописных цифр // Вестник Брестского государственного технического университета. Физика, математика, информатика. 2016. № 5. С. 2-7.

11. Цыгулев К. С., Секриеру Р. А., Смагин А. С. Применение сверточных нейронных сетей для сегментации объектов на изображениях // Научно-техническое и экономическое сотрудничество стран АТР в XXI веке. 2021. Т. 2. С. 308-312.

12. Волкова С. С., Матвеев Ю. Н. Применение сверточных нейронных сетей для решения задачи противодействия атаке спуфинга в системах лицевой биометрии // Научно-технический вестник информационных технологий, механики и оптики. 2017. Т. 17. № 4. С. 702-710.

13. Bashir S. M. A., Wang Y. Small Object Detection in Remote Sensing Images with Residual Feature Aggregation-Based Super-Resolution and Object Detector Network // Remote Sensing. 2021. 13. 1854.

14. Sheremet O. I., Korobov O. Ye., Sadovoi O. V., Sokhina Yu. V. Intelligent system based on a convolutional neural network for identifying people without breathing masks // Applied Aspects of Information Technology. 2020. V. 3. № 3. P. 133-134.

15. Голубинский А. Н., Толстых А. А. Выбор архитектуры искуственной нейронной сети на основе сравнения эффективности методов распознавания изображений // Вестник Воронежского института МВД России. № 1. 2018. С. 27-37.

16. Толстых А. А. Методика оценки эффективности параметризатора в виде сверточной нейронной сети // Вестник Воронежского института МВД России. № 2. 2019. С. 123-132.

17. Кузнецов А. С., Семенов Е. Ю., Матросова Л. Д. Кластеризация изображений при использовании предобученных нейронных сетей // International Journal of Open Information Technologies. Т. 7., № 7. 2019. С. 42-47.

18. Годунов А. И., Баланян С. Т., Егоров П. С. Сегментация изображений и распознавание объектов на основе технологии сверточных нейронных сетей // Надежность и качество сложных систем. № 3 (35). 2021. С.62-73.

19. Землевский А. Д. Исследование архитектуры сверточных нейронных сетей для задачи распознавания образов // Вестник науки и образования. Т. 2. № 6 (30). 2017. С. 36-43.

20. Немков Р. М. Исследование сверточной нейронной сети, обученной с помощью метода применения нестандартных рецептивных полей при распознавании изображений // Известия Южного федерального университета. Технические науки. № 7 (168). 2015. С. 79-90.

Дата поступления статьи в редакцию 28.06.2022, одобрена после рецензирования 25.07.2022;

принята к публикации 27.07.2022.

Информация об авторах: С. С. Юрочка - младший научный сотрудник Агроинженерного центра ВИМ, Spin-код: 8689-5597;

A. Р. Хакимов - аспирант, младший научный сотрудник Агроинженерного центра ВИМ, Spin-код: 2195-7946; И. М. Довлатов - к.т.н., научный сотрудник Агроинженерного центра ВИМ, Spin-код: 9533-9629;

Ф. Е. Владимиров - научный сотрудник Агроинженерного центра ВИМ;

Д. Ю. Павкин - к.т.н., старший научный сотрудник Агроинженерного центра ВИМ, Spin-код: 7671-5380;

B. Ю. Матвеев - к.т.н., доцент, Spin-код: 6756-1176.

xxxxxx технологии и средства механизации сельского хозяйства хжхжхх

Заявленный вклад соавторов: Юрочка С. С. - научное руководство, формулирование основных направлений исследования. Хакимов А. Р. - литературный анализ, обработка результатов исследования, формирование текста и общих выводов.

Довлатов И. М. - обработка результатов исследования, доработка текста и общих выводов. Владимиров Ф. Е. - проведение исследования работы СНС, доработка текста, визуализация. Павкин Д. Ю. - проведение исследования работы СНС, формирование массива данных. Матвеев В. Ю. - верстка и формирование работы.

Авторы заявляют об отсутствии конфликта интересов.

REFERENCES

1. Sirota A. A., Mitrofanova E. Yu., Milovanova A. I. Analiz algoritmov poiska ob"ektov na izob-razheniyah s ispol'zovaniem razlichnyh modifikacij svertochnyh nejronnyh setej [Analysis of algorithms for searching for objects in images using various modifications of convolutional neural networks], Vestnik Voronezhskogo gosudarstvennogo uni-versiteta [Bulletin of the Voronezh State University], 2019, No. 3, pp. 123-137.

2. Pham M.-T., Courtrai L., Friguet C., Lefévre S., Baussard A. YOLO-Fine: One-Stage Detector of Small Objects Under Various Backgrounds in Remote Sensing Images, Remote Sensing, 2020, 12, 2501.

3. Zhengxia Z., Zhenwei S., Yuhong G., Jieping Y. Object Detection in 20 Years: A Survey, Arxiv, 2019, 1905.05055v2.

4. Liu L., Ouyang W., Wang X., Fieguth P., Chen J., Liu X., Pietikainen M. Deep learning for generic object de-tection: A survey, International Journal of Computer Vision, 2020, 128, pp. 261-318.

5. Jiao L., Zhang F., Liu F., Yang S., Li L., Feng Z., Qu R. A survey of deep learning-based object detection, IEEE Access, 2019, 7, 128837-128868.

6. Vlasenkova T. A., Kozyreva Yu. Yu. Cifrovizaciya kak osnova effektivnogo vedeniya sel'skogo hozyajstva [Digitalization as the basis for effective agriculture], Menedzhment v APK [Management in the agro-industrial complex], 2021, No. 2, pp. 11-16.

7. Simonov G. A., Maklahov A. V., Zadumkin K. A. Kachestvennye pokazateli moloka korov cherno-pestroj porody pri besprivyaznom soderzhanii i doenii na ustanovkah robotah [Qualitative indicators of milk of black-and-white cows with loose keeping and milking on robot installations], Effektivnoe zhivotnovodstvo [Efficient animal husbandry]], 2018, No. 7, pp. 56-59.

8. Ivan'ko A. F., Ivan'ko M. A., Sizova Yu. A. Nejronnye seti: obshchie tekhnologicheskie harakteristiki [Neural networks: general technological characteristics], Nauchnoe obozrenie. Tekhnicheskie nauki [Scientific Review. Technical sciences], 2019, No. 2, pp. 17-23.

9. Chernyh E. M., Konyaeva E. M., Chashin Yu. G. Raspoznavanie rukopisnyh cifr s ispol'zovaniem iskus-stvennyh nejronnyh setej [Recognition of handwritten digits using artificial neural networks], Alleya nauki [Alley of Science], 2018, Vol. 7, No. 11, pp. 914-920.

10. Golovko V. A., Mihno E. V., Brich A. L. Reducirovannaya svertochnaya nejronnaya set' dlya tochnogo ras-poznavaniya rukopisnyh cifr [Reduced convolutional neural network for accurate recognition of handwritten digits], Vestnik Brestskogo gosudarstvennogo tekhnicheskogo universiteta. Fizika, matematika, informatika [Bulletin of the Brest State Technical University. Physics, mathematics, computer science], 2016, No. 5, pp. 2-7.

11. Cygulev K. S., Sekrieru R. A., Smagin A. S. Primenenie svertochnyh nejronnyh setej dlya segmen-tacii ob"ektov na izobrazheniyah [Application of convolutional neural networks for segmentation of objects in images], Nauchno-tekhnicheskoe i ekonomicheskoe sotrudnichestvo stran ATR v XXI veke [Scientific, technical and economic cooperation of the APR countries in the XXI century], 2021, Vol. 2, pp. 308-312.

12. Volkova S. S., Matveev Yu. N. Primenenie svertochnyh nejronnyh setej dlya resheniya zadachi pro-tivodejstviya atake spufinga v sistemah licevoj biometrii [The use of convolutional neural networks to solve the problem of countering the spoofing attack in facial biometrics systems], Nauchno-tekhnicheskij vestnik informacionnyh tekhnologij, mekhaniki i optiki [Scientific and Technical Bulletin of information Technologies, Mechanics and Optics], 2017, Vol. 17, No. 4, pp. 702-710.

XXXXXXXXXX technology and mechanization of agriculture XXXXXXXXXX

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

13. Bashir S. M. A., Wang Y. Small Object Detection in Remote Sensing Images with Residual Feature Aggregation-Based Super-Resolution and Object Detector Network, Remote Sensing, 2021, 13, 1854.

14. Sheremet O. I., Korobov O. Ye., Sadovoi O. V., Sokhina Yu. V. Intelligent system based on a convolution-al neural network for identifying people without breathing masks, Applied Aspects of Information Technology, 2020, Vol. 3, No. 3, pp. 133-134.

15. Golubinskij A. N., Tolstyh A. A. Vybor arhitektury iskustvennoj nejronnoj seti na osnove sravneniya effektivnosti metodov raspoznavaniya izobrazhenij [Choosing an artificial neural network architecture based on comparing the effectiveness of image recognition methods], Vestnik Voronezhskogo instituta MVD Rossii [Bulletin of the Voronezh Institute of the Ministry of Internal Affairs of Russia], No. 1, 2018, pp. 27-37.

16. Tolstyh A. A. Metodika ocenki effektivnosti parametrizatora v vide svertochnoj nejronnoj seti [Methodology for evaluating the effectiveness of a parameterizer in the form of a convolutional neural network], Vestnik Voronezhskogo instituta MVD Rossii [Bulletin of the Voronezh Institute of the Ministry ofInternal Affairs of Russia], No. 2, 2019, pp. 123-132.

17. Kuznecov A. S., Semenov E. Yu., Matrosova L. D. Klasterizaciya izobrazhenij pri ispol'zovanii pre-dobuchennyh nejronnyh setej [Clustering of images using pre-trained neural networks], International Journal of Open Information Technologies, Vol. 7, No. 7, 2019, pp. 42-47.

18. Godunov A. I., Balanyan S. T., Egorov P. S. Segmentaciya izobrazhenij i raspoznavanie ob"ektov na osnove tekhnologii svertochnyh nejronnyh setej [Image segmentation and object recognition based on convolutional neural network technology], Nadezhnost' i kachestvo slozhnyh sistem [Reliability and quality of complex systems], No. 3 (35), 2021, pp. 62-73.

19. Zemlevskij A. D. Issledovanie arhitektury svertochnyh nejronnyh setej dlya zadachi raspoznavaniya obra-zov [Investigation of the architecture of convolutional neural networks for the problem of pattern recognition], Vestnik nauki i obrazovaniya [Bulletin of Science and Education], Vol. 2, No. 6 (30), 2017, pp. 36-43.

20. Nemkov R. M. Issledovanie svertochnoj nejronnoj seti, obuchennoj s pomoshch'yu metoda primeneniya nestandartnyh receptivnyh polej pri raspoznavanii izobrazhenij [Investigation of a convolutional neural network trained using the method of applying non-standard receptive fields in image recognition], Izvestiya YUzhnogo feder-al'nogo universiteta. Tekhnicheskie nauki [Proceedings of the Southern Federal University. Technical sciences], No. 7 (168), 2015, pp. 79-90.

The article was submitted 28.06.2022; approved after reviewing 25.07.2022; accepted for publication 27.07.2022.

Information about the authors: S. S. Yurochka - Junior researcher at the Agroengineering Center of VIM, Spin-code: 8689-5597; A. R. Khakimov - Postgraduate student, junior researcher at the VIM Agroengineering Center, Spin-code: 2195-7946;

I. M. Dovlatov - Ph. D. (Engineering), Researcher at the VIM Agroengineering Center, Spin code: 9533-9629; F. E. Vladimirov - Researcher at the Agroengineering Center of VIM;

D. Yu. Pavkin - Ph. D. (Engineering), Senior researcher at the Agroengineering Center of VIM, Spin-code: 7671-5380;

V. Yu. Matveev - Ph. D. (Engineering), Associate Professor, Spin code: 6756-1176.

Contribution of the authors: Yurochka S. S. - scientific guidance, formulation of the main directions of research.

Khakimov A. R. - literary analysis, processing of research results, formation of text and general conclusions. Dovlatov I. M. - processing of research results, revision of the text and general conclusions. Vladimirov F. E. - conducting a study of the work of the SNA, revision of the text, visualization. Pavkin D. Yu. - conducting a study of the work of the SNA, the formation of an array of data. Matveev V. Yu. - layout and formation of the work.

The authors declare no conflicts of interests

i Надоели баннеры? Вы всегда можете отключить рекламу.