Научно-образовательный журнал для студентов и преподавателей «StudNet» №4/2022 УДК 681.5
СИСТЕМА УПРАВЛЕНИЯ МОБИЛЬНЫМ РОБОТОМ С ТЕХНОЛОГИЕЙ ВИРТУАЛЬНОЙ РЕАЛЬНОСТИ
MOBILE ROBOT CONTROL SYSTEM WITH VIRTUAL REALITY TECHNOLOGY
Ван Юй, магистрант, МГТУ им. Н.Э.Баумана. кафедра CM7 Wang Yu, BMSTU, Department SM7, ulyssessci@gmail.com
Аннотация. С непрерывным развитием робототехники роботы играют важную роль в развитии промышленного производства и спасательных работ при стихийных бедствиях. Хотя роботы становятся умнее, им по-прежнему требуется ручное управление для выполнения некоторых сложных задач. В данной работе разработана система дистанционного управления роботом на основе виртуальной реальности, оснащенная которой робот заменит спасателя и будет попадать в различные опасные и сложные среды для обнаружения и поиска и спасения. По сравнению с традиционной системой дистанционного управления роботом более заметным преимуществом этой системы является внедрение технологии виртуальной реальности, которая увеличивает ощущение присутствия оператора, упрощает работу и улучшает точность работы. В то же время система также имеет функцию автономной навигации.Система, построенная по технологии SLAM и планированию пути, может снизить сложность выполнения задачи оператора и улучшить способность восприятия окружающей среды.
Annotation. With the continuous development of robotics, robots play an important role in the development of industrial production and disaster relief. While robots are getting smarter, they still require manual control to perform some of the toughest
1938
tasks. In this work, a remote control system for a robot based on virtual reality is developed, equipped with which the robot will replace the rescuer and will enter various dangerous and complex environments for detection and search and rescue. Compared with the traditional robot remote control system, the more prominent advantage of this system is the introduction of virtual reality technology, which increases the operator's sense of presence, simplifies operation, and improves operation accuracy. At the same time, the system also has the function of autonomous navigation. The system built with SLAM technology and path planning can reduce the complexity of the operator's task and improve the ability to perceive the environment.
Ключевые слова: Виртуальная реальность Л Дистанционное управление Л Автономная навигация^ Мобильный робот
Keywords: Virtual reality> Remote controls Autonomous navigation > Mobile robot
Введение
Во всем мире бедствия различных форм, больших и малых, такие как пожары, наводнения, землетрясения и аварии на шахтах, происходят почти каждый день. Опасности, связанные с внезапностью аварии, географическими масштабами аварии и неопределенностью ситуации бедствия, могут оказать существенное негативное влияние на спасательные работы. Чтобы свести к минимуму такие ненужные жертвы и потери имущества, срочно необходимы роботы-спасатели, которые могут работать удаленно в сложных условиях [1].
С развитием общества и прогрессом науки и техники в последние годы робототехника сделала большой шаг вперед. Используя дистанционное управление, можно управлять роботом в среде, до которой людям трудно добраться или адаптироваться для выполнения необходимых операций и предотвращения ущерба самим людям. Хотя в интеллектуальных технологиях достигнут большой прогресс, интеллектуальный уровень мобильных роботов
1939
не очень высок, и при выполнении некоторых сложных задач или работе в сложных условиях по-прежнему требуется контроль со стороны человека. Система, разработанная в этой статье, сочетает в себе режим ручного управления и режим автономной навигации робота для повышения эффективности задачи.
Управления старых системах используется пульт с плоским экраном задающими рукоятками. Оператор получает изображение робота через 2D экран. Это означает, что оператору необходимо анализировать трехмерную среду через двухмерный экран. Это ограничивает восприятие оператором трехмерной среды. Обучение операторов обычно занимает много времени, и только профессионально подготовленные операторы могут удаленно управлять роботами для выполнения разведывательных задач [2].
С помощью технологии VR изображения с робота обрабатываются и отображаются в VR шлеме. В шлеме два экрана, один для левого глаза и один для правого глаза. На основе принципа бинокулярного параллакса оператор может воспринимать глубину изображения. Это функция, которой нет у обычных двумерных экранов. Оператор будет чувствовать себя так, как будто он находится в сцене, как будто он управляет роботом внутри робота [3]. Многие эксперименты показали, что этот метод более эффективен, чем традиционные методы контроля. Используя этот метод, даже неподготовленные операторы могут быстро научиться управлять роботом для выполнения задач. При выполнении той же задачи система дистанционного управления на основе виртуальной реальности может выполнить задачу за меньшее время, чем традиционная система управления.Этот новый метод управления более эргономичен [4].
Задержка — большая проблема при удаленной передаче изображений. При выполнении некоторых задач оператору необходимо длительное время концентрироваться, Задержка экрана вызовет у оператора головокружение и другие симптомы. Проблема задержки всегда была в центре внимания исследований технологии виртуальной реальности. Если частота обновления
1940
изображения ниже 60 Гц, оператор не сможет нормально использовать устройство VR, и вскоре появятся такие симптомы, как головокружение. Поэтому в области VR-технологий для решения этой проблемы было предложено множество решений, одним из которых является алгоритм компенсации движения. Например, алгоритм Asynchronous Timewarp(ATW)) . С помощью этого метода обновление изображения может поддерживаться на частоте 90 Гц [5]. Оператор может видеть плавное видео с робота. И оборудование виртуальной реальности на рынке также постоянно совершенствуется, например, HTC Vive, Oculus и т. д., которые могут предоставить операторам высококачественный опыт. Это также преимущество, которое трудно обеспечить традиционными системами управления.
Таким образом, виртуальная реальность решает две проблемы: одна — восприятие трехмерной среды, а другая — задержка удаленной передачи изображения. Применение VR в системе управления роботом является усовершенствованием традиционного метода управления. И эта система управления более эргономична и удобнее в управлении.
Ограничено только дистанционное управление роботами на основе видео, поскольку зрение может получать только ту область, которую видит камера. Дистанционное управление роботами без всестороннего понимания текущей локальной среды является сложной задачей, особенно с узкими дверями или коридорами [6]. Кроме того, телеманипуляция только с видео также затрудняет запоминание положения соответствующих объектов сцены, что влияет на независимую визуальную навигацию по уже наблюдаемым частям сцены за пределами текущего обзора камеры [7]. Таким образом, система управления, изучаемая в этой статье, добавляет функцию навигации, строит карту среды через SLAM, улучшает способность воспринимать окружающую среду и завершает навигацию мобильного робота по построенной карте
Таким образом, система, разработанная в этой статье, сочетает в себе интеллектуальные системы с технологией виртуальной реальности, что
1941
значительно повысит скорость и вероятность успешного выполнения задач.Робот, на котором установлена эта система, может работать в некоторых опасных рабочих условиях (таких как ядерное излучение, высокая температура и высокое давление, сильный свет, гипоксия, взрывчатые вещества и др.) для выполнения обозначенных задач вместо человека. 1. Проектирование системы управления
Как показано на рисунке 1, оператор и робот устанавливают удаленную связь через Wi-Fi. Оператор взаимодействует с роботом с помощью шлема виртуальной реальности и ручных контроллеров.
Интерфейс виртуальной реальности в основном реализует следующие функции:
• Получить данные камеры робота
• Обработка данных камеры, VR рендеринг и отображение в шлеме VR
• Обнаружение позы шлема, обнаружение кнопок контроллера рукоятки
• Обработанная команда управления отправляется роботу
Рисунок 1 Общая структурная схема системы управления
Система содержит два режима дистанционного управления роботом:
1 .Ручной режим управления 2.Автономный режим навигации
Ручной режим управления заключается в том, что оператор управляет движением робота через VR-устройство. Автономный режим навигации означает, что оператору нужно только ввести целевое положение, и мобильный робот будет двигаться к месту назначения автономно. Камера
1942
установлена на двухосном подвесе. Вращение шлема может управлять вращением двухосного карданного подвеса.
1.1 Проектирование архитектуры ручного режима управления
Как показано на рисунке 2, режим ручного управления состоит из двух частей. Во-первых, пользователь отправляет команды движения мобильному роботу через ручной контроллер. Во-вторых, управлять движением двухосного подвеса через шлем. В шлеме есть гироскоп, который может принимать позу головы. Система визуализации рендерит видео в режиме реального времени и отображает его в шлеме.
Рисунок 2 Общая структурная схема режима ручного управления 1.2 Проектирование архитектуры автономного навигационного режима
Рисунок 3 Общая структурная схема автономного навигационного режима
1943
В режиме автономной навигации оператор вводит положение цели на карту, а модуль управления автономной навигацией получает цель, выдает управляющие команды робота и управляет мобильным роботом для перемещения в целевую точку. Карты окружающей среды можно получить с помощью лидара, С движением мобильного робота постепенно завершается построение карты окружающей среды.Обычно полная навигационная система включает в себя глобальное планирование и локальное планирование, что позволяет избежать препятствий в реальном времени. Все данные системы робота могут отображаться в шлеме. Оператор может взаимодействовать с этими данными через ручной контроллер. Это означает, что пользователь может отправлять навигационные цели мобильному роботу через устройство виртуальной реальности. Оператор может видеть местоположение мобильного робота на карте в шлеме в режиме реального времени. 2. Проектирование аппаратно-программного комплекса 2.1 аппаратная архитектура
Рисунок 4 архитектура аппаратной части системы управления Она состоит из следующих частей: Мобильный робот Mecanum с четырьмя двигателями постоянного тока. Двигатель постоянного тока имеет энкодер, который может измерять скорость. Управление четырьмя двигателями постоянного тока с помощью контроллера Arduino. Модуль камеры управляется Raspberry Pi, управляя двухосевым подвесом и обрабатывая изображения с камеры. Система ros установлена на Raspberry Pi 3B, и он
1944
общается с компьютером через wifi. Камера и лидар подключены через оборудование Raspberry Pi как узел ROS. Персональный компьютер для оператора и мобильного робота через интерфейс, Создал на нем виртуальную сцену, которая может отображать изображения с камеры робота. HTC Vive Pro состоит из коммуникационного модуля, связывающего персональный компьютер со шлемом виртуальной реальности, сам шлем, связанный радиоканалом с своими базовыми станциями SteamVR, которые с помощью инфракрасного трекинга отслеживают положения шлема и контроллеров виртуальной реальности, связанная с персональным компьютером через кабель Ethernet.
2.2 Архитектура программного обеспечения
Для разработки программного обеспечения системы управления мобильным роботом необходимо выбрать среду разработки системы управления роботом и системы виртуальной реальности. В качестве системы управления было решено выбрать ROS. Это фреймворк для программирования роботов, предоставляющий функциональность для распределённой работы. Наиболее актуальными из доступных для свободного применения IDE на сегодняшний день являются продукты Unreal Engine и Unity. В конце концов я решил использовать Unity для разработки виртуальной реальности.
Поскольку ROS работает в системе Ubuntu, а Unity работает в системе Windows, для установления соединения между ними требуется межплатформенный механизм связи. В настоящее время существует два способа связи между ROS и Unity: ROS # и ROS-TCP-Connector / ROS-TCP-Endpoint.
Таблица 1 ROS-TCP-Connector / ROS-TCP-Endpoint.
Repo^1 Функциональность^
RO S-TCP-Endpoint^ Узел ROS для отправки / получения сообщений от Unity^
ROS-TCP-Connector* Пакет Unity для отправки, получения и визуализации сообщении из ROS^
1945
С помощью этих инструментов я разработал программную архитектуру для управления мобильным роботом. Она состоит из двух основных элементов: среда разработки Unity и операционная система ROS. Unity выполняет две задачи: Визуализировать данные от роботов, обработка управляющих сигналов оператора и отправка их мобильному роботу.
Система ROS выполняет три задачи: 1. Принимает сигналы управления, отправленные оператором, а затем управляет движением двигателя и двухосного подвеса, 2. Обрабатывает данные камеры и отправляет их в систему виртуальной реальности. 3. Реализация функции автономной навигации мобильного робота 3. Разработка систем управления
3.1 Блок формирования сигнала управления шлемом VR
у
Рисунок 5 система координат шлема
В VR-шлеме есть акселерометры и гироскопы, которые могут рассчитать позу головы. угол поворота получается по формуле операция кватерниона. Затем угол Эйлера определяется кватернионом, и угол Эйлера используется в качестве угла поворота для управления двухосным подвесом.
Как показано на рисунке 5, в, ф ) обычно используется для представления поворота системы координат. углы поворота ip, в, ф, — это угол рыскания (yaw) , угол тангажа(рй^) и угол крена(гоП) соответственно.
1946
Поскольку три оси несущей системы координат не являются независимыми в процессе вращения, разные последовательности вращения приведут к разным результатам. В этой статье последовательность вращения показана на рисунке 5, Y-X-Z(^, в, ф).
кватернион определяются следующим образом:
Q(4o, 4i, Ч2, Чз) = Чо + qJ + 42] + Чзк
— cos а/2 + е sina/2 (1)
Где е— единичный вектор вдоль оси вращения, а— угол поворота.
Кватернион удовлетворяет ограничениям:
QQT — 1 (2)
Пусть E — мировая система координат, а b — система координат шлема.
Можно получить вращение системы координат шлема относительно мировой
системы координат:
1-2(q2.+q3) 2(qiq2-qo43) 2^2 + Ч^зУ
2(ЧоЧз + Ч1Ч2) 1-2(ql + q3) 2^2 - q^ (3)
.2(ЧзЧ1 - Ч2Ч0) 2(qoqi+q3q2) 1 — 2(ql + qD_ Матрица вращения может быть получена в соответствии с углом поворота Эйлера:
cos в cosф sin ф sin в cos ф — cos ф sin -ф cos ф sin в cos ф + sin ф sin ф
cosOsin^ sin ф sin в sin-ф + cos ф cos -ф cos ф sin в sin-ф — sin ф cos -ф . —sinO sin ф cos в cos ф cos в
Комбинируя формулы (3) и (4), получаем:
, , Xqiq2 + qo43), ф — arctan (--ТТ-)
* (1 — 2(q?¡ + q3)
9 — —arctan (2(qiq3 — qoq2)) , , f2(qoqi + q342)\ гсл
Формула (5) представляет собой преобразование кватернион в углы Эйлера.Поскольку это двухосевой подвес, углы Эйлера у (рысканье) и 0 (тангаж), полученные из решения, используются в качестве контрольных
СЕ = Lb =
ГЕ = U —
1947
поворотов, соответствующих углам поворота двух степеней свободы соответственно.
Поскольку Unity использует верхнюю левую систему координат, а ROS использует правую систему координат, когда ROS получает кватернион, отправленных Unity, ей необходимо преобразовать, а затем решить угол Эйлера.
3.2 Блок формирования информации ручного контроллера
о
Рисунок 6 ручной контроллер HTC Vive Pro
Контроллер HTC VIVE PRO показан на рисунке 6. Его компоненты следующие: 1 - кнопка меню; 2 - Сенсорная панель; 3 - Кнопка «Система»; 4 -Индикатор состояния; 5 - порт микро-USB; 6 - Датчик отслеживания; 7 -Курок; 8 - Кнопка захвата.
Ручной контроллер используется для отправки команд движения мобильному роботу. Команды движения включают в себя команды линейного движения и команды вращательного движения. Как показано на рисунке 6, 2 представляет собой сенсорную панель, которая разделена на четыре области, соответствующие командам движения в четырех направлениях. Когда оператор кладет палец на тачпад, система определяет место нажатия на тачпад, после чего отправляет соответствующую команду мобильному роботу. Через кнопок 7 левой и правой рукояток осуществляется управление поворотом робота влево и вправо соответственно. Таблица 2 Параметры ручного контроллера VR
1948
сенсорная панель^ Направление движения^
«J Линейное движение ^ (45,135) ^ UP^
(-45,-135)^ Down^1
(0,45)||(-45,0>Р Rights
(135,180) |(-135,180)^ Left^
Курок— Направление поворода^
повород^ Левый КурокР Left^
Правый Курок ^ Rights
3.3 Навигационная система на базе ROS
Навигационная система робота в основном включает в себя модуль планирования глобального пути, модуль планирования локального пути, модуль позиционирования, модуль преобразования координат tf, сенсорный модуль и т. Д [8-10]. В ROS легко вызвать пакет функций навигации и изменить параметры в соответствии с характеристиками системы.
Рисунок 7 Схема структуры навигационной системы в ROS Как показано на рисунке 7:
1949
• Модуль позиционирования используется для позиционирования на основе построенной сетки-карты, по собственным данным о пробеге робота и особенностям карты использует алгоритм Монте-Карло на основе фильтрации частиц (AMCL) для ремонта робота. Положение положительного робота на известной карте.
• Модуль преобразования координат (TF) используется для определения положения робота на карте и установления связи между данными датчика и статической картой.
• Модуль одометра используется для публикации информации об одометре в режиме реального времени.
• Сенсорный модуль используется для выдачи информации о лазерном сканировании в режиме реального времени, чтобы избежать препятствий в окружающей среде.
• Модуль планирования пути включает в себя глобальное, локальное планирование пути и локальную настройку позы. В соответствии с глобальными и локальными картами стоимости алгоритм A* и алгоритм DWA используются для выполнения глобального и локального планирования пути.
• Модуль контроллера движения используется для получения информации о скорости, запланированной навигационным модулем, а затем для управления движением робота.
• Модуль карты используется для получения построенной растровой карты.
3.4 Связь между ROS и Unity
1950
Рисунок 8 Схема структуры связи ROS-TCP-Connector и ROS-TCP-Endpoint
Ы Project ROS Settings a :
Connect on Startup G__
Protocol T
Settings for a new ROSConnectionjnstance
ROS IP Adldress
ROS Port 10000
Show HUD ©
KeepAlive tirra (sees) 5
Network timeout (sees) 2
Sleep tirra (sees) 0.01
Рисунок 9 Установить связь по протоколу TCP/IP
На основе протокола TCP/IP ROS устанавливает коммуникационное соединение с Unity. Как показано на рис. 8, после установления соединения на основе пакета связи ROS-TCP Unity можно рассматривать как узел в системе ROS. Через топико-сервисный механизм ROS осуществляется связь между разными узлами.
1951
Рисунок 10 Изображение левого и правого глаза в шлеме Система удаленного робота оснащена системой ROS, а изображения, снятые стереокамерой, отправляются в Unity, которые обрабатываются в Unity и отображаются в шлеме. Как показано на рисунке 10, изображения, отображаемые для левого и правого глаза соответственно, находятся в шлеме.
TFMessageMsg:
transforms: TransformStampedMsg. header: Header: stamp: Time: sec: 655
nanosec: 65765B286 „ . -framejd. odom child frame id: base_footprint transform: Transform Msg: translation: Vector3Msg: x 0.00043-8944465713575
Time: sec: 655
nanosec: 6576S8286
J,_ROS2 IP: 127.0.0.1:10000
Topics Transforms Layout
(Type here to filter t
2D 3D Topic
• I map
=> ;tf —* /plan clock /scan z* cmd_vel
z± /backup/_action/feedback Í /backup/_action/status
Рисунок 11 Визуальное отображение информации о состоянии робота в Unity
Подпишитесь на информацию системы роботов в Unity, выведите эту информацию через разработку UI-компонентов, и оператор сможет увидеть эту информацию в шлеме. Например, скорость, положение и одометр робота и т. д. Навигационная карта, созданная с помощью slam, визуализируется в Unity, как показано на рис. 12.
1952
Рисунок 12 Визуализация навигационной системы
Оператор может выбрать целевую точку навигационной карты в Unity через ручной контроллер, а затем отправить ее мобильному роботу, и мобильный робот будет осуществлять автономную навигацию. 4. Заключение
В этой статье разрабатывается система дистанционного управления роботом с использованием технологии виртуальной реальности. В данной работе разработана архитектура программно-аппаратного комплекса системы. Удаленный робот разработан на базе ROS, а пространство виртуальной реальности — на Unity, и они общаются друг с другом по протоколу TCP/IP. Используя VR-оборудование, оператор может воспринимать трехмерную среду. И оператор может использовать VR-устройство для завершения навигации робота в виртуальном пространстве. По сравнению с традиционной системой дистанционного управления мобильным роботом эта операция более эргономична и повышает эффективность работы.
Литература
1. М. Вонсик и Т. Падир, «Взаимодействие человека и робота-гуманоида через интерфейсы виртуальной реальности», Аэрокосмическая конференция IEEE 2021 г. (50100), 2021 г., стр. 1-7, doi: 10.1109/AERO50100.2021.9438400.
1953
2. С. Кон и др., «На пути к реконструкции среды в реальном времени для телеопераций на основе виртуальной реальности посредством сегментации модели», Международная конференция IEEE/RSJ по интеллектуальным роботам и системам (IROS), 2018 г., стр. 1-9, doi: 10.1109/ИРОС.2018.8594053.
3. Дж. Чжан, «Расширенное резюме: естественное взаимодействие человека и робота в системах телеприсутствия виртуальной реальности», Конференция IEEE 2018 г. по виртуальной реальности и трехмерным пользовательским интерфейсам (VR), 2018 г., стр. 812-813, doi: 10.1109 / VR.2018.8446521.
4. Дж. И. Липтон, А. Дж. Фэй и Д. Рус, «Гомункул Бакстера: пространства виртуальной реальности для телеопераций на производстве», в IEEE Robotics and Automation Letters, vol. 3, нет. 1, стр. 179-186, январь 2018 г., doi: 10.1109/LRA.2017.2737046.
5. П. Стотко и др., «Система виртуальной реальности для иммерсивного телеуправления и исследования в реальном времени с мобильным роботом», Международная конференция IEEE/RSJ по интеллектуальным роботам и системам (IROS), 2019 г., стр. 3630-3637, doi: 10.1109/ ИР0С40897.2019.8968598.
6. Р. Кодд-Дауни, П. М. Форушани, А. Спирс, Х. Ван и М. Дженкин, «От ROS к единству: использование промежуточного программного обеспечения роботов и виртуальной среды для иммерсивных телеопераций», Международная конференция IEEE по информации и автоматизации (ICIA), 2014 г., 2014, стр. 932-936, doi: 10.1109/ICInfA.2014.6932785.
7. А. Тиканмяки, Т. Бедрник, Р. Равендран и Дж. Ренинг, «Удаленная работа и реконструкция окружающей среды наружных мобильных роботов с использованием виртуальной реальности», Международная конференция IEEE по мехатронике и автоматизации (ICMA), 2017 г., стр. 1526- 1531, doi: 10.1109/ICMA.2017.8016043.
1954
8. Чжан Дэхао. Позиционирование в помещении и планирование пути мобильного робота с колесной конструкцией Mecanum [D]. Чжэцзянский университет, 2021 г.
9. Ли Т., Сун С., Саттар Т. П. Адаптация размера выборки в фильтрах частиц с помощью KLD-Пересэмплинг. Electronics Letters, 2013, 49(12): 740~742.
10. Шу Кайсян. Исследование и разработка трехмерной системы построения карт и навигации для мобильных роботов на основе изображений RGB-D [D]. Гуанчжоу: Южно-Китайский технологический университет. 2018: 42-59.
References
1. M. Wonsick and T. Padir, "Human-Humanoid Robot Interaction through Virtual Reality Interfaces," 2021 IEEE Aerospace Conference (50100), 2021, pp. 1-7, doi: 10.1109/AERO50100.2021.9438400.
2. S. Kohn et al., "Towards a Real-Time Environment Reconstruction for VR-Based Teleoperation Through Model Segmentation," 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2018, pp. 1-9, doi: 10.1109/IROS.2018.8594053.
3. J. Zhang, "Extended Abstract: Natural Human-Robot Interaction in Virtual Reality Telepresence Systems," 2018 IEEE Conference on Virtual Reality and 3D User Interfaces (VR), 2018, pp. 812-813, doi: 10.1109/VR.2018.8446521.
4. J. I. Lipton, A. J. Fay and D. Rus, "Baxter's Homunculus: Virtual Reality Spaces for Teleoperation in Manufacturing," in IEEE Robotics and Automation Letters, vol. 3, no. 1, pp. 179-186, Jan. 2018, doi: 10.1109/LRA.2017.2737046.
5. P. Stotko et al., "A VR System for Immersive Teleoperation and Live Exploration with a Mobile Robot," 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2019, pp. 3630-3637, doi: 10.1109/IROS40897.2019.8968598.
6. R. Codd-Downey, P. M. Forooshani, A. Speers, H. Wang and M. Jenkin, "From ROS to unity: Leveraging robot and virtual environment middleware for immersive teleoperation," 2014 IEEE International Conference on Information
1955
and Automation (ICIA), 2014, pp. 932-936, doi: 10.1109/ICInfA.2014.6932785.
7. A. Tikanmaki, T. Bedrnik, R. Raveendran and J. Roning, "The remote operation and environment reconstruction of outdoor mobile robots using virtual reality," 2017 IEEE International Conference on Mechatronics and Automation (ICMA), 2017, pp. 1526-1531, doi: 10.1109/ICMA.2017.8016043
8. Zhang Dehao. Indoor positioning and path planning of mobile robot with Mecanum wheel structure[D]. Zhejiang University, 2021..
9. Li T, Sun S, Sattar T P. Adapting Sample Size in Particle Filters Through KLD-Resampling. Electronics Letters, 2013, 49(12): 740~742.
10. Shu Kaixiang. Research and Design of 3D Map Construction and Navigation System for Mobile Robots Based on RGB-D Images [D]. Guangzhou: South China University of Technology. 2018: 42-59.
© Ван Юй, 2022 Научно-образовательный журнал для студентов и преподавателей «StudNet» № 4/2022.
Для цитирования: Ван Юй Система управления мобильным роботом с технологией виртуальной реальности // Научно-образовательный журнал для студентов и преподавателей № 4/2022.
1956