Turtlebot常见问题

如果你在使用中遇到问题,如出现报错、不会操作等等,请在此页面输入报错信息或关键字搜索。 如果仍有问题,为了快速高效解决你的问题,请下滑至页面底部,扫描二维码添加好友备注“Turtlebot售后咨询”。

常见问题

turtlebot4 能不能从网络上按照固定频率去接受线速度和角速度的信息并在机器人上执行

可以,通过 topic 按固定频率获取或者发布。

24384D8C-230B-447E-B88C-4E4554499449.png

请问 turtlebot4 机器人上有让它模拟扫地机器人运动(比如 s 形运动、走遍房间)的 ros 包吗?

没有,自带的包只有对整个房间进行扫描建图 ,然后手动指定初始位姿和目标位姿或轨迹点,可以自动导航。

武汉京天电器有限公司有制作配套AI实验操作平台软件,可以在线实现巡线,巡墙,二维码识别,视觉跟随等功能。http://www.jingtianrobots.com/index.php?catid=35

在TB4 Lite上运行 slam 的时候,如何确保雷达是开启的,现在在 pc 端看不到lidar话题/scan 的输出,是需要远程到树莓派上吗
A:不是的,网络通了之后 topic 就是通的。如果没有雷达话题输出,建议再检查一下网络配置。

追问:检查了 wheel_vels 都是通的,有话题输出,但是雷达话题始终没有东西,我们远程到树莓派上运行了 ros2 launch turtlebot4_bringup rplidar.launch.py,但是也没有数据输出

A:你远程到树莓派上之后,雷达有输出吗?

追问:没有,双目相机的话题/stereo/depth 也没有输出

A:那可能是节点没有启动起来,重启一下看看

追问:雷达输出问题解决了,远程连接树莓派后重新启动了一下,不过双目相机没解决,有下面的报错,请问一下是怎么回事啊?

1.png

A:这个节点已经开机启动了,不用自己再手动启动,双目相机,你直接看一下画面有没有吧

追问:这个双目相机的 rviz 订阅/color/preview/image 没有图像是什么原因呢

A:你现在树莓派和 pc 都是连接的 5G 频段吗?树莓派上运行这个:sudo systemctl restart turtlebot4

然后 PC: ros2 run rqt_image_view rqt_image_view

sudo apt update && sudo apt upgrade -y 

sudo apt install ros-${ROS_DISTRO}-depthai ros 

如果是galactic 的话:sudo apt install ros-galactic-depthai

这两句在树莓派上跑一下

树莓派:sudo systemctl stop turtlebot4
ros2 launch turtlebot4_bringup oakd.launch.py 
然后 PC: ros2 run rqt_image_view rqt_image_view

追问:跑第二句会出问题

树莓派 添 加 udev 规 则 : echo 'SUBSYSTEM=="usb", 

ATTRS{idVendor}=="03e7", 

MODE="0666"' | sudo tee /etc/udev/rules.d/80-movidius.rules

sudo udevadm control --reload-rules && sudo udevadm trigger

追问:添加这个规则之后,相机只有插在usb2.0接口的时候能出图,usb3.0 的时候不行。请问一下这是为什么啊
A:应该不会这样的,你再多实验几次

追问:如何在树莓派上开热点,然后连接底盘和 PC 端来驱动

A:这种配置没法驱动机器人
TB4机器人是不是不能后退,操作的时候后退会直接很明显的停止,然后就不能控制了
A:有安全机制,除了后退还有一些防碰撞防摔倒等功能,但是可以解除,解除安全机制之后就能后退,ros2 param set /motion_control safety_override full

追问:这个参数除了 full 之外,还有那些可以选呢

A:none 安全功能已完全启用。这是默认值。
backup_only 覆盖机器人备份限制安全功能,禁用它。
full 安全功能被完全禁用。
我想问一下,这个机器有没有指示灯颜色变化对应什么内容的说明书,还有怎么判断充电和充满电这些内容都在哪里?

http://www.turtlebot.net.cn/index.php?catid=74#pp119

有视觉避障的开源代码吗?能否提供一下?

针对 Turtebot4机器人的视觉避障开源代码主要是基于Turtebot4标配的视觉相机展开,应用实例详情见:

http://www.turtlebot.net.cn/index.php?catid=20

Turtlebot4标准版机器人一直无法充电,树莓派显示电量为 0
A:通信指示灯没有亮,应该是网络连接有问题,网络连接的问题会导致 topic 没有内容,所以它获取到的电量不是真实的电量。
追问:这个怎么重新连呢?

A:检查一下是否树莓派连接到了路由器的 5G 频段。底盘连到了路由器的 2.4G 频段。

追问:树莓派连上了,底盘没有连上

A:Create3 WiFi 配置:同时按下 CreateR3 按钮 和 2,直到光环变为蓝色。

Create3 现在处于 AP 模式。连接到名为"create-XXXX"的 WiFi 网络。在浏览器中转到 192.168.10.1,转到 connect 选项卡,输入您的 WiFi ssid 和密码,然后单击“connect”,等待它连接到 WiFi 并播放铃声。详情见用户手册页面:http://www.turtlebot.net.cn/index.php?catid=135#pp292

在 PC 上,运行 ros2 topic list 以确保 CreateR 3 正在发布其主题。

追问:192.168.10.1 进不去

A:PC 需要连接上名字包含 create 的网络。详情见用户手册页面:http://www.turtlebot.net.cn/index.php?catid=134

缺少话题,开机雷达不转,AI 教学实验操作软件无法使用
可以试试重刷镜像:
就是把 tf 卡拔下来或者用一张新的 tf 卡,从官网下载相应的镜像用 Raspberry Pi Imager 烧录工具把镜像烧进 tf 卡,可能会用到拓展坞或者 sd 卡套,这取决于你的电脑接口。不是确定的硬件损坏问题,一般这样可解决大部分不知名问题。
镜像下载地址:http://download.ros.org/downloads/turtlebot4/Raspberry Pi Imager 烧录工具:https://www.raspberrypi.com/software/
不过这样的话,软件可能要重新装,所以如果有备用的 tf 卡更好。
您好,Turtlebot4在人群环境中,获取人的位置是用的什么方法,行人密集时能区分不同人的位置吗

TB4机器人标配的OAK深度相机关于部署轻量化模型官网有比较好的生态。http://www.turtlebot.net.cn/index.php?id=144

比如目标检测可以用 mobilenet-ssd 模型,其中就包含 person 的检测,当然也有专门用于人物检测的模型,官网也提供了 linux环境下使用的 demo。不过具体怎么使用,比如如何调用 demo的相关接口,开发者可以自定义。

Turtlebot4标配的激光雷达只能扫平面吗,垂直范围怎么扫描呢?
A:Turtlebot4标配的激光雷达是PLIDAR A1M8,它是一个水平扫描的360度激光雷达,其设计用于水平方向上的旋转扫描,并不支持垂直扫描。激光雷达相关信息可以查看http://www.turtlebot.net.cn/index.php?id=142

追问:那垂直方向是通过什么来获得数据的呢?

A:深度摄像头。深度摄像头相关信息可以查看http://www.turtlebot.net.cn/index.php?id=144

追问:Turtlebot4 这个传感器检测到的数据是机器内置算法计算还是得自己计算哇,比如这个障碍物的距离和速度,可以实时获得吗?

A:对于障碍物的距离和速度等信息,通常是通过使用合适的算法来从传感器数据中计算得出的,而实时获取障碍物的距离和速度取决于传感器的采样率和算法的计算速度。

追问:激光雷达和深度摄像头结合的话要做数据融合吗?

A:是的,当激光雷达和深度摄像头结合使用时,常常需要进行数据融合以获得更准确和全面的环境感知信息。这是因为激光雷达和深度摄像头在原理和工作方式上有一些差异,各自具有一定的优势和限制。激光雷达可以提供精确的距离测量,但对于物体的表面细节和纹理信息相对较弱。深度摄像头则能够提供场景的图像和深度地图,具有更丰富的视觉信息,但在一些情况下可能受到光照、遮挡等因素的影响。通过将激光雷达和深度摄像头的数据进行融合,可以充分利用它们的优势并弥补各自的不足。常见的数据融合方法包括:
点云融合:将激光雷达的点云数据与深度摄像头的图像进行对齐和融合,从而在点云中添加图像纹理信息,提高物体识别和定位的准确性。
深度图像融合:将激光雷达的距离测量与深度摄像头的深度图像进行融合,生成更精确的深度信息,同时保留物体的视觉特征。

特征提取与匹配:通过提取激光雷达和深度摄像头的特征点,进行匹配和关联,以实现更准确的目标检测、跟踪和地图构建。数据融合可以提高环境感知的准确性、稳定性和鲁棒性,提供更全面和一致的感知结果。

具体的融合方法和算法选择会根据应用需求、硬件配置和算法实现等因素进行决定。

追问:这些融合算法里面自带么还是自己编写再去训练,我们重点是做决策优化的。

A:Turtlebot4 机器人目前还没有集成这些算法,只有简单的二维建图导航,但是关于传感器数据融合,还是有很多开源算法的,可以尝试移植。

微信扫一扫