首先说明一下,这里我们的摄像头和tag只是利用了他们的相对位姿,并没有按照实际模型那样布置摄像头和tag,但这并不影响我们观察整个系统的运行效果,布置如下:
由于之前myrobot已经是一个很完整的包,本身有gazebo模型,所以我们运行以下指令
roslaunch apriltags2_ros continuous_detection.launch
roslaunch myrobot2_gazebo myrobot2.launch
roslaunch apriltags2_launch setup.launch
说一下setup.launch如下,一个是启动moveit的launch,还有一个启动了位姿订阅节点,在后续中加入了Descartes Path Planning,所以在github文件稍有不同。这一块主要参考网址:https://industrial-training-master.readthedocs.io/en/kinetic/_source/session4/Descartes-Path-Planning.html
<?xml version="1.0" ?>
<launch>
<include file="$(find myrobot2_moveit_config)/launch/myrobot2_moveit_planning_execution.launch"/>
<node name="atnode_vision" pkg="apriltags2_node" type="atnode_vision" output="screen" />
</launch>
最后启动服务器客户端,包含moveit运动规划
rosrun apriltags2_node apriltags2_client
演示视频:
链接:https://github.com/harrycomeon/apriltags2_ros-and-ur5/blob/master/附录5附图.gif