获取深度图后要对目标抓取位姿进行估计,在机器人抓取(六)—— 平面抓取位姿估计( gqcnn代码测试与解读) 中对抓取位姿估计项目 gqcnn 的源码做了详细解读。为方便应用,本文用 FullyConvolutionalGraspingPolicyParallelJaw 模型重写了抓取位姿服务器节点 grasp_planner_node.py。代码如下 #!/usr/bin/env python
基于视觉的机器人抓取方法首先要获取抓取位姿,在机器人抓取(六)—— 平面抓取位姿估计( gqcnn代码测试与解读) 中,我们对抓取位姿估计网络gqcnn做了详细讲解。 在进行抓取位姿估计时,首先要获取一张深度图。我们可以通过 ros 的 topic 机制不断的发送深度图,不过其实我们并不需要实时读取每一帧的图像,只需要在做抓取位姿估计时读取一张深度图即可。本着不浪费计算资源的原则,用 ros Se
两个开源工作做得比较好的二维平面抓取位姿估计项目:gqcnn, 文档 GR-ConvNet本文测试了 gqcnn。 1. gqcnn 安装与测试 Dex-Net是 Berkeley Auto Lab 维护的一个项目,旨在训练机器人学习抓取。项目主要包含两个部分:Dex-net用于生成数据集,GQ-CNN (Grasp Quality Convolutional Neural Networks)用于
1. 相机的参数 参考:Step1:模型 16个相机参数(内参、外参、畸变参数)摄像机标定(Camera calibration)是从空间点及其对应的像素点,获得相机的位置信息和内部参数信息的过程。 相机外参:从世界坐标坐标系到相机坐标系 相机内参:从相机坐标系到图像坐标系 简要总结:单目相机共有 16 个参数: 10个相机内参(只与相机有关):
硬件:jetson agx xavier,系统 ubuntu 18.04. 1. Azure kinect 简介 Azure Kinect DK 文档github: Azure-Kinect-Sensor-SDKgithub:Azure_Kinect_ROS_Driver 深度相机与 rgb 相机的简要说明 Azure Kinect DK 硬件规格深度相机的视场:Narrow
1. 原理篇 参考:机器人手眼标定的基础理论分析3D视觉之手眼标定胡春旭:“手眼”结合完成物体抓取应用在实际应用中,我们通常需要将相机观察到的外界环境中物体的姿态从相机坐标系转换到机械臂的坐标系中,辅助机械臂规划一些后续动作(如抓取)。为了得到机器人坐标系和相机坐标系的转换矩阵,我们就要对机器人进行手眼标定。手眼标定有两种常见的标定方法。第一种是通过特殊的标定物,第二种是通过机器人运
机械臂为UR5 CB3 。机械手onrobot第二代rg6夹抓。上位机为Jetson AGX Xavier ubuntu 18.04.接上篇:机器人抓取(一)—— ROS MoveIt! 程序控制真实UR5机器人运动(python) 1. Onrobot RG6 机械手 (采坑记录,可跳过) rg2/6 有两种控制模式:Compute Box+urcap 和 teach Mode
moveit! ur5 机器人控制 接上篇:ubuntu18.04 ros-melodic 安装 ur_robot_driver,驱动真实的 ur5 机器人 上文在 ubuntu 系统中配置了ur 机器人ros功能包 universal_robot 和驱动 Universal_Robots_ROS_Driver,并实现了用 moveit_rviz 拖动机器人运动。本文旨在学习如何使
基于视觉的任意目标抓取
博客
泡泡
积分
勋章
机器人抓取(八)—— 基于 gqcnn 模型的抓取位姿估计 ros 服务器
机器人抓取(七)—— Azure Kinect 相机的 ros 服务器(Service)
机器人抓取(六)—— 平面抓取位姿估计( gqcnn代码测试与解读)
机器人抓取(四)—— 相机参数与标定 camera_calibration
机器人抓取(三)—— Azure Kinect SDK 及 ROS 驱动安装
机器人抓取(五)—— 手眼标定 hand eye calibration
机器人抓取(二)—— ROS 控制 onrobot RG2 / RG6 机械手(第二代)
机器人抓取(一)—— ROS MoveIt! 程序控制真实UR5机器人运动(python)
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信