打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
【点云论文速读】6D位姿估计

标题:MoreFusion: Multi-object Reasoning for 6D Pose Estimation from Volumetric Fusion

作者:Kentaro Wada, Edgar Sucar, Stephen James

星球ID:wl_华科_点云处理_目标识别

欢迎各位加入免费知识星球,获取PDF论文,欢迎转发朋友圈分享快乐。

论文摘要


机器人与其他智能设备需要根据自身搭载的视觉系统实现高效的目标级场景表达以进行接触、物理、遮挡等推理。已知的精确目标模型在未知结构的非参数化重建中起着十分重要的作用。我们提出了一种系统,该系统能够估计实时多视角场景中接触、遮挡已知目标的精确位姿。我们的方法能从单一的RGBD视角估计3D目标位姿,随着相机的移动,能够从多个视角累积位姿估计和非参数化的occupancy信息,并执行联合优化来对接触的多个接触目标进行一致非交叉的位姿估计。       

我们在YCB-Video和Cluttered YCB-Video两个数据集中对所提出的方法的精度和鲁棒性进行了实验验证。我们展示了一个实施的机器人应用,机器人仅用其搭载的RGB-D信息就能够精确有序的抓取复杂堆叠的物体。

https://github.com/j96w/DenseFusion

论文图集


英文摘要


Robots and other smart devices need efficient objectbased scene representations from their on-board vision systems to reason about contact, physics and occlusion. Recognized precise object models will play an important role alongside non-parametric reconstructions of unrecognized structures. We present a system which can estimate the accurate poses of multiple known objects in contact and occlusion from real-time, embodied multi-view vision. Our approach makes 3D object pose proposals from single RGBD views, accumulates pose estimates and non-parametric occupancy information from multiple views as the camera moves, and performs joint optimization to estimate consistent, non-intersecting poses for multiple objects in contact. We verify the accuracy and robustness of our approach experimentally on 2 object datasets: YCB-Video, and our own challenging Cluttered YCB-Video. We demonstrate a  real-time robotics application where a robot arm precisely and orderly disassembles complicated piles of objects, using only on-board RGB-D vision    

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
学FANUC机器人视觉功能,不能错过的保姆级教程!
机器人演示文稿
基于 Puppeteer 构建简易机器人 | 晚晴幽草轩
【泡泡一分钟】通过机器人的单个图像进行自监督的3D形状和视点估计
Robot&SLAM
亚马逊绝密项目揭秘,家用机器人或明年面市
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服