快速获得最新干货
很多人让我推荐激光雷达-视觉-惯导的多传感器融合SLAM算法,LVI-SAM就是其中一个优秀的算法。
LVI-SAM是MIT团队的TixiaoShan等人开源的一个紧耦合的激光雷达视觉惯导SLAM系统,可以实时高精度鲁棒的进行状态估计和建图。
LVI-SAM构建在因子图之上,并且由两个子系统组成:一个视觉惯导系统和一个激光惯导系统。这两个子系统利用紧耦合的方法,视觉惯导的系统利用激光惯导的估计来做初始化。视觉惯导系统利用激光雷达的测量给视觉特征提供深度来提升精度。同时激光惯导系统利用视觉惯导的估计值作为初值来做帧的匹配。利用视觉做闭环检测,把检测的结果给激光惯导系统来做优化。当激光惯导和视觉惯导子系统的一个失败的时候LVI-SAM仍然可以工作,这极大的提升了系统在缺少纹理或者特征场景中的鲁棒性。
与其他开源框架相比,有更好的算法鲁棒性,有更优越的算法精度
是目前最先进的开源LVIO框架之一
涵盖IMU预积分、特征提取、视觉滑窗、因子图优化、回环检测等多方位内容
学会LVI-SAM算法有助于理解其他多传感器融合框架
代码有注释,讲师带读。代码注释地址 https://github.com/electech6/LVI-SAM_detailed_comments
为统一环境调试代码,我们做了docker镜像(感谢刘嘉林同学);为LVI-SAM算法录制了校园数数据集(感谢刘嘉荣同学)。
经过周密准备,计算机视觉life联合哈工大博士汪寿安推出为期1个月的学习挑战赛,《快速入门多传感器融合SLAM:LVI-SAM》,下面是关于demo部分的讲解
早鸟优惠50元,限量,快来抢,更多介绍查看
下面是详细学习规划
早鸟优惠50元,限量,快来抢,更多介绍查看
“长按”或“扫描”下方二维码,加入【小六的机器人SLAM圈】即可开始学习~3天内无条件退款~ 购买后务必加客服领取其他权益和加交流群,现在加入免费送近千页5年机器人SLAM答疑手册
全国最大的机器人SLAM开发者社区
最后介绍一下我们最近的几个学习活动:(点击下方标题即可快速获取)
联系客服