在《机器人手册》 第2卷,这本书里面,第23章讲述了:三维视觉和基于视觉的实时定位于地图重建。在第37章里面,讲述了
同时定位与建图。指出了SLAM的三种基本方法。
一种是EKF的方法,但由于性能的约束,逐渐变得非主流;第二种基于图表示,成功使用稀疏非线性优化方法解决SLAM问题,成为主要方法;第三种也是成为粒子滤波器的非参数统计滤波技术,是在线SLAM的一种主流方法。
VSLAM扫盲之旅
作为三维重建-SLAM的入门资料汇总:VSLAM扫盲之旅
ICCV研讨会:实时SLAM的未来以及深度学习与SLAM的比较: http://blog.csdn.NET/qq_18661939/article/details/51919329
The Future of Real-time SLAM[ZZ]: https://zhuanlan.zhihu.com/p/21738966
SLAM 开发学习资源与经验分享:https://github.com/GeekLiB/Lee-SLAM-source?utm_source=tuicool&utm_medium=referral
此文涉及到硬件的讨论,还是值得看一下的,可以大致浏览一下
速感CEO: SLAM的前世今生 终于有人说清楚了
最近流行的结构光和TOF
结构光原理的深度摄像机通常具有激光投射器、光学衍射元件(DOE)、红外摄像头三大核心器件。
这个图(右图)摘自primesense的专利。
可以看到primesense的doe是由两部分组成的,一个是扩散片,一个是衍射片。先通过扩散成一个区域的随机散斑,然后复制成九份,投射到了被摄物体上。根据红外摄像头捕捉到的红外散斑,PS1080这个芯片就可以快速解算出各个点的深度信息。
这儿还有两款结构光原理的摄像头。
第一页它是由两幅十分规律的散斑组成,最后同时被红外相机获得,精度相对较高。但据说DOE成本也比较高。
还有一种比较独特的方案(最后一幅图),它采用mems微镜的方式,类似DLP投影仪,将激光器进行调频,通过微镜反射出去,并快速改变微镜姿态,进行行列扫描,实现结构光的投射。(产自ST,ST经常做出一些比较炫的黑科技)。
ToF(time of flight)也是一种很有前景的深度获取方法。
传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息。类似于雷达,或者想象一下蝙蝠,softkinetic的DS325采用的就是ToF方案(TI设计的),但是它的接收器微观结构比较特殊,有2个或者更多快门,测ps级别的时间差,但它的单位像素尺寸通常在100um的尺寸,所以目前分辨率不高。以后也会有不错的前景,但我觉得并不是颠覆性的。
SLAM系统研究点介绍
本文主要谈谈SLAM中的各个研究点,为研究生们(应该是博客的多数读者吧)作一个提纲挈领的摘要。然后,我们再就各个小问题,讲讲经典的算法与分类。
文章链接:http://www.cvrobot.net/research-points-introduction-of-slam-system/
References:
[1]. Smith, R.C. and P. Cheeseman, On the Representation and Estimation of Spatial Uncertainty. International Journal of Robotics Research, 1986. 5(4): p. 56–68.
[2]. Se, S., D. Lowe and J. Little, Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks. The international Journal of robotics Research, 2002. 21(8): p. 735–758.
[3]. Mullane, J., et al., A Random-Finite-Set Approach to Bayesian SLAM. IEEE Transactions on Robotics, 2011.
[4]. Adams, M., et al., SLAM Gets a PHD: New Concepts in Map Estimation. IEEE Robotics Automation Magazine, 2014. 21(2): p. 26–37.
[5]. Endres, F., et al., 3-D Mapping With an RGB-D Camera. IEEE Transactions on Robotics, 2014. 30(1): p. 177–187.
[6]. Forster, C., M. Pizzoli and D. Scaramuzza, SVO: Fast semi-direct monocular visual odometry. 2014, IEEE. p. 15–22.
[7]. Newcombe, R.A., et al., KinectFusion: Real-time dense surface mapping and tracking. 2011, IEEE. p. 127–136.
声明: