当使用单相机实现单眼SLAM或Motion的“结构”时,平移可以估计到未知规模。事实证明,没有任何其他外部信息,这种规模是无法确定的。但是,我的问题是:
如何在所有子翻译中统一此比例。例如,如果我们有3帧(Frame0,Frame1和Frame2),则可以按以下方式应用跟踪:
可以使用F Matrix和K提取
矩阵和基本矩阵
分解)
问题是T01和T12被归一化,因此它们的大小为1。但是,实际上,T01大小可能是T12的两倍。
如何恢复T01和T12之间的相对幅度?
附言我不想知道究竟是T01还是T12。我只想知道| T01 | = 2 * | T12 |。
我认为这是可能的,因为Monocular SLAM或SFM算法已经存在并且运行良好。因此,应该有一些方法可以做到这一点。
最佳答案
计算框架2和0之间的R,t,并在由三个框架形成的三个顶点之间连接一个三角形。当相对平移已知到一个比例时,将形成唯一可能的闭合三角形(最大到一个比例)。