当使用单相机实现单眼SLAM或Motion的“结构”时,平移可以估计到未知规模。事实证明,没有任何其他外部信息,这种规模是无法确定的。但是,我的问题是:
如何在所有子翻译中统一此比例。例如,如果我们有3帧(Frame0,Frame1和Frame2),则可以按以下方式应用跟踪:

  • 框架0->框架1:R01,T01(R&T
    可以使用F Matrix和K提取
    矩阵和基本矩阵
    分解)
  • 帧1->帧2:R12,T12

  • 问题是T01和T12被归一化,因此它们的大小为1。但是,实际上,T01大小可能是T12的两倍。
    如何恢复T01和T12之间的相对幅度?
    附言我不想知道究竟是T01还是T12。我只想知道| T01 | = 2 * | T12 |。
    我认为这是可能的,因为Monocular SLAM或SFM算法已经存在并且运行良好。因此,应该有一些方法可以做到这一点。

    最佳答案

    计算框架2和0之间的R,t,并在由三个框架形成的三个顶点之间连接一个三角形。当相对平移已知到一个比例时,将形成唯一可能的闭合三角形(最大到一个比例)。

    09-19 06:10