我正在使用具有自动对焦功能(无法关闭)和非常低的基线(小于1厘米)的立体声相机设置。
自动对焦过程实际上可以更改两个相机(例如,作为焦距和主点)和的任何内在参数 ,而无需固定关系(左侧相机可以增加对焦,而右侧相机可以减少对焦)。幸运的是,照相机始终可以非常精确地报告内部函数的当前状态。
在每一帧上,都会检测到感兴趣的对象,并计算相机图像之间的差异。由于基线非常低且分辨率不是最大,因此执行立体三角剖分会导致非常差的结果,因此,一些成功的计算机视觉算法仅依赖于图像关键点和视差。
现在,在立体帧之间计算的视差不能直接相关。如果主要点发生变化,则在自动聚焦过程之后,视差的大小将有很大不同。
自动对焦过程之后,有什么方法可以关联关键点角和/或帧之间的差异?例如,计算对象在具有先前内在函数的图像中的什么位置?
也许使用朝向对象的方位 vector ,然后寻找与先前内在函数定义的像平面的交集?
最佳答案
对于您的项目颇具挑战性,也许这些专利可以在某种程度上为您提供帮助:
Stereo yaw correction using autofocus feedback
Autofocus for stereo images
Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
关于opencv - 自动对焦后如何关联检测到的关键点,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/54243442/