我目前正在研究Tango设备是否适合我正在研究的应用程序。我需要的是基于视觉的深度场,目前正在使用基于OpenCV(视差图)的立体视觉进行测试。到目前为止,我阅读的大多数深度感应信息都涉及两种基于“IR”的技术,即结构化光和飞行时间。这些页面上专门提到:
https://developers.google.com/tango/overview/depth-perception
https://developers.google.com/tango/apis/c/c-depth-perception
由于距离有限,并且对IR的环境影响敏感,因此我需要使用“立体声”功能。我的问题是在C API中,您从哪里选择这三种模式中的哪一种?这是在TangoConfig中吗? 3个都还返回TangoPointCloud吗?
最佳答案
尽管我在Tango设备上没有任何具体信息,但获取密集视差图(并从那里获得密集深度图)的“立体声”方法依赖于从不同位置拍摄两个RGB图像。
此版本的高级版本是,如果您知道拍摄图像时相机的相对位置和方向以及相机的某些内部属性,则可以计算一张图像中每个点相对于相机的相对偏移量。另一个图像中的对应点。 (这里是一个很好的描述https://www.robots.ox.ac.uk/~vgg/hzbook/hzbook2/HZepipolar.pdf)
由此,您可以计算出密集的深度图。
OpenCV确实提供了支持此功能的函数(http://docs.opencv.org/trunk/dd/d53/tutorial_py_depthmap.html),但我不知道Tango设备是否能很好地将它们包装好,或者您是否希望自己进行运动跟踪和图像捕获。
关于opencv - 通过 'Stereo'而不是 'IR'功能的深度字段,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43478342/