我试图在iPhone X上使用ARKit和SceneKit进行3D特征检测,使用Vision来检测面部标志。然后,我使用ARSCNView.hitTest将2D面地标投射到使用ARSCNFaceGeometry获得的面拓扑上。这很管用,但我和学生们有问题。对学生来说很难得到命中率测试结果,我假设这是因为面部几何结构在眼睛所在的地方有间隙。例如,是否有方法通过将眼睛添加到面部几何体来执行leftPupil,从而从rightPupilVNFaceLandmarkRegion2DhitTest坐标中获得精确的z值?
我目前的老套想法是使用周围eye地标的z值,并使用该值将2D瞳孔unproject放入场景中,但当然这并不像我希望的那样精确。任何帮助或任何其他想法将非常感谢,谢谢!

最佳答案

如果创建fillMesh: true时通过ARSCNFaceGeometry,则不会为眼睛和嘴巴留下空白。
https://developer.apple.com/documentation/arkit/arscnfacegeometry/2928202-init

关于swift - 我可以将眼睛包含在ARSCNFaceGeometry中(从VNFaceLandmarkRegion2D获取3D瞳孔坐标)吗?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/48393470/

10-11 07:01