我试图在iPhone X上使用ARKit和SceneKit进行3D特征检测,使用Vision来检测面部标志。然后,我使用ARSCNView.hitTest
将2D面地标投射到使用ARSCNFaceGeometry
获得的面拓扑上。这很管用,但我和学生们有问题。对学生来说很难得到命中率测试结果,我假设这是因为面部几何结构在眼睛所在的地方有间隙。例如,是否有方法通过将眼睛添加到面部几何体来执行leftPupil
,从而从rightPupil
和VNFaceLandmarkRegion2D
hitTest
坐标中获得精确的z值?
我目前的老套想法是使用周围eye
地标的z值,并使用该值将2D瞳孔unproject
放入场景中,但当然这并不像我希望的那样精确。任何帮助或任何其他想法将非常感谢,谢谢!
最佳答案
如果创建fillMesh: true
时通过ARSCNFaceGeometry
,则不会为眼睛和嘴巴留下空白。
https://developer.apple.com/documentation/arkit/arscnfacegeometry/2928202-init
关于swift - 我可以将眼睛包含在ARSCNFaceGeometry中(从VNFaceLandmarkRegion2D获取3D瞳孔坐标)吗?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/48393470/