使用CvRect我能够检测人脸坐标

detectFace(IplImage * pImg, CvHaarClassifierCascade * pCascade, CvMemStorage * pStorage)

但是我的问题是当人微笑时如何找出whitePixelValue?

什么笑容补偿是合适的? 150的值准确吗?

微笑haarcascade根本无法工作。只需要对白色像素进行逻辑处理

请帮忙!!!

最佳答案

据我了解,您想根据 dentry 和皮肤之间的颜色差异来检测笑容,对吗?这可能是有道理的,因为嘴唇像素强度与 dentry 像素差异很大。如果是这样,我建议两种方法。

第一个是计算面部区域的拉普拉斯变换。具有拉普拉斯算子最大值的坐标将对应于相邻像素强度之间的最大差异。我认为微笑包含最多的对比像素。您应该再次选择阈值,但是在这种情况下,它取决于图像的光照条件。

第二个想法与第一个想法类似,不同之处在于您需要将像素与所有面部像素的平均值进行比较。在此,关于均值而言相对过高的像素被认为是 dentry 像素。顺便说一句,像cvAdaptiveThreshold这样的东西可能会有所帮助。

关于iphone - 人笑时如何找出whitePixelValue?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/5898030/

10-08 22:13