我知道iOS 5.0上的Core Image supports facial detection(another example of this),它提供了脸部的总体位置以及该脸部中眼睛和嘴巴的位置。
但是,我想优化此位置以检测其中的嘴巴和牙齿的位置。我的目标是在使用者的口腔和牙齿上放置护齿器。
有没有办法在iOS上完成此操作?
最佳答案
我在my blog中指出该教程有问题。
第部分5)调整坐标系:说您需要更改窗口和图像的坐标,但这是您不应该做的。您不应该像本教程中那样更改视图/窗口(在UIKit坐标中)以匹配CoreImage坐标,而应该采取其他方法。
这是与此相关的代码部分:
(您可以从my blog post或直接从here获取整个示例代码。它也包含使用CIFilters的此示例和其他示例:D)
// Create the image and detector
CIImage *image = [CIImage imageWithCGImage:imageView.image.CGImage];
CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace
context:...
options:...];
// CoreImage coordinate system origin is at the bottom left corner and UIKit's
// is at the top left corner. So we need to translate features positions before
// drawing them to screen. In order to do so we make an affine transform
CGAffineTransform transform = CGAffineTransformMakeScale(1, -1);
transform = CGAffineTransformTranslate(transform,
0, -imageView.bounds.size.height);
// Get features from the image
NSArray *features = [detector featuresInImage:image];
for(CIFaceFeature* faceFeature in features) {
// Get the face rect: Convert CoreImage to UIKit coordinates
const CGRect faceRect = CGRectApplyAffineTransform(
faceFeature.bounds, transform);
// create a UIView using the bounds of the face
UIView *faceView = [[UIView alloc] initWithFrame:faceRect];
...
if(faceFeature.hasMouthPosition) {
// Get the mouth position translated to imageView UIKit coordinates
const CGPoint mouthPos = CGPointApplyAffineTransform(
faceFeature.mouthPosition, transform);
...
}
}
一旦您获得了嘴巴的位置(
mouthPos
),您只需将您的东西放在上面或附近。该特定距离可以通过实验计算得出,并且必须相对于由眼睛和嘴巴形成的三角形。如果可能的话,我会使用很多面孔来计算该距离(Twitter头像?)
希望能帮助到你 :)