我正在尝试使用 cocoa 从网络摄像头抓取图像。我可以使用QTKit和didOutputVideoFrame委托(delegate)调用以RGBA格式获取图像,并将CVImageBuffer转换为CIImage,然后转换为NSBitmapImageRep。

我知道我的相机是 native 捕获在YUV中的,我想要的是直接从CVImageBuffer获取YUV数据,并在显示前处理YUV帧。

我的问题是:如何从CVImageBuffer获取YUV数据?

谢谢。

最佳答案

您也许可以使用CIImage从缓冲区创建一个+[CIImage imageWithCVBuffer:],然后将该CIImage渲染为所需像素格式的CGBitmapContext

注意,我尚未测试此解决方案。

10-07 21:31