我正在尝试使用 cocoa 从网络摄像头抓取图像。我可以使用QTKit和didOutputVideoFrame委托(delegate)调用以RGBA格式获取图像,并将CVImageBuffer转换为CIImage,然后转换为NSBitmapImageRep。
我知道我的相机是 native 捕获在YUV中的,我想要的是直接从CVImageBuffer获取YUV数据,并在显示前处理YUV帧。
我的问题是:如何从CVImageBuffer获取YUV数据?
谢谢。
最佳答案
您也许可以使用CIImage
从缓冲区创建一个+[CIImage imageWithCVBuffer:]
,然后将该CIImage渲染为所需像素格式的CGBitmapContext
。
注意,我尚未测试此解决方案。