我正在使用带有OpenFrameworks和OpenGL ES 1.1的iPad应用程序。我需要显示带有Alpha通道的视频。为了模拟它,我有一个RGB视频(没有任何alpha通道)和另一个仅包含alpha通道的视频(在每个RGB通道上,所以白色部分对应于可见部分,黑色部分对应于不可见部分)。每个视频都是OpenGL纹理。
在OpenGL ES 1.1中没有着色器,因此我找到了此解决方案(在这里:OpenGL - mask with multiple textures):
glEnable(GL_BLEND);
// Use a simple blendfunc for drawing the background
glBlendFunc(GL_ONE, GL_ZERO);
// Draw entire background without masking
drawQuad(backgroundTexture);
// Next, we want a blendfunc that doesn't change the color of any pixels,
// but rather replaces the framebuffer alpha values with values based
// on the whiteness of the mask. In other words, if a pixel is white in the mask,
// then the corresponding framebuffer pixel's alpha will be set to 1.
glBlendFuncSeparate(GL_ZERO, GL_ONE, GL_SRC_COLOR, GL_ZERO);
// Now "draw" the mask (again, this doesn't produce a visible result, it just
// changes the alpha values in the framebuffer)
drawQuad(maskTexture);
// Finally, we want a blendfunc that makes the foreground visible only in
// areas with high alpha.
glBlendFunc(GL_DST_ALPHA, GL_ONE_MINUS_DST_ALPHA);
drawQuad(foregroundTexture);
这正是我要执行的操作,但是OpenGL ES 1.1(或iOS)中不存在glBlendFuncSeparate()。我正在尝试使用glColorMask做到这一点,我发现了这一点:Can't get masking to work correctly with OpenGL
但是我认为它不是很好,因为他的蒙版纹理文件包含一个“真实”的Alpha通道,而不是我的。
最佳答案
我强烈建议您改为计算一个RGBA纹理。
这将既简单又快速(因为您每帧发送2个RGBA纹理-是的,您的RGB纹理实际上是由硬件以RGBA编码的,而A被忽略了)
glColorMask不会为您提供帮助,因为它只是说“完全打开或关闭此通道”。
glBlendFuncSeparate可以帮助您,但同样,它也不是一个好的解决方案:您发送的数据量是需要的两倍,从而破坏了(非常有限的)iphone带宽。
更新:
由于您使用的是OpenFrameworks,并且根据其源代码(https://github.com/openframeworks/openFrameworks/blob/master/libs/openFrameworks/gl/ofTexture.cpp和https://github.com/openframeworks/openFrameworks/blob/master/libs/openFrameworks/video/ofVideoPlayer.cpp):
使用ofVideoPlayer :: setUseTexture(false),以便ofVideoPlayer :: update不会将数据上传到视频内存;
使用ofVideoPlayer :: getPixels获取视频数据
将结果插入RGBA纹理中(可以使用GL_RGBA ofTexture和ofTexture :: loadData)
使用ofTexture :: Draw进行绘制(无论如何,这就是VideoPlayer所做的事情)