我正在尝试根据本教程http://john-chapman-graphics.blogspot.com/2013/01/ssao-tutorial.html实现SSAO。我似乎不明白如何实现此目标,并且在片段着色器中一直得到不想要的结果。
首先,我将着色器设置为传递深度缓冲区,相机的投影矩阵和4x4噪波纹理。 ssao内核已经被初始化并传递到着色器中。我还从深度缓冲区采样法线。
编辑:起初我以为我没有正确获取深度位置,所以我添加了一个名为positionFromDepth的新函数,但它似乎仍然无法正常工作...
我的片段着色器:
uniform sampler2D uDepthBuffer;
uniform sampler2D uNoiseTexture;
uniform mat4 uProjection; // camera's projection matrix
uniform mat4 uInverseMatrix; // inverse of projection matrix
uniform vec2 uNoiseScale; // vec2(1024.0 / 4.0, 768.0 / 4.0)
const int MAX_KERNEL_SIZE = 128;
uniform int uSampleKernelSize;
uniform vec3 uSampleKernel[MAX_KERNEL_SIZE];
uniform float uRadius;
const float zNear = 0.1;
const float zFar = 2579.5671;
float linearizeDepth(float near, float far, float depth) {
return 2.0 * near / (far + near - depth * (far - near));
}
vec3 positionFromDepth(vec2 texcoords) {
float d = linearizeDepth(zNear, zFar, texture2D(uDepthBuffer, texcoords).r);
vec4 pos = uInverseMatrix * vec4(texcoords.x * 2.0 - 1.0,
texcoords.y * 2.0 - 1.0,
d * 2.0 - 1.0, 1.0);
pos.xyz /= pos.w;
return pos.xyz;
}
vec3 normal_from_depth(float depth, vec2 texcoords) {
const vec2 offset1 = vec2(0.0, 0.001);
const vec2 offset2 = vec2(0.001, 0.0);
float depth1 = linearizeDepth(zNear, zFar, texture2D(uDepthBuffer, texcoords + offset1).r);
float depth2 = linearizeDepth(zNear, zFar, texture2D(uDepthBuffer, texcoords + offset2).r);
vec3 p1 = vec3(offset1, depth1 - depth);
vec3 p2 = vec3(offset2, depth2 - depth);
vec3 normal = cross(p1, p2);
normal.z = -normal.z;
return normalize(normal);
}
void main() {
vec2 texcoord = gl_TexCoord[0].st;
vec3 origin = positionFromDepth(texcoord);
float d = texture2D(uDepthBuffer, texcoord).r;
vec3 normal = normal_from_depth(linearizeDepth(zNear, zFar, d), texcoord) * 2.0 - 1.0;
normal = normalize(normal);
vec3 rvec = texture2D(uNoiseTexture, texcoord * uNoiseScale).rgb * 2.0 - 1.0;
vec3 tangent = normalize(rvec - normal * dot(rvec, normal));
vec3 bitangent = cross(normal, tangent);
mat3 tbn = mat3(tangent, bitangent, normal);
float occlusion = 0.0;
for(int i = 0; i < uSampleKernelSize; i++) {
vec3 sample = tbn * uSampleKernel[i];
sample = sample * uRadius + origin.xyz;
vec4 offset = vec4(sample, 1.0);
offset = uProjection * offset;
offset.xy /= offset.w;
offset.xy = offset.xy * 0.5 + 0.5;
float sampleDepth = positionFromDepth(offset.xy).z;
occlusion += (sampleDepth <= sample.z ? 1.0 : 0.0);
}
occlusion = 1.0 - (occlusion / float(uSampleKernelSize));
gl_FragColor = vec4(pow(occlusion, 4.0));
}
当我移动相机时,被遮挡的样本会发生变化。结果看起来像这样:
我假设在采样深度位置时做错了什么,但是也许投影矩阵也做错了。 uProjection矩阵应该转置还是反转?任何人都可以识别此问题吗?
也请忽略我尚未进行模糊传递的事实。
最佳答案
这里有几件事情要考虑。您已将原始linearizeDepth
公式替换为其他内容。原始linearizeDepth
函数基于此formula。
请注意,如果您尝试根据此公式派生函数,您会发现linearizeDepth
函数返回的不仅仅是Z,它实际上是Z的倒数。
我不能说这会在多大程度上影响SSAO算法,但是鉴于我自己从学习代码中学到的知识,我会非常谨慎地对不完全了解的方程式部分进行修改。从本质上讲,我不确定代码是否应该再使用它。
具体来说,我相信linearizeDepth
在这种情况下的目的不是在z轴上均匀分布明暗(我相信这就是您在这里所做的事情),而是廉价地取消投影Z'坐标。