我正在重建模板光着色器的位置。 这意味着我有光的球面近似的顶点,从中我可以得到一个世界空间视图向量(vertexPos - cameraPos)。的代码看起来是这样的:Vulkan深度缓冲区位置重构
vec3 construct_pos_ws(float depthBufferZ)
{
vec3 viewRay = normalize(gInVert.vRayWs);
float viewZDist = dot(gInFrame.eyeZAxis, viewRay);
vec3 relPoint = viewRay * linearDepth(depthBufferZ)/viewZDist;
return gInFrame.eye + relPoint;
}
vRayWs:世界空间视图射线(内插vertexPos - 在vertexshader cameraPos) eyeZAxis:世界空间z轴的眼(照相机方向)
viewZDist:深度缓冲器保持一个平行于相机表面的距离,但我们需要一个距离,这说明了我们观察物体的角度。
问题是与线性函数I使用,基于wikipedia: z-buffering: (I离开了S = 2^d-1,此部分似乎不适用)。
float linearDepth(float z_b) {
float f = z_far;
float n = z_near;
return (-f * n/(z_b (f - n) - f));
}
这是不行的,但使用float n = z_near * 2
而不是给出(貌似)正确的结果(我只是随机尝试,因为以前的答案看起来接近正确)。
我试过其他线性化以及使用维基百科页面上的所有树变种的逆(低于3),但没有奏效。
实际问题: 这是怎么回事呢?为什么乘以2似乎给出了正确答案? Vulkan使用什么公式来写入深度缓冲区,因为它似乎没有使用wikipedia上的任何公式?
最后,完整性,投影矩阵结构是这样的:
float yScale = 1.0f/tan(fov/2.0f);
float xScale = yScale/aspect;
float nearmfar = z_near - z_far;
Matrix m = {
xScale, 0, 0, 0,
0, yScale, 0, 0,
0, 0, (z_far + z_near)/nearmfar, -1,
0, 0, 2 * z_far * z_near/nearmfar, 0
};
而且,我怎么知道它是正确的:
使用的变化,呈现“位置MOD 1“给出第一张图像(移动相机时稳定),而原始功能给出第二张图片(移动相机时非常不稳定)。
我不得不仔细检查,但我猜测这是因为NDC的Z从0变为1而不是-1变为1. –