• 【OpenGL】使用随机采样实现soft shadow


    本篇文章主要针对《OpenGL 4 Sharding Language Cookbook》一书中第七章——Shadow的第四节Creating soft shadow edges with random sampling解释而得。


    -----------------------------------------------------------------分割线-------------------------------------------------------------



    锯齿问题(aliasing)

    基于shadow map实现阴影效果有很多不是那么令人满意的地方,其中一个就是锯齿问题(aliasing)。出现锯齿的原因是因为shadow texture的大小往往小于屏幕大小,当把shadow texture渲染到屏幕上时,那些多余的像素就会显现出来锯齿。

    最基本的shadow map的思想,我想大家都知道,就不说了。它在最后会根据shadow texture上的深度值来判断当前要渲染的fragment是否在阴影里,如果是,那么它的visibility为0,否则就是1。这样0和1的突变在图像边缘处就表现为锯齿。


    PCF方法

    为了解决这个问题,一种通常的方法是使用PCF(percentage-closer filtering)。它的基本思想就是避免visibility从0到1的突变,它的基本实现是,当把某一fragment转换到阴影空间(也可以说是shadow texture上对应的某一个像素)时,visibility的取值由以该像素为中心的某一区域内一些采样点的visibility乘以它们的相对于中心点的百分比来决定的。当这个区域越大,采样点越多,它的边缘模糊效果就越好。通常简单的实现是,在生成shadow texture的时候采用线性插值,并在渲染时判断某fragment是否在阴影中时,对其在shadow texture上对应的像素的周围固定的若干像素(如取其左上、右上、左下、右下四个像素)进行采样,最后取平均值来模拟实现soft shadow。

    但这个方法有几个缺点,一个是得到的边缘的blur效果不是那么明显,它是以采样区域的大小和采样点的数目决定的,但这势必会带来性能上的下降;另一个是对于一些完全在阴影里或者完全在阴影外面的点来说,这些采样完全是浪费的,因为所有采样点肯定要么是1,要么是0。而随机采样就是为了解决这两个问题而出现的。


    随机采样

    顾名思义,它的采样是随机的,如下图所示。


    上图显示的是一张shadow texture,上面的每一个像素都对应了一个visibility,取值为0或1。我们假设当前需要处理的fragment对应到shadow texture上后是十字架中心的那个像素点(下面简称为中心点)。现在我们的采样点来自它周围那些画“X ”的所有点,最后,该fragment的visibility就是这些采样点的visibility的均值。现在的问题是,这些采样点纹理坐标应该如何确定。我们假设中心点的纹理坐标是知道的,那么问题转化为,如何确定这些采样点的纹理坐标相对于中心点的偏移量。还有一个问题,就是对于不同的中心点,它们对应的采样点的偏移量是否一样。这里我们没有真正完全随机,也就是说,我们有一些候选的随机坐标组(这些坐标在一开始是随机生成的,每一组包含了随机采样所需的所有采样点偏移坐标),当需要采样时,我们从这些候选的随机坐标组中选择一组进行计算。当然,我们可以完全随机,也就是说计算每一个中心点的visibility时,它的所有采样点都在一定区域内随机选取,但是这样的代价是巨大的,因为每个fragment都需要重新计算采样点的坐标偏移。

    再看这张图,我们发现所有的采样点包含在一个圆内,并且被分为了8个区域,每个区域随机取一个点,这就是我们算法的基本思想。这里我们引入两个变量,sampleU和sampleV,sampleU表示的圆被直线分割的区域数,sampleV表示圆环的个数,那么采样点的个数就是sampleU*sampleV。拿上面这张图来说,它的sampleU和sampleU都是4,而下面这张图sampleU为8,sampleV为6,所以它共有8*6 = 48个采样点。(好吧,请原谅它这么丑。。)


    前面所过,我们需要事先生成一些候选的采样偏移坐标组,然后把它们存储起来,在计算时再读取它们。这是通过一张三维纹理贴图来实现的。我们在引入一个vec3类型的变量OffsetTexSize,它定义了该三维纹理的width、height以及depth的大小,那么width*height就是我们候选坐标组的个数,而depth的值是sampleU*sampleV除以2。又没懂吧,我们看一下三维纹理的存储。

    下图中的s t r分别对应我们之前说的width height 和depth,我们可以理解为,每一个小正方体存储了一个类型为vec4值,也就是该三维纹理坐标为(s, t, r)的点对应的值。而类似图中红色部分的一组正方体则存储了一个候选坐标组。这样的一组小正方体组共有width*height组,因此候选坐标组的个数为width*height。那么,depth值(也就是每一组小正方体的个数)不是因为等于sampleU*sampleV也就是采样点的个数吗?为什么是等于采样点总数的一半呢?这是因为,我们之前说过每个小正方体存储的是一个vec4类型的数据,一个vec4数据可以存储两个坐标,因此一个小正方体内就可以存储两个采样点偏移坐标,所以只需一半就可以存储所有的采样点偏移坐标。


    这样,坐标组的存储问题就解决了。剩下的问题是,如何生成这些坐标组。我们依旧假设sampleU=sampleV=4,那么其中一组偏移坐标的生成过程如下图。


    对于坐标为(u,v)的采样点,转换到最右图中,对应的就是从外往里数第v层圆环、从x轴正方向逆时针数第u个小区域内的点。它的计算公式为:


    其中Wx和Wy是真正偏移坐标。

    该三维纹理生成过程的C++程序如下:

    void SceneJitter::buildJitterTex()
    {
        int size = jitterMapSize;
        int samples = samplesU * samplesV;
        int bufSize = size * size * samples * 2;
        float *data = new float[bufSize];
    
        for( int i = 0; i < size; i++ ) {
            for(int j = 0; j < size; j++ ) {
                for( int k = 0; k < samples; k += 2 ) {
                    int x1,y1,x2,y2;
                    x1 = k % (samplesU);
                    y1 = (samples - 1 - k) / samplesU;
                    x2 = (k+1) % samplesU;
                    y2 = (samples - 1 - k - 1) / samplesU;
    
                    vec4 v;
                    // Center on grid and jitter
                    v.x = (x1 + 0.5f) + jitter();
                    v.y = (y1 + 0.5f) + jitter();
                    v.z = (x2 + 0.5f) + jitter();
                    v.w = (y2 + 0.5f) + jitter();
    
                    // Scale between 0 and 1
                    v.x /= samplesU;
                    v.y /= samplesV;
                    v.z /= samplesU;
                    v.w /= samplesV;
    
                    // Warp to disk
                    int cell = ((k/2) * size * size + j * size + i) * 4;
                    data[cell+0] = sqrtf(v.y) * cosf( TWOPI * v.x );
                    data[cell+1] = sqrtf(v.y) * sinf( TWOPI * v.x );
                    data[cell+2] = sqrtf(v.w) * cosf( TWOPI * v.z );
                    data[cell+3] = sqrtf(v.w) * sinf( TWOPI * v.z );
                }
            }
        }
    
        glActiveTexture(GL_TEXTURE1);
        GLuint texID;
        glGenTextures(1, &texID);
    
        glBindTexture(GL_TEXTURE_3D, texID);
        glTexImage3D(GL_TEXTURE_3D, 0, GL_RGBA32F, size, size, samples/2, 0, GL_RGBA, GL_FLOAT, data);
        glTexParameteri(GL_TEXTURE_3D, GL_TEXTURE_MAG_FILTER, GL_NEAREST);
        glTexParameteri(GL_TEXTURE_3D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);
    
        delete [] data;
    }
    
    // Return random float between -0.5 and 0.5
    float SceneJitter::jitter() {
        return ((float)rand() / RAND_MAX) - 0.5f;
    }

    解释一下。它首先利用两个嵌套的for循环来初始化第(i,j)个采样点偏移坐标组。最里面的嵌套循环用来初始化该组的所有采样点偏移坐标,因为纹理上的每个点可以存储两个坐标,因此k的自增值为2。它的生成顺序都从V的坐标最大值和U的坐标最小值开始,也就是说,从圆的最外一圈圆环、离x轴正方向最近的区域内的采样点开始,逆时针方向、一圈一圈生成。这样做有一个好处,就是在fragment shader中,我们可以先采样前四个点,也就是最外面一层圆环内所有的采样点,如果计算得出的visibility是0或1,我们可以认为该点要么完全在阴影内,要么完全在阴影外,那么后面的采样就不需要再进行了,这就避免了之前提到了无用采样。

    其对应的fragment shader中的关于阴影计算的部分如下:

    void shadeWithShadow()
    {
        vec3 ambient = Light.Intensity * Material.Ka;
        vec3 diffAndSpec = phongModelDiffAndSpec();
    
        ivec3 offsetCoord;
        offsetCoord.xy = ivec2( mod( gl_FragCoord.xy, OffsetTexSize.xy ) );
    
        float sum = 0.0;
        int samplesDiv2 = int(OffsetTexSize.z);
        vec4 sc = ShadowCoord;
    
        for( int i = 0 ; i < 4; i++ ) {
            offsetCoord.z = i;
            vec4 offsets = texelFetch(OffsetTex,offsetCoord,0) * Radius * ShadowCoord.w;
    
            sc.xy = ShadowCoord.xy + offsets.xy;
            sum += textureProj(ShadowMap, sc);
            sc.xy = ShadowCoord.xy + offsets.zw;
            sum += textureProj(ShadowMap, sc);
        }
        float shadow = sum / 8.0;
    
        if( shadow != 1.0 && shadow != 0.0 ) {
            for( int i = 4; i < samplesDiv2; i++ ) {
                offsetCoord.z = i;
                vec4 offsets = texelFetch(OffsetTex, offsetCoord,0) * Radius * ShadowCoord.w;
    
                sc.xy = ShadowCoord.xy + offsets.xy;
                sum += textureProj(ShadowMap, sc);
                sc.xy = ShadowCoord.xy + offsets.zw;
                sum += textureProj(ShadowMap, sc);
            }
            shadow = sum / float(samplesDiv2 * 2.0);
        }
    
        FragColor = vec4(diffAndSpec * shadow + ambient, 1.0);
    
        // Gamma correct
        FragColor = pow( FragColor, vec4(1.0 / 2.2) );
    }


  • 相关阅读:
    TweenMax_API介绍
    正则表达式基础讲解
    CSS3 calc()的使用
    WebGL框架 -- three.js
    CSS3 box-sizing属性
    prefixfree.js_无前缀脚本
    css样式—字体垂直、水平居中
    JQuery解析json数据
    移动Web开发规范
    Ajax与json在前后端中的细节解惑
  • 原文地址:https://www.cnblogs.com/xiaowangba/p/6314724.html
Copyright © 2020-2023  润新知