• 浅入浅出数据结构(19)——堆排序


      在介绍优先队列的博文中,我们提到了数据结构二叉堆,并且说明了二叉堆的一个特殊用途——排序,同时给出了其时间复杂度O(N*logN)。这个时间界是目前我们看到最好的(使用Sedgewick序列的希尔排序时间复杂度为O(N4/3)),下图为两者函数图像对比,但是注意,这并不是希尔排序与堆排序的对比,只是两个大O阶函数的对比。这篇博文,我们就是要细化用二叉堆进行排序的想法,实现堆排序。

           

      在介绍优先队列的博文中(http://www.cnblogs.com/mm93/p/7481782.html)所提到的用二叉堆排序的想法可以简单地用如下代码表示:

    void HeapSort(int *src,int size)
    {
        //BuildHeap即根据所给数组建立一个二叉堆并返回
        struct BinaryHeap *h = BuildHeap(src, size);
    
        //有了二叉堆后,只需不断DeleteMax得到根结点,然后输出到目标数组即可
        //此循环结束后,src数组中就有了从小到大的顺序
        for (int i = size-1;i >=0 ;--i)
        {
            src[i] = DeleteMax(h);
        }
    }

      虽然介绍优先队列的博文中没有BuildHeap和DeleteRoot函数,但学会了二叉堆的话,这两个函数不难写出,BuildHeap其实就是Initialize函数与Insert函数的结合,而DeleteMax也和Dequeue思路相同,即删除并返回堆的根,前提是建立的堆满足任一结点均大于其孩子,即Max型堆,与介绍二叉堆时实现的Min型堆恰好相反。

     

      至此,堆排序的实现就算是完成了,但是不难发现上述实现方法有一个缺陷,就是原数组src占用了空间N,建立的堆h又占用了空间N,也就是说该实现耗费的空间是插入排序、希尔排序的两倍。那么是否存在解决这个空间问题的办法呢?答案是有,解决的办法就是:直接将原数组src改成一个二叉堆,而后每次DeleteMax,将所得原堆根放置在原堆尾,size次DeleteMax后src就会变为从小到大的顺序(执行DeleteMax后,原堆尾对于堆来说就是“废弃”的,可以用于存储“删掉的根”。希望最后顺序为有小到大是我们将DeleteMin改为DeleteMax的原因,如果需要从大到小的顺序,则应为DeleteMin)

     

      上述解决办法中最难的一环可能就是“将src改为一个二叉堆”。BuildHeap的实现简单,只需要建立一个足够大的空堆,而后不断将数据Insert即可,而Insert的思路就是“将新元素从堆尾开始进行上滤”。那么Insert的这个思路是否可以用于将数组直接改造为二叉堆呢?比如先让src[size-1]上滤,然后src[size-2]上滤……答案是不行!因为Insert的上滤前提是向“已存在的堆”插入数据,“已存在的堆”要么为空,要么处处符合堆的要求。而src数组是“一片乱”的,这个想法是不行的。

      阐述正确做法之前,我们先要明确一个不容易注意到的点:在二叉堆中,可以舍弃掉数组[0]的位置,这样可以使编程更加方便,即任一数组[i]的孩子就是数组[i*2]和数组[i*2+1],而数组[i]的父亲则是数组[i/2]。但是如果是将src直接改造为二叉堆,则不能舍弃src[0],因为我们认为src是一个“装满了”的数组。因此,将src改造为二叉堆后,任一src[i]的孩子应为src[i*2+1]与src[i*2+2],而src[i]的父亲则应为src[(i-1)/2]

      接下来我们说说将src直接改造为二叉堆的方法:令i=(size-1)/2,即src[i]为数组最后元素src[size-1]的父亲,然后令src[i]下滤,src[i]下滤结束后,令i--,重复此过程直至i为-1。

      上述方法之所以可行,是因为按i初始值为(size-1)/2,而后i--的顺序执行下滤的话,每个以src[i]为根的堆都只有src[i]是不符合堆要求的,此时只需要让src[i]下滤即可,根本思路与普通二叉堆的DeleteRoot中的下滤是一样的。

      这个方法实现起来非常简单:

    //cur即当前进行下滤的元素的下标,FilterDown即下滤之意
    void FilterDown(int *src, int cur, unsigned int size)
    {
        //先暂存下滤元素的值,避免实际交换
        int temp = src[cur];
        unsigned int child;
    
        //child初始值为src[cur]的左孩子下标
        for (child = cur * 2 + 1;child < size;child = child * 2 + 1)
        {
            //若src[cur]存在右孩子,且右孩子比左孩子大,则令child为右孩子下标,即令child为src[cur]更大的孩子的下标
            if (child < size - 1 && src[child] < src[child + 1])
                child++;
            //比较下滤元素与src[child],若小于,则令src[child]上移,否则下滤结束
            if (temp < src[child])
                src[(child - 1) / 2] = src[child];
            else
                break;
        }
        //下滤结束后的child对应的父亲即下滤元素应处的位置
        src[(child - 1) / 2] = temp;
    }
    
    void TransformToHeap(int *src, unsigned int size)
    {
        for (int i = (size - 1) / 2;i >= 0;--i)
            FilterDown(src, i, size);
    }

      解决了最难的改造二叉堆后,堆排序的剩余操作也就不难实现了:

    void HeapSort(int *src, unsigned int size)
    {
        TransformToHeap(src, size);
    
        //不断地将堆的根与堆的尾(最后一个叶子)交换,交换后新的堆根为原堆尾,令新堆根下滤。
        //此操作与堆的DeleteRoot本质相同,只是将所得原堆根放在了原堆尾处,从而利用了废弃空间
        for (int oldTail = size - 1;oldTail > 0;--oldTail)
        {
            int temp = src[0];
            src[0] = src[oldTail];
            src[oldTail] = temp;
            FilterDown(src, 0, oldTail - 1);
        }
    }

      至此,堆排序算是改善好了。接下来要讨论的问题就是,为什么堆排序时间复杂度那么好,却不如快速排序?(快速排序最坏情况为O(N2),平均为θ(N*logN))

      这个问题很难解答,因为随着DeleteMax操作,堆的内部结构一直是不稳定的。但我们可以分成三个方面来试着解释一下:

      第一,我们要明白大O阶只是一个简写的时间界,即使是1000000000*N*logN+100000000000,我们依然是写作O(N*logN),因此两个同为O(N*logN)的算法并不意味着两者时间上会很接近。套用到堆排序与快速排序中,就是堆排序虽然也是O(N*logN),但是其实际时间可能比快速排序的平均界θ(N*logN)要大得多,大多少,我不知道╮(╯_╰)╭。

      第二,从计算机的底层来说,CPU与内存之间存在缓存,缓存一般存储着最近访问的数据所在的数据块,假设来说,因为我们访问了内存中的src[100],所以CPU将src[80]到src[120]都放入了缓存,这之后如果我们访问src[80]到src[120]之间的数据就会很快,因为它们在缓存之中。但是,堆排序中相邻操作所访问的数据“距离太远了”,比如我们访问了src[100]后要访问其孩子进行比较,则我们需要访问src[201]或src[202],而它们很可能不在缓存中,因此对它们的访问会比访问缓存中的数据更慢,并且我们访问其孩子后,并不一定会与父结点进行交换,如果是这样,那此次访问就可以说是“花了大代价确定了这件事不需要做”。而在快速排序中相邻的两次访问一般访问的元素在位置上也是相邻的,进行远距离访问时都是需要进行交换操作的时候,也就是说快速排序可以比堆排序更好的利用缓存

      第三,在堆排序中,DeleteMax函数的无效比较与无效交换比例很高,怎么说呢?因为我们在拿走原堆根后,是拿原堆尾到根处,然后进行下滤的,但是直观的说,原堆尾作为“堆中较小元素”,其比原堆根的孩子要大的概率是很低的,也就是说原堆尾拿到根处几乎不用比就知道要下滤,然而我们还是得进行比较、交换。从这个角度来说,将原堆尾拿到根处下滤是做了很多无效工作的,但这又是不得不为之的,因为我们必须得保持堆的完全二叉树性质。也就是说,为了保持堆的特性,我们做了不少额外的操作。

      关于第三点,我们可以看看介绍优先队列的博文中关于堆删除操作的例子,不难看出,将原堆尾元素31从根处进行下滤,最后其还是下滤到了原有深度:

      

      最后,对大小为10000,元素随机的数组进行模拟测试显示,快速排序执行的交换操作次数比堆排序要少很多很多:

        

      

      不过,虽然我们将堆排序“狠狠地”批判了一番,其时间界依然是不错的,毕竟最坏情况也就是O(N*logN),但是在实际使用中,面对大量数据时堆排序往往是远不如快速排序的。此外,据称堆排序的实际效果甚至不如使用Sedgewick序列的希尔排序。基于上述种种原因,一般来说,我们还是按照介绍希尔排序的博文中所说的:将插入排序作为“初级排序”,希尔排序作为“中级排序”,快速排序作为“高级排序”。

      那么,作为“高级排序”的快速排序究竟是怎样的呢?我们下一篇博文将会介绍。

  • 相关阅读:
    综合疑问
    MySQL查询优化器工作原理解析
    mysql配置文件参数详解
    MySQL查看、创建和删除索引的方法
    删除maven仓库中的lastUpdate文件
    加密算法的概述
    .bat脚本基本命令语法
    spring-core中@Order和Ordered接口的源码解析说明
    spring-context中@Profile注解的源码解析说明
    spring-context中@Bean的源码解析说明和它与其他注解的结合使用
  • 原文地址:https://www.cnblogs.com/mm93/p/7562807.html
Copyright © 2020-2023  润新知