• 浅谈人脸检测之Haar分类器方法


      我们要探讨的Haar分类器实际上是Boosting算法(提升算法)的一个应用,Haar分类器用到了Boosting算法中的AdaBoost算法,只是把AdaBoost算法训练出的强分类器进行了级联,并且在底层的特征提取中采用了高效率的矩形特征和积分图方法,这里涉及到的几个名词接下来会具体讨论。

             在2001年,Viola和Jones两位大牛发表了经典的《Rapid Object Detection using a Boosted Cascade of Simple Features》和《Robust Real-Time Face Detection》,在AdaBoost算法的基础上,使用Haar-like小波特征和积分图方法进行人脸检测,他俩不是最早使用提出小波特征的,但是他们设计了针对人脸检测更有效的特征,并对AdaBoost训练出的强分类器进行级联。这可以说是人脸检测史上里程碑式的一笔了,也因此当时提出的这个算法被称为Viola-Jones检测器。又过了一段时间,Rainer Lienhart和Jochen Maydt两位大牛将这个检测器进行了扩展【3】,最终形成了OpenCV现在的Haar分类器。

               AdaBoost是Freund和Schapire在1995年提出的算法,是对传统Boosting算法的一大提升。Boosting算法的核心思想,是将弱学习方法提升成强学习算法,也就是“三个臭皮匠顶一个诸葛亮”。

      Haar分类器 = Haar-like特征 + 积分图方法 + AdaBoost +级联;

      Haar分类器算法的要点如下:

      ① 使用Haar-like特征做检测。

      ② 使用积分图(Integral Image)对Haar-like特征求值进行加速。

      ③ 使用AdaBoost算法训练区分人脸和非人脸的强分类器。

      ④ 使用筛选式级联把强分类器级联到一起,提高准确率。

    二、Haar分类器的浅入浅出

    2.1 、Haar-like特征你是何方神圣?

            什么是特征,我把它放在下面的情景中来描述,假设在人脸检测时我们需要有这么一个子窗口在待检测的图片窗口中不断的移位滑动,子窗口每到一个位置,就会计算出该区域的特征,然后用我们训练好的级联分类器对该特征进行筛选,一旦该特征通过了所有强分类器的筛选,则判定该区域为人脸。

    那么这个特征如何表示呢?好了,这就是大牛们干的好事了。后人称这他们搞出来的这些东西叫Haar-Like特征。

    下面是Viola牛们提出的Haar-like特征。

      上面的任意一个矩形放到人脸区域上,然后,将白色区域的像素和减去黑色区域的像素和,得到的值我们暂且称之为人脸特征值,如果你把这个矩形放到一个非人脸区域,那么计算出的特征值应该和人脸特征值是不一样的,而且越不一样越好,所以这些方块的目的就是把人脸特征量化,以区分人脸和非人脸。

    2.2、 AdaBoost你给我如实道来!

           本节旨在介绍AdaBoost在Haar分类器中的应用,所以只是描述了它在Haar分类器中的特性,而实际上AdaBoost是一种具有一般性的分类器提升算法,它使用的分类器并不局限某一特定算法。

          上面说到利用AdaBoost算法可以帮助我们选择更好的矩阵特征组合,其实这里提到的矩阵特征组合就是我们之前提到的分类器,分类器将矩阵组合以二叉决策树的形式存储起来。

    我现在脑子里浮现了很多问题,总结起来大概有这么些个:

      (1)弱分类器和强分类器是什么?

      (2)弱分类器是怎么得到的?

      (3)强分类器是怎么得到的?

      (4)二叉决策树是什么?

    Ø  弱学习:就是指一个学习算法对一组概念的识别率只比随机识别好一点;

    Ø  强学习:就是指一个学习算法对一组概率的识别率很高。

            现在我们知道所谓的弱分类器和强分类器就是弱学习算法和强学习算法。弱学习算法是比较容易获得的,获得过程需要数量巨大的假设集合,这个假设集合是基于某些简单规则的组合和对样本集的性能评估而生成的,而强学习算法是不容易获得的,然而,Kearns和Valiant两头牛提出了弱学习和强学习等价的问题【6】并证明了只要有足够的数据,弱学习算法就能通过集成的方式生成任意高精度的强学习方法。这一证明使得Boosting有了可靠的理论基础,Boosting算法成为了一个提升分类器精确性的一般性方法。

    2.2.2、弱分类器的孵化

            最初的弱分类器可能只是一个最基本的Haar-like特征,计算输入图像的Haar-like特征值,和最初的弱分类器的特征值比较,以此来判断输入图像是不是人脸,然而这个弱分类器太简陋了,可能并不比随机判断的效果好,对弱分类器的孵化就是训练弱分类器成为最优弱分类器,注意这里的最优不是指强分类器,只是一个误差相对稍低的弱分类器,训练弱分类器实际上是为分类器进行设置的过程。至于如何设置分类器,设置什么,我们首先分别看下弱分类器的数学结构和代码结构。

    数学结构

     

           一个弱分类器由子窗口图像x,一个特征f,指示不等号方向的p和阈值Θ组成。P的作用是控制不等式的方向,使得不等式都是<号,形式方便。

         可以看出,在分类的应用中,每个非叶子节点都表示一种判断,每个路径代表一种判断的输出,每个叶子节点代表一种类别,并作为最终判断的结果。

            一个弱分类器就是一个基本和上图类似的决策树,最基本的弱分类器只包含一个Haar-like特征,也就是它的决策树只有一层,被称为树桩(stump)。

            最重要的就是如何决定每个结点判断的输出,要比较输入图片的特征值和弱分类器中特征,一定需要一个阈值,当输入图片的特征值大于该阈值时才判定其为人脸。训练最优弱分类器的过程实际上就是在寻找合适的分类器阈值,使该分类器对所有样本的判读误差最低。

    具体操作过程如下:(对比,1-10 十个数字,每个权重0.1)

    1)对于每个特征 f,计算所有训练样本的特征值,并将其排序。

    扫描一遍排好序的特征值,对排好序的表中的每个元素,计算下面四个值:

    全部人脸样本的权重的和t1;

    全部非人脸样本的权重的和t0;

    在此元素之前的人脸样本的权重的和s1;

    在此元素之前的非人脸样本的权重的和s0;

    2)最终求得每个元素的分类误差 r = min((s1 + (t0 - s0)), (s0 + (t1 - s1)))

            在表中寻找r值最小的元素,则该元素作为最优阈值。有了该阈值,我们的第一个最优弱分类器就诞生了。

    在这漫长的煎熬中,我们见证了一个弱分类器孵化成长的过程,并回答了如何得到弱分类器以及二叉决策树是什么。最后的问题是强分类器是如何得到的。

    强分类器的诞生需要T轮的迭代,具体操作如下:

    1. 给定训练样本集S,共N个样本,其中X和Y分别对应于正样本和负样本; T为训练的最大循环次数;  

    2. 初始化样本权重为1/N,即为训练样本的初始概率分布;  

    3. 第一次迭代训练N个样本,得到第一个最优弱分类器,步骤见2.2.2节

    4. 提高上一轮中被误判的样本的权重;

    5. 将新的样本和上次本分错的样本放在一起进行新一轮的训练。

    6. 循环执行4-5步骤,T轮后得到T个最优弱分类器。

    7.组合T个最优弱分类器得到强分类器,组合方式如下:

              

           相当于让所有弱分类器投票,再对投票结果按照弱分类器的错误率加权求和,将投票加权求和的结果与平均投票结果比较得出最终的结果。

    2.3、强分类器的强强联手

            至今为止我们好像一直在讲分类器的训练,实际上Haar分类器是有两个体系的,训练的体系,和检测的体系。训练的部分大致都提到了,还剩下最后一部分就是对筛选式级联分类器的训练。我们看到了通过AdaBoost算法辛苦的训练出了强分类器,然而在现实的人脸检测中,只靠一个强分类器还是难以保证检测的正确率,这个时候,需要一个豪华的阵容,训练出多个强分类器将它们强强联手,最终形成正确率很高的级联分类器这就是我们最终的目标Haar分类器。

        那么训练级联分类器的目的就是为了检测的时候,更加准确,这涉及到Haar分类器的另一个体系,检测体系,检测体系是以现实中的一幅大图片作为输入,然后对图片中进行多区域,多尺度的检测,所谓多区域,是要对图片划分多块,对每个块进行检测,由于训练的时候用的照片一般都是20*20左右的小图片,所以对于大的人脸,还需要进行多尺度的检测,多尺度检测机制一般有两种策略,一种是不改变搜索窗口的大小,而不断缩放图片,这种方法显然需要对每个缩放后的图片进行区域特征值的运算,效率不高,而另一种方法,是不断初始化搜索窗口size为训练时的图片大小,不断扩大搜索窗口,进行搜索,解决了第一种方法的弱势。在区域放大的过程中会出现同一个人脸被多次检测,这需要进行区域的合并,这里不作探讨。

    2.4 、积分图是一个加速器

            之所以放到最后讲积分图(Integral image),不是因为它不重要,正相反,它是Haar分类器能够实时检测人脸的保证。当我把Haar分类器的主脉络都介绍完后,其实在这里引出积分图的概念恰到好处。

             在前面的章节中,我们熟悉了Haar-like分类器的训练和检测过程,你会看到无论是训练还是检测,每遇到一个图片样本,每遇到一个子窗口图像,我们都面临着如何计算当前子图像特征值的问题,一个Haar-like特征在一个窗口中怎样排列能够更好的体现人脸的特征,这是未知的,所以才要训练,而训练之前我们只能通过排列组合穷举所有这样的特征,仅以Viola牛提出的最基本四个特征为例,在一个24×24size的窗口中任意排列至少可以产生数以10万计的特征,对这些特征求值的计算量是非常大的。

    而积分图就是只遍历一次图像就可以求出图像中所有区域像素和的快速算法,大大的提高了图像特征值计算的效率。

    我们来看看它是怎么做到的。

    积分图是一种能够描述全局信息的矩阵表示方法。积分图的构造方式是位置(i,j)处的值ii(i,j)是原图像(i,j)左上角方向所有像素的和:

              

    积分图构建算法:

    1)用s(i,j)表示行方向的累加和,初始化s(i,-1)=0;

    2)用ii(i,j)表示一个积分图像,初始化ii(-1,i)=0;

    3)逐行扫描图像,递归计算每个像素(i,j)行方向的累加和s(i,j)和积分图像ii(i,j)的值

    s(i,j)=s(i,j-1)+f(i,j)

    ii(i,j)=ii(i-1,j)+s(i,j)

    4)扫描图像一遍,当到达图像右下角像素时,积分图像ii就构造好了。

    积分图构造好之后,图像中任何矩阵区域的像素累加和都可以通过简单运算得到如图所示。

              

    设D的四个顶点分别为α、β、γ、δ,则D的像素和可以表示为

    Dsum = ii( α )+ii( β)-(ii( γ)+ii( δ ));

    而Haar-like特征值无非就是两个矩阵像素和的差,同样可以在常数时间内完成。

     

  • 相关阅读:
    程序员书单
    36条极简人生建议
    Nacos
    jvm详解
    22种世界500强都在用的高效工作方法,你了解几种?
    道德经39经典
    积累的力量
    JUC之线程间定制化通信
    JVM调优参考
    docker开机启动和dockercompose开机启动执行相应的各个docker容器
  • 原文地址:https://www.cnblogs.com/LaplaceAkuir/p/5848193.html
Copyright © 2020-2023  润新知