• selective search算法


    目标检测任务中由于我们事先不知道需要检测哪个类别,因此第一张图的桌子、瓶子、餐具都是一个个候选目标,而餐具包含在桌子这个目标内,勺子又包含在碗内。这张图展示了目标检测的层级关系以及尺度关系,那我们如何去获得这些可能目标的位置呢。

    在selective search算法之前,在图片上使用穷举法或者滑动窗口选出所有物体可能出现的区域框,就是在原始图片上进行不同尺度不同大小的滑窗,获取每个可能的位置。而这样做的缺点也显而易见,复杂度太高,产生了很多的冗余候选区域,而且由于不可能每个尺度都兼顾到,因此得到的目标位置也不可能那么准。

     selective search算法不使用暴力方法,而是用候选区域方法(region proposal method)创建目标检测的感兴趣区域(ROI)。在选择性搜索(selective search,SS)中,我们可以先利用基于图的图像分割的方法得到小尺度的区域,然后一次次合并得到大的尺寸。考虑所有特征,例如颜色、纹理、大小等,同时照顾下计算复杂度。

    在介绍Selective Search之前,先说明一下需要考虑的问题:

    • 适应不同尺度(Capture All Scales):穷举搜索通过改变窗口大小来适应物体的不同尺度,选择搜索同样无法避免这个问题。算法采用图像分割以及使用一种层次算法有效地解决了这个问题
    • 多样化(Diversification):单一的策略无法应对多种类别的图像,使用颜色、纹理、大小等多种策略对分割好的区域进行合并
    • 速度快

    输入:一张图片
    输出:候选的目标位置集合
    算法:
    利用切分方法得到候选的区域集合R = {r1,r2,…,rn}
    初始化相似集合S = ϕ
    foreach 遍历邻居区域对 (ri,rj) do
    计算相似度s(ri,rj)
    S = S ∪ s(ri,rj)
    while S not=ϕ do
    从s中得到最大的相似度s(ri,rj)=max(S)
    合并对应的区域rt = ri ∪ rj
    移除ri对应的所有相似度:S = Ss(ri,r*)
    移除rj对应的所有相似度:S = Ss(r*,rj)
    计算rt对应的相似度集合St
    S = S ∪ St
    R = R ∪ rt
    L = R中所有区域对应的边框
    -------算法解读参考 墨麟非攻

    首先通过基于图的图像分割方法初始化原始区域,就是将图像分割成很多很多的小块,使用贪心策略,计算每两个相邻区域的相似度,然后每次合并最相似的两块,直至最终只剩下一块完整的图片。然后这其中每次产生的图像块包括合并的图像块我们都保存下来,这样就得到图像的分层表示。

    保持多样性的策略

    区域合并采用了多样性的策略,如果简单采用一种策略很容易错误合并不相似的区域,比如只考虑纹理时,不同颜色的区域很容易被误合并。选择性搜索采用三种多样性策略来增加候选区域以保证召回:

    • 多种颜色空间,考虑RGB、灰度、HSV及其变种

    • 多种相似度度量标准,既考虑颜色相似度,又考虑纹理、大小、重叠情况等
    • 通过改变阈值初始化原始区域,阈值越大,分割的区域越少

    a.颜色空间转换

    通过色彩空间转换,将原始色彩空间转换到多达八种色彩空间。也是为了考虑场景以及光照条件等,主要应用于图像分割算法中原始区域的生成(两个像素点的相似度计算时,计算不同颜色空间下的两点距离)。

    主要使用的颜色空间有:

    1)RGB

    2)灰度I

    3)Lab

    4)rgI(归一化的rg通道加上灰度)

    5)HSV

    6)rgb(归一化的RGB)

    7)C

    8)H(HSV通道的H)

    b.区域相似度计算

    我们在计算多种相似度的时候,都是把单一相似度的值归一化到[0, 1]之间,1表示两个区域之间相似度最大

    • 颜色相似度

    • 纹理相似度

    • 有限合并小的区域

    • 区域的合适度距离

    • 合并上面四种相似度

    给区域打分

    通过上述步骤,我们可以得到很多区域,但是并不是每个区域作为目标的可能性都是相同的,我们要进行筛选。

    给予最先合并的图片块较大的权重,比如最后一块完整图像权重为1,倒数第二次合并的区域权重为2,以此类推。但是当我们策略很多,多样性很多的时候,权重就会有太多的重合,这样排序就不太方便。我们可以给他们乘以一个随机数,然后对于相同的区域多次出现的也叠加下权重,毕竟多个方法都说你是目标,也是有理由的嘛。这样我们就得到所有区域的目标分数,也就可以根据自己的需要选择多少个区域了。

    选择性搜索性能评估

    自然地,通过算法计算得到的包含物体的Bounding Boxes与真实情况(ground truth)的窗口重叠越多,那么算法性能就越好。这是使用的指标是平均最高重叠率ABO(Average Best Overlap)。对于每个固定的类别c,每个真实情况(ground truth)表示为$g_{i}^{c} in G^{c}$,令计算得到的位置假设L中的每个值$l_{j}$,那么 ABO的公式表达为:

    $mathrm{ABO}=frac{1}{left|G^{c} ight|} sum_{g_{i}^{c} in G^{c}} max _{l_{j} in L}$ Overlap $left(g_{i}^{c}, l_{j} ight)$

     重叠率的计算方式:
    $operatorname{Overlap}left(g_{i}^{c}, l_{j} ight)=frac{operatorname{area}left(g_{i}^{c} ight) cap operatorname{area}left(mathrm{l}_{mathrm{j}} ight)}{operatorname{area}left(g_{i}^{c} ight) cup operatorname{area}left(mathrm{l}_{mathrm{j}} ight)}$

     上面结果给出的是一个类别的ABO,对于所有类别下的性能评价,很自然就是使用所有类别的ABO的平均值MABO(Mean Average Best Overlap)来评价。

    a.单一策略评估

    我们可以通过改变多样性策略中的任何一种,评估选择性搜索的MABO性能指标。采取的策略如下:

    • 使用RGB色彩空间
    • 采用四中相似度计算的组合方式
    • 设置图像分割的阈值k=50

    b.多样性策略组合

     我们使用贪婪搜索算法,把单一策略进行组合,会获得较高的MABO,但是也会造成计算成本的增加。

     

    上图中绿色边框为对象的标记边框,红色边框为我们使用'Quality' Selective Search算法获得的Overlap最高的候选框。可以看到我们这个候选框和真实标记非常接近。

    参考代码

     我们可以通过pip安装Selective Search包

    pip install selectivesearch

    源码:https://github.com/AlpacaDB/selectivesearch

    Reference

    1.https://www.cnblogs.com/zyly/p/9259392.html

    2.图像分割—基于图的图像分割(Graph-Based Image Segmentation)(附代码)

    3.目标检测(1)-Selective Search

    4.https://github.com/AlpacaDB/selectivesearch(代码)

    5.Selective Search for Object Recognition(推荐)

    6.J.R. Uijlings, K.E. vandeSande, T. Gevers, and A.W. Smeulders. Selective search for object recognition. IJCV, 2013.

    7.https://www.cnblogs.com/gezhuangzhuang/p/10451296.html

  • 相关阅读:
    Spring事务传播机制
    关于MyBatis-Like的模糊查询,">"、"<"等需转义字符描述
    MyBatis中if
    报错(持续.....)
    爬虫报错(持续.....)
    django的timezone问题
    dispatch
    django + uwsgi + nginx 实现高并发环境部署 及 报错处理
    虚拟机问题(持续更新.......)
    Tornado
  • 原文地址:https://www.cnblogs.com/nanmi/p/13453346.html
Copyright © 2020-2023  润新知