• Iterative Quantization,ITQ


    Abstract

    针对大规模的图像检索问题,论文提出了一个高效的ITQ算法。该算法先将中心化后的数据映射到超立方体的顶点上,再通过优化过程寻找一个旋转矩阵,使得数据点经过旋转后,与超立方体的顶点数据具有最小的量化误差。ITQ算法涉及到了multi-class spectral clustering(不懂)以及Orthogonal Procrustes problem,且可以通过PCA(无监督)或CCA(监督)的方法事先对数据进行降维。该方法的实验结果优于大部分start-of-the-art方法。

    1. Introduction

    一个高效的二值编码学习方法应具有以下特点:(1)码长足够短,内存才不会占用过大;(2)应该具有局部敏感性,即原始空间相似的两个数据点在二值空间也应具有较近的汉明距离;(3)学习和查询过程效率也足够高。

    在很多哈希方法中,初始的操作都是对数据进行PCA降维。但是每个特征维度所具备的方差是不同的,高方差的特征方向往往具有更多的信息,如果对所有方向都进行相同的编码(亦或要求向量间正交),那么算法有时会具有更差的表现。SSH算法通过放松对hash函数的正交限制得到了不错的表现,而在ITQ算法中并没有显式得对hash函数添加正交限制。算法初始也是进行PCA降维,然后随机初始化一个旋转矩阵,通过最小化量化误差的过程寻找到矩阵矩阵(R^*),从而得到最终的映射函数。

    2. Unsupervised Code Learning

    接下来对文章用到的符号表示进行声明:

    (X∈R^{n*d}),为数据矩阵,并且对其进行中心化预处理0

    (B = sgn(XW)),W为映射函数,sgn为符号函数,B表示X经过映射后的数据,在二值超立方体上的映射的数据。

    (V = XW),算法的目标是最小化量化误差(||sgn(V) - V||),并令(W^*)表示最优解。假设R为旋转矩阵,因为旋转矩阵只改变方向不改变映射关系,因此(W = W^* R)依然为算法的最优解。据此可得到量化损失函数为:

    [Q(B,R) = |B - VR|_F^{2}-------(1) ]

    在实验中,发现对旋转矩阵R进行随机初始化,可以得到不错的效果。接下来,我们利用ITQ算法进行k(通常为50)次迭代,迭代过程分为两个步骤:

    固定R,对B进行更新

    通过对(Q(B,R))公式的推导,我们得到最小化(Q(B,R))的过程等同于最大化(tr(BR^TV^T) = sum_{i=1}^n sum_{j=1}^cB_{ij}V^*_{ij}),其中(V^* = VR)。显然,因为B的取值只有-1和1,为使得该式最大,应使得V为正值时对应的B为1,V为负值时对应的B为-1。此外,对原始数据(X)的尺度进行改变不会影响到B或R的最优值,因此我们实现对数据进行中心化处理对实验结果没有影响。

    固定B,对R进行更新

    在此情况下,目标公式(1)就变成了典型的Orthogonal Procrustes problem,该问题的求解过程可以参考wiki百科。在本文中,利用SVD分解,使得(B^TV = SOmega S^T),再令(R = SS^T),便可求解。

    3. Evaluation of Unsupervised Code Learning

    数据集

    • CIFAR:包括64800个数据,11类。

    • Tiny image dataset:包括580000个数据,分别对应388个Internet search key words。是以二进制文件形式存储的,每个数据文件包括图片本身、与图片相关的元数据(文件名,使用的搜索引擎,排名等)、每个图片的Gist描述符。

    评估方案

    • 第一个评估方法使用欧几里得近邻。在该方法中没有用到类标签的信息。对于每一个查询点,将其与其他数据点的距离进行升序排序,对于距离最近的前50个数据点,只要距离小于一个事先设定的阙值,便认为查询的结果是正确的,否则即为错误的查询结果。然后通过计算错误和正确的比例来得到精度和召回率。
    • 第二个评估方法使用类标签。对每个查询点,得到对应top500的图像数据,然后通过计算top500中类标签和查询点相同所占的比例得到精度,再结合数据集中和查询点标签相同的所有数据点的数量得到召回率。

    论文比较了PCA-RR、PCA-ITQ等与其他baseline方法在两种评估尺度下的表现:

    屏幕快照 2018-10-06 下午10.43.41

    在CIFAR下的实验结果表明,在两种评估方案下,PCA-ITQ算法的表现基本都优于其他baseline。除了在256-bits时,SKLSH在第一种量度下的表现最好,但是SKLSH在第二种量度下的表现却很差。由此可以看出基于PCA的方法可以很好得保留原始数据的语义一致性。

    显然,无监督学习的方法(目标函数直接对距离进行优化)在第一种评估尺度下表现优于监督学习的方法,而在第二种评估尺度下,监督学习有效得利用了类标签的信息,因此表现普遍优于无监督学习方法。因此实验结果表明,欧式距离更近并不等同于更一致的语义信息。

    4. Leveraging Label Information

    RR和ITQ可以利用任何基于正交的投影方法。PCA利用一种无监督的方法进行降维,而CCA结合了数据中的标签进行,进行有监督得降维,从而得到了更好的实验结果。

    因为CIFAR的类标签时人为标注的,较为“clean”,而Tiny image dataset的数据是互联网自动产生的,较为“noisy”。从实验结果可以看出,利用clean数据训练的CCA-ITQ具有最优的表现,而利用noisy数据训练的CCA-ITQ同样也比PCA-ITQ得到了很大的提升。

  • 相关阅读:
    jquery笔记
    css选择器
    Linq 巧用 Max,Sum
    Linq Aggregate
    Linq 对象的比较 Contains,Max
    Linq SelectMany 交叉连接
    JQ 标签相关知识
    C# HttpClient设置cookies的两种办法 (转发)
    使用 HttpClient 请求 Web Api
    MySQL 避免重复数据的批量插入与批量更新
  • 原文地址:https://www.cnblogs.com/CSLaker/p/9723119.html
Copyright © 2020-2023  润新知