• SVD


    PCA降维的大致思想就是: 挑选特征明显的、显得比较重要的信息保留下来

    那么关键就是【特征明显的,重要的信息】如何选择? 选择标准有两个:
    1: 同一个维度内的数据,方差大的比较明显,因为方差大表示自己和平均水平差异大,有个性,降维后也最可能分的开~
    2: 两个不同维度间关联度越小越好,因为关联度小表示这两个维度表征共同信息的量比较少,最理想就是两个维度不相关,相关度为0(相关度可以用协方差cov(a,b)表示),在线性空间内表现为两个维度正交~

    协方差矩阵的主对角线和其余元素正好可以分别表示方差和协方差,而根据两条标准又很容易想到求特征值和特征向量,推导过程

    ------------------------------------------------------------------------------------------------------------------

    下面说一下为啥还有SVD,上面我们说PCA针对的是协方差矩阵C,但你得知道协方差矩阵是个方阵啊,难道不是方阵我们就不资瓷么?? 所以就有了SVD~~

    大概可以把SVD看作是对非方阵做PCA处理的一种方式啦,毕竟两者的套路都差不多,分解出特征值(SVD里是奇异值,数据XX‘的特征值的平方根),挑比较大的特征值对应的特征向量构成投影矩阵,然后做线性变换(将数据X投影到低维空间)

    SVD分解出的左右两个矩阵表达的信息是不一样的,比如常见的推荐系统里一般会分解出用户信息和商品信息两个矩阵

    任意一个M*N的矩阵A(M行*N列M>N),可以被写成三个矩阵的乘积:

    1. U:(M行M列的列正交矩阵)---用户信息

    2. S:(M*N的对角线矩阵,矩阵元素非负)

    3. V:(N*N正交矩阵的倒置)---商品信息

    即 A=U*S*V'(注意矩阵V需要倒置)

    直观地说:

    假设我们有一个矩阵,该矩阵每一列代表一个user,每一行代表一个item。

    svd-recsys

    如上图,ben,tom….代表user,season n代表item。

    矩阵值代表评分(0代表未评分):

    如 ben对season1评分为5,tom对season1 评分为5,tom对season2未评分。

    机器学习和信息检索:

    机器学习的一个最根本也是最有趣的特性是数据压缩概念的相关性。

    如果我们能够从数据中抽取某些有意义的感念,则我们能用更少的比特位来表述这个数据。

    从信息论的角度则是数据之间存在相关性,则有可压缩性。

    SVD就是用来将一个大的矩阵以降低维数的方式进行有损地压缩。

    降维:

    下面我们将用一个具体的例子展示svd的具体过程。

    首先是A矩阵。

    A =
    
         5     5     0     5
         5     0     3     4
         3     4     0     3
         0     0     5     3
         5     4     4     5
         5     4     5     5
    

    (代表上图的评分矩阵)

    使用matlab调用svd函数:

    [U,S,Vtranspose]=svd(A)
    
    U =
       -0.4472   -0.5373   -0.0064   -0.5037   -0.3857   -0.3298
       -0.3586    0.2461    0.8622   -0.1458    0.0780    0.2002
       -0.2925   -0.4033   -0.2275   -0.1038    0.4360    0.7065
       -0.2078    0.6700   -0.3951   -0.5888    0.0260    0.0667
       -0.5099    0.0597   -0.1097    0.2869    0.5946   -0.5371
       -0.5316    0.1887   -0.1914    0.5341   -0.5485    0.2429
    
    S =
       17.7139         0         0         0
             0    6.3917         0         0
             0         0    3.0980         0
             0         0         0    1.3290
             0         0         0         0
             0         0         0         0
    
    Vtranspose =
       -0.5710   -0.2228    0.6749    0.4109
       -0.4275   -0.5172   -0.6929    0.2637
       -0.3846    0.8246   -0.2532    0.3286
       -0.5859    0.0532    0.0140   -0.8085
    

    分解矩阵之后我们首先需要明白S的意义。

    可以看到S很特别,是个对角线矩阵。

    每个元素非负,而且依次减小,具体要讲明白元素值的意思大概和线性代数的特征向量,特征值有关。

    但是可以大致理解如下:

    在线性空间里,每个向量代表一个方向。

    所以特征值是代表该矩阵向着该特征值对应的特征向量的方向的变化权重。

    所以可以取S对角线上前k个元素。

    当k=2时候即将S(6*4)降维成S(2*2)

    同时U(6*6),Vtranspose(4*4)相应地变为 U(6*2),Vtranspose(4*2).

    如下图(图片里的usv矩阵元素值和我自己matlab算出的usv矩阵元素值有些正负不一致,但是本质是相同的):

    svd-recsys

    此时我们用降维后的U,S,V来相乘得到A2

    A2=U(1:6,1:2)*S(1:2,1:2)*(V(1:4,1:2))' //matlab语句
    
    A2 =
    
        5.2885    5.1627    0.2149    4.4591
        3.2768    1.9021    3.7400    3.8058
        3.5324    3.5479   -0.1332    2.8984
        1.1475   -0.6417    4.9472    2.3846
        5.0727    3.6640    3.7887    5.3130
        5.1086    3.4019    4.6166    5.5822
    

    此时我们可以很直观地看出,A2和A很接近,这就是之前说的降维可以看成一种数据的有损压缩。

    接下来我们开始分析该矩阵中数据的相关性。

    我们将u的第一列当成x值,第二列当成y值。即u的每一行用一个二维向量表示,同理v的每一行也用一个二维向量表示。

    如下图:

    svd-recsys

    从图中可以看出:

    Season5,Season6特别靠近。Ben和Fred也特别靠近。

    同时我们仔细看一下A矩阵可以发现,A矩阵的第5行向量和第6行向量特别相似,Ben所在的列向量和Fred所在的列向量也特别相似。

    所以从直观上我们发现U矩阵和V矩阵可以近似来代表A矩阵,换据话说就是将A矩阵压缩成U矩阵和V矩阵,至于压缩比例得看当时对S矩阵取前k个数的k值是多少。

    到这里,我们已经完成了一半。

    寻找相似用户:

    依然用实例来说明:

    我们假设,现在有个名字叫Bob的新用户,并且已知这个用户对season n的评分向量为:[5 5 0 0 0 5]。(此向量为列向量)

    我们的任务是要对他做出个性化的推荐。

    我们的思路首先是利用新用户的评分向量找出该用户的相似用户。

    svd-recsys

    如上图(图中第二行式子有错误,Bob的转置应为行向量)。

    对图中公式不做证明,只需要知道结论,结论是得到一个Bob的二维向量,即知道Bob的坐标。

    将Bob坐标添加进原来的图中:

    svd-recsys

    然后从图中找出和Bob最相似的用户。

    注意,最相似并不是距离最近的用户,这里的相似用余弦相似度计算。(关于相似度还有很多种计算方法,各有优缺点)

    即夹角与Bob最小的用户坐标。

    可以计算出最相似的用户是ben。

    接下来的推荐策略就完全取决于个人选择了。

    这里介绍一个非常简单的推荐策略:

    找出最相似的用户,即ben。

    观察ben的评分向量为:【5 5 3 0 5 5】。

    对比Bob的评分向量:【5 5 0 0 0 5】。

    然后找出ben评分过而Bob未评分的item并排序,即【season 5:5,season 3:3】。

    即推荐给Bob的item依次为 season5 和 season3。

    最后还有一些关于整个推荐思路的可改进的地方:

    1.

    svd本身就是时间复杂度高的计算过程,如果数据量大的情况恐怕时间消耗无法忍受。 不过可以使用梯度下降等机器学习的相关方法来进行近似计算,以减少时间消耗。

    2.

    相似度计算方法的选择,有多种相似度计算方法,每种都有对应优缺点,对针对不同场景使用最适合的相似度计算方法。

    3.

    推荐策略:首先是相似用户可以多个,每个由相似度作为权重来共同影响推荐的item的评分。

  • 相关阅读:
    不使用库函数,编写函数int strcmp(char *source, char *dest) 相等返回0,不等返回-1【转】
    atol实现【转】
    atol的实现【转】
    关于内存中栈和堆的区别(非数据结构中的堆和栈,区别)【转】
    ubuntu下安装android模拟器genymotion【转】
    buntu下命令行安装jdk,android-studio,及genymotion虚拟机来进行android开发【转】
    Ubuntu下安装Android studio【转】
    C++模板(二)【转】
    【转】iOS中设置导航栏标题的字体颜色和大小
    【转】Java 截取字符串
  • 原文地址:https://www.cnblogs.com/ylHe/p/9210925.html
Copyright © 2020-2023  润新知