区别特征提取:通过对原始特征进行不同形式的函数映射,从而转换出一组具有代表性意义的特征(对原始的特征集合进行变化),来达到降维的目的。常见的算法有:PCA、SVD、LDA特征选择:在原始特征中选出一组最具统计意义的特征(没有对原始的特征集合进行变化),来达到降维的目的。常见的算法有:Filter、Wrapper、Embedded 联系都是对原始的数据进行降维,减少冗余特征对算法的影响。延伸降维深层次理解总的来说是对重要属性或重要样本的提取与选择。属性间的相关性计算可设置任意属性为$y$,其它属性为$X$计算两者之间的关系。常用的降维方法1.SVD奇异值矩阵分解属于无监督方法。奇异值矩阵分解的原理是将初始矩阵$A$分解为$U$、$sum $、$V^{T}$3个矩阵相乘的形式。其中$A$是一个$m imes n$的矩阵。$U$和$V^{T}$分别是$m imes m$和$n imes n$的两个酉矩阵,即$U^{T}U=I$,$V^{T}V=I$。$sum $是$m imes n$的矩阵。 $A=Usum V^{T}$ 进一步求解矩阵$U$、$sum $、$V^{T}$:由于特征值分解要求被分解的矩阵是一个方阵,所以对矩阵$U$和$V$进行求解时首先要构造一个$m imes m$的方阵和一个$n imes n$的方阵。即$AA^{T}$和$A^{T}A$。 令$left ( AA^{T} ight )u_{i}=lambda _{i}u_{i}$,其中$u_{i}=left ( u_{1},u_{2}cdots ,u_{m} ight )^{T}$。得到$AA^{T}$的$m$个特征值对应的特征向量张成的$m imes m$的矩阵空间就是$U$ 令$left ( A^{T}A ight )v_{i}=lambda _{i}v_{i}$,其中$v_{i}=left ( v_{1},v_{2}cdots ,v_{n} ight )^{T}$。得到$A^{T}A$的$n$个特征值对应的特征向量张成的的$n imes n$矩阵空间就是$V$。 公式进行推导$A=Usum V^{T}Rightarrow AV=Usum Rightarrow Av_{i}=sigma _{i}u_{i}Rightarrow sigma _{i}=Av_{i}/u_{i}$,由此可以求出每一个奇异值$sigma _{i}$,进一步可以得到矩阵$sum$。即:$sum =diagleft ( sigma _{1},sigma _{2},cdots ,sigma _{r} ight )$,其中$sigma _{i}> 0$,$left ( i=1,2,cdots ,r ight )$,$r$是矩阵的秩$r=rankleft ( A ight )$。 2.PCA主成分分析属于无监督方法。在多元统计分析中,总体$X$是一个$p$维随机向量$left ( x_{1},cdots ,x_{p} ight )$容量为$n$的一个样本$X_{1},cdots ,X_{p}$一共包括$n imes p$个数据。PCA(主成分分析)是一种常用的“降维”方法,它用$k$个不相关的主成分(即原来$p$个相关变量的线性组合构成的综合变量)来代替原来的$p$个相关变量,这$k$个主成分能够反映原变量提供的大部分信息。 显然这里的pc1所代表的$y_{1}$是数据变化最大的方向,称之为第一主成分,pc2所代表的$y_{2}$,称之为第二主成分。 寻找$X$的$p$个主成分定理:设总体$X=left ( x_{1},cdots ,x_{p} ight )^{T}$的协方差为$sum$,其特征值为$lambda _{1} geqslant lambda _{2} geqslant cdots geqslant lambda _{p} geqslant 0$,$e_{1},e_{2},cdots ,e_{p}$为对应的单位正交特征向量,则$X$的第$i$个主成分为。$y_{i}=e_{i}^{T}X=e_{i1}x_{1}+e_{i2}x_{2}+cdots +e_{ip}x_{p},i=1,cdots ,p$ (1) $varleft ( y_{i} ight )=e_{i}^{T}sum e_{i}=lambda _{i},i=1,cdots ,p$ (2) $covleft ( y_{i},y_{j} ight )=e_{i}^{T}sum e_{j}=0,i eq j$ (3) 该定理说明$X$的主成分是以$sum$的单位正交特征向量为系数的线性组合,第$i$个主成分的系数是$sum$的第$i$大特征值$lambda _{i}$对应的单位正交特征向量,而且$y_{i}$的方差等于 $lambda _{i}$。 当然我们还可证明:原变量$x_{1},cdots ,x_{p}$的方差的和等于主成分$y_{1},cdots ,y_{p}$的方差的和,即。 $sum_{i=1}^{p}varleft ( x_{i} ight )=sum_{i=1}^{p}varleft ( y_{i} ight )=sum_{i=1}^{p}varleft ( lambda _{i} ight )$ (4) 主成分的选取找到$p$个主成分之后,通常选取$kleft ( k< p ight )$个来代替原来的$p$个变量,如何确定$k$值?从方差角度看,原来的$p$个变量的总的变化等于$p$个主成分总的变化,采用以下指标 $w_{i}=frac{lambda _{i}}{sum_{j=1}^{p}lambda _{j}},i=1,cdots ,p$(5) 来度量主成分$y_{i}$概括原变量信息的大小程度,称之为主成分$y_{i}$的方差贡献率。而前$k$个$w_{i}$的和$sum_{i=1}^{k}w_{i}$称之前$k$个主成分的累计方差贡献率,$k$的大小可以由累计贡献率来确定,一般取$k$使得$sum_{i=1}^{k}w_{i}geqslant 0.8$即可。 3.LDA属于有监督方法。简介:线性判别式分析(Linear Discriminant Analysis),简称为 LDA,也称为 Fisher 线性判别,1936 年由 Ronald Fisher 提出,1996 年由 Belhumeur 引入模式识别和人工智能领域。 LDA的思想:将带上标签数据(点),通过投影(变换)的方法,投影更低维的空间。在这个低维空间中,同类样本尽可能接近,异类样本尽可能远离。 二维总体分类演示: 显然,直线$y$是$x_{1}$和$x_{2}$的线性组合,即$y=c_{1}x_{1}+c_{2}x_{2}$。一般的,设在$p$维情况下,$x$的线性组合为: $y=a^{T}x$ (1) 其中$a$为$p$维实向量,设$C_{1}$类和$C_{2}$类的均值分别为$mu _{1}$和$mu _{2}$,他们有共同的方差-协方差矩阵$sum $,那么线性组合$y=a^{T}x$的均值为: $mu _{1y}=Eleft ( ymid xin C_{1} ight )=a^{T}mu _{1}$ $mu _{2y}=Eleft ( ymid xin C_{2} ight )=a^{T}mu _{2}$ (2) 方差为: $varleft ( y ight )=varleft ( a^{T}x ight )=a^{T}sum a$ (3) 可以说$mu _{1y}$与$mu _{2y}$的距离越大的线性组合越好,可通过以下比值来进行衡量。 $frac{left ( mu _{1y}- mu _{2y} ight )^{2}}{varleft ( y ight )}=frac{left [ a^{T} left ( mu _{1} -mu _{2} ight ) ight ]^{2}}{a^{T}sum a}$ (4) 问题简化为:如何选择$a$,使得$(4)$式达到最大值。 定理:设$x$为$p$维随机向量,$y=a^{T}x$,当$a=csum{_{}}^{-1}left ( mu _{1}-mu _{2} ight )$($c eq 0$为常数)时,(4)式最大。特别的,当$c=1$时,线性函数: $y=a^{T}x=left ( mu _{1}- mu _{2} ight )^{T}sum {_{}}^{-1}x$ (5) 称为Fisher线性判别函数。 取$mu _{y}=frac{1}{2}left ( mu _{1y}+ mu _{2y} ight )=frac{1}{2}left ( mu _{1}+ mu _{2} ight )^{T}sum {_{}}^{-1}left ( mu _{1}-mu _{2} ight )$(6) 容易证明:$mu _{1y}-mu _{y}> 0,mu _{2y}-mu _{y}< 0$,于是可得Fisher线性准则:当$y=left ( mu _{1}-mu _{2} ight )^{T}sum {_{}}^{-1}xgeqslant mu _{y}$。时,判$xin C_{1}$;当$y=left ( mu _{1}-mu _{2} ight )^{T}sum {_{}}^{-1}x<mu _{y}$时,判$xin C_{2}$ 如果记$Wleft ( x ight )=left ( mu _{1} -mu _{2} ight )^{T}sum {_{}}^{-1}x-mu _{y}$,则判别准则等价于:当$Wleft ( x ight )geqslant 0$时,判$xin C_{1}$;当$Wleft ( x ight )leqslant 0$时,判$xin C_{2}$。 注意:当总体的均值和方差-协方差矩阵未知时,通常用样本均值和样本方差-协方差矩阵来估计,即用样本均值$ar{x}_{1}$和$ar{x}_{2}$分别估计$mu _{1}$和$mu _{2}$,用样本方差-协方差$S=frac{1}{n_{1}+n_{2}-2}left [ left ( n_{1} -1 ight )S_{1} +left ( n_{2}-1 ight )S_{2} ight ]$来估计$sum $,这里$S_{1}$和$S_{2}$分别是两个样本的样本方差-协方差矩阵。 4.Filter其主要思想是:对每一维的特征“打分”,即给每一维的特征赋予权重,这样的权重就代表着该维特征的重要性,然后依据权重排序。主要的方法有:Chi-squared test(卡方检验),ID3(信息增益) correlation coefficient scores(相关系数)。 ID3(信息增益)属于有监督方法。随机森林不止简单的用于分类,还可用于重要属性的筛选---增益最高的属性为最优的划分属性也是最重要的属性,可对原始数据进行降维。 5.Wrapper其主要思想是:将子集的选择看作是一个搜索寻优问题,生成不同的组合,对组合进行评价,再与其他的组合进行比较。这样就将子集的选择看作是一个是一个优化问题,这里有很多的优化算法可以解决,尤其是一些启发式的优化算法,如GA,PSO,DE,ABC等,详见“优化算法——人工蜂群算法(ABC)”,“优化算法——粒子群算法(PSO)”。主要方法有:recursive feature elimination algorithm(递归特征消除算法)。 6.Embedded其主要思想是:在模型既定的情况下学习出对提高模型准确性最好的属性。其实是讲在确定模型的过程中,挑选出那些对模型的训练有重要意义的属性。主要方法:正则化。如岭回归就是在基本线性回归的过程中加入了正则项。 |