奇异值分解在数据降维中有着诸多应用,在机器学习中也是满地可见。它跟特征值分解一样,都是提取矩阵最重要的特征。
1)特征值
向量v是矩阵A的特征向量,则可以表示成:Av = λv
λ为特征向量v对应的特征值,一个矩阵的特征向量是一组正交向量。特征值分解是将一个矩阵分解成 A = Q∑Q-1
Q是矩阵A对应的特征向量组,∑是一个对角矩阵,每一个对角线上的元素就是一个特征值。
2)奇异值分解
奇异值分解在数据降维中有着诸多应用,在机器学习中也是满地可见。它跟特征值分解一样,都是提取矩阵最重要的特征。
1)特征值
向量v是矩阵A的特征向量,则可以表示成:Av = λv
λ为特征向量v对应的特征值,一个矩阵的特征向量是一组正交向量。特征值分解是将一个矩阵分解成 A = Q∑Q-1
Q是矩阵A对应的特征向量组,∑是一个对角矩阵,每一个对角线上的元素就是一个特征值。
2)奇异值分解