无意间想到的,有时间会补充内容。
还记得学线性代数时计算矩阵的特征值和特征向量,然后这个矩阵就可以用这个特征值和特征向量表示。
这样就可以理解成矩阵其实是多个向量拼在一起的,这样就可以将矩阵和向量建立联系。
特征值和特征向量其实就是寻求原向量组合的最简单表示,因为向量是可以分解和组合的。
为什么要用特征值和特征向量:原因是解耦合、等价变换。
PCA又是什么呢:主成分分析,就是选取特征值较大的特征向量代替原特征值和特征向量实现降维,
降维的优点是减少计算量,缺点是损失精度。
无意间想到的,有时间会补充内容。
还记得学线性代数时计算矩阵的特征值和特征向量,然后这个矩阵就可以用这个特征值和特征向量表示。
这样就可以理解成矩阵其实是多个向量拼在一起的,这样就可以将矩阵和向量建立联系。
特征值和特征向量其实就是寻求原向量组合的最简单表示,因为向量是可以分解和组合的。
为什么要用特征值和特征向量:原因是解耦合、等价变换。
PCA又是什么呢:主成分分析,就是选取特征值较大的特征向量代替原特征值和特征向量实现降维,
降维的优点是减少计算量,缺点是损失精度。