奇异值分解(SVD)原理与在降维中的应用(转载)

奇异值分解(SVD)原理与在降维中的应用 回顾特征值和特征向量    我们首先回顾下特征值和特征向量的定义如下: A x = λ x Ax=\lambda x Ax=λx 其中A是一个 n × n n \times n n×n的实对称矩阵, x x x是一个 n n n维向量,则我们说 λ \lambda λ是矩阵A的一个特征值,而 x x x是矩阵A的特征值 λ \lambda λ所对应的特征向
相关文章
相关标签/搜索