unsupervise learning-dimension reduction

文章目录 PCA Matrix Factorization Word Embedding t-SNE PCA 目标是找到一个向量w1,所有数据点x在w1上的投影,得到z1,希望得到z1的方差越大越好,即越分散越好,越分散越有利于进行数据的分类 PCA缺点:由于是非监督学习,在确定向量时,希望所有数据投影到向量上的值为离散值,但是由于数据没有label,如果数据为两个分类,那么经过降维之后,数据会混
相关文章
相关标签/搜索