【机器学习实战】PCA

1、简介html

2、Numpy中实现PCApython

from numpy import *

'''
10.235186	11.321997
10.122339	11.810993
9.190236	8.904943
9.306371	9.847394
8.330131	8.340352
10.152785	10.123532
10.408540	10.821986
...
...
'''
def loadDataSet(fileName, delim='\t'):
    fr = open(fileName)
    stringArr = [line.strip().split(delim) for line in fr.readlines()]
    datArr = [map(float,line) for line in stringArr]
    return mat(datArr)

def pca(dataMat, topNfeat=9999999):
    meanVals = mean(dataMat, axis=0)                    #计算列均值
    print meanVals                                      # [[ 9.06393644  9.09600218]]
    print '======'
    meanRemoved = dataMat - meanVals #remove mean       # 每一列都减去均值
    covMat = cov(meanRemoved, rowvar=0)                 # 计算新矩阵(减去均值)协方差
    print covMat                                        # [
                                                            [ 1.05198368  1.1246314 ]
                                                            [ 1.1246314   2.21166499]
                                                          ]
                                                          
                                                        #协方差
    print '======'
    eigVals,eigVects = linalg.eig(mat(covMat))          #计算协方差矩阵的特征值和特征向量
    print eigVals                                       # [ 0.36651371  2.89713496]
    print '======'
    print eigVects                                      #  [
                                                            [-0.85389096 -0.52045195]
                                                            [ 0.52045195 -0.85389096]
                                                           ]  
    print '======'
    eigValInd = argsort(eigVals)                        #按照特征值从大到小排序。选择topN
    eigValInd = eigValInd[:-(topNfeat+1):-1]  
    redEigVects = eigVects[:,eigValInd]               
    print redEigVects
    print '======'                                      #[
                                                            [-0.52045195]
                                                            [-0.85389096]
                                                         ]
    lowDDataMat = meanRemoved * redEigVects             # N x 2  * 2 x 1 ==> N x 1 
                                                          即把N x 2的矩阵转化成N x 1 的矩阵,维度降到1  
    reconMat = (lowDDataMat * redEigVects.T) + meanVals
    return lowDDataMat, reconMat

http://www.cnblogs.com/chaosimple/p/3182157.html spa

均值: mean(X) = (x0 + x1 + ... + xn) / ncode

标准差:std = Math.sqrt([x0 - mean(x)]^2/(n-1),2)htm

方差:var=[x0 - mean(x)]^2/(n-1)blog


好比两个集合[0,8,12,20]、[8,9,11,12] 均值都是10.可是两个集合的差异很大。计算两个标准差,前者是8.3和后者是1.8.排序

显示后者比较集中。标准差描述了数据的“散布度”。之因此除以n-1而不是n。是由于能使咱们以较小的样本更好的逼近整体的标准差。即“无偏估计”ip


为何须要协方差?rem

标准差和方差通常是用来描述一维的数据。可是现实生活中,咱们经常遇到含有二维数据的数据集。最简单的是你们上学免不了的统计多个学科的考试成绩。多维数据之间的关系。协方差就是这样一种度量两个随机变量关系的统计量get

var(X) = {Math.pow(xi-mean(X),2)}/(n-1) = {xi-mean(X)}{xi-mean(X)}/(n-1)

仿照方差的定义:

cov(X,Y)= {xi-mean(X)}{yi-mean(Y)}/(n-1)

来度量各个维度偏离其均值的程度。

协方差结果的意义:

若是是正值,则说明二者是正相关,若是结果是负值,则说明二者是负相关。若是是0,表示二者没有关联,相互独立。


多维协方差:矩阵来表示

    cov(x,x) cov(x,y) cov(x,z)

C=cov(y,x) cov(y,y) cov(y,z)      ===> 可见协方差矩阵是一个对称矩阵,并且对角线是各个维度的方差。 是3*3

    cov(z,x) cov(z,y) cov(z,z)

相关文章
相关标签/搜索