机器学习中的归一化方法

在这里主要讨论两种归一化方法:html

一、线性函数归一化(Min-Max scaling)

线性函数将原始数据线性化的方法转换到[0 1]的范围,归一化公式以下:python

该方法实现对原始数据的等比例缩放,其中Xnorm为归一化后的数据,X为原始数据,Xmax、Xmin分别为原始数据集的最大值和最小值。算法

python实现:preprocessing.MinMaxScaler函数

二、0均值标准化(Z-score standardization)

0均值归一化方法将原始数据集归一化为均值为0、方差1的数据集,归一化公式以下:3d

其中,μ、σ分别为原始数据集的均值和方法。该种归一化方式要求原始数据的分布能够近似为高斯分布,不然归一化的效果会变得很糟糕。orm

python实现:preprocessing.StandardScalerpreprocessing.robust_scalehtm

两种归一化的应用场景:
一、在分类、聚类算法中,须要使用距离来度量类似性的时候、或者使用PCA技术进行降维的时候,第二种方法(Z-score standardization)表现更好。
二、在不涉及距离度量、协方差计算、数据不符合正太分布的时候,可使用第一种方法或其余归一化方法。好比图像处理中,将RGB图像转换为灰度图像后将其值限定在[0 255]的范围。blog

为何在距离度量计算类似性、PCA中使用第二种方法(Z-score standardization)会更好呢?咱们进行了如下的推导分析:ci

归一化方法对方差、协方差的影响:假设数据为2个维度(X、Y),首先看0均值对方差、协方差的影响:
先使用第二种方法进行计算,咱们先不作方差归一化,只作0均值化,变换后数据为get

新数据的协方差为

因为 

所以

而原始数据协方差为

所以 

作方差归一化后:

方差归一化后的协方差为:

使用第一种方法进行计算,为方便分析,咱们只对X维进行线性函数变换

计算协方差

能够看到,使用第一种方法(线性变换后),其协方差产生了倍数值的缩放,所以这种方式没法消除量纲对方差、协方差的影响,对PCA分析影响巨大;同时,因为量纲的存在,使用不一样的量纲、距离的计算结果会不一样。
而在第二种归一化方式中,新的数据因为对方差进行了归一化,这时候每一个维度的量纲其实已经等价了,每一个维度都服从均值为0、方差1的正态分布,在计算距离的时候,每一个维度都是去量纲化的,避免了不一样量纲的选取对距离计算产生的巨大影响。

总结来讲,在算法、后续计算中涉及距离度量(聚类分析)或者协方差分析(PCA、LDA等)的,同时数据分布能够近似为状态分布,应当使用0均值的归一化方法。其余应用中更具须要选用合适的归一化方法。

相关文章
相关标签/搜索