对于新手在作资料的特征工程时,会看到 Label Encoding 或 One Hot Encoding 两种对于类别行资料的编码方式,那他们之间究竟有什么不一样呢?bash
直接讲结论:编码
如下分为两点说明:spa
由于大部分的模型都是基于数学运算,因此字串资料是没法运算的code
所谓数学运算通常泛指用距离表明类似(几何观点),意思是会用转换后的两个值的差距做为其类似程度。orm
若是将性别栏位的男/女转换成 0, 1 ,二元的没问题 若是讲水果这个无序栏位中的频果、香蕉、西瓜,Label 成0, 1, 2 会隐含着「香蕉跟苹果」比「西瓜跟苹果」还要类似的意义,但这样是错误的。 若是是年龄这个有序栏位的老年、中年、少年,Label 成 0, 1, 2 就很恰当,到若是硬转成 One-Hot 反而将这个差距关系给拿掉。cdn
很巧的是,在 Python Pandas 跟 SciKit-Learn 两个套件中都有提供编码的操做。如下分别示范用法的不一样:blog
① LabelEncodingci
df = pd.DataFrame({'size':['XXL', 'XL', 'L', 'M', 'S']})
# Using Pandas
import pandas as pd
cat = pd.Categorical(df['size'], categories=df['size'].unique(), ordered=True))
df['size_code'] = cat.codes
# Using sklearn
from sklearn import preprocessing
le = preprocessing.LabelEncoder()
le.fit(df['tw'])
le.transform(df['size'])
复制代码
② One Hot Encoding (Dummies)get
# Using Pandas
df = pd.DataFrame({'A': ['a', 'b', 'a'], 'B': ['b', 'a', 'c'])
pd.get_dummies(df)
# Using sklearn
enc = preprocessing.OneHotEncoder()
enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]])
enc.transform([[0, 1, 3]]).toarray()
复制代码
要注意的是,他们都是一样的动做,仅是不一样的套件而已。数学
本著做由Chang Wei-Yaun (v123582)制做, 以创用CC 姓名标示-相同方式分享 3.0 Unported受权条款释出。