San Francisco Crime Classification非数值性多分类问题

给出了旧金山以往犯罪活动的相关信息,预测特定条件下的犯罪状况算法

 

分析数据集和测试集信息:函数

训练集给出的信息有:测试

1.Dates:时间日期和时间,这里考虑时间对犯罪活动有影响,日期和下边的周几有类似处,取周几做为特征,由于节日是少数状况编码

2.category:犯罪分类,就是实例的标签spa

3.descript:对于犯罪的描述,没用的信息code

4.DayOfWeek:周几,多是有影响的blog

5.PdDistrict:地区,重要信息ip

6.Resolution:缺失值太多,弃用get

7.Address:分类太多,并且和地区重复,弃用数据分析

8.坐标:和地区重复,弃用

测试集给出的信息有Dates,DayOfWeek,PdDistrict,Address,坐标

因此最后的特征选择为:Dates,DayOfWeek,PdDistrict

这个题的特征比较好选择,因此没有数据分析和可视化的过程,数据特征分析是很重要的能力,可是一直不会,不知道应该用怎么样的模式系统地进行分析。

这个新手题目最重要的地方我以为应该是多分类,对于非数值类型的编码处理和朴素贝叶斯算法

看一下官方给出的提交样例:

能够看出,最后每一个id的结果不是直接显示分类,而是不一样的分类显示几率(这也符合生成模型)

解题过程和代码:

1.导包

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.naive_bayes import BernoulliNB
from sklearn.metrics import log_loss
from sklearn.model_selection import train_test_split

 

2.数据处理,主要是读文件、对非数值类型进行编码,组合特征(特征筛选此次基本没有)

# 读入文件,并指定第一列为日期时间
train = pd.read_csv('train.csv', parse_dates=['Dates'])
test = pd.read_csv('test.csv', parse_dates=['Dates'])
# 分类
cate = train['Category']
'''
离散特征的编码分为两种状况:

一、离散特征的取值之间没有大小的意义,好比color:[red,blue],那么就使用one-hot编码

二、离散特征的取值有大小的意义,好比size:[X,XL,XXL],那么就使用数值的映射{X:1,XL:2,XXL:3}
'''
# 对区域和星期几和时间进行独热编码
days = pd.get_dummies(train['DayOfWeek'])
dist = pd.get_dummies(train['PdDistrict'])
# 之后时间格式的数据能够在一开始就指定出那一列是时间数据,而后经过下边的方法提取时间或者日期,就不用本身进行提取了
hour = train.Dates.dt.hour
hour = pd.get_dummies(hour)

# 组合特征
# 能够将刚才处理好的一列数据直接添加到数据新建的一个列
# 也能够用pandas的concat()函数,其中参数axis为0时是把列相同的多行数据进行收尾拼接,axis=1时是将多列进行拼接
trainData = pd.concat([days, dist, hour], axis=1)
trainData['cate'] = cate

# 对测试数据进行处理
# 通过get_dummies()进行one-hot处理后series会变成dataframe,列就是原来series中的各种数据
days = pd.get_dummies(test['DayOfWeek'])
dist = pd.get_dummies(test['PdDistrict'])
# 提取出时间信息,记住这个Dates数据的方法
hour = test.Dates.dt.hour
hour = pd.get_dummies(hour)
# pandas库中的concat方法是将DataFrame拼接,当axis=0时将行拼接,当axis=1时将列拼接
testData = pd.concat([days, dist, hour], axis=1)
features = ['Monday', 'Tuesday', 'Wednesday', 'Thursday', 'Friday', 'Saturday', 'Sunday',
            'BAYVIEW', 'CENTRAL', 'INGLESIDE', 'MISSION',
            'NORTHERN', 'PARK', 'RICHMOND', 'SOUTHERN', 'TARAVAL', 'TENDERLOIN']
hou = [x for x in range(24)]
features = features + hou

3.交叉验证

# 交叉验证
# 训练数据和测试数据分离
training,validation = train_test_split(trainData,train_size=0.6)
# 创建模型
bayes = BernoulliNB()
bayes.fit(training[features],training['cate'])
# 测试集预测,计算错误率
# predict_proba返回一个矩阵,矩阵每一行对应每一个实例,一行中的各个float表明判为各个分类的几率
predict = np.array(bayes.predict_proba(validation[features]))
result = pd.DataFrame(predict,columns=bayes.classes_)
# log_loss要求参数都是one-hot编码
print log_loss(validation['cate'],predict)

4.建模预测

# 伯努利朴素贝叶斯
bayes = BernoulliNB()
bayes.fit(trainData[features], trainData['cate'])
predict = np.array(bayes.predict_proba(testData[features]))
result = pd.DataFrame(predict, columns=bayes.classes_)
result.to_csv('result.csv', index=True, index_label='Id')
相关文章
相关标签/搜索