大数据竞赛平台——Kaggle 入门

Reference: http://blog.csdn.net/witnessai1/article/details/52612012python

 

 

Kaggle是一个数据分析的竞赛平台,网址:https://www.kaggle.com/ 
企业或者研究者能够将数据、问题描述、指望的指标发布到Kaggle上,以竞赛的形式向广大的数据科学家征集解决方 案,相似于KDD-CUP(国际知识发现和数据挖掘竞赛)。Kaggle上的参赛者将数据下载下来,分析数据,而后运用机 器学习、数据挖掘等知识,创建算法模型,解决问题得出结果,最后将结果提交,若是提交的结果符合指标要求而且在参赛者中排名第一,将得到比赛丰厚的奖金。更多内容能够参阅:大数据众包平台 
下面我以图文的形式介绍Kaggle: 
进入Kaggle网站: 

这是当前正在火热进行的有奖比赛,有冠军杯形状的是“Featured”,译为“号召”,召集数据科学高手去参赛。下面那个灰色的有试剂瓶形状的是“Research”,奖金少一点。这两个类别的比赛是有奖竞赛,难度天然不小,做为入门者,应该先作练习赛: 


左图的比赛是“101”,右图的是“Playground”,都是练习赛,适合入门。入门Kaggle最好的方法就是独立完成101和playground这两个级别的竞赛项目。本文的第二部分将选101中的“Digit Recognition”做为讲解。 
点击进入赛题“Digit Recognition”: 

这是一个识别数字0~9的练习赛,“Competition Details“是这个比赛的描述,说明参赛者须要解决的问题。”Get the Data“是数据下载,参赛者用这些数据来训练本身的模型,得出结果,数据通常都是以csv格式给出: 


其中,train.csv就是训练样本,test.csv就是测试样本,因为这个是训练赛,因此还提供了两种解决方案,knn_benchmark.R和rf_benchmark.R,前者是用R语。言写的knn算法程序,后者是用R语言写的随机森林算法程序,它们的结果分别是knn_benchmark.csv和rf_benchmark.csv。关于csv格式文件,我前一篇文章有详述:【Python】csv模块的使用。 
得出结果后,接下来就是提交结果”Make a submission“: 

要求提交的文件是csv格式的,假如你将结果保存在result.csv,那么点击”Click or drop submission here“,选中result.csv文件上传便可,系统将测试你提交的结果的准确率,而后排名。 
另外,除了“Competition Details“、”Get the Data“、”Make a submission“,侧边栏的”Home“、”Information“、"Forum"等,也提供了关于竞赛的一些相关信息,包括排名、规则、辅导...... 
【以上是第一部分,暂且写这么多,有补充的之后再更】 git

 

二、竞赛项目解题全过程

(1)知识准备


首先,想解决上面的题目,仍是须要一点ML算法的基础的,另外就是要会用编程语言和相应的第三方库来实现算法,经常使用的有: Python以及对应的库numpy、scipy、scikit-learn(实现了ML的一些算法,能够直接用)、theano(DeepLearning的算法包)。 R语言、weka 若是用到深度学习的算法,cuda、caffe也能够用 总之,使用什么编程语言、什么平台、什么第三方库都无所谓,不管你用什么方法,Kaggle只须要你线上提交结果,线下你如何实现算法是没有限制的。 
Ok,下面讲解题过程,以”Digit Recognition“为例,数字识别这个问题我以前写过两篇文章,分别用kNN算法和Logistic算法去实现,有完整的代码,有兴趣能够阅读:kNN算法实现数字识别、 Logistic回归实现数字识别 算法

 

(2)Digit Recognition解题过程

 

下面我将采用kNN算法来解决Kaggle上的这道Digit Recognition训练题。上面提到,我以前用kNN算法实现过,这里我将直接copy以前的算法的核心代码,核心代码是关于kNN算法的主体实现,我再也不赘述,我把重点放在处理数据上。编程

如下工程基于Python、numpyapp

 

  • 获取数据

 

从”Get the Data“下载如下三个csv文件:编程语言

 

  • 分析train.csv数据

 

train.csv是训练样本集,大小42001*785,第一行是文字描述,因此实际的样本数据大小是42000*785,其中第一列的每个数字是它对应行的label,能够将第一列单独取出来,获得42000*1的向量trainLabel,剩下的就是42000*784的特征向量集trainData,因此从train.csv能够获取两个矩阵trainLabel、trainData。函数

下面给出代码,另外关于如何从csv文件中读取数据,参阅:csv模块的使用学习

 

 

def loadTrainData():
    l=[]
    with open('train.csv') as file:
         lines=csv.reader(file)
         for line in lines:
             l.append(line) #42001*785
    l.remove(l[0])
    l=array(l)
    label=l[:,0]
    data=l[:,1:]
    return nomalizing(toInt(data)),toInt(label)


这里还有两个函数须要说明一下,toInt()函数,是将字符串转换为整数,由于从csv文件读取出来的,是字符串类型的,好比‘253’,而咱们接下来运算须要的是整数类型的,所以要转换,int(‘253’)=253。toInt()函数以下:测试

 

 

def toInt(array):
    array=mat(array)
    m,n=shape(array)
    newArray=zeros((m,n))
    for i in xrange(m):
        for j in xrange(n):
                newArray[i,j]=int(array[i,j])
    return newArray



 

 

nomalizing()函数作的工做是归一化,由于train.csv里面提供的表示图像的数据是0~255的,为了简化运算,咱们能够将其转化为二值图像,所以将全部非0的数字,即1~255都归一化为1。nomalizing()函数以下:大数据

 

def nomalizing(array):
    m,n=shape(array)
    for i in xrange(m):
        for j in xrange(n):
            if array[i,j]!=0:
                array[i,j]=1
    return array



 

 

 

  • 分析test.csv数据

test.csv里的数据大小是28001*784,第一行是文字描述,所以实际的测试数据样本是28000*784,与train.csv不一样,没有label,28000*784即28000个测试样本,咱们要作的工做就是为这28000个测试样本找出正确的label。因此从test.csv咱们能够获得测试样本集testData,代码以下:

 

def loadTestData():
    l=[]
    with open('test.csv') as file:
         lines=csv.reader(file)
         for line in lines:
             l.append(line)
     #28001*784
    l.remove(l[0])
    data=array(l)
    return nomalizing(toInt(data))  



 

 

  • 分析knn_benchmark.csv

 

前面已经提到,因为digit recognition是训练赛,因此这个文件是官方给出的参考结果,原本能够不理这个文件的,可是我下面为了对比本身的训练结果,因此也把knn_benchmark.csv这个文件读取出来,这个文件里的数据是28001*2,第一行是文字说明,能够去掉,第一列表示图片序号1~28000,第二列是图片对应的数字。从knn_benchmark.csv能够获得28000*1的测试结果矩阵testResult,代码:

 

def loadTestResult():
    l=[]
    with open('knn_benchmark.csv') as file:
         lines=csv.reader(file)
         for line in lines:
             l.append(line)
     #28001*2
    l.remove(l[0])
    label=array(l)
    return toInt(label[:,1])



 

到这里,数据分析和处理已经完成,咱们得到的矩阵有:trainData、trainLabel、testData、testResult

 

 

  • 算法设计

这里咱们采用kNN算法来分类,核心代码:

def classify(inX, dataSet, labels, k):
    inX=mat(inX)
    dataSet=mat(dataSet)
    labels=mat(labels)
    dataSetSize = dataSet.shape[0]                  
    diffMat = tile(inX, (dataSetSize,1)) - dataSet   
    sqDiffMat = array(diffMat)**2
    sqDistances = sqDiffMat.sum(axis=1)                  
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort()            
    classCount={}                                      
    for i in range(k):
        voteIlabel = labels[0,sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]


关于这个函数,参考:kNN算法实现数字识别 
简单说明一下,inX就是输入的单个样本,是一个特征向量。dataSet是训练样本,对应上面的trainData,labels对应trainLabel,k是knn算法选定的k,通常选择0~20之间的数字。这个函数将返回inX的label,即图片inX对应的数字。 对于测试集里28000个样本,调用28000次这个函数便可。 

  • 保存结果

kaggle上要求提交的文件格式是csv,上面咱们获得了28000个测试样本的label,必须将其保存成csv格式文件才能够提交,关于csv,参考:【Python】csv模块的使用。 代码:

def saveResult(result):
    with open('result.csv','wb') as myFile:    
        myWriter=csv.writer(myFile)
        for i in result:
            tmp=[]
            tmp.append(i)
            myWriter.writerow(tmp)



  • 综合各函数

上面各个函数已经作完了全部须要作的工做,如今须要写一个函数将它们组合起来解决digit recognition这个题目。咱们写一个handwritingClassTest函数,运行这个函数,就能够获得训练结果result.csv。

 

def handwritingClassTest():
    trainData,trainLabel=loadTrainData()
    testData=loadTestData()
    testLabel=loadTestResult()
    m,n=shape(testData)
    errorCount=0
    resultList=[]
    for i in range(m):
         classifierResult = classify(testData[i], trainData, trainLabel, 5)
         resultList.append(classifierResult)
         print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, testLabel[0,i])
         if (classifierResult != testLabel[0,i]): errorCount += 1.0
    print "\nthe total number of errors is: %d" % errorCount
    print "\nthe total error rate is: %f" % (errorCount/float(m))
    saveResult(resultList)


运行这个函数,能够获得result.csv文件: 

2 0 9 9 3 7 0 3.......就是每一个图片对应的数字。与参考结果knn_benchmark.csv比较一下:

 

28000个样本中有1004个与kknn_benchmark.csv中的不同。错误率为3.5%,这个效果并很差,缘由是我并未将全部训练样本都拿来训练,由于太花时间,我只取一半的训练样原本训练,即上面的结果对应的代码是:

 

 classifierResult = classify(testData[i], trainData[0:20000], trainLabel[0:20000], 5)

 

训练一半的样本,程序跑了将近70分钟(在我的PC上)。

 

  • 提交结果

将result.csv整理成kknn_benchmark.csv那种格式,即加入第一行文字说明,加入第一列的图片序号,而后make a submission,结果准确率96.5%: 

相关文章
相关标签/搜索