二分类模型的预测结果分为四种状况(正类为1,反类为0):函数
TP+FP+TN+FN=测试集全部样本数量。性能
分类模型的性能评价指标(Performance Evaluation Metric)有:测试
准确率(Accuracy):全部分类正确的样本数量除以总样本数量lua
错误率(Error Rate):全部分类错误的样本数量除以总样本数量spa
(其中
为指示函数,知足要求则为1,不知足为0)3d
错误率等于一减准确率:。orm
混淆矩阵(Confusion Matrix):把真实值和预测值相对应的样本数量列出来的一张交叉表。这样,全部正确的预测结果都在其对角线上,因此从混淆矩阵中能够很直观地看出哪里有错误。xml
准确率或错误率是最基本的分类模型性能评价指标。可是有时候各种别样本数量不均衡,好比说,在一共100个测试样本中,正类样本有98个,负类样本只有2个,那么咱们只须要把模型作成把全部样本都判为正类便可,这样准确率能够达到98%。可是这样的模型毫无心义。blog
即便各种别样本数量比较均衡,但若是咱们更关心其中某个类别,那么咱们就须要选择咱们感兴趣的类别的各项指标来评价模型的好坏。所以,人们又发明出了查全率和查准率等指标。ci
精确度(Precision):在全部预测为正类的样本中,预测正确的比例,也称为查准率
召回率(Recall):在全部实际为正类的样本中,预测正确的比例,也称为查全率
查准率和查全率是一对矛盾的度量。通常来讲,查准率高时,查全率每每偏低;而查全率高时,查准率每每偏低。若是对这两个指标都有要求,那么能够计算模型的F1值或查看PR曲线。
F1值(F1 Score):查准率和查全率的调和平均值
P-R曲线(Precision-Recall Curve):以precision为y轴,以recall为x轴,取不一样的分类阈值,在此基础上画出来的一条曲线就叫作PR曲线。PR曲线越接近右上角(precision=1, recall=1),表明模型越好。若一个模型的PR曲线被另外一个模型的PR曲线彻底“包住”,则可断言后者的性能优于前者;但若两者的曲线发生了交叉,则难以通常性地断言二者孰优孰劣,只能在具体查准率或查全率条件下比较。通常而言,比较 P-R 曲线下面积的大小,可必定程度上表征模型在查准率和查全率上取得相对 “双高”的比例,但该值不太容易计算。所以其它相对容易计算的性能度量被提出。
真正率(True Positive Rate,TPR):TPR = TP/(TP+FN),TPR越大越好,1为理想状态
假正率(False Positive Rate,FPR):FPR = FP/(TN+FP),FPR越小越好,0为理想状态
灵敏性(Sensitivity): True Positive Rate,等同于召回率
特异性(Specificity): True Negative Rate,Specificity = 1- False Positive Rate,SPC = TN/(FP + TN)
这几个性能指标不受不均衡数据的影响。若要综合考虑TPR和FPR,那么能够查看ROC曲线。
ROC曲线(Receiver Operating Characteristic Curve):全称“受试者工做特征”曲线。以“真正率”(True Positivate Rate,简称 TPR)为y轴,以“假正例”(False Positive Rate,简称 FPR)为x轴,取不一样的分类阈值,在此基础上画出来的一条曲线就叫作ROC曲线。ROC曲线越接近左上角(true positive rate=1, false positive rate=0),表明模型性能越好。与 P-R 曲线同样,若一个模型的 ROC 曲线被另外一个模型的曲线彻底“包住”,则断言后者的性能优于前者;如有交叉,则难以通常断言,此时可经过比较ROC曲线下的面积来判断。
AUC(Area Under Curve):曲线下面积。AUC越大,表明模型性能越好。若AUC=0.5,即ROC曲线与上图中的虚线重合,表示模型的区分能力与随机猜想没有差异。
以上说的是二分类的场景。对于多分类问题,有两种方法计算其性能评价指标:
方法一:将多分类问题拆解成n个一对其他的二分类问题,这样能够获得n个混淆矩阵,分别计算出每一个类别的precision和recall,再将其平均,即获得”宏查准率“(macro-P),”宏查全率“(macro-R),相应计算出的的F1值称为”宏F1“(macro-F1)。对每一个类别计算出样本在各个阈值下的假正率(FPR)和真正率(TPR),从而绘制出一条ROC曲线,这样总共能够绘制出n条ROC曲线,对n条ROC曲线取平均,便可获得最终的ROC曲线。
方法二:将多分类问题拆解成n个一对其他的二分类问题,这样能够获得n个混淆矩阵,把全部混淆矩阵中的TP,NP,FP,FN计算平均值 ,再用这些平均值计算出查准率和查全率,称为”微查准率“(micro-P),”微查全率“(micro-R),由微查准率和微查全率计算出的F1值称为 ”微 F1“(micro-F1)。
对于多分类问题,macro-average(宏平均) 要比 micro-average(微平均) 好,由于宏平均受样本数量少的类别影响较大。