机器学习 F1-Score 精确率 - P 准确率 -Acc 召回率 - R

准确率 召回率 精确率 :spa

  准确率->accuracy, 精确率->precision. 召回率-> recall. 三者很像,可是并不一样,简单来讲三者的目的对象并不相同。xml

  大多时候咱们须要将三者放到特定的任务环境中才会更加明显的感受到三者的差别。对象

  在介绍这些以前,咱们先回顾一下咱们的混淆矩阵。blog

  • True Positive(真正, TP):将正类预测为正类数.
  • True Negative(真负 , TN):将负类预测为负类数.
  • False Positive(假正, FP):将负类预测为正类数 → 误报 (Type I error).
  • False Negative(假负 , FN):将正类预测为负类数 → 漏报 (Type II error)

1)精确率:  ci

  实际上很是简单,精确率是对咱们的预测结果而言的指标。其做用的主要范围主要是在咱们的预测结果中。对于实际结果集的大小,并不在精确率的考虑中。
P  = \frac{TP}{TP+FP}it

2)召回率io

  召回率是针对咱们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另外一种就是把原来的正类预测为负类(FN)。
R = \frac{TP}{TP+FN}class

3)准确率(accuracy) im

  准确率(accuracy) =(TP+TN)/(TP+FN+FP+TN) call

 由上面三个公式能够看出来,咱们三个指标所面向的目标集是不一样的。其中很明显看出来P是面向咱们所选中的XP样本,也就是说是面向咱们的预测结果,而召回率面向的是以前中应该本选中的样本,也就是自己的应该被选中的样本集而言。而准确率则是面向的全部不应选中和应该被选中的样本。

4)F1-Score:

  从上面的P和R的公式中,很容易发现,二者的存在可能会有必定的矛盾,很难实现双高的状况,为了兼顾这两个指标,咱们提出了F1-Score:

    

  其中还出现了其余的F系参数,如F贝塔等等。

相关文章
相关标签/搜索