准确率(Accuracy) | 查准率(Precision) | 查全率(Recall)

目录

样本

识别结果

指标计算

Accuracy(准确率)

Precision(精确率、查准率)

Recall (召回率、查全率)

为什么要不同的指标?

综合评价 (F-Score)


在机器学习中,对于一个模型的性能评估是必不可少的。准确率(Accuracy)、查准率(Precision)、查全率(Recall)是常见的基本指标。

为了方便说明,假设有以下问题场景:

一个班有50人,在某场考试中有40人及格,10人不及格。
现在需要根据一些特征预测出所有及格的学生。

某一模型执行下来,给出了39人,其中37人确实及格了,剩下2人实际上不及格。

样本

要了解这些指标的含义,首先需要了解两种样本:

  • 正样本:即属于某一类(一般是所求的那一类)的样本。在本例中是及格的学生
  • 负样本:即不属于这一类的样本。在本例中是不及格的学生

识别结果

于是我们可以得到下面一张表:

  正类 负类
被检索 True Positive False Positive
未检索 False Negative True Negative
  • TP:被检索到正样本,实际也是正样本(正确识别)
    在本例表现为:预测及格,实际也及格。
  • FP:被检索到正样本,实际是负样本(一类错误识别)
    在本例表现为:预测及格,实际不及格。
  • FN:未被检索到正样本,实际是正样本。(二类错误识别)
    在本例表现为:预测不及格,实际及格了。
  • TN:未被检索到正样本,实际也是负样本。(正确识别)
    在本例表现为:预测不及格,实际也不及格。

指标计算

有了上述知识,就可以计算各种指标了。

Accuracy(准确率)

分类正确的样本数 与 样本总数之比。即:(TP + TN) / ( ALL ).

在本例中,正确分类了45人(及格37 + 不及格8),所以 Accuracy = 45 / 50 = 90%.

Precision(精确率、查准率)

被正确检索的样本数 与 被检索到样本总数之比。即:TP / (TP + FP).

在本例中,正确检索到了37人,总共检索到39人,所以 Precision = 37 / 39 = 94.9%.

Recall (召回率、查全率)

被正确检索的样本数 与 应当被检索到的样本数之比。即:TP / (TP + FN).

在本例中,正确检索到了37人,应当检索到40人,所以 Recall = 37 / 40 = 92.5%.

为什么要不同的指标?

根据上边公式的不同,可以借此理解不同指标的意义。

准确率是最常用的指标,可以总体上衡量一个预测的性能。但是某些情况下,我们也许会更偏向于其他两种情况。

「宁愿漏掉,不可错杀」

在识别垃圾邮件的场景中可能偏向这一种思路,因为我们不希望很多的正常邮件被误杀,这样会造成严重的困扰。
因此,Precision 将是一个被侧重关心的指标。

「宁愿错杀,不可漏掉」

在金融风控领域大多偏向这种思路,我们希望系统能够筛选出所有有风险的行为或用户,然后交给人工鉴别,漏掉一个可能造成灾难性后果。
因此,Recall 将是一个被侧重关心的指标。

综合评价 (F-Score)

更多时候,我们希望能够同时参考 Precision 与 Recall,但又不是像 Accuracy 那样只是泛泛地计算准确率,此时便引入一个新指标 F-Score,用来综合考虑 Precision 与 Recall.

准确率(Accuracy) | 查准率(Precision) | 查全率(Recall)

 

其中 β 用于调整权重,当 β=1 时两者权重相同,简称为 F1-Score.
若认为 Precision 更重要,则减小 β,若认为 Recall 更重要,则增大 β.



链接:https://www.jianshu.com/p/8b7324b0f307
 

上一篇:【日常笔记】PC端项目整理


下一篇:创新与山寨