0


机器学习评估指标 - f1, precision, recall, acc, MCC

1 介绍 TP, TF, FP, FN

    TP, TF, FP, FN 是针对二分类任务预测结果得到的值,这四个值构成了混淆矩阵;

    如下图的混淆矩阵:

    左侧表示真实的标签,human标记为0; fake标记为1;

    右侧部分predicted class表示预测的标签;

    因此: TN表示(True -- 预测正确, Negitive, 预测为0)预测标签为0(human),预测正确;

                 FN表示(False -- 预测错误,Negitive, 预测为0)预测标签为0(human),预测错误;

                 FP表示  (False -- 预测错误, Positive, 预测为1)预测标签为1(fake),预测错误;

                 TP表示(True -- 预测正确, Positive, 预测为1)预测标签为1(fake),预测正确;

2 介绍f1, precision, recall, acc, MCC

    f1, precision, recall, acc, MCC是由上述混淆矩阵的四个值计算得到的;

    计算公式:

    ![acc = \frac{TP + TN}{TP+TN+FP+FN}](https://latex.codecogs.com/gif.latex?acc%20%3D%20%5Cfrac%7BTP%20+%20TN%7D%7BTP+TN+FP+FN%7D) 

            acc预测的真实结果,总体数据中,有多少数据被预测正确了;

    ![recall = \frac{TP}{TP+FN}](https://latex.codecogs.com/gif.latex?recall%20%3D%20%5Cfrac%7BTP%7D%7BTP+FN%7D)

            recall 预测为bot且预测正确的数量占全部预测为bot数量的比例;

    ![Precision = \frac{TP}{TP + FP}](https://latex.codecogs.com/gif.latex?Precision%20%3D%20%5Cfrac%7BTP%7D%7BTP%20+%20FP%7D)

            Precision 预测为bot且预测正确的数量占实际为bot数量的比例;

    ![f1 = \frac{2*Precision*recall}{Precision+recall}](https://latex.codecogs.com/gif.latex?f1%20%3D%20%5Cfrac%7B2*Precision*recall%7D%7BPrecision+recall%7D)

    MCC = ![](https://img-blog.csdnimg.cn/c9d7cb812b6544718d6781702ec8951d.png)

    f1 和 Mcc为综合评价指标;

上述五个指标优劣分析:

    准确度(acc)衡量有多少样本在两个类中被正确识别,但它不表示一个类能否被另一个类更好地识别;

    高精确度(Precision)表明许多被识别为1(bot)的样本被正确识别,但它没有提供有关尚未识别的1(bot)样本的任何信息;

    该信息由召回指标(recall)提供,表示在整个1(bot)样本集中有多少样本被正确识别:低召回意味着许多1(bot)样本未被识别;

    F1 和 MCC 试图在以一个单一的值中传达预测的质量,并结合其他指标。

    MCC 被认为是 F1 的无偏版本,因为它使用了混淆矩阵的所有四个元素。 MCC 值接近 1 表示预测非常准确;接近 0 的值意味着预测并不比随机猜测好,接近 -1 的值意味着预测与真实类别严重不一致。

    

本文转载自: https://blog.csdn.net/qq_40671063/article/details/126954237
版权归原作者 无脑敲代码,bug漫天飞 所有, 如有侵权,请联系我们删除。

“机器学习评估指标 - f1, precision, recall, acc, MCC”的评论:

还没有评论