Confusion Matrix :
[[4 2]
[1 3]]
Accuracy Score : 0.7
Report :
precision recall f1-score support
0 0.80 0.67 0.73 6
1 0.60 0.75 0.67 4
avg / total 0.72 0.70 0.70 10
来自公式精度=真正/(真正+假正)
4/(4+2) = 0.667
但这正在召回中。
计算召回率的公式为真阳性/(真阳性+假阴性)
4/(4+1) = 0.80
我似乎没有什么不同。
最佳答案
很难确定没有看到代码,但是我的猜测是您正在使用Sklearn,并且没有将标签传递到混淆矩阵中。如果没有标签,它将通过解释混淆矩阵来做出有关导致错误肯定和错误否定被交换的排序的决策。
关于machine-learning - 分类报告中的精度和召回率如何计算?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/59535407/