我有一个二进制分类问题,我的数据集包含5%的正向标记。我正在使用张量流训练我的模型。这是我在训练中的结果:
Step 3819999: loss = 0.22 (0.004 sec)
Accuracy = 0.955; Recall = 0.011; Precision = 0.496
Step 3820999: loss = 0.21 (0.003 sec)
Accuracy = 0.955; Recall = 0.011; Precision = 0.496
Step 3821999: loss = 0.15 (0.003 sec)
Accuracy = 0.955; Recall = 0.011; Precision = 0.496
Step 3822999: loss = 0.15 (0.003 sec)
Accuracy = 0.955; Recall = 0.011; Precision = 0.496
改善召回率的主要策略是什么?
更改数据集并添加更多肯定标签可能可以解决问题,但更改问题的现实情况似乎很奇怪。
以我的观点,应该有一种方法支持“真实的肯定”而不是“错误的否定”,但是我似乎找不到。
最佳答案
您应该使用“ weighted cross entropy”代替经典的CE。从Tensorflow文档中:
类似于sigmoid_cross_entropy_with_logits(),不同之处在于pos_weight可通过相对于负误差增加或减小正误差的成本来权衡取回和精度。
通常的交叉熵成本定义为:
targets * -log(sigmoid(logits)) + (1 - targets) * -log(1 - sigmoid(logits))
值pos_weights> 1会减少假阴性计数,从而增加召回率。相反,将pos_weights设置为
targets * -log(sigmoid(logits)) * pos_weight + (1 - targets) * -log(1 - sigmoid(logits))
关于python - 训练模型并支持召回率/精度的最佳方法是什么?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/51157904/