假设对数损耗方程为:logLoss=−(1/N)*∑_{i=1}^N (yi(log(pi))+(1−yi)log(1−pi))
其中,N
是样本数,yi...yiN
是因变量的实际值,pi...piN
是对数回归的预测可能性
我如何看待它:
如果yi = 0
,则第一部分yi(logpi) = 0
或者,如果yi = 1
,则第二部分(1−yi)log(1−pi) = 0
因此,现在,根据y
的值,方程的一部分被排除在外。我理解正确吗?
我的最终目标是了解如何解释对数丢失的结果。
最佳答案
是的,您的方向正确。请记住,p_i=P(y_i=1)
的基本思想是需要定义损失函数,以使其惩罚预测与实际标签不匹配的元组(例如,当y_i=1
但p_i
为低,由yi(logpi)
部分照顾,或者当y_i=0
但p_i
为高,由(1-yi)log(1-pi)
部分照顾),同时它不应该对元组进行太多惩罚预测与实际标签匹配(例如,当y_i=1
和p_i
为高时,或y_i=0
和p_i
为低时)。
Logistic回归的损失函数(cross entropy
)正好解决了损失函数的上述所需属性,如下图所示。