TensorFlow calls每个输入到一个softmax logit。他们继续将softmax的输入/登录定义为:“未缩放的登录概率”。

Wikipedia和其他消息来源说,logit是赔率的对数,是S形/逻辑函数的倒数。即,如果sigmoid(x)= p(x),则logit(p(x))= log(p(x)/(1-p(x)))= x。

TensorFlow是否有数学或传统原因将softmax的输入称为“logits”?难道它们不应该被称为“非标度对数概率”吗?

也许TensorFlow只是想为二进制逻辑回归(使用术语logit有意义)和分类逻辑回归保持相同的变量名...

这个问题是covered a little bit here,但是似乎没有人因使用“logit”一词来表示“未缩放的对数概率”而感到困扰。

最佳答案

如今,Logit在ML社区中用于任何非规范化的概率分布(基本上是任何通过无参数转换映射到概率分布的东西,例如针对二进制变量的Sigmoid函数或针对多项式的softmax)。它不是一个严格的数学术语,但已获得足够的普及,可以包含在TF文档中。

关于machine-learning - 为什么TensorFlow的文档将softmax的输入称为 "logits"?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/44210454/

10-12 05:48