我只是对熵的怀疑很少。熵公式为
求和(p(i | j)log2 p(i | j)
这是目标属性的公式,只有2个值。如果目标具有两个以上的类别值(例如,高,中和低)怎么办?公式将如何受到影响?
那将会,
-summation(p(i | j)log3 p(i | j))吗?

另一个问题:
如何在没有任何偏差的情况下计算随机基线分类器的准确性?
说我的问题说:

 1)class1=50% and class2=50%
 2)class1=40% and class2=60%
 3)class1=10%,class2=20% and class3=70%


您能帮我解决这两个问题吗?

最佳答案

不,对数的通常选择仍然是基数2,即“位”。

但是实际上,对数的底仅仅是一个常数,在大多数情况下,该常数会被抵消,或者是无关紧要的全局缩放常数。

关于machine-learning - 分类中的熵,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47625087/

10-12 18:24