我只是对熵的怀疑很少。熵公式为
求和(p(i | j)log2 p(i | j)
这是目标属性的公式,只有2个值。如果目标具有两个以上的类别值(例如,高,中和低)怎么办?公式将如何受到影响?
那将会,
-summation(p(i | j)log3 p(i | j))吗?
另一个问题:
如何在没有任何偏差的情况下计算随机基线分类器的准确性?
说我的问题说:
1)class1=50% and class2=50%
2)class1=40% and class2=60%
3)class1=10%,class2=20% and class3=70%
您能帮我解决这两个问题吗?
最佳答案
不,对数的通常选择仍然是基数2,即“位”。
但是实际上,对数的底仅仅是一个常数,在大多数情况下,该常数会被抵消,或者是无关紧要的全局缩放常数。
关于machine-learning - 分类中的熵,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47625087/