信息增益公式由下式给出,
Information Gain = entropy(parent) – [average entropy(children)]
熵可以为零吗,这意味着在某些情况下:
entropy(parent) == [average entropy(children)]
最佳答案
“当 H(S) = 0
时,集合 S 被完美分类(即 S 中的所有元素都属于同一类)。” -- https://en.wikipedia.org/wiki/ID3_algorithmH(S)
= 熵;)
关于machine-learning - 决策树 - 节点的熵可以为零吗?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/35349823/