信息增益公式由下式给出,

Information Gain = entropy(parent) – [average entropy(children)]

熵可以为零吗,这意味着在某些情况下:
entropy(parent) == [average entropy(children)]

最佳答案

“当 H(S) = 0 时,集合 S 被完美分类(即 S 中的所有元素都属于同一类)。” -- https://en.wikipedia.org/wiki/ID3_algorithm
H(S) = 熵;)

关于machine-learning - 决策树 - 节点的熵可以为零吗?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/35349823/

10-12 16:34