在统计中,我们几乎没有进行功能归一化。我们在需要时将协变量居中,但不进行归一化。在机器学习中,深度学习功能规范化尤其重要。为什么在某些应用程序中很重要,而在另一些应用程序中却不重要。

最佳答案

对于机器学习方法,缩放很重要,因为它将影响目标函数的计算。

例如,许多算法使用欧几里得距离进行分类,如果您拥有的某个要素的值比其他要素大得多,它将主导该距离,因此,您获得的预测将仅受此唯一要素的影响。

缩放还有助于梯度下降(许多算法中使用的方法可以最小化误差函数)收敛得更快。 SVM还可以使用标准化值更快地进行训练。

总而言之,所有值都在相同范围内有助于计算。我猜想为什么它在机器学习中如此重要而在统计上却没有那么必要,是因为机器学习算法通常具有多次迭代的循环。在每次迭代中,“超出比例”的值越来越多地影响模型。另一方面,统计方法没有这些循环,因此缩放不会对其产生太大影响。

关于machine-learning - 特征归一化,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43285445/

10-12 21:16