在大多数分类(例如逻辑/线性回归)中,偏差项在进行正则化时会被忽略。如果不对偏差项进行正则化,将会得到更好的分类吗?

最佳答案

例子:

Y = aX + b
正则化基于这样的想法,即对Y的过度拟合是由a的“过分具体化”引起的,可以这么说,这通常通过a元素的较大值来体现。b仅抵消了这种关系,因此它的规模对于此问题而言远没有那么重要。此外,如果出于任何原因需要大的偏移量,则对其进行正则化将阻止找到正确的关系。
因此答案就在于此:在Y = aX + b中,将a与解释性/独立变量相乘,然后在其中添加b

关于machine-learning - 为什么偏向项在岭回归中不规则化?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/12578336/

10-12 23:11