在回归模型中为何如此什么是截获意义。
为什么we don't penalize the intercept (Lasso and Ride)倾向于具有大系数?

最佳答案

ridge和lasso分别等价于使用l1和l2正则化。正则化有助于减少方差和避免过度拟合。所以,你的问题相当于问,惩罚截距是否有助于规范化模型并避免高方差对截距进行惩罚将导致它抵制更改,并将其保留在默认位置(可能为零或一些小的随机初始化值)然而,没有理由假设这种随机初始化有任何意义。其他系数的正则化增加了模型的刚度,使概念变得不那么灵活,导致较少的曲折和变化(方差较低)。然而,将正则化应用到截距,只是拖曳线穿过Y轴向下的点,移动几何没有特别的好处。或者至少我是这样想象的。希望能有所帮助。

关于algorithm - 回归的截距和系数,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38655729/

10-12 17:52