我想在sklearn中实现linear_model.Ridge()的LAD版本。这意味着仍在L2范数上进行正则化,但是该模型将绝对偏差之和(而不是误差的平方)最小化。表示我们正在将python - LAD与Python中的L2规范? (sklearn)-LMLPHP最小化

那可能吗?

最佳答案

如果在scikit中使用SGDRegressor学习,并且指定了epsilon_insensitive损失函数并且epsilon值设置为零,则将得到一个等效于具有L2正则化的LAD的模型。

关于python - LAD与Python中的L2规范? (sklearn),我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32888817/

10-11 00:42