2015-10-01 56 views
1

我想在sklearn中实现LAD版本的linear_model.Ridge()。意味着正规化仍然在L2范数上完成,但是该模型使绝对偏差的总和最小而不是误差的平方。意思是我们正在最小化enter image description here在Python中的L2规范的LAD? (sklearn)

这可能吗?

+0

这是一个有趣的问题,但并不是真正关于SO的主题。也许问'gitter'对你来说是一个更好的选择。 – cel

回答

1

如果您使用scikit的SGDRegressor学会与指定的epsilon_insensitive损失函数和小量值设为零,你会得到一个模型等效采用L2正规化小伙子。