据我了解在SVM大幅影响:是逻辑回归大分类器?
例如,让我们来看看这个图片:
在SVM优化目标的调整项,我们试图找到一组参数,其中, (参数向量)theta的范数很小。所以我们必须找到矢量theta,它是小的,并且在这个矢量上的正实例(p)的投影很大(以补偿内积的小Theta向量)。在同一时间大p给我们大幅度。在此图像中,我们发现理想的theta和大p与它(和大幅度):
我的问题:
为什么回归并不大间隔分类?在LR中,我们以相同的方式最小化正则化项中的Theta向量。 也许我不明白的东西,如果是的话 - 纠正我。
我已经使用Coursera ml类的图像和理论。