如果从分界面的形状出发,来看待这两种学习模型,那么结果会是下面这样的。 逻辑回归和软间隔SVM(线性核)都是线性分类器,其分界面是超平面(w0 + w1*x1 +...+ wd*xd = 0),所以两者适用于数据本质上是线性可分或近似线性可分的情形。软间隔SVM(非线性核)是非线性分类器,其分界面是曲面,适用于数据非线性可分的情形。注:作为SVM的原型——硬间隔SVM(线性核),刚开始只能解决数据线性可分的分类问题。因为引入了核函数,才使得分类器可以解决数据非线性可分的问题。同样的,作为最最简单的神经网络——逻辑回归也只能解决线性分类问题。因为进行了函数的复合,同样使得分类器可以解决数据非线性可分的问题。