前言
支持向量机是一类按监督学习方式对数据进行二元分类的广义线性分类器,其决策边界是对学习样本求解的最大边距超平面。SVM尝试寻找一个最优决策边界,使距离两个类别最近的样本最远。
SVM使用铰链损失函数计算经验风险并在求解系统中加入了正则化项以优化结构风险,是一个具有稀疏性和稳健性的分类器 。SVM可以通过核方法(kernel method)进行非线性分类,是常见的核学习(kernel learning)方法之一
SVM原理
- 引入

- 直观理解
- 对数据进行分类,当超平面数据点‘间隔’越大,分类的确信度也越大。
- 我们上面用的棍子就是分类平面。
- 支持向量

- 我们可以看到决定分割面其实只有上面4个红色的点决定的,这四个点就叫做支持向量。
非线性SVM与核函数
如何变幻空间
对于非线性的数据我们是通过核函数把数据分为不同的平面在进行处理。

<ul>核函数<ul>
线性核函数:K(x,z) = x*z
多项式核函数:K(x,z) = (x*z+1)^p
高斯核函数:K(x,z) = exp(\(\frac{-|x-z|^2}{z*a^2}\))
混合核:K(x,z) = aK1(x,z)+(1-a)K2(x,z), 0 |