• 机器学习读书笔记------支持向量机


         SVM是一种有监督的统计学习方法,能够最小化经验误差和最大化几何边缘,被称为最大间隔分类器,可用于分类与回归分析

    一、间隔与支持向量

         给定训练样本集D={(x1,y1),(x2,y2),...,(xm,ym)},yi∈{-1,+1},分类学习最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开。在众多划分超平面之间,我们需要找出一个泛化能力最强的。直观上看,我们应该找位于两类训练样本“正中间”的划分超平面,该平面对训练样本局部扰动的“容忍”性最好。换言之,这个划分超平面所产生的分类结果是最鲁棒的,对未见示例的泛化能力最强。

          在样本空间中,划分超平面可通过线性方程来描述:wTx+b=0 ,其中w=(w1;w2;...;wd)为法向量,决定了超平面的方向;b为位移项,决定了超平面与原点之间的距离。即划分超平面可被法向量w和位移b确定。并将其记为(w,b)。

         样本空间中任意点x到超平面(w,b)的距离可写为:

         假设超平面(w,b)能训练样本正确分类,即对于(xi,yi)∈D,若yi=+1,则有wTxi+b>0;若yi=-1,则有wTxi+b<0.令

         如下图所示,距离超平面最近的这几个训练样本点使上式成立,被称为“支持向量”,两个异类支持向量到超平面的距离之和为,它被称为“间隔”。

        欲找到具有“最大间隔”的划分超平面,即找到满足(6.3)的参数w和b,从而使得最大,即

        可知,为了使间隔最大化,仅需最大化||w||-1,则上式可改为

      此即支持向量机(SVM)的基本型。

    二、对偶问题

          我们需要求解(6.6)式来得到大间隔划分超平面所对应的模型  f(x)=wTx+b,其中w和b是模型参数,由于式(6.6)是一个凸二次规划问题(convex quadratic programming),能直接用优化计算包求解,也可有更高效的方法。对式(6.6)使用拉格朗日乘子法可得到其“对偶问题”。对(6.6)的每条约束添加拉格朗日乘子αi≥0,则该问题的拉格朗日函数可写为:

    其中α=(α12;...;αm).令L(w,b,α)对w和 b的偏导为零可得

     (6.9)

              (6.10)

    利用这两个式子对(6.8)式进行化简可得到式(6.6)的对偶问题

    解出α求出w和b可得到模型

  • 相关阅读:
    NOI AC#62 color(树上操作)
    fenbi
    bert 压缩优化方向的论文
    bert 编程入门| bert 瘦身技巧
    行政法+刑法+民法
    Bert原理 | Bert油管视频学习法
    vscode的使用以及快捷键总结
    NG课程笔记学习记录
    古典文学+古曲+四大文明古国
    中国地理+地球上的水和大气
  • 原文地址:https://www.cnblogs.com/xiaotongtt/p/6147778.html
Copyright © 2020-2023  润新知