• 机器学习-李航-统计学习方法学习笔记之感知机(1)


              感知机应该是机器学习里面最简单的模型了。读一遍文章也能理解作者想表达的意思。因为以前像梯度下降,多项式拟合,神经网络都在Andrew Ng的公开课上看过了。但是真正关于书中的公式却不怎么理解。一些简单的作者也没有推导。毕竟这是机器学习,不是微积分,或者线性代数,或者概率论。微积分,概率论,线性代数是 大学期间的基础课程。很多人应该都学过。

             关于感知机的几何模型。

              感知机有如下几何解释:线性方程:

                 w•x+b=0

              对应于特征空间Rn中的一个超平面S,其中w是超平面的法向量,b是超平面的截距。

       

    我们首先看一下法向量的定义 

    如果一个非零向量n与平面a垂直,则称向量n为平面a的法向量。
    垂直于平面的直线所表示的向量为该平面的法向量。每一个平面存在无数个法向量。
    因为我们知道超平面的几何方程还可以这样写  :Ax+By+Cz=D;如下图
    上图来自于网易公开课,可汗学院线性代数公开课,点击进入
    其中法向量n=Ai+Bj+Cz ;也就是法向量可以如下表示(A,B,Z);
    超平面几何方程:Ax+By+Cz=D;
    和该处超平面的方程相对比,w•x+b=0  也就是w=n=(A,B,Z) ,其中-b为超平面的截距,也就是平面方程中的D;
    感知机模型中的X也就是特征向量,也就是平面中的一系列点,也就是我们超平面几何方程中的(x,y,z);
    到此我们就不能理解了。感知机几何模型w•x+b=0  既是超平面几何方程Ax+By+Cz=D;

          感知机学习策略

         既然了解了感知机的几何模型,接下来我们就看一下感知机的学习策略。

        对于一个线性可分的 数据集    

         

            我们现在需要找到一个分离超平面,也就是确定w,b的参数,来将损失函数最小化,在这儿也就是求出所有的点到该几何平面的总距离,并使该总距离最短。从而将特征向量完全区分开来。

            我们需要求任意一点到该超平面的距离,公式如下

    我们首先来看|w•x0+b|的意义

    我们先不管作者给出的公式。我们先看一下在线性代数里面是怎样求一个点到平面的距离的。

    具体的公式推导请到网易公开课,线性代数课程观看,点击此处

     

    从线性几何我们得出任意一点到平面的距离公式是

    其中Ax+By+Cz-D,也就是我们上面给的线性几何模型。相对于感知机也就是w•x+b

    对于A2+B2+C2开平方也就是将对法向量w(A,B,C) 的一系列操作。作者在书中提到该值是法向量w的L2范数。我们先看一下范数的概念。

    该定义来自线性代数

    从上定义我们可以得知||w||即为对A2+B2+C2开平方。

    至此我们就明了了作者书中公式的由来。

     关于感知机模型的学习策略请看机器学习-李航-统计学习方法学习笔记之感知机(2)


    转载请以超链接形式标明文章原始出处。
                      
  • 相关阅读:
    k8s-[排查记录]解决节点无法查看pod日志
    k8s kube-proxy模式
    容器网络
    k8s-使用kubeadm安装集群
    k8s-Deployment重启方案
    k8s-NetworkPolicy-网络策略
    nodejs 解析终端特殊字符
    fluentd 日志自定义字段解析
    题目笔记 CF 1494b
    CF1225D Power Products(分解质因子 哈希)
  • 原文地址:https://www.cnblogs.com/santian/p/4345218.html
Copyright © 2020-2023  润新知