• 斯坦福CS229机器学习课程笔记 part3:广义线性模型 Greneralized Linear Models (GLMs)


    指数分布族 The exponential family

    因为广义线性模型是围绕指数分布族的。大多数常用分布都属于指数分布族,服从指数分布族的条件是概率分布可以写成如下形式:

    η 被称作自然参数(natural parameter),或正则参数canonical parameter),它是指数分布族唯一的参数
    T(y) 被称作充分统计量(sufficient statistic),很多情况下T(y)=y log
    a(η) 是log partition function
    e-a(η)是一个规范化常数,使得分布p(y; η)的和为1p(;η)
    对于给定的一组a,b,T,都会得到对应的指数分布族。改变参数η的取值会影响该指数族的分布。

    伯努利分布(Bernoulli)的指数分布族

    Bernoulli

    对应关系如下:

     η 为标量,转置等于其本身。所以:

        
    B指数族

    高斯分布(Gaussian)的指数分布族

    正态分布(正态分布有两个参数均值 μ 与 标准差σ,在做线性回归的时候,我们关心的是均值而标准差不影模型的学习与参数θ的选择,因此这里将 σ2设为1便于计算)

    对应关系如下:

    以下分布也都属于指数分布族

    Bernoulli 伯努利分布
    Gaussian 高斯分布
    multinomial 多项式分布
    Poisson 泊松分布(用于计数的建模)
    gamma 伽马分布、exponential 指数分布(用于对正数建模,多用于间隔问题)
    β 分布,Dirichlet 分布(用于对小数建模)


    广义线性模型 Greneralized Linear Models

    广义线性模型(Generalized Linear Models)

    使用GLMs来解决问题,基于三个设计假设:

    • y|x;θ∼ExponentialFamily(η)。输出变量基于输入变量的条件概率分布服从指数分布族
    • 我们的目标是通过给定x,来预测T(y)期望 E[T(y) | x]。对于给定的输入变量x,学习的目标是预测T(y)的期望值,T(y)经常就是y,因此假设函数需要满足h(x)=E[y|x](这个假设对logistic回归和线性回归都成立)。
    • 自然函数 η 与输入特征 x 的关系是线性的,η=θTx(如果自然参数是向量,ηi=θTix)。

    如果问题满足这三个假设,就可以构造广义线性模型来解决。这三个假设指明了如何从输入变量映射到输出变量与概率模型。

    最小二乘法

    在线性回归的最小平方问题中,目标变量 y 是连续的(在GLM的术语中也称作响应变量(response variable))。

    已知给定x,y符合高斯分布,均值为 μ。线性回归目标是预测T(y)的期望(期望也就是均值 μ)。又根据上面对于高斯分布指数分布族的推导,得知T(y)=y,μ=η。由GLMs 假设3得知 η=θTx。

    最终得到线性回归的假设函数:
    OLS指数族

    Logistic回归

    在二元分类问题中,给定x,y服从伯努利分布,均值为ϕ。由伯努利分布的 η ,可以反推出 φ

    利用广义线性模型的假设 3 可知同时有 η=θTx。因此可以得到logistic回归的假设函数(sigmoid 函数):
    Logistic指数族

    canonical response function:g(η) = E[T(y); η],给定正则参数 η,求分布的平均值
    canonical link function:g−1canonical response function的逆,即根据g(η)求 η

    Softmax回归

    Logistic 分布解决二分类问题,Softmax用于解决多分类问题。

    符合多项式分布multinomial distribution。下面开始构建模型,使其符合指数分布
    如果有k个类型 y∈{1,2,...,k}。则可以用 φ12,...,φk−1,φk 一共k个变量来表示 y属于每种类型的概率。但因为所有概率之和为1,如果已知前 k-1个概率的值,第k个概率就确定了,这将违反独立同分布的原则。

    因此我们用前面 k-1 个变量替代第 k 个变量,设置参数:φ12,...,φk−1。其中 φi = p(y=i; φ)。

    【注:虽然有时公式中会将φk写出来,但要记住它是一个由k-1项决定的表达式,不是一个变量

    引入T(y):

    注意,这里就和前面的 T(y) = y 不同,这里的 T(y)是一个向量,所以用 T(y)i 表示 T(y) 的第i个元素。

    引出 indicator function 指示函数 的定义:1{True}=1,1{False}=0。

    由于当 i = 1 时T(1)为1。当 i = 2 时T(2)为1。即当且仅当 y = i 时,T(y)i =1。则T(y)与y的关系可以写成:

    有 T(y)i 的期望等于 “y属于类型 i 的概率φi ”:

    现在可以证明多项式分布符合指数分布族:

    公式 第4步到第5步,是将最后一个乘积的和分配到前面每一项上做减法。且 log(a)-log(b) = log(a/b)。

    对应关系:

    link函数为:

    为了方便,定义 ηk = log(φk/φk) = 0。通过上式反推 φ:

    公式两边 k 项求和:

    移项:

    再带回 (7)式中替换φk。移项得到从η到φ’s的映射,称作softmax函数

    根据假设3,并令

    得到softmax regression,它是logistic regression的推广。根据机器学习三要素,其

    (1)模型

    其中 eμk = e0 = 1。

    最终,假设函数为:

    (2)策略

    依然可以使用极大似然估计的方法来学习θ,似然函数 L(θ) 为m个概率 p(y(i)|x(i); θ) 的乘积。其对数 l(θ)为:

    (3)算法

    可以通过梯度上升或牛顿方法来求出合适的参数 θ。这里μ是上面的指示函数1{}

     

    梯度上升:

    Softmax 回归和 Logistic回归的关系

     

  • 相关阅读:
    CentOS6设置密码过期时间
    scp
    windows查看进程
    mysql5.7密码问题
    mysql主从切换摘要
    mysql慢日志管理
    Linux学习(一)
    Linux学习(一)
    数据结构与算法(1)-算法时间复杂度
    数据结构与算法(1)-算法时间复杂度
  • 原文地址:https://www.cnblogs.com/maxiaodoubao/p/9896279.html
Copyright © 2020-2023  润新知