• Logistic回归(逻辑回归)和softmax回归


     一、Logistic回归

    Logistic回归(Logistic Regression,简称LR)是一种常用的处理二类分类问题的模型。

    在二类分类问题中,把因变量y可能属于的两个类分别称为负类和正类,则因变量y∈{0, 1},其中0表示负类,1表示正类。线性回归的输出值在负无穷到正无穷的范围上,不太好解决这个问题。于是我们引入非线性变换,把线性回归的输出值压缩到(0, 1)之间,那就成了Logistic回归,使得≥0.5时,预测y=1,而当<0.5时,预测y=0。Logistic回归的名字中尽管带有回归二字,可是它是实打实的分类算法。

    线性回归和Logistic回归的形状如下图所示:

    那用什么非线性变换把线性回归转化成Logistic回归呢?

    1、Logistic回归的函数形式:

    Logistic回归模型的函数形式为:,其中x代表样本的特征向量,g(z)代表sigmoid函数,公式为。下图为sigmoid函数的图形。

    所以Logistic回归模型就是:

    的作用是,对于给定的输入变量,根据选择的参数确定输出变量y=1的概率,即后验概率的取值范围是(0, 1)。

    那么怎么根据的输出值来预测样本的类别呢?按照下面的规则:

    2、Logistic回归的损失函数

    Logistic回归中的参数是θ,怎么估计这个参数呢?那么就要定义损失函数,通过最小化损失函数来求解参数。

    线性回归中的损失函数是平方误差损失函数,如果Logistic回归也采用这种损失函数形式,那么得到的损失函数将是一个非凸函数。这意味着损失函数会有很多局部极小值,因此不容易找到全局最小值。比如左边这个就是非凸函数的形状,明显右边这个平滑的图不容易陷入局部极小值陷阱。

    假设训练数据集为{(x1,y1),(x2,y2),...(xm, ym)},即有m个样本,令x=[x0, x1, ..., xn]T,x0=1,即每个样本有n个特征,y∈{0, 1}。于是把Logistic回归的损失函数定义为对数损失函数:

    这个对数损失函数的特点是:当类别y=1时,损失随着的减小而增大,为1时,损失为0;当类别y=0时,损失随着的增大而增大,为0时,损失为0。与损失的关系如下图:

    可以把损失整理为以下的形式:

    于是损失函数就成了:

    这个损失函数叫做对数似然损失函数,也有个很好听的名字:交叉熵损失函数(cross entropy loss)。这个损失函数是个凸函数,因此可以用梯度下降法求得使损失函数最小的参数。

    3、Logistic回归的梯度下降法

    得到了交叉熵损失函数后,可以用梯度下降法来求得使代价函数最小的参数,也就是按下面这个公式更新每个参数θj

    这个公式怎么推导的呢?如下是详细的推导过程。

    已知:

    首先:

    把上式代入损失函数中,并对θj求偏导:

    这个推导比较长,但是推导的结果非常简洁漂亮。

    将这个偏导数乘以学习了,得到了用梯度来更新参数的公式,再用下面这个公式来同时更新所有的参数值,使损失函数最小化,直到模型收敛。

    4、Logistic回归防止过拟合

    在损失函数中加入参数θj的L2范数,限制θj的大小,以解决过拟合问题,那么加入正则化项的损失函数为:

    相应的,此时的梯度下降算法为:

    重复以下步骤直至收敛:

     

    二、softmax回归

    Logistic回归是用来解决二类分类问题的,如果要解决的问题是多分类问题呢?那就要用到softmax回归了,它是Logistic回归在多分类问题上的推广。此处神经网络模型开始乱入,softmax回归一般用于神经网络的输出层,此时输出层叫做softmax层。

    1、softmax函数

    首先介绍一下softmax函数,这个函数可以将一个向量(x1,x2,...,xK)映射为一个概率分布(z1,z2,...,zK):

    那么在多分类问题中,假设类别标签y∈{1, 2, ..., C}有C个取值,那么给定一个样本x,softmax回归预测x属于类别c的后验概率为:

    其中wc是第c类的权重向量。

    那么样本x属于C个类别中每一个类别的概率用向量形式就可以写为:

    其中W=[w1,w2,...,wC]是由C个类的权重向量组成的矩阵,1表示元素全为1的向量,得到是由所有类别的后验概率组成的向量,第c个元素就是预测为第c类的概率,比如[0.05, 0.01, 0.9, 0.02, 0.02],预测为第3类。

    2、softmax回归的损失函数和梯度下降

    假设训练数据集为{(x1,y1),(x2,y2),...(xM, yM)},即有M个样本,softmax回归使用交叉熵损失函数来学习最优的参数矩阵W,对样本进行分类。

    由于涉及到多分类,所以损失函数的表示方法稍微复杂一些。我们用C维的one-hot向量y来表示类别标签。对于类别c,其向量表示为:

    其中表示指示函数。

    则softmax回归的交叉熵损失函数为:

    其中表示样本预测为每个类别的后验概率组成的向量。

    上面这个式子不太好理解,我们单独拿出一个样本来观察。假设类别有三类,预测一个样本x属于第2类的交叉熵损失为,其中,如果预测正确,如,则交叉熵损失为,而如果预测错误,如,则交叉熵损失为,可见预测错误时损失非常大。

    同样的,用梯度下降法对损失函数进行优化求解,首先得到损失参数向量W的梯度:

    初始化W0=0,然后对所有参数WC进行迭代更新,直至收敛。

     

    三、总结

    Logistic回归这个可爱的模型,相比SVM、GBDT等模型,要简单得多,但是由于这个模型可解释性强,被广泛运用于各种业务场景中。此外,它也是如今大行其道的深度学习算法的基础之一。

    逻辑回归的优点有以下几点:

    1、模型的可解释性比较好,从特征的权重可以看到每个特征对结果的影响程度。

    2、输出结果是样本属于类别的概率,方便根据需要调整阈值。

    3、训练速度快,资源占用少。

    而缺点是:

    1、准确率并不是很高。因为形式非常简单(非常类似线性模型),很难去拟合数据的真实分布。

    2、处理非线性数据较麻烦。逻辑回归在不引入其他方法的情况下,只能处理线性可分的数据。

    3、很难处理数据不平衡的问题。

    吴恩达老师说,学完了Logistic回归,就有了丰富的机器学习知识,目测比那些硅谷工程师还厉害。所以有公司要我吗?坐等。 

     

     

     

    参考资料:

    1、吴恩达:《机器学习》

    2、邱锡鹏:《神经网络与深度学习》

    3、 https://blog.csdn.net/u010867294/article/details/79138603

  • 相关阅读:
    BZOJ3562 : [SHOI2014]神奇化合物
    BZOJ3559 : [Ctsc2014]图的分割
    BZOJ3551 : [ONTAK2010]Peaks加强版
    BZOJ3542:DZY Loves March
    李洪强iOS开发之
    iOS学习之iOS沙盒(sandbox)机制和文件操作1
    iOS学习之iOS沙盒(sandbox)机制和文件操作
    stringByAppendingPathComponent和stringByAppendingString 的区别
    iOS开发:Toast for iPhone
    深度解析开发项目之 01
  • 原文地址:https://www.cnblogs.com/Luv-GEM/p/10674719.html
Copyright © 2020-2023  润新知