• 5 Logistic回归(一)


    首次接触最优化算法。介绍几个最优化算法,并利用它们训练出一个非线性函数用于分类。

    假设现在有一些数据点,我们利用一条直线对这些点进行拟合(该直线为最佳拟合直线),这个拟合过程称作回归。

    利用Logistic回归进行分类思想:根据现有数据对分类边界线建立回归公式,以此进行分类。

    这里的“回归”一词源于最佳拟合,表示找到最佳拟合参数。训练分类器的做法:寻找最佳拟合参数,使用的是最优化算法(梯度上升法、改进的随机梯度上升法)。

    5.1 基于Logistic回归和Sigmoid函数的分类

    Logistic回归:优点:计算代价不高,易于理解和实现。缺点:容易欠拟合,分类精度可能不高。适用数据类型:数值型、标称型。

    Sigmoid函数:g(z)=1/(1+e-z),也可表示为hΘ(X)=g(ΘTX).

    为了实现Logistic回归分类器,我们需要在每个特征上乘以一个回归系数,然后把所有结果值相加,将这个总和代入Sigmoid函数,进而得到0~1之间的数值。

    此时就可以对标签y进行分类了:

    其中θTx=0 即θ0+θ1*x1+θ2*x2=0 称为决策边界即boundarydecision。

    Cost function:

    线性回归的cost function依据最小二乘法是最小化观察值和估计值的差平方和。即:

    但是对于logistic回归,我们的cost fucntion不能最小化观察值和估计值的差平法和,因为这样我们会发现J(θ)为非凸函数,此时就存在很多局部极值点,就无法用梯度迭代得到最终的参数(来源于AndrewNg video)。因此我们这里重新定义一种cost function

    通过以上两个函数的函数曲线,我们会发现当y=1,而估计值h=1或者当y=0,而估计值h=0,即预测准确了,此时的cost就为0,,但是当预测错误了cost就会无穷大,很明显满足cost function的定义。

    可以将上面的分组函数写在一起:

    这样得到总体的损失函数J(θ)为:

    5.2 基于最优化方法的最佳回归系数确定

    Sigmoid函数输入记为z, z=w0x0+w1x1+...+wnxn。如果采用向量的写法,z=wTx,表示将这两个数值向量对应的元素相乘然后全部加起来得到z值。

    其中向量x是分类器的输入数据,向量w就是我们要找到的最佳参数(系数)。 

    5.2.1 梯度上升法

    梯度上升法思想:要找到某个函数的最大值,最好的方法是沿着该函数的梯度方向探寻。如果梯度记为▽,则函数f(x,y)的梯度由下式表示:

    。这个梯度意味着沿x方向移动,沿y方向移动。其中,函数f(x,y)必须在待计算的点上有定义并且可微。

    这样我们依据上面的J(θ)就可以得到梯度上升的公式:

    当然上图中少了个求和符号。这样就得到

    当然对于随机化的梯度迭代每次只使用一个样本进行参数更新,就为:

    这也是下面代码中公式的来源。

    例如:data=[1,2,3;4,5,6;7,8,9;10,11,12]为4个样本点,3个特征的数据集,,此时标签为[1,0,0,0],

    那么用梯度上升  表达的就是当j=0时,就是第一列[1,4,7,10]与标签差的乘积。。这个自己体会下吧。。

    为什么要采用上面的函数作为cost function?

    Andrew Ng给的解释是因为最小估计值和观察值的差平方和为非凸函数,通过函数曲线观察得到上面的cost function满足条件。

    这里给出另外一种解释——最大似然估计:

    我们知道hθ(x)≥0.5<后面简用h>,此时y=1, 小于0.5,y=0. 那么我们就用h作为y=1发生的概率,那么当y=0时,h<0.5,此时不能用h作为y=0的概率,<因为最大似然的思想使已有的数据发生的概率最大化,小于0.5太小了>,我们可以用1-h作为y=0的概率,这样就可以作为y=0的概率了,,然后只需要最大化联合概率密度函数就可以了。

    这样联合概率密度函数就可以写成:

    再转换成对数似然函数,就和上面给出的似然函数一致了。

     图5-2  梯度上升算法到达每个点后都会重新估计移动的方向

    图5-2中的梯度上升算法沿梯度方向移动了一步。梯度算子总是指向函数值增长最快的方向。这里说的移动方向,而未提到移动量的大小。该量值称为步长,记做α。用向量来表示的话,梯度上升算法的迭代公式如下: w:=w+α▽wf(w).

    该公式将一直进行迭代,直到达到某个停止条件为止,比如迭代次数达到某个指定值或算法达到某个可以允许的误差范围。

    5.2.2 训练算法:使用梯度上升找到最佳参数

    训练样本:100个样本点,每个点包含两个数值型特征:x1和x2.

    #coding:utf-8
    from numpy import *
    
    def loadDataSet():#便利函数:打开文件并逐行读取
        dataMat = []; labelMat = []
        fr = open('testSet.txt')
        for line in fr.readlines():
            lineArr = line.strip().split()
            dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])#为方便计算,将x0值设为1.0
            labelMat.append(int(lineArr[2]))
        return dataMat, labelMat
    
    def sigmoid(inX):
        return 1.0/(1+exp(-inX))
    
    def gradAscent(dataMatIn, classLabels):#梯度上升:dataMatIn:2维NumPy数组,100*3矩阵;classLabels:类别标签,1*100行向量
        dataMatrix = mat(dataMatIn)#特征矩阵
        labelMat = mat(classLabels).transpose()#类标签矩阵:100*1列向量
        m,n = shape(dataMatrix)
        alpha = 0.001#向目标移动的步长
        maxCycles = 500#迭代次数
        weights = ones((n,1))#n*1列向量:3行1列
        for k in range(maxCycles):
            h = sigmoid(dataMatrix*weights)#100*3*3*1=100*1,dataMatrix * weights代表不止一次乘积计算,事实上包含了300次乘积
            error = (labelMat - h)#真实类别与预测类别的差值
            weights = weights + alpha * dataMatrix.transpose()* error#w:=w+α▽wf(w)
        return weights
            

    注:倒数第二行代码

     weights = weights + alpha * dataMatrix.transpose()* error#w:=w+α▽wf(w)

    5.2.3 分析数据:画出决策边界

    上面已经解出一组回归系数,它确定了不同类别数据之间的分隔线。如何画出分隔线,从而使得优化过程便于理解?

    #5-2:画出数据集和Logistic回归最佳拟合直线的函数
    def plotBestFit(weights):
        import matplotlib.pyplot as plt
        dataMat, labelMat = loadDataSet()
        dataArr = array(dataMat)
        n = shape(dataArr)[0]#n=100
        xcord1 = []; ycord1 = []
        xcord2 = []; ycord2 = []
        for i in range(n):
            if int(labelMat[i]) == 1:
                xcord1.append(dataArr[i, 1]); ycord1.append(dataArr[i, 2])
            else:
                xcord2.append(dataArr[i, 1]); ycord2.append(dataArr[i, 2])
        fig = plt.figure()
        ax = fig.add_subplot(111)
        ax.scatter(xcord1, ycord1, s=30, c='red', marker='s')
        ax.scatter(xcord2, ycord2, s=30, c='green')
        x = arange(-3.0, 3.0, 0.1)#arange创建等差数组,-3.0起始点,3.0终止点(不包含3.0),间隔为0.1
        y = (-weights[0] - weights[1] * x)/weights[2]#最佳拟合直线,设置sigmoid函数为0,0是两个分类(类别1和类别0)的分界处。因此设定0=w0x0+w1x1+w2x2,解出x1和x2关系(即分割线的方程,x0=1)。
        ax.plot(x, y)
        plt.xlabel('X1');plt.ylabel('X2');
        plt.show()

    这个分类结果相当不错,尽管例子简单且数据集很小,这个方法却需要大量的计算(300次乘法)。

    因此下一节将对该算法稍作改进,从而使它可以用在其他真是数据上。

    注明:5.1参考下面链接

    作者:小村长  出处:http://blog.csdn.net/lu597203933
    
    
    
  • 相关阅读:
    vs与linux的交叉编译环境搭建
    layui框架部分功能介绍
    谷歌添加百度翻译提示Google已将百度翻译标记为恶意程序并阻止安装,怎么办
    七,JOBC数据库编程
    mysql数据库
    六,IO系统
    五,图形界面编程
    四,集合框架
    三,反射类
    二,常用类
  • 原文地址:https://www.cnblogs.com/hudongni1/p/5183212.html
Copyright © 2020-2023  润新知