• [DeeplearningAI笔记]第一章2.1-2.4 二分分类,logistic回归,logistic回归损失函数,梯度下降法


    [DeeplearningAI笔记]第一章2.1-2.4 二分分类,logistic回归,logistic回归损失函数,梯度下降法

    觉得有用的话,欢迎一起讨论相互学习~

    我的微博我的github我的B站

    吴恩达老师课程原地址

    2.1 二分分类

    • 在二分分类问题中,目标是训练出一个分类器,它以图片的特征向量x作为输入,预测输出的结果标签y是1还是0.在图像识别猫图片的例子中也就是预测图片中是否有猫.

    2.2 logistic回归

    • 已知的输入的特征向量x,可能是一张图,你需要将其识别出这是不是一张猫图,你需要一个算法,给出一个预测值,这里我们将预测值表示为(hat{y}).就是你对y的预测,正式的说你希望y是一个预测的概率值.当输入特征x满足条件时,y就是1.你希望(hat{y})告诉你这是一张猫图的概率.如果我们使用线性方程的计算表示,这里的图片是一个n维的向量,我们设置里的w也是一个n维的向量,则此时的方程是(hat{y}=W^{T}.x+b)但是通过这样计算得出的值表示y是一个有可能是一个比1大的数,有可能是负数的值,而我们需要计算的概率应该是在0~1之间的范围内.所以我们单纯的计算这样的(hat{y})是没有意义的,所以在logistic regression中我们将sigmoid函数作用到这个量上.

    sigmoid函数

    数据保存格式

    1. 图片保存格式

    2. 数据保存格式
      在这里插入图片描述

    2.3 logistic回归损失函数

    loss function

    • loss function 损失函数,可以用来衡量算法的运行情况,你可以定loss function为(hat{y})和y的差的平方,或者是差的平方的1/2.结果表明你可以这样做,但是通常在logistic 回归中,大家都不这样做,因为使用这个loss function 在做优化问题时,优化函数会变成非凸的最后会得到很多个局部最优解.梯度下降法可能找不到全局最优解.直观的解释是我们通过loss function 来衡量你的预测输出值(hat{y})和y的实际值有多接近.

    • 所以为了解决这个问题,在使用优化器进行优化的时候使其成为一个凸的函数,我们在这里使用交叉熵数 (-((y^{(i)}*log(hat{y}^{(i)})+(1-y^{(i)})*log(1-hat{y}^{(i)})))

    cost function

    • loss function(损失函数)只适用于单个训练样本,但是cost function(成本函数)则是基于整体训练集.所以在训练logistic regression的模型时,我们要找到合适的参数W和b使cost function计算得到的值尽可能小.

    [-frac{1}{m}sum_{i=1}^m((y^{(i)}*log(hat{y}^{(i)})+(1-y^{(i)})*log(1-hat{y}^{(i)})) ]

    2.4 梯度下降法

    • 在此图中横轴表示参数w和b,在实践中w可以是更高维度的数据,此处为了绘制图片,我们将其设置为一个实数,b也是一个实数,成本函数J(W,b)是在水平轴w和b上的曲面,曲面的高度表示J(W,b)在某一点的值,我们想要做的就是找到这样的W和b使其对应的成本函数J值是最小值.我们这里使用的cost function是交叉熵函数是一个凸函数,这是logistic回归使用这个特定成本函数J的重要原因之一.

  • 相关阅读:
    取消GridView/ListView item被点击时的效果 记录学习
    EditText 几种显示方式,固定行数,自适应行数
    Android 判断当前屏幕是横屏还是竖屏
    Android 用代码设置Shape,corners,Gradient
    Android 横屏不让输入法全屏显示
    js-JavaScript高级程序设计学习笔记7
    js-FCC算法-Pairwise
    js-JavaScript高级程序设计学习笔记6
    js-JavaScript高级程序设计学习笔记5
    js-自制轮播插件!
  • 原文地址:https://www.cnblogs.com/cloud-ken/p/7661975.html
Copyright © 2020-2023  润新知