• 深度学习1线性回归,逻辑回归


    这些天在写前几个月学习的三维重建方面的知识的同时,也开始学习着目前比较火的深度学习。学习这个不是跟着潮流,总是在想读研到底学到了什么。

    我想也就是个自学能力吧。其实感觉自己反而有点不自信了,本科毕业什么都不担心,可是现在担心的越来越多,人也慢慢变得浮躁起来,嗨,不多说了,写一写这两天学到的东西,唯有写点东西才感觉心里上的踏实。

    主要参考吴恩达cs229课程

    作者给出问题的引入是房价的问题,房价跟面积有关

    clip_image002

    然后将这些数据在下面坐标系中列出所有的点。

    clip_image004

    然后给出问题,就是如果我们来了一个新的面积,而面前已有的数据中没有,那我们该怎么办。

    首先我们想到的我们用一个曲线去拟合这些点,得到了曲线的方程,这样自然就可以解出来。

    下面之前我们先给出一些概念。

    clip_image006

    则我们给出一个学习过程

    clip_image008

    好,下面言归正传,给个说明就是

    如果y的值是连续的,这就是一个回归问题,如果y的值是离散的,这就是一个分类问题。那下面开始学习线性回归。

    对于上述问题,房价不仅仅跟面积有关还跟很多其他的因素有关,比如卧室的个数。如下图:

    clip_image010

    可能房价还与朝向等等其他特征有关

    我们用X1,X2..Xn 去描述特征里面的分量,比如x1=房间的面积,x2=卧室的个数等等,我们可以给出y的一个估计函数:

    clip_image012

    θ这系数也就是权限,就是这个特征的份量。

    我们令X0=0,则我们就可以把上述公式写成

    clip_image014

    也就是转换到向量中处理

    clip_image016

    clip_image018

    那我们的目标也就是求出这些θ。

    我们采用假设法,先假设θ已经得出,那我们就要考虑给出的θ到底好不好呢,怎么衡量呢

    我们采用下面的式子:

    clip_image020

    这个函数一般称为损失函数或者错误函数,主要来描述我们估计的函数h到底好不好。

    对于上述式子中的1/2主要是为了求导用,假设有m个训练数据,y为真实值,h为估计值

    那我们的目标就是求:

    clip_image022

    在上述最小的情况下θ的值。最好的情况也就是clip_image022[1]为0,也就是每个y跟h一样,但一般达不到。那这个怎么解呢?

    首先作者给出的是梯度下降法。

    我们对于上述问题可以换个思路,求在clip_image022[2]情况下的θ,也就是要选择一个θ是J(θ)最小,那怎么处理呢。

    我们先给出θ的一个初始值,然后改变θ的值,使J(θ)沿梯度下降方向进行减小,即:

    clip_image024(α称为学习率,j为所有值0,…,n)

    为什么可以写成单独一个,因为标量y对列向量X求导:

    对N×1向量求导后还是N×1向量 y = f(x1,x2,..,xn) --> dy/dX = (Dy/Dx1,Dy/Dx2,..,Dy/Dxn)'

    对于上式我们要求的也就是J(θ)的偏导数,下面我们假设训练数据只有一个,则可以得到:

    clip_image026

    则对于单一的训练数据有:

    clip_image028

    对于上述的迭代更新的方式有两种,批梯度下降,增量梯度下降。

    批量梯度下降,就是对所有的训练数据都计算完之后在对θ更新,即

    clip_image030

    i是训练数据,j是维度,不要搞混了。

    另外一种是增量梯度下降,就是每训练一个数据就对θ进行更新,如下:

    clip_image032

    然后看clip_image034判断是否继续还是结束

  • 相关阅读:
    Spring MVC 3 深入总结
    精益之识别和消除研发过程中浪费的思路和模式
    怎样区分直连串口线和交叉串口线?
    UVA 10557 XYZZY
    概率论 —— 分析计算机系统和网络的可靠性和通用性
    概率论 —— 分析计算机系统和网络的可靠性和通用性
    Sift中尺度空间、高斯金字塔、差分金字塔(DOG金字塔)、图像金字塔
    鲁迅先生的话
    鲁迅先生的话
    辛词
  • 原文地址:https://www.cnblogs.com/fengbing/p/3079033.html
Copyright © 2020-2023  润新知