• 机器学习——一元线性回归(二)


    机器学习——一元线性回归(二)

    一、回归背景(Regression Background)

    回归最早由Francis Galton提出,他还是著名生物学家,进化论奠基人Charles Darwin的表弟。Galton受进化论的影响,把该思想进行人类研究,从一串角度解释个体差异形成的原因。

    Francis Galton研究人类身高,进行归纳普遍规律,这是最早的回归。

    二、一元线性回归(Unary linear Regression)

    • 回归分析(Regression analysis)用来建立方程模拟两个或者多个变量之间如何关联
    • 被预测的变量叫做:因变量(dependent variable), 输出(output)
    • 被预测的变量叫做:自变量(independent variable), 输入(input)
    • 一元线性回归包含一个自变量和一个因变量
    • 以上两个变量关系进行一条直线模拟
    • 如果包含两个以上的因变量,则称作多元回归分析(multiple regression)

    h(θ)=θ0+θ1X

    这个方程对应的图形是一条直线,称作回归线,其中θ1为回归线的斜率,θ0为回归线的截距

    正相关

    负相关

    无关

    三、代价函数(相关系数/决定系数)

    1.代价函数(Cost Function)
    • 最小二乘法
    • 真实值y,预测值hθ(x),则误差平方为(y-hθ(x))^2,
    • 找到合适的参数,使得误差平方和最小

    [zeta( heta_0, heta_1)=frac{1}{2m}sum_{i=1}^m(y^i-h_ heta(x^i))^2 ]

    Hypothesis:

    [h_ heta(x)= heta_0+ heta_1 ]

    Simplified:

    [h_ heta(x)= heta_1x ]

    Parameters:

    [ heta_0, heta1 ]

    Simplified:

    [ heta_1 ]

    Cost Function:

    [J( heta_0, heta_1)=frac{1}{2m}sum_{i=1}^{m}(h_ heta(x^{(i)})-y^{(i)})^2 ]

    **Goal: **

    [min_{ heta_0, heta_1}J( heta_0, heta_1) ]

    Simplified:

    [min_{ heta_1}J( heta_1) ]

    2.相关系数

    我们使用相关系数来衡量线性相关的强弱

    3.决定系数

    相关系数R^2(coefficient of determination)是用来描述两个变量之间的线性关系的,但决定系数适用范围更广,可以用于描述非线性或者有2个及两个以上自变量的相关关系。可以来评价模型效果。

    总平方和(SST):

    [sum_1^n(y_i-overline{y})^2 ]

    回归平方和(SSR):

    [sum_i^n(hat{y}-overline{y})^2 ]

    残差平方和(SSE):

    [sum_{i=1}^n(y_i-hat{y})^2 ]

    他们的三者关系是:

    [SST=SSR+SSE ]

    决定系数:

    [R^2=frac{SSR}{SST}=1-frac{SSE}{SST} ]

    四、梯度下降法

    梯度下降法是一个优化算法,来优化代价函数,使代价函数变小

    [Have some function J( heta_0, heta_1) ]

    [Want min_{ heta_0, heta_1}( heta_0, heta_1) ]

    • 初始化θ0,θ1
    • 不断改变θ0,θ1,直到J(θ0,θ1)到达一个全局最小值,局部最大值

  • 相关阅读:
    CentOS7安装部署Mongodb
    Innodb
    flatstyle实现图片贴图
    通过Rdp实现连接远程桌面
    EverythingSdk
    亿企代账
    http文件下载服务器
    亿企代账2
    通过bcp快速导入、导出sqlserver数据
    delphi7设置日期格式
  • 原文地址:https://www.cnblogs.com/littlepage/p/11839438.html
Copyright © 2020-2023  润新知