• DataWhale八月组队学习-李宏毅深度学习Task02-回归


    回归

    • 应用领域
      • 股票市场预测 stock Market Forecast
      • 无人驾驶汽车 Self-driving Car
      • 推荐 Recommendation

    1 具体步骤

    • 寻找Model

      • bw是参数,可以取任意值

      • 由于有无穷无尽的参数值可供挑选,自然会衍生出无穷无尽的函数。

      • 用上述的一个式子就可以表示无穷无尽的函数,这个式子被称之为Model

      • 而这个Model被称为Linear model

        • 一个线性模型可能具有多个特征(feature)和多个权重系数(weight

    • 得出损失函数

      • 收集10个数据样本,将样本中xy的关系进行图形绘制

      • 定义损失函数L

        • 输入:是Model中的一个Function

        • 输出:当前这个Function有多糟糕

        • 公式流程(红色下划线表示的是预测值):

    • 挑选最好的Function

      • Model中的每一组Function带入到损失函数的计算公式中,找出能使得损失函数计算结果最小的wb

    • 梯度下降

      • 初始不引入参数b,仅关注参数w

        • 具体步骤

          • 随机取定w

          • 进行偏导数计算,导数值为负则增加w,导数值为正则减小w

          • 增加或者减小w的幅度还取决于学习率(红色字体符号)

        • 重复上述步骤直到偏导数的值为零

      • 同时引入两个参数

        • 具体步骤(图中最后一列有问题,需要将0全部换为1)

        • 移动过程

        • 令人担心之处:可能走到不同的谷底(偏导数为0之处),谷底的深度会不一样。

          • 不用担心,在线性回归中,损失函数找出的最佳参数始终都是同一组参数。因为wb绘制出的是同一幅等高线,等高线找到的谷底都是同一个谷底
    • 结果

      • 结果的关键不在于对已有数据偏差的估测,而在于对新数据(testing data)的误差的估测。

      • 新增加10个数据样本,绘制拟合情况图像

    2 新的模型

    为了达到更好地预测效果需要引入另一个模型

    • 二次函数

      • 公式:

      • 拟合情况:

      • 数据展示:

    • 其它更加复杂的模型,发现误差下降不明显。这是明显的过拟合现象(已经提前了解,不做赘述记录)

      • 越复杂的模型,越能够更好地拟合训练数据,越不一定能很好拟合测试数据。

      • 上述的理论用例子来阐述:越依赖你的父母,你就越安于现状,越不能很好的为自己的未来做好准备。

      • 综上所述,要选择最合适的模型

    3 同特征不同种类的影响

    • 模型相同时,针对不同的物种(相同特征类别不同),得到的Function可能不一样。

    • 具体公式表示

    不同特征的影响-正则化

    • 针对不同特征的影响,比如宝可梦除了种类,可能还有升高,体重等特征,将这些特征引入,得到的对测试集的拟合结果的误差大概率会很大,此时我们需要正则化。

    • 具体公式:

    • 解释:如果Wi越小,那么输入对输出的影响就会越小,输出结果就会更加的平滑(这个给第一个式子中的x加上一个增量,分离得到的常数项就可以看出来影响)

    • 函数越平滑,对于噪音输入的影响就会更小,输出结果收到的波及就会更小

    • 公式中惩罚项不引入b的原因是b与曲线的平滑程度无关

  • 相关阅读:
    SOAP webserivce 和 RESTful webservice 对比及区别(转载)
    JavaWeb工程中web.xml基本配置(转载学习)
    iframe 自适应
    SQL分组求每组最大值问题的解决方法收集 (转载)
    关于试用jquery的jsonp实现ajax跨域请求数据的问题
    解决Mysql连接池被关闭 ,hibernate尝试连接不能连接的问题。 (默认mysql连接池可以访问的时间为8小时,如果超过8小时没有连接,mysql会自动关闭连接池。系统发布第二天访问链接关闭问题。
    Hadoop编译源码(面试重点)
    Hadoop学习(二)自己编译Hadoop安装包
    代理模式实现方式及优缺点对比
    zookeeper
  • 原文地址:https://www.cnblogs.com/MurasameLory-chenyulong/p/15151043.html
Copyright © 2020-2023  润新知