• 神经网络简介


    新手上路很多概念不清楚,本文作为记录和笔记,简单摘抄,列出关键概念,以便查阅,详细内容移步原文

    神经网络

    参考:如何自己从零实现一个神经网络? - 量子位的回答 - 知乎

    关键词

    神经元:神经网络基本单元,获得输入,计算,产生输出
    - 权重:wx
    - 偏置:b
    - 激活函数:使用的sigmoid,作用对无限制的输入转换为可预测形式输出,从而具有某种意义(比如概率)
    神经网络
    - 前馈:神经元的输入向前传递获得输出的过程
    训练神经网络:设定一个损失函数,想办法把损失函数最小化
    减少神经网络损失:因为改变网络的权重w和偏置b可以影响预测值,损失函数实际上就是包含多个权重、偏置的多元函数

    [Lleft(w_{1}, w_{2}, w_{3}, w_{4}, w_{5}, w_{6}, b_{1}, b_{2}, b_{3} ight) ]

    故要研究某一个自变量对于函数的影响,可以求某一个自变量的偏导(比如文章中是w1),过程中会使用到链式法则,因为是向后计算(往前馈forward的反方向,即从输出往输入的方向),故称向后计算偏导数的系统为返乡传播(backpropogation)
    随机梯度下降SGD

    [w_{1} leftarrow w_{1}-eta frac{partial L}{partial w_{1}} ]

    定义了改变权重和偏置的方法,(eta)是一个常数,称为学习率(learning rate),它决定了我们训练网络速率的快慢。将w1减去η·∂L/∂w1,就等到了新的权重w1。(eta)的大小自己把握
    当∂L/∂w1是正数时,w1会变小;当∂L/∂w1是负数 时,w1会变大。
    如果我们用这种方法去逐步改变网络的权重w和偏置b,损失函数会缓慢地降低,从而改进我们的神经网络

    日积月累,水滴石穿
  • 相关阅读:
    SQL server 数据库安装
    jmeter接口测试
    jmeter测试之-脚本制作
    HTTP协议
    计算机原理
    Ubuntu 14.04 搭建 LNMP
    pycharm使用技巧
    hihoCoder #1867 GCD
    Mail.Ru Cup 2018 Round 2 Problem C Lucky Days
    C++ Essentials 之 lower_bound 和 upper_bound 的比较函数格式不同
  • 原文地址:https://www.cnblogs.com/lonelyisland/p/12566507.html
Copyright © 2020-2023  润新知