• 斯坦福CS224n课程作业


    斯坦福CS224n作业一

    softmax

    作业要求如下:

    解析:题目要求我们证明(softmax)函数具有常数不变性。

    解答:对于(x+c)的每一维来说,有如下等式成立:

    [softmax(x+c)_{i}=frac{e^{x_{i}+c}}{sum_{j}e^{x_{j}+c}}=frac{e^{x_{i}}*e^{c}}{sum_{j}(e^{x_{j}}*e^{c})}=frac{e^{x_{i}}*e^{c}}{sum_{j}(e^{x_{j}})*e^{c}}=frac{e^{x_{i}}}{sum_{j}e^{x_{j}}}=softmax(x)_{i} ]

    则可知(softmax(x)=softmax(x+c))成立

    Neural Network Basics

    求解sigmoid函数梯度

    作业要求如下:

    解析:本题要求我们计算(sigma(x))函数的梯度,并用(sigma(x))表示结果
    解答:$$frac{partial{(sigma(x)})}{partial{x}}=frac{partial{(frac{1}{1+e^{-x}}})}{partial{x}}$$
    (a=1+e^{-x}),应用链式法则可以得到:

    [frac{partial{(sigma(x)})}{partial{x}}=frac{partial{(frac{1}{a}})}{partial{x}}=-(frac{1}{a})^{2}*frac{partial{a}}{partial{x}}=-(frac{1}{a})^{2}*e^{-x}*(-1)=frac{e^{-x}}{(1+e^{-x})^{2}} ]

    (sigma(x))可以表示为(sigma(x)-sigma(x)^{2})

    softmax + 交叉熵的梯度推导

    作业要求如下:

    解析:本题给定了实际值(y),预测值(hat{y}),以及softmax的输入向量( heta),要求我们求解(CE(y,hat{y}))( heta)的梯度
    解答:
    对于每个( heta_{i})来说,(CE(y,hat{y}))( heta_{i})的梯度如下所示:

    可知,对于所有的i来说,(CE(y,hat{y}))( heta_{i})的梯度为(hat{y}-y)

    三层神经网络的梯度推导

    作业要求如下:

    解析:本题要求推导(CE(y,hat{y}))对输入(x)的梯度。
    解答:

  • 相关阅读:
    读取XML直接转换为类对象
    EF 连接sql2000
    Web自动化测试 七 ----- 鼠标、键盘操作
    Web自动化测试 六 ----- selector选择
    Web自动化测试 五 ----- selenium的等待和切换
    Web自动化测试 四 ----- python selenium 八大元素定位
    Web自动化测试 三 ----- DOM对象和元素查找
    Web自动化测试 二 ----- HTML
    Web自动化测试 一
    HTTP和HTTPS的区别
  • 原文地址:https://www.cnblogs.com/AnnaJuly/p/10783347.html
Copyright © 2020-2023  润新知