• 神经网络和深度学习(三)深层神经网络


    1、深层神经网络中的前向传播:

    (1)单数据情况:

    z[1] = w[1]x + b[1]

    a[1] = g[1](z[1])

    z[2] = w[2]a[1] + b[2]

    a[2] = g[2](z[2])

    ... ...

    z[l] = w[l]a[l-1] + b[l]

    a[l] = g[l](z[l]) = y^

    (2)向量化情况:

    Z[1] = W[1]X + b[1]

    A[1] = g[1](Z[1])

    Z[2] = W[2]A[1] + b[2]

    A[2] = g[2](Z[2])

    ... ...

    Z[l] = W[l]A[l-1] + b[l]

    A[l] = g[l](Z[l]) = Y^

    2、神经网络矩阵的维数:

    (1)单数据情况:

    a[l]、z[l]、b[l]、db[l] : (n[l], 1)

    w[l]、dw[l] : (n[l], n[l-1])

    (2)向量化情况:

    A[l]、Z[l] : (n[l], m)

    b[l]、db[l] : (n[l], 1)

    W[l]、dW[l] : (n[l], n[l-1])

    3、神经网络块:

     

    4、深层神经网络中的反向传播:

    (1)单数据情况:

    dz[l] = da[l] * g[l]'(z[l])   ( = a[l] - y)

    dw[l] = dz[l]a[l-1]T

    db[l] = dz[l]

    da[l-1] =  w[l]Tdz[l]

    dz[l-1] = da[l-1] * g[l-1]'(z[l-1])

    ... ...

    (2)向量化情况:

    dZl] = dA[l] * g[l]'(Z[l])   ( = A[l] - Y)

    dW[l] = 1/m * dZ[l]A[l-1]T

    dB[l] = 1/m * np.sum(dZ[l], axis=1,keepdims=True)

    dA[l-1] =  W[l]TdZ[l]

    dZ[l-1] = dA[l-1] * g[l]'(Z[l]

    ... ...

    5、参数与超参数:

    parameters:W[1],b[1],W[2],b[2],... ...

    hyper parameters:需要自己设定的参数,如:learning rate; #iterations; #hidden layer; #hidden units; #choice of activation function.

  • 相关阅读:
    全排列
    RazorPages中的绑定
    SQL Server安装步骤
    2020-2021---开发工作总述
    C#.NET编程的特点
    VS自带Git的使用
    从apk反编译出.java文件
    基于页面的编程模型+关于设计的表达
    XtraReport注意事项
    Android总结
  • 原文地址:https://www.cnblogs.com/orangecyh/p/11799540.html
Copyright © 2020-2023  润新知