• 吴恩达 — 神经网络与深度学习 — L1W3练习


    第三周 - 浅层神经网络

    第 21 题

    以下哪项是正确的?(选出所有正确项)

    A.(a^{[2](12)})是第12层,第2个训练数据的激活向量

    B.(X)是一个矩阵,其中每个列是一个训练数据

    C.(a^{[2]}_4)是第2层,第4个训练数据的激活输出

    D.(a^{[2]}_4)是第2层,第4个神经元的激活输出

    E.(a^{[2]})表示第2层的激活向量

    F.(a^{[2](12)})是第2层,第12个数据的激活向量

    G.(X)是一个矩阵,其中每个行是一个训练数据

    第 22 题

    对于隐藏单元,tanh激活通常比sigmoid激活函数更有效,因为其输出的平均值接近于零,因此它可以更好地将数据集中到下一层。

    A.对
    B.不对

    第 23 题

    以下哪一个是(l)层的正向传播的正确矢量化实现,其中(1 le l le L)

    A.
    (Z^{[l]}=W^{[l]}A^{[l]}+b^{[l]})
    (A^{[l+1]}=g^{[l]}(Z^{[l]}))

    B.
    (Z^{[l]}=W^{[l]}A^{[l]}+b^{[l]})
    (A^{[l+1]}=g^{[l+1]}(Z^{[l]}))

    C.
    (Z^{[l]}=W^{[l-1]}A^{[l]}+b^{[l]})
    (A^{[l]}=g^{[l]}(Z^{[l]}))

    D.
    (Z^{[l]}=W^{[l]}A^{[l-1]}+b^{[l]})
    (A^{[l+1]}=g^{[l]}(Z^{[l]}))

    第 24 题

    您正在构建一个用于识别黄瓜(y=1)与西瓜(y=0)的二进制分类器。对于输出层,您建议使用哪一个激活函数?

    A.ReLU

    B.Leaky ReLU

    C.sigmoid

    D.tanh

    第 25 题

    考虑以下代码:

    A = np.random.randn(4,3)
    B = np.sum(A, axis = 1, keepdims = True)
    

    B.shape是多少?

    A.(4,)
    B.(1, 3)
    C.(, 3)
    D.(4, 1)

    第 26 题

    假设你已经建立了一个神经网络。您决定将权重和偏差初始化为零。以下哪项陈述是正确的?(选出所有正确项)

    A.第一隐藏层中的每个神经元将执行相同的计算。因此,即使在梯度下降的多次迭代之后,层中的每个神经元将执行与其他神经元相同的计算。

    B.第一隐层中的每个神经元在第一次迭代中执行相同的计算。但是在梯度下降的一次迭代之后,他们将学会计算不同的东西,因为我们已经“破坏了对称性”。

    C.第一个隐藏层中的每个神经元将执行相同的计算,但不同层中的神经元执行不同的计算,因此我们完成了课堂上所描述的“对称性破坏”。

    D.即使在第一次迭代中,第一个隐藏层的神经元也会执行不同的计算,因此,它们的参数会以自己的方式不断演化。

    第 27 题

    逻辑回归的权重w应该随机初始化,而不是全部初始化为全部零,否则,逻辑回归将无法学习有用的决策边界,因为它将无法“打破对称”

    A.对
    B.不对

    第 28 题

    你已经为所有隐藏的单位建立了一个使用tanh激活的网络。使用np.random.randn(…, …)*1000将权重初始化为相对较大的值。会发生什么?

    A.没关系。只要随机初始化权重,梯度下降不受权重大小的影响。

    B.这将导致tanh的输入也非常大,从而导致梯度也变大。因此,你必须将(alpha)设置得非常小,以防止发散;这将减慢学习速度。

    C.这将导致tanh的输入也非常大,导致单元被“高度激活”。与权重从小值开始相比,加快了学习速度。

    D.这将导致tanh的输入也非常大,从而导致梯度接近于零。因此,优化算法将变得缓慢。

    第 29 题

    考虑以下1个隐层的神经网络:

    Image Name

    A.(W^{[1]})的形状是(2, 4)

    B.(b^{[1]})的形状是(4, 1)

    C.(W^{[1]})的形状是(4, 2)

    D.(b^{[1]})的形状是(2, 1)

    E.(W^{[2]})的形状是(1, 4)

    F.(b^{[2]})的形状是(4, 1)

    G.(W^{[2]})的形状是(4, 1)

    H.(b^{[2]})的形状是(1, 1)

    第 30 题

    在和上一问相同的网络中,(Z^{[1]})(A^{[1]})的维度是多少?

    A.(Z^{[1]})(A^{[1]})是(4, 1)
    B.(Z^{[1]})(A^{[1]})是(1, 4)
    C.(Z^{[1]})(A^{[1]})是(4, m)
    D.(Z^{[1]})(A^{[1]})是(4, 2)

    21-30题 答案

    21.BDEF 22.A 23.D 24.C 25.D 26.A 127.B 28.D 29.BC EH 30.C

  • 相关阅读:
    常用查看日志的命令
    通过maven profile配置不同开发环境
    java使用shiro小记
    gitlab使用小记
    java使用guava变形数据结构
    php 把驼峰样式的字符串转换成下划线样式的字符串
    tcp粘包和拆包的处理方案
    php和js中,utf-8编码转成base64编码
    yum的用法
    rpm的用法
  • 原文地址:https://www.cnblogs.com/YukiNote/p/12259149.html
Copyright © 2020-2023  润新知