zoukankan      html  css  js  c++  java
  • 吴恩达深度学习笔记 course4 week1 测验

    1. 第 1 个问题

    What do you think applying this filter to a grayscale image will do?

    ⎡⎣⎢⎢0110133113310110⎤⎦⎥⎥
    0110133113310110

    Detect vertical edges                                   √      (左边像素为正,右边为负)

    Detect 45 degree edges

    Detect image contrast

    Detect horizontal edges

    第 2 个问题
    1
    point

    2. 第 2 个问题

    Suppose your input is a 300 by 300 color (RGB) image, and you are not using a convolutional network. If the first hidden layer has 100 neurons, each one fully connected to the input, how many parameters does this hidden layer have (including the bias parameters)?

    9,000,001

    9,000,100

    27,000,001

    27,000,100                       √

    第 3 个问题
    1
    point

    3. 第 3 个问题

    Suppose your input is a 300 by 300 color (RGB) image, and you use a convolutional layer with 100 filters that are each 5x5. How many parameters does this hidden layer have (including the bias parameters)?

    2501

    2600

    7500

    7600                                                 √

    第 4 个问题
    1
    point

    4. 第 4 个问题

    You have an input volume that is 63x63x16, and convolve it with 32 filters that are each 7x7, using a stride of 2 and no padding. What is the output volume?

    29x29x16

    16x16x16

    16x16x32

    29x29x32                                                  √

    第 5 个问题
    1
    point

    5. 第 5 个问题

    You have an input volume that is 15x15x8, and pad it using “pad=2.” What is the dimension of the resulting volume (after padding)?

    17x17x8                                               

    19x19x8                                                     √

    19x19x12

    17x17x10

    第 6 个问题
    1
    point

    6. 第 6 个问题

    You have an input volume that is 63x63x16, and convolve it with 32 filters that are each 7x7, and stride of 1. You want to use a “same” convolution. What is the padding?

    1

    2

    3

    7

    第 7 个问题
    1
    point

    7. 第 7 个问题

    You have an input volume that is 32x32x16, and apply max pooling with a stride of 2 and a filter size of 2. What is the output volume?

    32x32x8

    16x16x8

    15x15x16

    16x16x16                                         √

    第 8 个问题
    1
    point

    8. 第 8 个问题

    Because pooling layers do not have parameters, they do not affect the backpropagation (derivatives) calculation.

    True

    False                                        √

    第 9 个问题
    1
    point

    9. 第 9 个问题

    In lecture we talked about “parameter sharing” as a benefit of using convolutional networks. Which of the following statements about parameter sharing in ConvNets are true? (Check all that apply.)

    It allows gradient descent to set many of the parameters to zero, thus making the connections sparse.

    It reduces the total number of parameters, thus reducing overfitting.

    It allows parameters learned for one task to be shared even for a different task (transfer learning).

    It allows a feature detector to be used in multiple locations throughout the whole input image/input volume.

    第 10 个问题
    1
    point

    10. 第 10 个问题

    In lecture we talked about “sparsity of connections” as a benefit of using convolutional layers. What does this mean?

    Regularization causes gradient descent to set many of the parameters to zero.

    Each activation in the next layer depends on only a small number of activations from the previous layer.                             √

    Each filter is connected to every channel in the previous layer.

    Each layer in a convolutional network is connected only to two other layers

    ---------------------------------------------------------------------中文版-------------------------------------------------------------------------------------------

    第一周测验 - 卷积神经网络的基本知识

    1. 问题 1

    你认为把下面这个过滤器应用到灰度图像会怎么样? 
    ⎡⎣⎢⎢⎢0110133113310110⎤⎦⎥⎥⎥[01−1013−3−113−3−101−10]

    • 【 】 会检测45度边缘

    • 】 会检测垂直边缘

    • 【 】 会检测水平边缘

    • 【 】 会检测图像对比度

    Because the left part is positive, and the right part is negative. 


    因为因为左边的部分是正的,右边的部分是负的。(博主注:左边亮,右边暗)

    2. 问题 2

      假设你的输入是一个300×300的彩色(RGB)图像,而你没有使用卷积神经网络。 如果第一个隐藏层有100个神经元,每个神经元与输入层进行全连接,那么这个隐藏层有多少个参数(包括偏置参数)?

    • 【 】 9,000,001

    • 【 】 9,000,100

    • 【 】 27,000,001

    • 】 27,000,100

      博主注:先计算W[1]=[l[1],X]=[100,3003003]=1003003003=27,000,000W[1]=[l[1],X]=[100,300∗300∗3]=100∗300∗300∗3=27,000,000,然后计算偏置bb,因为第一隐藏层有100个节点,每个节点有1个偏置参数,所以b=100b=100,加起来就是27,000,000+100=27,000,10027,000,000+100=27,000,100。

    3. 问题 3

      假设你的输入是300×300彩色(RGB)图像,并且你使用卷积层和100个过滤器,每个过滤器都是5×5的大小,请问这个隐藏层有多少个参数(包括偏置参数)?

    • 【 】 2501

    • 【 】 2600

    • 【 】 7500

    • 】 7600

      博主注:视频【1.7单层卷积网络】,05:10处。首先,参数和输入的图片大小是没有关系的,无论你给的图像像素有多大,参数值都是不变的,在这个题中,参数值只与过滤器有关。我们来看一下怎么算:单片过滤器的大小是555∗5,由于输入的是RGB图像,所以信道nc=3nc=3,由此可见,一个完整的过滤器的组成是:55nc=5535∗5∗nc=5∗5∗3,每一个完整的过滤器只有一个偏置参数bb,所以,每一个完整的过滤器拥有553+1=765∗5∗3+1=76个参数,而此题中使用了100100个过滤器,所以这个隐藏层包含了76100=760076∗100=7600个参数。

    4. 问题 4

    你有一个63x63x16的输入,并使用大小为7x7的32个过滤器进行卷积,使用步幅为2和无填充,请问输出是多少?

    • 】 29x29x32

    • 【 】 16x16x32

    • 【 】 29x29x16

    • 【 】 16x16x16

      n = 63, f = 7, s = 2, p = 0, 32 filters.

      博主注:我们先来看一下这个输出尺寸的公式:nh+2pfs+1×nw+2pfs+1⌊nh+2p−fs+1⌋×⌊nw+2p−fs+1⌋,我们就直接代入公式:63+2×072+1×63+2×072+1=562+1×562+1=29×29⌊63+2×0−72+1⌋×⌊63+2×0−72+1⌋=⌊562+1⌋×⌊562+1⌋=29×29,由于有32个过滤器,所以输出为29×29×3229×29×32。

    5. 问题 5

    你有一个15x15x8的输入,并使用“pad = 2”进行填充,填充后的尺寸是多少?

    • 【 】 17x17x10

    • 】 19x19x8

    • 【 】 19x19x12

    • 【 】 17x17x8

    6. 问题 6

      你有一个63x63x16的输入,有32个过滤器进行卷积,每个过滤器的大小为7x7,步幅为1,你想要使用“same”的卷积方式,请问pad的值是多少?

    • 【 】 1

    • 【 】 2

    • 】 3

    • 【 】 7

      博主注:“same”的卷积方式就是卷积前后的大小不变,也就是63x63x16的输入进行卷积后的大小依旧为63x63x16,这需要我们对输入过来的数据进行填充处理。我们来看一下这个输出尺寸的公式(假设输入图像的宽、高相同):n+2pfs+1⌊n+2p−fs+1⌋,由此我们可以推出来pp的值:p=s×nns+f2=1×63631+72=62=3p=s×n−n−s+f2=1×63−63−1+72=62=3。

    7. 问题 7

    你有一个32x32x16的输入,并使用步幅为2、过滤器大小为2的最大化池,请问输出是多少?

    • 【 】 15x15x16

    • 【 】 16x16x8

    • 】 16x16x16

    • 【 】 32x32x8

    8. 问题 8

    因为池化层不具有参数,所以它们不影响反向传播的计算。

    • 【 】 正确

    • 】 错误

      博主注:由卷积层->池化层作为一个layer,在前向传播过程中,池化层里保存着卷积层的各个部分的最大值/平均值,然后由池化层传递给下一层,在反向传播过程中,由下一层传递梯度过来,“不影响反向传播的计算”这意味着池化层到卷积层(反向)没有梯度变化,梯度值就为0,既然梯度值为0,那么例如在W[l]=W[l]α×dW[l]W[l]=W[l]−α×dW[l]的过程中,参数W[l]=W[l]α×0W[l]=W[l]−α×0,也就是说它不再更新,那么反向传播到此中断。所以池化层会影响反向传播的计算。

    9. 问题 9

    在视频中,我们谈到了“参数共享”是使用卷积网络的好处。关于参数共享的下列哪个陈述是正确的?(检查所有选项。)

    • 【★】 它减少了参数的总数,从而减少过拟合。

    • 】 它允许在整个输入值的多个位置使用特征检测器。

    • 【 】 它允许为一项任务学习的参数即使对于不同的任务也可以共享(迁移学习)。

    • 【】 它允许梯度下降将许多参数设置为零,从而使得连接稀疏。

    10. 问题 10

    在课堂上,我们讨论了“稀疏连接”是使用卷积层的好处。这是什么意思?

      • 【 】 正则化导致梯度下降将许多参数设置为零。

      • 【 】 每个过滤器都连接到上一层的每个通道。

      • 】 下一层中的每个激活只依赖于前一层的少量激活。

      • 【 】 卷积网络中的每一层只连接到另外两层。

  • 相关阅读:
    Spring Cloud Hystrix(熔断器)介绍及使用
    Fign入门学习
    Ribbon入门学习
    浅谈JSON5
    JSONObject 与 JSON 互转
    Windows下安装使用jmeter
    MongoDB 数据库高级进阶
    Mysq-l数据库下载以及安装(至安装成功cmd可访问)
    Mysql-数据库下载
    端口占用
  • 原文地址:https://www.cnblogs.com/Dar-/p/9526211.html
Copyright © 2011-2022 走看看