The same techniques for winning computer vision competitions, such as using multiple crops at test time, are widely used in practical deployments (or production system deployments) of ConvNets.
中文版源自:https://blog.csdn.net/u013733326/article/details/80166080
--------------------------------------------------------------------中文版---------------------------------------------------------------------
1. Question 1
在典型的卷积神经网络中,随着网络的深度增长,你能看到的现象是?
-
【 】 nHnH 和 nWnW 增长,同时nCnC 减小。
-
【 】 nHnH 和 nWnW 减小,同时 nCnC 也减小。
-
【 】 nHnH 和 nWnW 增长,同时 nCnC 也增长。
-
【★
】 nHnH 和 nWnW 减小,同时 nCnC 增长。
2. Question 2
在典型的卷积神经网络中,你能看到的是?
-
【★
】 多个卷积层后面跟着的是一个池化层。
-
【 】 多个池化层后面跟着的是一个卷积层。
-
【★
】 全链接层(FC)位于最后的几层。
-
【 】 全链接层(FC)位于开始的几层。
3. Question 3
为了构建一个很是深的网络,咱们常常在卷积层使用“valid”的填充,只使用池化层来缩小激活值的宽/高度,不然的话就会使得输入迅速的变小。
博主注:咱们常常使用“SAME”的padding方式。
4. Question 4
咱们使用普通的网络结构来训练一个很深的网络,要使得网络适应一个很复杂的功能(好比增长层数),总会有更低的训练偏差。
博主注:在没有残差的普通神经网络中,理论上是偏差愈来愈低的,可是其实是随着网络层数的加深,先减少再增长;在有残差的ResNet中,即便网络再深,训练偏差都会随着网络层数的加深逐渐减少。
5. Question 5
下面计算残差(ResNet)块的公式中,横线上应该分别填什么?
a[l+2]=g(W[l+2]g(W[l+1]al+b[l+1])+b[l+2]+?–––––– )+?––––––a[l+2]=g(W[l+2]g(W[l+1]al+b[l+1])+b[l+2]+?_ )+?_
博主注:推导一下公式就行了。
a[l+2]=g(z[l+2]+a[l])=g(W[l+2]×a[l+1]+b[l+2]+a[l])=g(W[l+2]×g(z[l+1])+b[l+2]+a[l])=g(W[l+2]×g(W[l+1]×a[l]+b[l+1])+b[l+2]+a[l]––––––––)+0––––––(1.0)(1.1)(1.2)(1.3)(1.0)a[l+2]=g(z[l+2]+a[l])(1.1)=g(W[l+2]×a[l+1]+b[l+2]+a[l])(1.2)=g(W[l+2]×g(z[l+1])+b[l+2]+a[l])(1.3)=g(W[l+2]×g(W[l+1]×a[l]+b[l+1])+b[l+2]+a[l]_)+0_
6. Question 6
关于残差网络下面哪一个(些)说法是正确的?
-
【 】 使用跳越链接可以对反向传播的梯度降低有益且可以帮你对更深的网络进行训练。
-
【★
】 跳跃链接计算输入的复杂的非线性函数以传递到网络中的更深层。
-
【 】 有L层的残差网络一共有L2L2种跳跃链接的顺序。
-
【★
】 跳跃链接可以使得网络轻松地学习残差块类的输入输出间的身份映射。
博主注:请参考这里
7. Question 7
假设你的输入的维度为64x64x16,单个1x1的卷积过滤器含有多少个参数(包括误差)?
-
【 】 2
-
【★
】 17
-
【 】 4097
-
【 】 1
8. Question 8
假设你有一个维度为nH×nW×nCnH×nW×nC的卷积输入,下面哪一个说法是正确的(假设卷积层为1x1,步伐为1,padding为0)?
-
【★
】 你可以使用1x1的卷积层来减小nCnC,可是不能减小 nHnH、nWnW
-
【★
】 你能够使用池化层减小 nHnH、nWnW,可是不能减小 nCnC
-
【 】 你能够使用一个1x1的卷积层来减小nHnH、nWnW和nCnC.
-
【 】 你能够使用池化层减小 nHnH、 nWnW和nCnC.
9. Question 9
关于 Inception 网络下面哪些说法是正确的
-
【 】 Inception 网络包含了各类网络的体系结构(相似于随机删除节点模式,它会在每一步中随机选择网络的结构),所以它具备随机删除节点的正则化效应。
-
【★
】 Inception 块一般使用1x1的卷积来减小输入卷积的大小,而后再使用3x3和5x5的卷积。
-
【★
】 一个inception 块容许网络使用1x1, 3x3, 5x5 的和卷积个池化层的组合。
-
【 】 经过叠加inception块的方式让inception 网络更深不会损害训练集的表现。
10. Question 10
下面哪些是使用卷积网络的开源实现(包含模型/权值)的常见缘由?
-
【 】 为一个计算机视觉任务训练的模型一般能够用来数据扩充,即便对于不一样的计算机视觉任务也是如此。
-
【★
】 为一个计算机视觉任务训练的参数一般对其余计算机视觉任务的预训练是有用的。
-
【】 使用得到计算机视觉竞赛奖项的相同的技术,普遍应用于实际部署。
-
【★
】 使用开源实现能够很简单的来实现复杂的卷积结构。