深度学习面试题19:1*1卷积核的做用

目录

  举例

  在Inception module上的应用

  参考资料


能够减小计算量,能够增长非线性判别能力网络

举例函数

假设有1个高为30、宽为40,深度为200的三维张量与55个高为五、宽为五、深度为200的卷积核same卷积,步长=1,则结果是高为30、宽为40、深度为55的三维张量,如图所示:性能

该卷积过程的乘法计算量大约为5*5*200*30*40*55=330000000,这个计算量很大。学习

接着,咱们能够考虑第二种卷积过程,先利用1*1的卷积核在深度上降维,而后升维:google

上述卷积过程的计算量大约为:spa

第一步:1*1*200*30*40*20=4800000blog

第二步:5*5*20*30*40*55=33000000深度学习

总的乘法计算量大约为:37800000it

显然,获得一样的最终的结果,采用第二种方式,即首先在深度方向上降维,第二种的计算量是第一种的37800000/330000000=0.11。io

 

第二步中的中间层也能够叫作瓶颈层,由于他是整个网络中最小的,你可能会问:你这样大幅地缩小模型的规模会不会影响到网络的性能?事实证实只要合理构建瓶颈层,你既能够显著缩小瓶颈层规模,又不会下降网络性能,从而大量减小了计算。

另外,由于又引入了一层结构,激活函数能够引入额外的非线性能力.

 返回目录

 

在Inception module上的应用

在googlenet中的inception module中就使用了这种1*1的卷积核作降维,以减小计算量和增长非线性判别能力

 返回目录

 

参考资料

《图解深度学习与神经网络:从张量到TensorFlow实现》_张平

inceptionV1-Going Deeper with Convolutions

《深-度-学-习-核-心-技-术-与-实-践》

吴恩达深度学习

 返回目录

相关文章
相关标签/搜索