GoogleLeNet解析:Going deeper with convolutions

GoogleLeNet深度有22层,但是参数量却只有AlexNet的1/12。 为减小计算量并且增加模型宽度,google为此设计了一种名叫inception module的结构。 inception经历了从v1到v4的改进,下图是inception的原始结构。 该结构将1x1,3x3,5x5的卷积和3x3的最大池化操作堆叠在一起,即增加了网络的宽度,也增加了网络对多尺度的适应性。 但是5x5的卷
相关文章
相关标签/搜索