《2017-Aggregated Residual Transformations for Deep Neural Networks》论文阅读

如何评价谷歌的xception网络? 动机 传统的要提高模型的准确率,都是加深或加宽网络,但是随着超参数数量的增加(比如channels数,filter size等等),网络设计的难度和计算开销也会增加。 本文提出的 ResNeXt 结构可以在不增加参数复杂度的前提下提高准确率,同时还减少了超参数的数量; 贡献 作者在这篇论文中提出网络 ResNeXt,同时采用 VGG 堆叠的思想和 Incept
相关文章
相关标签/搜索