【文献阅读】Self-Normalizing Neural Networks

Self-Normalizing Neural Networks ,长达93页的附录足以成为吸睛的地方(给人感觉很厉害), 此paper提出了新的激活函数,称之为 SELUs ,其具有normalization的功能. 给人感觉只是在全连接层有效果,在CNN和RNN中貌似没有提及有效果 Abstract: CNN在视觉的多个领域有很好的表现,然而 feed-forward neural netwo
相关文章
相关标签/搜索