Partial Convolution based Padding 论文速读

一、论文背景 现在致力于提高神经网络性能的研究有不少:主要包括优化器的改进(SGD、ADAM等),激活函数的改进和混搭(RuLU、LeakyReLU、PReLU等),归一化操做的改进(Batch Norm、Instance Norm、Layer Norm等)。不多有文章试图改进padding机制,本文作的就是这样一件事情。git 在此以前,主要的padding 方式有三种:0 padding、对称
相关文章
相关标签/搜索