[论文翻译]Recurrent Spatial Transformer Networks(RNN-STN)

github代码 0. 摘要 我们将STN与RNN结合,提出了RNN-STN模型,并用该模型进行MNIST手写数字识别。该模型单数字的错误在1.5%,相比之下CNN的错误率在2.9%,STN的错误率为2.0%。 STN能输出放大、旋转和倾斜的输入图像。 我们研究了STN的不同下采样因子(输入和输出像素比),表明RNN-STN模型能够在不恶化性能的情况下对输入图像进行下采样。在RNN-STN中的下采
相关文章
相关标签/搜索