Training RNNs as Fast as CNNs

本期论文 Training RNNs as Fast as CNNs 本文通过有意简化状态计算并展现更多的并行性而提出了一个替代性的 RNN 实现,这一循环单元的运算和卷积层一样快,并且比 cuDNN 优化的 LSTM 快 5-10x。该实现在诸如分类、问题回答、语言建模上证明了其有效性,并已在 PyTorch 和 CNTK1 中开源。 论文链接:https://arxiv.org/abs/170
相关文章
相关标签/搜索