Reformer: 高效的Transformer

作者:Nikita Kitaev, Łukasz Kaiser 编译:ronghuaiyang 导读 来自Google AI的最新的进展。 理解序列数据 —— 如语言、音乐或视频 —— 是一项具有挑战性的任务,特别是当它依赖于大量的周围环境时。例如,如果一个人或一个物体在视频中消失,很久以后又重新出现,许多模型就会忘记它的样子。在语言领域,长短时记忆(LSTM)神经网络覆盖了足够的上下文来逐句翻译
相关文章
相关标签/搜索