百度PRNN:加强GPU伸缩性,RNN训练最高提速30倍(源码下载)

尽管有各类深度学习加速器,神经网络的大小依然受限于计算平台的能力。百度硅谷人工智能实验室高级研究员Greg Diamos在最近的ICML 2016上发表了一篇PRNN(Persistent RNNs)的论文(相关英文访谈),介绍了他在深度学习平台GPU可扩展性方面的最新工做。但在此以前,Greg Diamos已经在Github上发布一篇博客文章简要解释了PRNN的工做和效果,本文为这篇文章的译文。
相关文章
相关标签/搜索