Scaling distributed machine learning with the parameter server

当今越来越多的机器学习系统都采用了分布式,在分布式领域里,少帅的第三代PS框架深受欢迎。本文是在研读论文“Scaling distributed machine learning with the parameter server”时,按照自己理解对其进行翻译,不免有很多细节不对之处,希望各位看官能够见谅。 论文下载地址 我们为分布式机器学习问题提出了参数服务器框架。 数据和工作负载分发到各工作节
相关文章
相关标签/搜索