分布式 TensorFlow代码实现

通过多 GPU 并行的方式可以获得较好的加速计算的效果,但一台机器上能够安装的 GPU 是有限的,如果需要进一步提升深度学习模型的训练 速度,可以采用分布式运行TensorFlow 的方式将模型放在多台机器上进行 训练。TensorFlow 的分布式并行基于 gRPC通信框架。在一个分布式的运行环 境下,有一个 Master 负责创建和维护 Session,还有多个 Worker 负责执行计 算图
相关文章
相关标签/搜索