Tensorflow分布式

当单机多卡也无法满足训练的速度需求的话,那就需要上分布式,搞多台机器一起训练了,也可以说是多机多卡吧。谈到分布式,必不可少的一个概念就是集群,先来看下TensorFlow官方对集群的定义: 翻译一下就是,Tensorflow 集群是一系列分布式执行计算图的tasks, 每一个 task 与一个server 相对应,一个server 包含 master service和 worker service
相关文章
相关标签/搜索