tensorflow使用多个gpu训练

1. 模型并行 概念: 模型并行指模型的不同部分在不同GPU上运行。单个模型过大无法在单个GPU上运行,这时候就需要model-parallelism. https://blog.csdn.net/tigertai98/article/details/81125307 How to Use Distributed TensorFlow to Split Your TensorFlow Graph
相关文章
相关标签/搜索