多GPU训练机制

引言 一般状况下,在深度学习中使用梯度降低算法进行训练时,每每须要较大的batch-size才能得到良好的性能。而当咱们选择比较大型的网络时(如DenseNet121),因为GPU资源有限,咱们每每要减少batch-size。可是batch-size过小的话会影响性能,这时候若是硬件条件容许的状况下可使用多GPU进行训练。 多GPU又分为单机多卡和多机多卡。这篇博客仅介绍单机多卡。web 单机单卡
相关文章
相关标签/搜索