Keras网络训练

由于设备给力,且tensorflow非常吃显存,即使不用也会全部占满,故想着直接使用两块一起训练,但是……太年轻。 未训练之前:  使用一块训练:  训练的过程应该是将原本的网络模型拆分到不同的gpu上进行训练,每个gpu上应该都是完整的模型,但是实验效果却差强人意。 1)准确率是之前使用1块gpu训练的一半,理论上应该无影响,不知道该怎么解释;难道真的是对二者按照某种比例求了一个均值?请大神指点
相关文章
相关标签/搜索