TensorFlow和Keras解决数据量过大内存溢出

将上万张图片的路径一次性读到内存中,本身实现一个分批读取函数,在该函数中根据本身的内存状况设置读取图片,只把这一批图片读入内存中,而后交给模型,模型再对这一批图片进行分批训练,由于内存通常大于等于显存,因此内存的批次大小和显存的批次大小一般不相同。python Tensorlow 在input.py里写get_batch函数。web def get_batch(X_train, y_train,
相关文章
相关标签/搜索