tensorflow训练时内存持续增长并占满

记录一次小白的tensorflow学习过程,也为有一样困扰的小白留下点经验。网络 先说我出错和解决的过程。在作风格迁移实验时,使用预加载权重的VGG19网络正向提取中间层结果,结果由于代码不当,在遍历图片提取时内存持续增加,致使提取几十个图片的特征内存就满了。函数 缘由是在对每一张图片正向传播结束后,都会在留下中间信息。具体地说是在我将正向传播的代码与模型的代码分离了,在每次遍历图片时都会正向传播
相关文章
相关标签/搜索