tf.train.batch和tf.train.shuffle_batch的理解

  capacity是队列的长度 min_after_dequeue是出队后,队列至少剩下min_after_dequeue个数据 假设如今有个test.tfrecord文件,里面按从小到大顺序存放整数0~100 1. tf.train.batch是按顺序读取数据,队列中的数据始终是一个有序的队列, 好比队列的capacity=20,开始队列内容为0,1,..,19=>读取10条记录后,队列剩下1
相关文章
相关标签/搜索