LSTM的训练和测试长度(batch_size)不一样报错的解决方案

 问题: 在使用tf搭建lstm时,无论训练还是测试时,都必须保持batch_size不变,否则会报错,但搭建纯CNN时并不会出现这种情况,有什么解决方案吗? 下面代码是最开始模型的定义,由于这里对init_state进行了zero初始化,这里涉及到了batch_size,这里就是导致后来喂数据的时候,不能改变bathc_size的原因。 with tf.variable_scope('LSTM_
相关文章
相关标签/搜索