tensorflow踩坑记录

为了下学期的实验作准备,我在寒假学习了tensorflow,边学边搭建网络进行训练。在学习的路上踩了很多坑,可是整体还算顺利。这些坑中,除了网络自己的bug和tf语法错误,还有几个特别要注意的异常。web

ResourceExhaustedError

这个异常表示资源耗尽,一般指在为参数变量申请内存(显存)时,剩余可用空间不足。解决办法主要有三条思路网络

  1. 使用CPU训练
  2. 减小网络的参数变量
    减少batch_size、词向量维度、网络层数、神经元个数
  3. 使用更好的GPU

ValueError: Variable rnn/basic_lstm_cell/kernel already exists, disallowed.

我在搭建双向lstm网络时遇到此问题。
forward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size)
backward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size)
在网上查了异常,坑友都指出此异常与变量做用域有关,可是解决方案都不同,包括使用with tf.variable_scope(name):pass来定义做用域,还有在代码中添加t f.reset_default_graph()。
具体的原理我暂时没有探究。我试着为这两层网络分别添加名称,问题解决。
forward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size, name = 'forward_lstm_cell')
backward_lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size, name = 'backward_lstm_cell')svg