Tensorflow:基于LSTM生成藏头诗

模型生成 首先我们要训练好模型。这里采用的是2层的LSTM框架,每层有128个隐藏层节点,batch_size设为64。训练数据来源于全唐诗。特别注意到的一点是这里每训练完一次就对训练数据做shuffle。  源代码如下: #!/usr/bin/python3 #-*- coding: UTF-8 -*- import collections   import numpy as np   impo
相关文章
相关标签/搜索