问题1:CUDA_ERROR_OUT_OF_MEMORY: How to activate multiple GPUs from Keras in Tensorflow数组
import keras.backend as K config = K.tf.ConfigProto() config.gpu_options.allow_growth = True session = K.tf.Session(config=config)
讀做者的code就能了解數據的格式了。
在process_data.py檔案裡。网络
稍微解釋一下。session
###原始數據###
老 B-PER
王 I-PER
很 O
喜 O
歡 O
中 B-LOC
國 I-LOC
妹 O
子 Ospa
###要丟進LSTM的數據###
X_train應該是長這樣[0, 1, 15, 24, 65, 102, 103, 54, 63]之類的,這裡表明每個字的index。
y_train應該是長這樣 [1, 2, 0, 0, 0, 3, 4, 0, 0]之類的,表明對應到的字的NE。
最後再把每個句子作個padding就能丟進LSTM了。code
至於怎麼轉換成數據序列的,就請您自行研究研究process_data.py唄!blog
配置显存
https://www.jianshu.com/p/99fca5b7fd8a
==================================
使用预训练词向量
=================================
Word2vec,为一群用来产生词嵌入的相关模型。这些模型为浅而双层的神经网络,用来训练以从新建构语言学之词文本。网络以词表现,而且需猜想相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成以后,word2vec模型可用来映射每一个词到一个向量,可用来表示词对词之间的关系。该向量为神经网络之隐藏层。
https://zh.wikipedia.org/wiki/Word2vectoken
在这篇 在Keras模型中使用预训练的词向量 讲述了如何利用预先训练好的 GloVe 模型,本文基本大同小异。只写一些不一样的地方,更想的能够看这篇文章。ip
整体思路就是给 Embedding
层提供一个 [ word_token : word_vector]
的词典来初始化向量,而且标记为不可训练。get
解析 word2vec 模型,其中:string
word2idx
保存词语和 token 的对应关系,语料库 tokenize 时候须要。embeddings_matrix
存储全部 word2vec 中全部向量的数组,用于初始化模型 Embedding
层 1 |
import numpy as np |
使用方法:
1 |
from keras.layers import Embedding |