动态记忆网络:向通用 NLP 更近一步

https://www.toutiao.com/a6691803113575154190/   本文需要读者对诸如 LSTM 和 GRU(包括 seq2seq 编码器 - 解码器架构)之类的递归神经网络有一定的基础。 众所周知,通用 NLP 的一大障碍是不同的任务(例如文本分类,序列标记和文本生成)需要不同的序列结构。 解决这个问题的一种方法是将这些不同的任务看作是问答形式的问题。比如,文本分类问
相关文章
相关标签/搜索