Multi-Task Label Embedding for Text Classification(MTLE)(ACL-2018)

论文名字:Multi-Task Label Embedding for Text Classification 动机 文本分类中的多任务学习利用相关任务之间的隐式关联来提取共同特征并获得性能增益。然而,以往的研究大多将每个任务的标签视为独立的、无意义的one-hot向量,导致潜在信息的丢失,使得这些模型很难联合学习三个或更多个任务。 预学习概念 文本分类是一种常见的自然语言处理任务,它试图为给定的
相关文章
相关标签/搜索