用Siamese和Dual BERT来做多源文本分类

文章目录 数据 单个BERT 双路BERT SIAMESE BERT 总结 转载来源:https://mp.weixin.qq.com/s/cyNcVNImoCOmTrsS0QVq4w 导读:使用不同的方式来使用BERT模型。 在NLP中不断的研究产生了各种各样的预训练模型。对于各种任务,例如文本分类、无监督主题建模和问题回答等,不断的在刷新业界最佳。其中,最伟大的发现之一是在神经网络结构中采用了
相关文章
相关标签/搜索