自然语言处理中的小样本数据问题-数据增强与半监督学习模型

本文借鉴了NLP中的少样本困境问题探究,记录读后笔记和感想。 目标:我们希望采取相关数据增强或弱监督技术后 在少样本场景下,比起同等标注量的无增强监督学习模型,性能有较大幅度的提升; 在少样本场景下,能够达到或者逼近充分样本下的监督学习模型性能; 在充分样本场景下,性能仍然有一定提升; 一、NLP文本增强 文本增强根据是否依据文本的标签做数据增强分为无条件的文本增强,和有条件的文本增强。 无条件文
相关文章
相关标签/搜索