万能的BERT连文本纠错也不放过

作者:孙树兵 学校:河北科技大学 方向:QA/NLU/信息抽取 编辑:小轶 来自:夕小瑶的卖萌屋 背景 文本纠错(Spelling Error Correction)技术常用于文本的预处理阶段。在搜索引擎、输入法和 OCR 中有着广泛的应用。2020年的文本纠错自然也离不开 BERT 的表演。但原生的 BERT 在一些NLP任务如error detection、NER中表现欠佳,说明预训练阶段的学
相关文章
相关标签/搜索