BERT大魔王为什么在商业环境下碰壁?

做者 | Oren Pereg html 翻译 | NewBeeNLP跨域 写在前面 大型基于Transformer的神经网络,例如BERT,GPT和XLNET,最近在许多NLP任务中取得了最新的成果。这些模型的成功基于通用任务(例如语言建模)和特定下游任务之间的迁移学习, 这些模型在有标记数据的静态评估集上表现出色。可是,在商业环境中部署这些模型一般会产生较差的结果。这是由于商业环境一般是动态的
相关文章
相关标签/搜索