为什么BERT在商业环境碰壁?

本文首发于微信订阅号:NewBeeNLP,欢迎关注获取更多干货资源。 大型基于Transformer的神经网络,例如BERT,GPT和XLNET,最近在许多NLP任务中取得了最新的成果。 这些模型的成功基于通用任务(例如语言建模)和特定下游任务之间的迁移学习, 这些模型在有标记数据的静态评估集上表现出色。 但是,在动态商业环境中部署这些模型通常会产生较差的结果。 这是因为商业环境通常是动态的,并且
相关文章
相关标签/搜索