抛开约束,增强模型:一行代码提升 ALBERT 表现

©PaperWeekly 原创 · 作者|苏剑林 单位|追一科技 研究方向|NLP、神经网络 本文标题看起来有点“标题党”了,不过所作改动放到 bert4keras 框架 [1] 下,确实是一行代码的变动,至于是否有提升,这个笔者不敢打包票,不过测了几个算是比较有代表性的任务,均显示持平甚至有提升,所以标题说的也基本是事实。 那究竟是什么改动呢?其实一句话也能讲清楚: 在下游任务中,放弃 ALBE
相关文章
相关标签/搜索