BERT文本分类实践Keras

    项目中,BERT文本二分类或者多分类,总感受效果难言理想的样子。使用了keras-bert包。git 概述:github         问题一: tf版bert分相似乎过重,训练、预测很不方便,要定义类什么的,很难看。测试         问题二: 使用bert分类,若是文本太长,速度超级慢,并且预训练好的简版模型微调最大长度只有512,两个句子时候也同样,排序            
相关文章
相关标签/搜索