微信也在用的Transformer加速推理工具 | 腾讯第100个对外开源项目

十三 发自 凹非寺 量子位 报道 | 公众号 QbitAI 近年来,基于Transformer的模型,可以说是在NLP界杀出了一片天地。 虽然在提高模型模型精度上,Transformer发挥了不容小觑的作用,但与此同时,却引入了更大的计算量。 那么,这个计算量有多大呢? 来看下数据。 因此,实现一个能充分发挥CPU/GPU硬件计算能力的Transformer推理方法,就成了急需解决的问题。 近日,
相关文章
相关标签/搜索