【深度之眼tensorflow2.0框架项目班】39.Transformer、CNN,RNN对比

三种模型的对比 从encoder,decoder,attention三个部位来对比 encoder端: 1)RNN RNN的encoder端和常见的用于分类的RNN模型没有什么区别,输入x,得到最后一层的隐层状态,用于之后计算attention。 2)conv 在这里采用stacking conv来对输入x编码,作者认为这种stacking conv是可以捕获到长距离的信息的,假设卷积的kerne
相关文章
相关标签/搜索