DatawhaleChina - Task 9 : Attention原理

前言 基本的Attention原理。 HAN的原理(Hierarchical Attention Networks)。 利用Attention模型进行文本分类。 Attention原理 其实直接讲attention原理你应该是听不懂的,神经网络都是发展而来的,都是基于某种问题,而提出来某种方法来解决这类问题的,attention原理也是一样的,它也是因为某种原因提出来来解决这类问题的,我们来看看a
相关文章
相关标签/搜索