论文阅读笔记-CVPR 2020: Attentive Weights Generation for Few Shot Learning via Information Maximization

摘要 AWGIM:通过信息最大化实现小样本学习的注意力权重生成 论文的主要贡献有两个: 生成的权重与输入数据之间的互信息最大化 使得生成的权重能够保留小样本学习任务和特定查询样例的信息。 两条注意力路径:自我注意和交叉注意 对小样本学习任务的上下文和个性化查询进行编码 论文写作框架 简介 相关工作 2.1. 小样本学习 2.2. 注意力机制 2.3. 互信息 提出的方法 3.1. 问题的形式化定义
相关文章
相关标签/搜索