MAML论文走读

论文链接:https://arxiv.org/pdf/1703.03400.pdf MAML与前人解决meta learning最大的不同在于,MAML参数的更新靠的是梯度下降而不是一个学到的更新策略(如用RNN学一个参数更新策略)。MAML不需要引入新的参数,也不需要特定的模型结构。理论上,用梯度更新算法的训练任务都能用MAML。 摘要 本文提出一种与模型无关的元学习算法,MAML可用于任何利用
相关文章
相关标签/搜索