GradNorm:Gradient Normalization for Adaptive Loss Balancing in Deep Multitask Networks,梯度归一化

文章目录 引言 gradnorm   gradnorm论文地址:https://arxiv.org/abs/1711.02257html   gradnorm是一种优化方法,在多任务学习(Multi-Task Learning)中,解决 1. 不一样任务loss梯度的量级(magnitude)不一样,形成有的task在梯度反向传播中占主导地位,模型过度学习该任务而忽视其它任务;2. 不一样任务收敛
相关文章
相关标签/搜索