MMoE 多任务学习

背景 论文见[1]. MMoE, Multi-gate Mixture-of-Experts. 底层共享,上层拆塔,是多任务学习的常规实现. 论文提出了使用多个expert(其实就是DNN), 并使用多个gate(expert_num 的 softmax) 的架构设计, 直观明了. 使用场景为: 推荐系统的多目标(ctr,互动率,转化率,etc.) 网络结构 图: 多任务学习的网络架构演化, c
相关文章
相关标签/搜索