Simultaneous Deep Transfer Across Domains and Tasks 域和任务同时深度迁移

论文地址:https://people.eecs.berkeley.edu/~jhoffman/papers/Tzeng_ICCV2015.pdf   文中提到:现有的迁移学习方法很多都只做了一步:域适应,也就是减少边缘概率(marginal distribution)差异----使两个域尽可能重叠、融合,但是当边缘分布得到对齐之后,并不能保证每个域之间的类别能够对齐,类别没有对齐有什么影响呢?论
相关文章
相关标签/搜索