用 SimCLR 提高自监督与半监督学习效果

文 / 研究员 Ting Chen 和 Google Research 副总裁兼工程研究员 Geoffrey Hinton 最近的 BERT 和 T5 等自然语言处理模型表明,如果预先使用大量未标记数据集进行预训练,再使用少量的标记数据集进行微调,就可以获得良好结果。同样,根据 Exemplar-CNN、实例区分、对比预测编码、AMDIM、对比多视图编码、动量对比等方法的相关文章所述,使用大量未标
相关文章
相关标签/搜索