8.无监督学习: SimCLRv2

v2框架整体还是沿用了在NLP中流行的unsupervised pretrain外加10% 的有监督label进行微调的范式。 预训练阶段在没有先验的情况下学习没有标签的数据。论文中也提到了使用较深和较宽的神经网络可以提高label-efficient,并极大地提高准确性。 与SimCLRv1采用ResNet-50的策略不同,SimCLRv2中的Large model直接上152层的ResNet,
相关文章
相关标签/搜索