Tag: CONTRASTIVE LEARNING

0

Solving Inefficiency of Self-supervised Representation Learning

自监督学习效率比全监督低很多(e.g.,100 epochs v.s. 1000 epochs),论文把这一现象的原因归结为欠聚类(under clustering)或过聚类(over clustering),并提出了一个median triplet loss来提高训练的效率,同时提升性能。

0

对比学习综述

总结最新的一些对比学习的论文和资源,对比CV和NLP的一些区别。