발표자 | 김누리 |
---|---|
발표일자 | 2021-05-13 |
저자 | Li, Junnan, Caiming Xiong, and Steven Hoi |
학회명 | arXiv preprint arXiv:2011.11183 (2020) |
논문지 |
Semi-supervised learning has been an effective paradigm for leveraging unlabeled data to reduce the reliance on labeled data. We propose CoMatch, a new semi-supervised learning method that unifies dominant approaches and addresses their limitations. CoMatch jointly learns two representations of the training data, their class probabilities and low-dimensional embeddings. The two representations interact with each other to jointly evolve. The embeddings impose a smoothness constraint on the class probabilities to improve the pseudo-labels, whereas the pseudo-labels regularize the structure of the embeddings through graph-based contrastive learning. CoMatch achieves state-of-the-art performance on multiple datasets. It achieves substantial accuracy improvements on the label-scarce CIFAR-10 and STL-10. On ImageNet with 1% labels, CoMatch achieves a top-1 accuracy of 66.0%, outperforming FixMatch [34] by 12.6%. Furthermore, CoMatch achieves better representation learning performance on downstream tasks, outperforming both supervised learning and self-supervised learning. Code and pre-trained models are available at https://github.com/salesforce/CoMatch/
댓글 11
-
이지형
2021.05.13 17:52
그래프 contrastive 부분은 재미있는 아이디어라고 판단되고, 나머지 소소한 (그러나 듣고 보면 필요하고 의미있게 사용될 것 같다고 생각되는) 아이디어들이 있네요. 완성도가 있는 논문이군요. -
임지영
2021.05.13 17:55
같이 적용할 수 있으리라 생각했던 두 방법을 적절히 잘 섞은 것 같은 재미있는 방법이었습니다 그래프 부분이 잘 이해가 안갔었는데 괜찮은 추가 방법이라는 생각도 듭니다 발표 잘 들었습니다 -
jinsuby
2021.05.13 17:55
SSL의 최신 트렌드를 들을 수 있어 유익한 발표였던 것 같습니다.
memory bank와 instance간의 관계를 모델링을 포함한 아키텍쳐가 흥미로웠습니다. -
김호승
2021.05.13 17:59
좋은 논문 소개 감사드립니다. Memory bank 기법을 적용하였는데요, memory bank 외에도 다양한 contrastive learning 기법을
그래프 contrastive에 이용하면 어떨까 생각해보았습니다. * end-to-end, MoCo 등 -
윤수현
2021.05.13 18:12
좋은 발표 감사합니다. contrastive learning과 psuedo label 등의 기법을 적절하게 mix해서 정리한 기법이라고 생각합니다. 각 데이터의 representation과 logit 같의 관계를 그래프로 처리한 점이 흥미로웠습니다. -
김가형
2021.05.13 18:20
Graph-based contrastive learning 방법이 흥미로웠습니다. unsupervised 상황에서 graph를 어떻게 embedding하는게 효율적인지 고민했었었는데, similarity matrix를 사용해서 다시 그래프를 construct한 방법이 더 궁금하여 더 알아봐야겠다는 생각이 들었습니다. 좋은 발표 감사합니다. -
나철원
2021.05.13 18:33
contrastive learning에 graph를 적용하는 부분이 흥미로웠습니다. graph 개념이 대부분의 분야에서 적극적으로 사용되고 있는 것 같습니다. -
최윤석
2021.05.13 18:34
pseudo-label accuracy가 80%에 가깝게 올라가는데 비해, 실제 모델의 accuracy와의 gap이 fix-match에 비해서 커 보입니다. 아직 개선의 여지가 있는게 아닌가 생각됩니다. -
김누리
2021.05.13 19:06
네, Figure 3 (a)에서 보면 CoMatch의 pseudo-label acc.는 80%에 가깝고, FixMatch의 pseudo-label acc.는 60% 중반을 보이고 있습니다. Table 2에서 CoMatch와 FixMatch의 성능은 각각 67.1% 59.9%을 보이고 있습니다. 각각의 Gap은 약 13%와 8%정도가 되는 것 같습니다. 다만 Figure 3 (b)에서 보면, confident sample ratio가 Epoch 후반으로 갈 수록 CoMatch보다 FixMatch가 높은 것을 볼 수 있습니다. 제 생각에 CoMatch가 Confirmation bias를 피한 것 같기는 한데, 오히려 under confidence상태가 아닌가 싶기도 하고, 아니면 embedding learning 과정에서 pseudo-label을 통한 cross entropy 학습을 방해하는 부분이 있지 않을까 싶습니다. -
강석규
2021.05.13 18:59
두 기법을 효과적으로 결합한 논문이라고 봅니다. embedding graph, pseudo-label graph의 필요성과 그 효과는 일부 의문이었지만, 요즘 여러 논문들에서 효과가 좋다고 하는 것 같으니.. 제 연구에도 한 번 활용을 해봐야겠습니다. -
신재민
2021.05.13 20:09
그래프를 활용한 기법이 매우 흥미로운 내용이었습니다. 좋은 내용 고맙습니다.
2021















