Few-shot 분류를 위한 지도 대조 학습과 중요도 기반 Cutout
Supervised Contrastive learning with Importance based CutOut for Few-shot classification
- 주제어 (키워드) 대조학습 , 데이터 증강 , few-shot 학습; few-shot image classification , contrastive learning , data augmentation
- 발행기관 서강대학교 일반대학원
- 지도교수 소정민
- 발행년도 2024
- 학위수여년월 2024. 2
- 학위명 석사
- 학과 및 전공 일반대학원 컴퓨터공학과
- 실제URI http://www.dcollection.net/handler/sogang/000000076999
- UCI I804:11029-000000076999
- 본문언어 한국어
- 저작권 서강대학교 논문은 저작권 보호를 받습니다.
초록
Few-shot분류는 최소한의 데이터를 사용하여 분류하는 문제이다. 학습시 사용하는적은 데이터는 정보가 부족하므로 전이 학습, 변환 학습, 특징 전처리 방식을 통해서 많이 해결된다. 우리는 이 중 전이 학습 방식을 개선하고자 한다. 전이 학습에서 사용하는 사전 학습은 이미지 분류를 통해 진행된다. 이때 신경망은 이미지를 잘 분류할 수 있도록 학습하는데, 사전학습에서 사용되는 이미지는 Few-shot분류에서와 다른 클래스를 가진 이미지이기 때문에 사전 학습의 목적에 알맞지 않다고 생각한다. 그래서 새로운 사전 학습 방식을 제안한다. 첫 번째로 지도 대조 학습을 사용한다. 신경망은 지도 대조 학습을 통해서 분류를 위한 학습이 아닌 같은 클래스의 데이터의 거리를 좁히고, 다른 클래스의 데이터를 멀어지게 학습한다. 학습 결과 유사한 데이터를 더 가깝게, 다르게 생긴 데이터를 멀게 하도록 하며 새로운 클 래스의 데이터에서도 더 일반적인 특징을 추출할 수 있도록 한다. 두 번째로, 중요한 영역을 cutout 하는 데이터 증강 방법을 사용한다. 사전 학습에서 중요한 목적 중 하나는 데이터의 중요한 특징을 추출해 낼 수 있는 능력을 학습하는 것이다. 우리는 사전 학습 과정에서 중요 특징 추출 능력을 향상하기 위해서 중요하게 여기는 부분을 cutout 하여 학습에 사용하였다. 우리는 언급한 두 가지 방법을 사용해 사전 학습 데이터에 집중하지 않고, few-shot 분류를 위한 사전학습을 하고자 한다. 사전 학습의 성능을 확인하기 위해 ViT(Vision Transformer), CNN(Convolutional neural network) 기반의 모델에서 구현하여 Cifar-FS, miniimagenet 벤치 마크를 통해 실험하였다. 모든 실험에서 정확도가 향상되는 것을 확인했으며 첨단의 성능을 내었다. 실험결과를 통해 사전학습 데이터에 집중하지 않게 하는사전학습이 few-shot분류에서 적절한 전략임을 확인하였다.
more초록
Few-shot classification is classifying using a minimal amount of data. Therefore, the Fewshot classification task is often addressed using transfer learning, transductive learning, and feature preprocessing methods. We propose adapting pre-training approaches commonly used in transfer learning to be suitable for few-shot learning. Initially, we opt for a learning method that focuses on extracting generalized features by employing supervised contrastive learning within the metric learning approach. Secondly, we propose an importance-based cutout during training to avoid overfitting pre-training data with classes different from those used in the few-shot classification and extract generalized features. By implementing these methods across different models and benchmarks, we conducted experiments that exhibited increased accuracy in all experiments. These results affirm the meaningfulness of reducing overfitting during the pre-training phase as a significant strategy.
more목차
1 서론 1
2 관련연구 4
2.1 Few-shot학습 4
2.2 메트릭학습 5
2.3 데이터증강 6
3 제안방법 7
3.1 문제정의 . 7
3.2 지도대조학습 . 9
3.2.1 ProtoNet에서지도대조학습 . 9
3.2.2 일반적학습에서지도대조학습 10
3.3 ICO증강법 11
3.3.1 ViT기반구조 12
3.3.2 CNN기반구조 13
3.4 CICO 13
4 실험 14
4.1 실험데이터 14
4.2 학습세부사항 . 14
5 분석 16
5.1 지도대조학습 . 17
5.2 ICO데이터증강 18
5.3 애블레이션연구 19
5.3.1 ICO비율최적화 19
5.3.2 무작위 CutOut, ICO비교 20
6 결론및향후연구 21
References 22