검색 상세

Few-Shot 분류에서 보조 데이터를 이용한 특성 기반 증강 기법 연구

Feature-Wise Augmentation with Auxiliary Data for Few-Shot Learning Tasks

초록 (요약문)

데이터 증강 기법(Data Augmentation) 은 few-shot 분류 과제의 예측 성능을 향상시킬 수 있는 간단하면서도 실용적인 방법 중 하나이다. 그러나 few-shot 분류 시 제공되는 레이블이 제정된 샘플만 사용하여 데이터 증강을 실행 할 경우 추출할 수 있는 특성(Feature)의 스펙트럼이 제한된다. 본 논문에서는 레이블이 지정된 샘플과 보조 데이터(Auxiliary Data) 간의 거리를 계산하여 드러나지 않는 분포(Underlying Distribution)에 존재하는 특성을 생성하는 데이터 증강 기법을 제안한다. 구체적으로, 드러나지 않는 특성 (Underlying Feature)을 사용하여 제공된 샘플을 분류되어야 하는 동일한 클래스 이미지 근처로 이동시키고, 상이한 클래스 이미지와는 멀어지도록 유도한다. 서포트 셋(Support Set)을 증강시키기 위한 보조 데이터로는 학습 셋(Training Set)에 있는 샘플을 사용하며 샘플을 선택하는 세 가지 방법을 제시한다. 또한, 제안된 증강 기법과 보편적인 이미지 증강 기법을 결합하여 few-shot 분류 과제의 결과를 향상시키도록 한다. Few-shot 학습 벤치마크 데이터셋(Benchmark Dataset)인 miniImageNet 및 tieredImageNet 에 분류를 실험한 결과, 제안된 방법이 기준 모델(Baseline Model)의 성능을 향상시키는 것으로 나타난다. 제시된 기법은 실험 단계에서 보조 데이터만 사용하여 계산하면 되므로 다른 few-shot 분류 과제 솔루션과 상호보완적으로 구현될 수 있다.

more

초록 (요약문)

Data augmentation is one of the simple yet practical methods that can improve the performance of few-shot learning tasks. However, the spectrum of features that can be extracted is limited when augmentation is executed employing only labeled samples given in the task. In this paper, we propose an augmentation scheme called UFA to generate under-supported features by computing the distance between labeled samples and auxiliary data. With the under-supported features, we induce the provided labeled sample to be shifted near the identical class image that needs to be classified and apart from the non-identical class image. We employ samples from the training set as auxiliary data that can be used to augment the support set, and we demonstrate three approaches of electing samples from the auxiliary data for augmentation. Furthermore, we introduce a combination of commonly used image augmentation with the suggested procedure that harmonizes with few-shot learning tasks. Experimental results indicate that UFA enhances the performance of the baseline model on miniImageNet and tieredImageNet few-shot learning benchmarks. UFA can be implemented complementary to other few-shot learning task solutions since it simply requires calculation with the auxiliary data in the test stage.

more