Zero-shot learning
Zero-shot learning 은 테스트 시간에 학습자가 학습 중에 관찰되지 않은 클래스의 샘플을 관찰하고 그들이 속한 클래스를 예측해야 하는 기계 학습의 문제 설정입니다.
Abstract
Generalized zero-shot learning (GZSL) aims to train a model for classifying data samples under the condition that some output classes are unknown during supervised learning. To address this challenging task, GZSL leverages semantic information of the seen (source) and unseen (target) classes to bridge the gap between both seen and unseen classes. Since its introduction, many GZSL models have been formulated. In this review paper, we present a comprehensive review on GZSL. Firstly, we provide an overview of GZSL including the problems and challenges. Then, we introduce a hierarchical categorization for the GZSL methods and discuss the representative methods in each category. In addition, we discuss the available benchmark data sets and applications of GZSL, along with a discussion on the research gaps and directions for future investigations.
Documentation
- A Review of Generalized Zero-Shot Learning Methods
- https://arxiv.org/abs/2011.08641
About
zero-shot 은 쉽게 말하면 "모델이 학습 과정에서 배우지 않은 작업을 수행하는 것"을 의미한다. 다음과 같은 생성모델에서의 예시들을 들 수 있다.
- 유인나의 목소리로 음성을 생성하도록 학습한 TTS 모델이 예시 샘플을 이용하여 아이유의 목소리로도 음성을 생성하는 것
- 셰익스피어처럼 글을 쓰도록 학습한 자연어 생성 모델이 마크 트웨인의 스타일로 글을 쓰는 것
- 학습 과정에서 존재하지 않았던 종류의 이미지를 생성하는 것
이외에도 직접적으로 학습하지 않은 task에 대해 수행하는 다양한 응용들이 있다. 이와 같이 모델이 특정한 작업을 수행하도록 학습 과정에서 가르친적이 없는데도 해당 작업을 수행할 수 있도록 하는 것을 zero-shot learning이라고 한다.