Skip to content

MachineLearning:Terms

머신러닝과 관련된 용어를 정리한다.

아래 알파뱃 순서는 인공지능(AI) & 머신러닝(ML) 사전 - WikiDocs를 보고 초안 작성.

A

  • A2C: Advantage Actor-Critic
  • A3C(asynchronous advantage actor-critic)
  • AGI: Artificial General Intelligence (인공일반지능)
  • AI Winter (AI 겨울)
  • AI alignment (AI 정렬)
  • AI safety (AI 안전)
  • AI: Artificial Intelligence (인공지능)
  • ANN: artificial neural network (인공신경망, 뉴럴네트워크)
  • ARIMA: AutoRegressive Integrated Moving Average (자기회귀 통합 이동 평균)
  • ASR: automatic speech recognition (자동음성인식)
  • AUC: area under the curve (곡선 아래 면적)
  • Actor-Critic (액터-크리틱, 행위자-비평자)
  • AdaBoost: Adaptive Boosting
  • AdaGrad
  • Agglomerative Clustering (병합 군집 분석)
  • AlexNet (알렉스넷)
  • Alpaca
  • AlphaGo (알파고)
  • Autograd (자동 미분)
  • Autoregressive Transformer (자동회귀 트랜스포머, 자기회귀 트랜스포머)
  • accuracy (정확도)
  • acoustic scene classification
  • action (행동)
  • action-value function (행동가치 함수)
  • activation function (활성화함수)
  • agent (에이전트)
  • anomaly detection (이상 탐지)
  • association analysis (연관성 분석)
  • attention (어텐션, 주의, 주목)
  • audio generation (오디오 생성)
  • autoencoder (오토인코더, 자동부호기)
  • auxiliary classifier (보조 분류기)

B

  • BART: Bidirectional and Auto-Regressive Transformers
  • BERT: Bidirectional Encoder Representations from Transformers (버트)
  • BGD: Batch Gradient Descent (배치 경사 하강법)
  • BLIP: Bootstrapping Language-Image Pre-training
  • BLSTM: Bidirectional Long Short-Term Memory
  • BM25
  • BPTT: Backpropagation Through Time
  • Bellman equation (벨만 방정식)
  • Binary Cross Entropy (이진 크로스 엔트로피)
  • Bootstrap Sampling (부트스트랩 샘플링)
  • Borda count (보르다 계산법)
  • Boston Housing Dataset (보스턴 주택 가격 데이터세트)
  • backbone (백본)
  • backpropagation (역전파)
  • bagging (배깅)
  • balanced MSE
  • baseline model (베이스라인 모델, 기준선 모형)
  • batch normalization (배치 정규화)
  • bias (편향, 치우침, 바이어스)
  • biclustering, block clustering, co-clustering, two-mode clustering (이중 클러스터링)
  • bilinear interpolation (쌍선형 보간)
  • binary classification (이진 분류)
  • bivariate normal distribute (이변량정규분포)
  • boosting (부스팅)

C

  • CART: Classification And Regression Tree (분류 및 회귀 트리)
  • CBOW: Continuous Bag of Words
  • CGAN: conditional GAN (조건부 GAN)
  • CLIP: Contrastive Language-Image Pre-training (대조적 언어-이미지 사전 학습)
  • CNN: Convolutional Neural Network (합성곱 신경망)
  • CRFs: conditional random fields (조건부 랜덤 필드)
  • CTC: Connectionist Temporal Classification (연결 시간 분류)
  • CVAE: Conditional Variational Autoencoder (조건부 VAE)
  • Caffe (카페)
  • CatBoost
  • ChatBIT
  • Confusion Matrix (혼동 행렬)
  • Coreference Resolution (상호참조해결, 공지시 해결)
  • Curse of Dimensionality (차원의 저주)
  • casual inference (인과 추론)
  • catastrophic forgetting (파멸적 망각)
  • checkpoint (체크포인트)
  • class (클래스)
  • classification (분류)
  • clustering (클러스터링, 군집화)
  • collaborative filtering (협업 필터링)
  • computer vision (컴퓨터 비전, 컴퓨터비전, 컴퓨터 시각)
  • conformer (컨포머)
  • context window (컨텍스트 윈도우, 문맥 윈도우, 문맥 창, 문맥 윈도, 콘텍스트 윈도)
  • continual learning (연속 학습)
  • contrastive loss (대조 손실)
  • coordinate descent (좌표 하강)
  • corpus, corpora (말뭉치, 코퍼스)
  • cross-entropy(교차 엔트로피, 크로스 엔트로피)
  • cross-validation (교차 검증)

D

  • DBSCAN: Density-based spatial clustering of applications with noise
  • DCGAN: deep convolutional generative adversarial network
  • DDPG: Deep Deterministic Policy Gradient
  • DDQN: Double DQN
  • DL: deep learning (딥러닝, 딥 러닝, 심층학습)
  • DNN-HMM
  • DNN: deep neural network (심층 신경망)
  • DPO: Direct Preference Optimization (직접 선호 최적화)
  • DQN: deep Q-Network
  • DRL: deep reinforcement learning (심층강화학습)
  • Define-by-run
  • Diffusion Models
  • Discriminative AI (판별형 AI, 판별 AI)
  • Distilbart
  • The democratization of ML(머신러닝의 민주화)
  • data augmentation (데이터 증강)
  • data leakage (데이터 누수, 데이터 누설, 데이터 누출, 데이터 유출)
  • decision tree (결정 트리, 의사결정나무)
  • decoder (디코더)
  • deductive learning (연역적 학습)
  • deep Q-learning (심층 Q-러닝)
  • dense layer (밀집 계층), fully-connected layer (완전연결층, 전결합층)
  • digital image processing (디지털 이미지 프로세싱)
  • discount factor (할인율, 할인 계수)
  • downstream task (다운스트림 작업)
  • dropout (드롭아웃)
  • dynamic programming (동적 계획법)

E

  • EVA-CLIP
  • Entropy (엔트로피)
  • Explained Variance
  • Exploding Gradient (그래디언트 폭발)
  • early stopping (조기 중단)
  • embedding (임베딩)
  • end-to-end learning (엔드 투 엔드 학습, 종단 간 학습)
  • ensemble learning (앙상블 학습)
  • environment (환경)
  • episode (에피소드)
  • epoch (에포크, 에폭, 세, 세대)
  • explanatory variable (설명 변수)
  • exploration-exploitation trade-off (탐색-활용 트레이드오프)
  • ϵ-greedy (ϵ 탐욕)

F

  • FAISS
  • FCN: Fully Convolutional Networks
  • FNN: feed-forward neural networks (피드포워드 신경망, 순방향 신경망, 앞먹임 신경망)
  • FP: feature permutation
  • FPN: Feature Pyramid Networks (특징 피라미드망)
  • Fashion MNIST
  • Fast R-CNN
  • Faster R-CNN
  • feature (특징, 피처)
  • feature engineering (특징 공학, 특성 공학)
  • feature extraction (특징 추출)
  • few-shot learning (퓨샷 러닝)
  • fine-tuning (파인 튜닝, 미세 조정)
  • forward propagation (순전파)
  • fully-connected (완전 연결, 전결합)

G

  • GAN: Generative Adversarial Networks (생성적 적대 신경망)
  • GLUE: General Language Understanding Evaluation
  • GMM-HMM: Gaussian Mixture Model-Hidden Markov Model
  • GMM: Gaussian Mixture Model
  • GNN: Graph Neural Network (그래프 신경망)
  • GPGPU: General-Purpose computing on Graphics Processing Units
  • GPT: Generative Pretrained Transformer
  • GPTs
  • GRU: Gated Recurrent Unit
  • Gemini (제미나이, 제미니)
  • General-purpose AI (범용 인공지능)
  • Glove
  • GoogleNet
  • Gradient Boosting (그래디언트 부스팅)
  • generalization (일반화)
  • generative model(생성 모델)
  • gorilla problem (고릴라 문제)
  • gradient (경사, 그래디언트, 그레이디언트, 기울기, 구배, 물매)
  • gradient descent (경사 하강법, 경사 감소법, 그래디언트 디센트)
  • grid search (그리드 탐색, 그리드 서치, 격자 검색)
  • ground truth (실측 자료)

H

  • HMM: hidden Markov model (은닉 마르코프 모형)
  • Hamming score (해밍 점수)
  • Heterogeneous data (이질 데이터)
  • HiFi-GAN
  • Hugging Face (허깅페이스)
  • hallucination (환각)
  • hard negative
  • hidden layer (은닉층, 은닉 계층, 히든 레이어, 숨은 레이어)
  • hierarchical clustering(계층적 군집화, 계층적 클러스터링)
  • hyperbolic tangent, tanh (하이퍼볼릭 탄젠트, 쌍곡 탄젠트)
  • hyperparameter(하이퍼파라미터, 초매개변수, 하이퍼매개변수)
  • hyperplane (초평면)

I

  • ICL: In-context learning
  • IG: Information Gain (정보 이득)
  • IG: Integrated Gradients (적분 경사, 통합 경사)
  • Image Captioning (이미지 캡셔닝)
  • Instance Segmentation (인스턴스 세그먼테이션)
  • Isolation Forest
  • image classcification (이미지 분류)
  • image segmentation (이미지 세그멘테이션, 이미지 세분화, 이미지 분할)
  • image-to-image translation
  • independent variable (독립변수)
  • inductive learning (귀납적 학습)
  • inference (추론, 인퍼런스)
  • interpolation (보간)

J

  • job (작업, 잡)

K

  • KLD: Kullback–Leibler divergence (쿨백-라이블러 발산)
  • Keras (케라스)
  • k-NN: k-nearest neighbors (k 최근접 이웃)
  • k-fold cross-validation (k-겹 교차 검증)
  • k-means clustering (k 평균 군집법)
  • k-폴드 평균 앙상블
  • knowledge base (지식 베이스)
  • koNLPy

L

  • L2 normalization (L2 정규화, L2 노멀라이제이션)
  • L2 regularization (L2 규제, L2 정규화)
  • LAS: Listen, Attend and Spell
  • LDA: Latent Dirichlet Allocation (잠재 디리클레 할당)
  • LDA: Linear Discriminant Analysis (선형 판별 분석법)
  • LIMA: Less Is More for Alignment
  • LLM: Large Language Model (대형 언어 모델, 대규모 언어 모델, 거대언어모델)
  • LLaMA
  • LMM: Large Medical Model (대규모 의료 모델)
  • LMM: Linear Mixed Model (선형 혼합 모델)
  • LMMs: Large Multimodal Models (대형 멀티모달 모델)
  • LSTM: long short-term memory (장단기 메모리)
  • LangChain
  • Latent Variable Models (잠재 변수 모델)
  • Leaky ReLU (리키 렐루, 누출 ReLU, 누설 ReLU)
  • LightGBM
  • Llama 2
  • Llama 3 (라마 3)
  • LoRA: Low-Rank Adaptation
  • Low Rank Approximation (저계수 근사)
  • language model (언어 모델)
  • learning (학습)
  • learning rate (학습률)
  • linear regression (선형 회귀)
  • local minima (극소점)
  • logistic (로지스틱) 함수
  • logistic regression (로지스틱 회귀)
  • logit (로짓, 로지트) 함수
  • loss function (손실 함수), cost function (비용 함수)

M

  • MAB: Multi-Armed Bandits (여러 대의 슬롯머신)
  • MAE: Mean Absolute Error
  • MCTS: Monte Carlo Tree Search (몬테 카를로 트리 탐색)
  • MDP: Markov decision process (마르코프 결정 과정)
  • ML: machine learning (머신러닝, 기계 학습, 기계학습)
  • MLE: maximum likelihood estimation (최대우도법, 최우도법, 최대우도추정)
  • MLM: Masked Language Model
  • MLP: multilayer perceptron (다층 퍼셉트론)
  • MMLU: Massive Multitask Language Understanding
  • MNIST
  • MSE: Mean Squared Error (평균 제곱 오차)
  • MT: Machine Translation (기계 번역)
  • Many-Shot In-Context Learning
  • Markov process (마르코프 과정)
  • Markov property (마르코프 성질)
  • Markov reward process (마르코프 보상 과정)
  • Mask R-CNN
  • Monte Carlo Methods (몬테카를로 방법)
  • Multiclass Classification (다중 클래스 분류)
  • Multicollinearity (다중공선성)
  • Multimodal AI (멀티모달 인공지능)
  • Multiple Linear Regression (다중 선형 회귀)
  • maze (미로)
  • meta-learning (메타 학습)
  • mini-batch gradient descent (미니 배치 경사 하강법)
  • model (모델)
  • model-based learning (모델 기반 학습)
  • model-free learning

N

  • NAG: Nesterov Accelerated Gradient
  • NER: Named Entity Recognition (개체명 인식)
  • NLG: Natural Language Generation (자연어 생성)
  • NLP: Natural Language Processing (자연어 처리)
  • NLTK: Natural Language Toolkit
  • NLU: Natural Language Understanding (자연어 이해)
  • NMF: Non-negative Matrix Factorization (비음수 행렬 분해)
  • NNLM: Neural Network Language Model
  • Naive Bayesian Model (단순 베이즈 모델)
  • Naver sentiment movie corpus
  • Non-parametric(비모수)
  • Numpy (넘파이)
  • n-gram
  • nDCG: normalized Discounted Cumulative Gain
  • neuron (뉴런)
  • nonlinear regression (비선형 회귀)
  • notMNIST
  • New Page

O

  • ONNX: Open Neural Network Exchange
  • On-Device Machine Learning (온디바이스 머신러닝)
  • One-Hot encoding (원핫 인코딩)
  • Optimization Algorithm (최적화 알고리즘)
  • Optuna
  • object detection (객체 탐지, 객체 검출)
  • object recognition (객체 인식)
  • odds (오즈, 승산비, 비율비)
  • optical character recognition (광학 문자 인식)
  • optimization problem (최적화 문제)
  • optimizer function (최적화 함수)
  • overtraining, overfitting (과적합, 과대적합, 오버피팅)

P

  • PAL: Program-aided Language Models (프로그램 보조 언어 모델)
  • PCA: principal component analysis (주성분분석)
  • PEFT: Parameter-Efficient Fine-Tuning
  • PPO: Proximal Policy Optimization
  • PReLU: Parametric ReLU (매개변수적 ReLU)
  • PaLM: Pathways Language Model
  • Pareto optimization (파레토 최적화)
  • Point-E
  • Pong (퐁)
  • Py-hanspell (파이썬 한글 맞춤법 검사 라이브러리. 네이버 맞춤법 검사기 사용)
  • PyKoSpacing (Automatic Korean word spacing with Python)
  • PyTorch (파이토치)
  • parameter (매개변수, 파라미터)
  • parameter (모수)
  • pattern recognition (패턴 인식)
  • perceptron (퍼셉트론)
  • perplexity
  • policy (정책)
  • policy gradient (정책 경사, 정책 기울기)
  • polynomial regression (다항 회귀)
  • pooling (풀링)
  • pre-training (사전 학습)
  • precision (정밀도)
  • prompt engineering (프롬프트 엔지니어링)

Q

  • Q value (Q값)
  • Q-Learning (Q러닝)
  • QA: question answering (질의응답)
  • QLoRA: Quantized Low-Rank Adapter

R

  • R-CNN
  • RANSAC: Random Sample Consensus (랜덤 샘플 합의)
  • RBM: restricted Boltzmann machine (제약 볼츠만 머신)
  • REDNet
  • REINFORCE
  • RL: reinforcement learning (강화학습)
  • RLHF: Reinforcement Learning from Human Feedback
  • RMSProp
  • RNN: Recurrent Neural Network (순환 신경망)
  • ROC curve (ROC 곡선)
  • ROI Pooling
  • ROUGE: Recall-Oriented Understudy for Gisting Evaluation
  • RSS: Residual sum of square (잔차제곱합)
  • ReAct (Reason + Act)
  • ReLU: rectified linear unit (렐루, 정류 선형 유닛, 정류 선형 단위)
  • Regularized Linear Regression (규제 선형 회귀)
  • ResNet: Residual Network (레즈넷)
  • Rule-based system (규칙 기반 시스템)
  • random forest (랜덤 포레스트)
  • recommender systems (추천 시스템)
  • regression (회귀)
  • regression line (회귀직선)
  • regularization (정규화, 정칙화, 규제화, 규칙화)
  • representation learning (표현 학습, 표상 학습)
  • residual (잔차)
  • residual connection (잔차 연결, 리지듀얼 커넥션)
  • response variable (반응 변수)
  • reward (보상)
  • rollout (롤아웃)

S

  • SGD: stochastic gradient descent (확률적 경사 하강법)
  • SHAP
  • SLAM: Simultaneous Localization and Mapping
  • SMOTE: Synthetic Minority Over-sampling Technique
  • SOTA: State of the Art
  • SSD: Single Shot MultiBox Detector
  • SVD: Singular Value Decomposition (특잇값 분해)
  • SVM: support vector machine (서포트 벡터 머신)
  • Skip Connection (스킵 연결)
  • Sora (소라)
  • Stable Diffusion
  • Superintelligence (초지능)
  • Swish
  • saddle point (안장점)
  • safetensors
  • saturate (포화)
  • segmentation (세그먼테이션, 세그멘테이션, 세분화, 분할)
  • self-supervised learning (자기 지도 학습)
  • semantic segmentation (의미론적 세그멘테이션)
  • semi-supervised learning(준지도 학습, 지도/자율 학습)
  • sentiment analysis (감성 분석)
  • seq2seq: Sequence to Sequence (시퀀스 투 시퀀스)
  • sequence data (시퀀스 데이터)
  • sigmoid (시그모이드)
  • simulated annealing (시뮬레이티드 어닐링)
  • skip connection (잔차 연결, 건너뛴 연결)
  • softmax (소프트맥스)
  • soynlp
  • sparse matrix (희소 행렬)
  • sparsity problem (희소성 문제)
  • speech recognition (음성 인식)
  • stacking (스태킹)
  • standard deviation (표준 편차)
  • state (상태)
  • state transition (상태 전이)
  • stemming (어간 추출)
  • snowball stemming
  • super resolution (초해상도)
  • supervised learning (지도학습)

T

  • TCN: Temporal Convolutional Network
  • TDM: Term Document Matrix
  • TDM: temporal difference model (시간차 모델)
  • TF-IDF
  • Tavily (타빌리)
  • Taxonomy
  • Tensor (텐서)
  • TensorFlow Lite (텐서플로 라이트)
  • TensorFlow.js
  • task (과업, 작업, 과제, 태스크)
  • text classification (텍스트 분류)
  • text mining (텍스트 마이닝)
  • text similarity (텍스트 유사도)
  • time series anaylisis (시계열 분석)
  • time series classification
  • time series forecasting (시계열 예측)
  • token (토큰)
  • training (훈련, 트레이닝, 학습)
  • training dataset (훈련 데이터셋)
  • trajectory (궤적)
  • transfer learning (전이 학습)
  • transformer (트랜스포머)
  • transition
  • triplet loss (삼중항 손실)
  • triplet mining

U

  • U-Net
  • UCN: universal correspondence network
  • unsupervised learning (비지도 학습)

V

  • VAE: Variational Autoencoder (변분 오토인코더)
  • VITS
  • VQA: Visual Question Answering
  • VSR: Visual Speech Recognition
  • Vanishing Gradient (그래디언트 소실, 경사 소실, 기울기 소실)
  • ViLT: Vision-and-Language Transformer
  • ViT: Vision Transformer (비전 트랜스포머)
  • Vicuna
  • validation data (검증 데이터, 유효성 데이터)
  • value (가치)
  • value function (가치 함수)
  • voting (투표, 보팅)

W

  • WRMSE: Weighted Root Mean Square Error
  • weight (가중치)
  • weight decay
  • word embedding (단어 임베딩)
  • word patch alignment
  • word2vec

X

  • XAI: eXplainable AI (설명 가능 인공지능)
  • XGBoost(eXtra Gradient Boost)

Y

  • YOLO: You Only Look Once

Z

  • ZSL: Zero-Shot Learning (제로샷 학습)

배치 학습 (Batch Learning)

배치 학습에서는 시스템이 점진적으로 학습할 수 없습니다. 가용한 데이터를 모두 사용해 훈련시켜야 합니다. 이러한 방식은 시간과 자원을 많이 소모하여 일반적으로 오프라인에서 가동됩니다.

배치 크기 (Batch Size)

연산 한 번에 들어가는 데이터의 크기를 가리킨다. 자세한 내용은 해당 항목 참조.

Epoch (에포ㅋ; 시대)

훈련 데이터셋에 포함된 모든 데이터들이 한 번씩 모델을 통과한 횟수로, 모든 학습 데이터셋을 학습하는 횟수를 의미한다. 자세한 내용은 해당 항목 참조.

바이어스 (Bias)

전압이나 전류의 동작점을 미리 결정하는 것. 한마디로 상수.

Curse of dimensionality

높은 차원 공간에서 데이터를 구성할 때 발생하는 다양한 문제 현상을 의미한다.

드롭 아웃(Drop-Out)과 드롭 커넥트(Drop-Connect)

오버피팅이나 지역 최소값 문제에 대해서 큰 효과를 보는 매우 중요한 방법이다. 딥러닝 인공신경망을 이루고 있는 각 게층의 뉴런을 설정된 확률로 랜덤하게 계산에서 제외시키는 방법이 드롭 아웃이다. 드롭 커넥트는 뉴런 자체를 제외하는 방법과 달리 뉴런 사이의 연결고리를 확률적으로 게산에서 제외시키는 방법이다. 간단한 방법이지만 효과가 매우 좋은 방법으로 판명되었으며 널리 사용되고 있다.

특징 추출 (Feature Extraction)

Ground truth

어떤 (계산된, 추정된, 예측된)값이 얼마나 정확한지 평가하고자 할 때, 그 비교 기준이 되는 실제 참(True)값을 지칭하는 용어. 자세한 내용은 항목 참조.

Hyperparameter

Hypothesis

예측 되는 데이터와 결과값 사이의 관계(함수)를 Hypothesis라고 부른다.

선형 맞춤 (Linear Fitting)

지역 최소값 (Local minima) or Local minimum problem

인공신경망에서는 수 많은 파라미터에 해당하는 가중치값(weight) 각각을 조절하여 시스템 전체의 움직임을 조절하며 학습을 행한다. 매우 많은 파라미터를 움직이기 때문에 에너지가 최소가 되는 최적점을 찾기 위한 파라미터 조절은 원하지 않게 지역적인 최소값을 위해서만 학습이 되고 전체적인 최소값을 가지는 파라미터로는 학습이 진행이 안될 경우도 발생한다. 이러한 현상은 파라미터의 초기값의 구조에 매우 민감하게 치우친다.

손실 함수 (Loss function)

예상 점수(Predicted scores)와 Ground truth 라벨의 정량화.

원래 정답에 해당하는 출력에 대해서 인공신경망이 계산에 의해서 예측한 출력의 값의 차이 정도를 게산하는 함수를 뜻한다. 여러가지 손실함수가 있는데 각 출력 뉴런의 각각의 오차를 모두 게산하여 오차의 정도를 표시하는 RMSE(Root Mean Squared Error)와 좀 더 개선된 크로스 엔트로피(Cross-Entorpy) 에러 계산법이 자주 사용된다.

손실함수에서 최적화(Optimization)란 손실함수를 최소화 하는 파라미터 W를 찾는 과정이다.

Mean Average Precision (mAP)

평균 정확률.

자세한 내용은 정밀도와 재현율 (Precision and recall) 항목 참조

Precision

정밀도(Precision)는 양성으로 판정된 것 중 실제로 참인 것의 비율을 나타냅니다. ‘참 양성 / (참 양성 + 거짓 양성)’으로 정의됩니다.

자세한 내용은 정밀도와 재현율 (Precision and recall) 항목 참조

Recall

재현율(Recall)은 실제 값이 참인 것 중 판정이 양성인 것의 비율을 나타냅니다. ‘참 양성 / (참 양성 + 거짓 음성)’으로 정의됩니다.

자세한 내용은 정밀도와 재현율 (Precision and recall) 항목 참조

비선형 변환 (Nonlinear Transformation, or Activation)

최적화 (Optimization)

걍 최적화지머

오버 피팅 (Over Fitting)

준비된 데이터가 노이즈를 가질 수도 있고 실제의 데이터는 약간의 오류들을 가지고 있으며 이상적이지 않는 학습 데이터를 이용하는 경우가 많다. 뉴런의 노드 갯수가 너무 많거나 필요 이상으로 자유도를 많이 가진 인공신경망에서는 주어진 학습 데이터에 과도하게 정밀하게 학습이 되는 경우가 있다. 이러한 경우에는 학습 데이터의 학습은 잘 되었다고 하더라도 테스트 데이터나 실제 데이터를 입력하면 원하지 않는 결과값을 주는 경우가 있다. 이러한 것을 오버 피팅이라고 한다. 오버 피팅은 과거에 인공신경망에 고질적인 문제점이었지만 요즘 딥러닝에서는 이러한 문제를 피할 수 있는 여러 방법이 개발되어서 딥러닝이 크게 환영 받는 계기가 되었다.

데이터의 전처리과정 (Pre-Training)

Score function

실제 데이터(Raw data)와 분류 점수(class score; 또는 라벨)를 맵핑한 함수.

담금질 모사 (Simulated annealing)

지역최소값에 빠지는 문제점을 빠져나가기 위한 방법의 일종.

Maximum a posteriori estimation (MAP)

최대 사후 확률(最大事後確率, maximum a posteriori, MAP)은 베이즈 통계학에서 사후 확률(事後確率)의 최빈값을 가리킨다.

Maximum likelihood estimation (MLE)

최대가능도방법 (最大可能度方法, 영어: maximum likelihood method) 또는 최대우도법(最大尤度法)은 어떤 확률변수에서 표집한 값들을 토대로 그 확률변수의 모수를 구하는 방법이다.

폐색 (Occlusion; 閉塞)

물체가 다른 물체로 인해 부분적으로 가려져 보이지 않는 영역.

온라인 학습 (Online Learning)

온라인 학습에서는 데이터를 순차적으로 한 개씩 또는 미니배치(Mini-Batch)라 부르는 작은 묶음 단위로 주입하여 시스템을 훈련시킵니다. 매 학습 단계가 빠르고 비용이 적게 들어 시스템은 데이터가 도착하는 대로 즉시 학습할 수 있습니다. 온라인 학습은 연속적으로 데이터를 받고 빠른 변화에 스스로 적응해야 하는 시스템에 적합합니다. 컴퓨팅 자원이 제한된 경우에도 적합하다고 할 수 있습니다. 학습이 끝난 데이터는 더 이상 필요하지 않으므로 버리면 됩니다.

온라인 학습 시스템에서 중요한 파라미터 중 하나는 변화하는 데이터에 얼마나 빠르게 적응할 것인지 입니다. 이를 학습률(Learning Rate)이라고 합니다. 학습률을 높게 하면 시스템이 데이터에 빠르게 적응하지만 예전 데이터를 금방 잊어버리게 됩니다. 반대로 학습률이 낮으면 시스템의 관성이 더 커져서 더 느리게 학습됩니다. 하지만 새로운 데이터에 있는 잡음이나 대표성 없는 데이터 포인트에 덜 민감해집니다.

추론 (Inferencing)

추론은 이미 알고 있는 것으로부터 논리적 결론을 도출하는 행위 또는 과정이다. 훈련 완료 후 생성된 모델을 이용하여 인공지능 프로그램이 영상 내의 훈련시킨 물체를 찾아내는 것.

Iteration (이터레이션)

  • 딥러닝-6.2. 최적화(3)-학습 단위(Epoch, Batch size, Iteration)
  • Iteration은 네이버 영어사전에서 "(계산·컴퓨터 처리 절차의) 반복"이라는 뜻이다.
  • 전체 데이터를 모델에 한번 학습시키는데 필요한 배치의 수를 말한다.
  • 즉, 1 epoch를 마치는데 필요한 파라미터 업데이트 횟수라 할 수 있다.
  • 각 배치마다 파라미터 업데이트가 한 번씩 이루어지므로, Iteration은 "파라미터 업데이트 횟수 = 배치의 수"가 된다.

메타 데이터 (Metadata)

어떤 목적을 가지고 만들어진 데이터. 본 문서의 경우 인공지능 훈련을 목적으로 만들어진 데이터를 말한다.

Predict (예측) vs Inference (추론)

Inference (추론)
변수가 결과에 미치는 영향에 관심이 있음
모델의 설명력을 위해 변수를 추가하거나 제거
Given a set of data you want to infer how the output is generated as a function of the data.
Predict (예측)
결과 값이 얼마나 잘 나오는지에 관심이 있음
결과의 정확도를 높이기위해 모델을 바꿀수 있음
Given a new measurement, you want to use an existing data set to build a model that reliably chooses the correct identifier from a set of outcomes.

See also

Favorite site

References


  1. Machine_Learning_Glossary_-_Google_Developers.pdf 

  2. CodeOnWeb_-_ml-glossary.pdf