Backpropagation
오차역전파법(Backpropagation) 또는 오류역전파 알고리즘은 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다.
기계 학습에서 사용되는 학습 구조로 다층 퍼셉트론이 있다. 일반적인 다층 퍼셉트론의 형태는 입력층 - 은닉층 - 은닉층 - ... - 출력층으로 구성되며, 각 층은 서로 교차되는 weight 값으로 연결되어 있다. 출력층에서 제시한 값에 대해, 실제 원하는 값으로 학습하는 방법으로 통계적 방법에 의한 오차역전법을 사용한다.
오차역전법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 weight를 조정하는 방법으로 사용되며, 속도는 느리지만, 안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다.
역전파는 기울기 하강법 (Gradient descent)을 사용한다.
Category
Derivation
Since backpropagation uses the method, one needs to calculate the derivative of the squared error function with respect to the weights of the network. Assuming one output neuron,1 the squared error function is:
$$ E = \tfrac{1}{2}(t - y)^2 $$ , where
$$ E $$ is the squared error,
$$ t $$ is the target output for a training sample, and
$$ y $$ is the actual output of the output neuron.
See also
- Machine learning
- Deep learning
- 경사 하강법 (Gradient descent)
- Convolutional neural network#CNN Backpropagation
Favorite site
- Wikipedia (en) Backpropagation에 대한 설명
- [추천] A Step by Step Backpropagation Example 2 (Backpropagation을 실제 예제로 보여준다)
- [http://blog.naver.com/laonple/220513815694 Machine learning (기계 학습) - Class 9 :<Case Study>
Backpropagation for Neural Network(역전파)]
References
-
There can be multiple output neurons, in which case the error is the squared norm of the difference vector. ↩
-
A_Step_by_Step_Backpropagation_Example_–_Matt_Mazur.pdf ↩
-
Blog.naver.com-laonple-machine_learning.tar.gz ↩
-
Principles_of_training_multi-layer_neural_network_using_backpropagation.pdf ↩
-
Lecture_3_CNN_-_backpropagation.pdf ↩