
Backpropagation
앞서서 Feedforward를 통해서 weight 값을 update 하는 방법을 알았다. Feed forward 방식의 update는 Multi-layers가 있는 Neural Network에서는 쉽게 사용이 어렵다. 그래서 나온 방식이 Backpropagation이다. 우선 앞서 나온 내용을 복습해야 한다. 2021.07.17 - [AI] - Gradient Descent - Sigmoid activation function σ(x)=11+e−x - Output (prediction) formula ˆy=σ(w1x1+w2x2+b) - Error function $$Error(y, \hat{y}) = - y \log(..