앞서 Neural Network 의 선형적 계산 방식을 Neural Network로 보자면,
다음과 같은 모습으로 생각할 수 있다.

weight가 각각 2와 3의 그래프가 있고 bias가 -2라고 하면

이런 형태의 그래프를 그릴수 있게 된다.
만약에 한개의 그래프를 더 그려 보면 어떨까?


이런 모습의 그래프를 그릴 수 있다. 이 2가지를 합치면 아래와 같은 모습이 가능하다.


두번째 Layer가 추가 된 것을 볼 수 있다.
즉 2개의 방정식을 하나로 합치는 또다른 방정식을 만든 것이다.
이것 역서 각각 weight를 줄수 있게 된다.

w1에 0.5를 w2에 2 그리고 bias -1을 추가 한것 을 확인 할 수있다.
이 Network를 간단하게 그리면 다음과 같게 된다.

이것을 Matrix로 표현 하면 다음과 같이 표현이 가능하다.
(x1x2−2)

σ(w11w12w21w22w31w32)(x1x2−2)

σ(w(2)11w(2)w21w(2)31)σ(w11w12w21w22w31w32)(x1x2−2)

ˆy=σ(w211w221w231)σ(w11w12w21w22w31w32)(x1x2−2)
이렇게 앞선 Layer의 output이 다음 layer의 input이 되는 프로세스를 Feed forward라고 한다.
728x90
반응형
'AI' 카테고리의 다른 글
Predicting Student Admissions with Neural Networks (0) | 2021.08.01 |
---|---|
Backpropagation (0) | 2021.08.01 |
Gradient Descent (0) | 2021.07.18 |
Error Function (0) | 2021.07.18 |
Maximizing Probabilities, Cross Entropy (0) | 2021.07.18 |
언젠가는enumclass 님의 블로그입니다.