조금 쉽게 얘기하자면...

많은 신경세포들의 연결에 의해 우리는 인식과 학습이 가능한데..
여기서 자극을 입력 받는 신경세포들의 레이어인 input layer와 입력 받은 자극을 출력하는 output layer 사이에 학습을 위한 hidden layer가 있다는 거야.
각각의 신경세포들은 연결되어 있고 이 연결강도는 각각의 가중치(이걸 weight이라 불러야 되나)에 따라 달라지지..


0400180505002.png

그럼 이 가중치를 어떻게 결정하냐고?
처음에는 랜덤으로 가중치를 할당해. 그럼 제일 처음 나온 ouptput layer와 input layer의 상관도는 많이 떨어지게 되는 거지. 그럼 이 때 이 output layer의 값을 다시 역전파(Back propagation)시켜서 input layer와 상관관계를 가지도록 각 연결의 가중치를 조절하게 되는 거지. 이것을 계속 반복하면서 input과 output이 허용치 이내의 상관관계를 가지도록 가중치를 조절하는 것을 back propagation neural network (BPNN)이라고 해..