백프로포제이션이 필요한 이유는 무엇입니까?
신경망을 설계하는 동안 처음에는 무작위 값이나 그 사실에 대한 변수를 사용하여 가중치를 초기화합니다.
명백하게, 우리는 초인적인 사람이 아닙니다. 따라서, 우리가 선택한 어떤 Weight 값이든 정확할 필요는 없습니다.
처음에는 몇 가지 Weight 값을 선택했지만, 모델 출력은 실제 생산량과 너무 달라집니다. 즉, 오류 값이 엄청 큽니다.
어떻게 오류를 줄일 수 있을까요?
기본적으로, 우리가 해야 할 일은 모형을 어떻게든 설명하여 파라미터를 변경해야 합니다(가중치).
다른 방법으로는, 우리의 모델을 훈련시킬 필요가 있습니다.
모델을 훈련시키는 한 가지 방법은 백프로파게이션이라고 불립니다. 아래 다이어그램을 고려합니다.
신경망을 교육 - 백프로파게이션
위 단계를 요약하면 다음과 같습니다.
오류 계산 – 실제 출력에서 얼마나 멀리 출력되는지 계산
최소 오류 – 오류가 최소화되었는지 확인
매개 변수 업데이트 – 오류가 크면 매개 변수(가중치 및 편차)를 업데이트합니다. 그 후에 오류를 다시 확인합니다. 오류가 최소가 될 때까지 프로세스를 반복합니다.
예측 가능한 모형이 준비되었습니다. 오류가 최소가 되면 일부 입력을 모형에 입력하면 출력이 생성됩니다.
이제 왜 백프로포제이션이 필요한지, 왜 그리고 모델을 훈련시키는 것의 의미에 대해 알 수 있습니다.
백프로포제이션이란 무엇입니까?
Backpropagation 알고리즘은 delta rule 또는 gradient descent는 기법을 사용하여 Weight Space의 오류 함수의 최소값을 찾습니다. 그런 다음 오류 기능을 최소화하는 Weigh은 학습 문제의 해결책으로 간주합니다.
'SW > 인공지능' 카테고리의 다른 글
인공지능 : 딥 러닝의 핵심 아이디어 (0) | 2019.05.22 |
---|---|
인공지능 : CNN(Crovolutional neural network) 개념 (0) | 2019.05.21 |
인공지능 : MLP(Multilayer Perceptron) 개념 (0) | 2019.05.19 |
인공지능 : Multilayer Neural Network(다중 계층 신경망) 필요성 (0) | 2019.05.18 |
인공지능 : Deep Neural Network(심층 신경망) 개념, 의미 (0) | 2019.05.17 |