Binary Classification Output
Y (Target 출력)
딥 러닝에서는 그룹이라는 용어를 사용하지 않고 Class 용어를 사용합니다. 분류 출력은 입력이 어떤 Class에 속할지에 대한 확률을 의미합니다. 신경망은 확률을 0~1로 표현합니다. 바이너라 분류의 경우 Y 타겟을 0, 1로 표현합니다.
X (입력)
신경망에서 보통 하나의 입력은 하나 이상 여러가지 특징을 가지고 있습니다. 하나의 특징을 지칭할 떄 Feature라는 용어를 사용합니다. 신경망 입력은 n개의 feature 정보를 가진 입력을 n 사이즈의 배열로 입력받을 수 있습니다. 선형 함수는 다항의 1차 함수입니다.
Sigmoid Function
어떤 입력을 받아도 0 ~ 1 사이에서 값을 얻을 수 있습니다. 분류를 할때는 확률이 필요하기 떄문에 적절한 최적화된 함수를 사용해야만 합니다.
Error Function
신경망 모델이 계산한 값과 실제 타겟 값을 비교하는 데 사용되는 함수입니다. 분류 문제에서는 Cross-entropy라는 함수를 활용합니다. 이 함수는 확률 분포 간의 차이를 구하는 함수입니다. 현재 입력 뿐만 아니라 전체 입력 확률을 종합하여 Error를 계산합니다. Binary Cross Entropy, Categorical Cross Entropy 등이 있습니다.
각 확률에 음수 자연로그를 취해서 더해준 평균 값을 활용합니다. 크로스 엔트로피가 낮으면 좋은 모델입니다. 백프로파게이션을 통해 크로스 엔트로피를 낮추는 것이 목표입니다.
훈련 & 예측
새로운 점은 어떤 그룹인지 알 수 있습니다. 포인트 좌표를 주고 해당하는 그룹에 맞도록 학습을 시킵니다. 그 다음 신경 망에게 새로운 포인트를 주고 어떤 그룹일지 예측하도록 하는 것입니다.
'SW > 인공지능' 카테고리의 다른 글
인공지능 : Intelligent Agents : 개념, 속성, 문제 (0) | 2019.08.20 |
---|---|
인공지능 : 활성화 함수, 원핫인코딩, 소프트맥스, 멀티클래스 : 개념, 원리 (0) | 2019.08.19 |
인공지능 : 손실 함수, 최적화, 백프로파게이션 : 개념, 개요 (0) | 2019.08.17 |
인공지능 : Perceptron, Feed Foward : 개념 원리 (0) | 2019.08.16 |
인공지능 : Batch Normalization : 개념, 원리, 개요 (0) | 2019.08.15 |