본문 바로가기
컴퓨터비전

[딥러닝] 딥러닝의 손실 함수

by PIAI 2022. 3. 8.

손실함수

딥러닝의 회귀에서는 주로 MSE, 분류에서는 주로 Cross Entropy(binary, categorical)를 사용한다.

위의 그림 마지막 output 단계에서 분류나 회귀를 이용한다.

 

MSE

MSE는 오류 값의 제곱을 구해서 더한 뒤 이를 데이터의 개수로 나누는 방식이다. 제곱을 하는 이유는 미분의 계산을 편리하기 위해 구한다.

 

Cross Entropy Loss(Softmax)

밑의 그림은 softmax일 경우의 손실함수이다.

실제값을 1 아닌값을 전부 0으로 하여 인코딩 해준것이다.  아래의 그래프를 보면 예측한 값이 1에 가까울수록 loss값은 0에 수렴하는 것을 볼수있다. 반대로 값이 작아질 경우 loss값이 기하급수적으로 증가한다.

 

Cross Entropy Loss(Sigmoid)

위의 식은 Sigmoid의 손실함수이다. 

 

case 1

case 0

실제값이 1일때 위와같은 식만 남고 실제값이 0일때 아래의 식만 남는다.

댓글