반응형

https://chacha95.github.io/2019-04-04-logit/

 

Sigmoid, Logit and Softmax

딥러닝 모델의 마지막 노드들에 출력되는 값을 바꿀 때 왜 logit함수와 softmax를 쓸가요? neural net을 이용한 classification task에 서의 맨 마지막 레이어의 노드들을 생각해 봅시다. 마지막 레이어에 act

chacha95.github.io

https://opentutorials.org/module/3653/22995

logistic + probit  = logit

log + odds

probit은 확률을 재는 단위

odds:  (두 확률의 비율)를 그대로 가져온다고 보시면 됨

 

odds: 그 값이 1보다 큰지 아닌지로 결정의 기준을 세웠다면 

logit은 그 값이 0보다 큰지 아닌지로 결정의 기준을 세웁니다. 

이 두 식은 완전히 같은 의미를 갖는데 , x = 1은 log x는 0이기 때문입니다. 

 

odds, 도박에서 얻을(pay off) 확률과 잃을(stake) 확률의 비율을 뜻하는 영어단어입니다.

반응형

'Deep learning > 개념' 카테고리의 다른 글

개념  (0) 2021.03.29
loss function  (0) 2021.03.27
Optimizer  (0) 2021.03.27
Activation Function  (0) 2021.03.27
DBN  (0) 2021.03.27

+ Recent posts