https://chacha95.github.io/2019-04-04-logit/
Sigmoid, Logit and Softmax
딥러닝 모델의 마지막 노드들에 출력되는 값을 바꿀 때 왜 logit함수와 softmax를 쓸가요? neural net을 이용한 classification task에 서의 맨 마지막 레이어의 노드들을 생각해 봅시다. 마지막 레이어에 act
chacha95.github.io
https://opentutorials.org/module/3653/22995
logistic + probit = logit
log + odds
probit은 확률을 재는 단위
odds: (두 확률의 비율)를 그대로 가져온다고 보시면 됨
odds: 그 값이 1보다 큰지 아닌지로 결정의 기준을 세웠다면
logit은 그 값이 0보다 큰지 아닌지로 결정의 기준을 세웁니다.
이 두 식은 완전히 같은 의미를 갖는데 , x = 1은 log x는 0이기 때문입니다.
odds란, 도박에서 얻을(pay off) 확률과 잃을(stake) 확률의 비율을 뜻하는 영어단어입니다.
'Deep learning > 개념' 카테고리의 다른 글
개념 (0) | 2021.03.29 |
---|---|
loss function (0) | 2021.03.27 |
Optimizer (0) | 2021.03.27 |
Activation Function (0) | 2021.03.27 |
DBN (0) | 2021.03.27 |