반응형
Activation Function
neuron의 output y를 입력으로 f(y)를 계산
linear system , non-linear system
Sigmoid : 0~ 1사이
tanh (Hyperbolic Tangent) : [−1.0,1.0] 의 범위로 output을 제한함
Step계단 함수: 0아니면 1
ReLU (Rectified Linear Unit) : 0 보다 작은 것을 0으로 수렴하고 0보다 큰것은 원래 값으로
LeakyReLU : negative input에 대해 ReLU는 0를 return하나, LeakyReLU는 ax를 return
Softmax: one-hot encoding => 모든 합이 1
반응형
'Deep learning > 개념' 카테고리의 다른 글
loss function (0) | 2021.03.27 |
---|---|
Optimizer (0) | 2021.03.27 |
DBN (0) | 2021.03.27 |
알고리즘 개념 (0) | 2021.03.21 |
top-1 and top-5 (0) | 2020.08.18 |