반응형

Logistic Classification의 가설 함수 정의

가설함수

Cost는 실제값과예측 값의 차이

최소화 해야 한다.

경사하강법으로 내려 간다.

기울기는 우리의 cost함수가 미분을 한 값 w, b

Step: 얼마나 움직일가. Learning rate

 

Classification : binary

Spam or ham

show or hide 좋아요 가지고 학습해서 한다.

Legitimate/fraud : credit card 잊어버릴때 

0,1 encoding : 기계적으로 학습하기 위해서 

 

예:

주식 살가 팔가 

 

예: 몇시간 정도 공부 했더니 pass or fail

Linear Regressoin : 단점 : 한 분이 다른 분과 다르게 50시간을 공부할 경우 선이 기울어 질 수 있다. 

우리가 classification 0과 1사이 로 나와야 하는데

1보다 휠씬 큰 값이 나 올 수 있다.

W = 0.5, b=0

가설함수는 1보다 크거나 0보다 작은 값이 나올 수 있다.

H(X) =WX +b

 

G(z) 0~ 1 사이의 값으로 만드는것

Logistic function

sigmoid function

 

Logistic Regression의 cost 함수 설명

오늘쪽 그림에서 시작점에 따라 최소점이 다를 수 있다.

local minimum

exponential이 있다 . 상반되는 것이 log이다.

cost최소화하기 위해서 

예측이 틀리면 0이여서 무한데로 간다.

 

시스템이 잘못 예측할 경우 크게 한다.

 

cost주어지면 minimize한다.

기울기를 구하기 위해서 미분을 한다.

 

반응형

+ Recent posts