티스토리

NAIAHD
검색하기

블로그 홈

NAIAHD

kkkkhd.tistory.com/m

AI(인공지능) , JAVA, SPRING 등 설명

구독자
4
방명록 방문하기
반응형

주요 글 목록

  • logit 의 뜻 https://chacha95.github.io/2019-04-04-logit/ Sigmoid, Logit and Softmax 딥러닝 모델의 마지막 노드들에 출력되는 값을 바꿀 때 왜 logit함수와 softmax를 쓸가요? neural net을 이용한 classification task에 서의 맨 마지막 레이어의 노드들을 생각해 봅시다. 마지막 레이어에 act chacha95.github.io https://opentutorials.org/module/3653/22995 logistic + probit = logit log + odds probit은 확률을 재는 단위 odds: (두 확률의 비율)를 그대로 가져온다고 보시면 됨 odds: 그 값이 1보다 큰지 아닌지로 결정의 기준을 세웠다면 logit.. 공감수 0 댓글수 0 2021. 7. 2.
  • 개념 Receptive Field: 같은 크기의 필터여도 , 풀링에 의해 작아진 특징 맵에 적용되면 원본 영상에서 차지하는 범위가 넓다. 이 범위를 Receptive Field 라고 한다. 영상이 있을 때 -> 3x3 kernel -> 풀링 -> 상대적으로 3x3 크지면서 영상 원래 에서 보면 6x6으로 pooling하면서 적은 것에서 -> 넓은 영역으로 공감수 0 댓글수 0 2021. 3. 29.
  • loss function loss function regression: mean_squared_error classification: Cross-Entropy Loss: Binary classification: binary_crossentropy multi classification : categorical_crossentropy 공감수 0 댓글수 0 2021. 3. 27.
  • Optimizer Optimizer SGD (Stochastic Gradient Descent): Adam (Adaptive Moments) RMSprop (Root Mean Squared Propagation) 공감수 0 댓글수 0 2021. 3. 27.
  • Activation Function Activation Function neuron의 output y를 입력으로 f(y)를 계산 linear system , non-linear system Sigmoid : 0~ 1사이 tanh (Hyperbolic Tangent) : [−1.0,1.0] 의 범위로 output을 제한함 Step계단 함수: 0아니면 1 ReLU (Rectified Linear Unit) : 0 보다 작은 것을 0으로 수렴하고 0보다 큰것은 원래 값으로 LeakyReLU : negative input에 대해 ReLU는 0를 return하나, LeakyReLU는 ax를 return Softmax: one-hot encoding => 모든 합이 1 공감수 0 댓글수 0 2021. 3. 27.
  • DBN 심층신뢰망 (DBN, Deep Belief Network) blog.skby.net/%EC%8B%AC%EC%B8%B5%EC%8B%A0%EB%A2%B0%EB%A7%9D-dbn-deep-belief-network/ 심층신뢰망 (DBN, Deep Belief Network) > 도리의 디지털라이프 I. Gradient descent vanishing 해결 위한 심층신뢰망 가. 심층신뢰망 (DBN, Deep Belief Network)의 개념 입력층과 은닉층으로 구성된 RBM을 블록처럼 여러 층으로 쌓인 형태로 연결된 신경망 (딥러닝의 일종) RBM blog.skby.net I. Gradient descent vanishing 해결 위한 심층신뢰망 가. 심층신뢰망 (DBN, Deep Belief Network).. 공감수 1 댓글수 0 2021. 3. 27.
  • 알고리즘 개념 cs50 1.Linear Search 왼쪽부터 오른쪽으로 하나하나씩 조회한다. 랜덤으로 되여있다. o(n) 2. binary search sord 되여있는 것을 중간 중간 이런식으로 한다. bi => two divide conquer o(log n) big O -> O worst case 3. bubble sort bubble sort 옆에 있는것과 비교하여 바꾼다. i , i+1 i 위치에 있는것 이 i+1 보다 크면 바꾼다. O(n**2) 4. selection sort 한줄 보면서 제일 작은 것을 기억해서 처음과 잴 작은 것을 바꾼다. 0-> n-1 n(n-1)/ 2 => O(n**2) 5. insertion sort 6. recursion left right 나누어서 한다. 7. merge sor.. 공감수 0 댓글수 0 2021. 3. 21.
  • top-1 and top-5 Deep learning 관련 논문을 볼 때 top-1 와 top-5 error 라는 용어들이 나온다. top-1와 top-5 error는 이미지 분류성능을 평가하기 위한 것 들이다. Top-1 accuracy is the conventional accuracy, which means that the model answer (the one with the highest probability) must be exactly the expected answer. Top-5 accuracy means that any of your model that gives 5 highest probability answers that must match the expected answer. A picture of a cat.. 공감수 0 댓글수 0 2020. 8. 18.
  • 선형회귀분석 ,군집화 ,다층 계층 신경망 ,병렬처리 ,부록 A: 한국어판 : 순환 신경망과 LSTM 선형회귀분석 Linear regression: 독립변수 x, 상수형 b와 종속변수 y 사이의 관계를 모델링하는 방법입니다. 두 변수 사이의 관계일 경우 단순회귀라고 하며 여러 개의 변수를 다루는 다중회귀도 있습니다. 비용함수 cost function: 반복이 일어 날 때마다 개선되고 있는지 확인하기 위해 얼마나 좋은(나쁜) 직선인지를 추정하는 것입니다. 비용함수는 오차함수 error function라고도 합니다. 평균제곱오차 mean square error: 실제 값과 알고리즘이 반복마다 추정한 값 사이의 거리를 오차로 하는 것의 평균입니다. 경사 하강법 gradient descent: 함수값을 최소화 하는 최적화 알고리즘은 경사 하강법이 하는 역할입니다. 기울기 gradient: 음의 방향 쪽으로 진행.. 공감수 0 댓글수 0 2020. 8. 18.
    반응형
    문의안내
    • 티스토리
    • 로그인
    • 고객센터

    티스토리는 카카오에서 사랑을 담아 만듭니다.

    © Kakao Corp.