티스토리 뷰
ML (Machine Learning)
[딥러닝 기본 12] Lec 05_2 - logistic classification의 cost 함수 설명
Nero :) 2017. 5. 31. 16:44모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.
@ Sigmoid function
@ Cost function : 예측값이 틀리면 cost를 키워 학습에 벌을 주고, 맞추면 cost를 낮추어 학습을 칭찬해주는 함수
- H(X)는 sigmoid(WX+b) 이다.
- sigmoid function의 cost 함수는 convex 함수가 아니므로 아래와 같은 새로운 cost 함수를 사용한다.
- 위 수식을 한줄로 작성하면 아래와 같다.
- Logistic Classification Cost Function (Cross-Entropy function)
- Minimize cost : gradient decent algorithm
gradient를 직접 미분하여 계산할 필요 없이 tensorflow의 tf.train.GradientDescentOptimizer()를 사용하면 된다.
'ML (Machine Learning)' 카테고리의 다른 글
[딥러닝 기본 14] Lec 06_1 - softmax classification: 기본개념 소개 (0) | 2017.06.01 |
---|---|
[딥러닝 기본 13] Lab 05 - tensorflow로 logistic classification의 구현하기 (0) | 2017.05.31 |
[딥러닝 기본 11] Lec 05_1 - logistic classification의 가설 함수 정의 (0) | 2017.05.31 |
[딥러닝 기본 10] Lab 04_2 - tensorflow로 파일에서 데이터 읽어오기 (1) | 2017.05.31 |
[딥러닝 기본 09] Lab 04_1 - multi-variable linear regression을 tensorflow에서 구현하기 (0) | 2017.05.31 |
댓글