티스토리 뷰
ML (Machine Learning)
[딥러닝 기본 15] Lec 06_2 - softmax classification의 cost 함수
Nero :) 2017. 6. 2. 01:33모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.
@ Softmax function
- A일 확률, B일 확률, C일 확률을 총 합이 1인 통합 확률로 변환해주는 함수
- A일 확률 = 66%, B일 확률 = 24%, C일 확률 = 10%
@ One-Hot encoding
- 가장 확률이 높은 값을 1.0, 이외의 모든 값을 0.0으로 변환
@ Cost function
- Cost function Minimize = Gradient descent algorithm 사용
@ Cross-Entropy
- logistic regression과 classification의 cost function에 사용되는 함수.
- 양쪽 값을 계산해보면, 예측과 값이 일치할 경우 cost = 0, 예측과 값이 불일치할 경우 cost = ∞ 로 cost의 상과 벌이 일치한다.
(우측 값 = logistic regression의 cost function)
'ML (Machine Learning)' 카테고리의 다른 글
[딥러닝 기본 17] Lab 06_2 - tensorflow로 fancy softmax classification의 구현하기 (0) | 2017.06.02 |
---|---|
[딥러닝 기본 16] Lab 06_1 - tensorflow로 softmax classification의 구현하기 (0) | 2017.06.02 |
[딥러닝 기본 14] Lec 06_1 - softmax classification: 기본개념 소개 (0) | 2017.06.01 |
[딥러닝 기본 13] Lab 05 - tensorflow로 logistic classification의 구현하기 (0) | 2017.05.31 |
[딥러닝 기본 12] Lec 05_2 - logistic classification의 cost 함수 설명 (0) | 2017.05.31 |
댓글