티스토리 뷰

모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.

Lec 06_2 - softmax classification의 cost 함수  


@ Softmax function

- A일 확률, B일 확률, C일 확률을 총 합이 1인 통합 확률로 변환해주는 함수

- A일 확률 = 66%, B일 확률 = 24%, C일 확률 = 10%


@ One-Hot encoding

- 가장 확률이 높은 값을 1.0, 이외의 모든 값을 0.0으로 변환


@ Cost function

- Cost function Minimize = Gradient descent algorithm 사용




@ Cross-Entropy

logistic regression과 classification의 cost function에 사용되는 함수.


양쪽 값을 계산해보면, 예측과 값이 일치할 경우 cost = 0, 예측과 값이 불일치할 경우 cost = ∞ 로 cost의 상과 벌이 일치한다.

(우측 값 = logistic regression의 cost function)

 


댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/01   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함