티스토리 뷰

모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.

Lec 05_2 - logistic classification의 cost 함수 설명  


@ Sigmoid function

   

 


@ Cost function : 예측값이 틀리면 cost를 키워 학습에 벌을 주고, 맞추면 cost를 낮추어 학습을 칭찬해주는 함수

- H(X)는  sigmoid(WX+b) 이다.

- sigmoid function의 cost 함수는 convex 함수가 아니므로 아래와 같은 새로운 cost 함수를 사용한다.





- 위 수식을 한줄로 작성하면 아래와 같다.


- Logistic Classification Cost Function (Cross-Entropy function)


- Minimize cost : gradient decent algorithm

gradient를 직접 미분하여 계산할 필요 없이 tensorflow의 tf.train.GradientDescentOptimizer()를 사용하면 된다.






댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/01   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함