티스토리 뷰
ML (Machine Learning)
[딥러닝 기본 14] Lec 06_1 - softmax classification: 기본개념 소개
Nero :) 2017. 6. 1. 12:00모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.
@ Multinomial Classification
- 공부시간(X1)과 출석(X2)에 따른 학점(Y)을 예상하는 학습 예제
- A / B / C 와 같이 최종 결과를 여러 값중 하나로 분류하는 학습
- A or Not / B or Not / C or Not 의 Binary Classification을 3번 사용하여 분류
(Binary Classification의 의미 = 해당 분류에 속하는 정도 또는 확률)
- 위 내용을 Matrix로 작성하면 아래와 같다.
- A, B, C에 대한 Y의 값들을 softmax function에 넣으면 각각의 분류에 속할 확률이 나오게 된다. (softmax function은 다음 글에서 설명)
'ML (Machine Learning)' 카테고리의 다른 글
[딥러닝 기본 16] Lab 06_1 - tensorflow로 softmax classification의 구현하기 (0) | 2017.06.02 |
---|---|
[딥러닝 기본 15] Lec 06_2 - softmax classification의 cost 함수 (0) | 2017.06.02 |
[딥러닝 기본 13] Lab 05 - tensorflow로 logistic classification의 구현하기 (0) | 2017.05.31 |
[딥러닝 기본 12] Lec 05_2 - logistic classification의 cost 함수 설명 (0) | 2017.05.31 |
[딥러닝 기본 11] Lec 05_1 - logistic classification의 가설 함수 정의 (0) | 2017.05.31 |
댓글