티스토리 뷰
ML (Machine Learning)
[딥러닝 기본 04] Lec 02 - linear regression의 hypothesis 와 cost
Nero :) 2017. 5. 30. 13:00모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.
@ Supervised Learning / Linear Regression 예제
ex) 공부 시간에 따른 점수(0 ~ 100) 예측
- 과거 실제 공부 시간에 따른 점수 데이터 셋 필요
- 공부시간(x), 점수(H(x))의 그래프를 그려서 분포에 가장 적절한 Linear한 모델을 가설 H(x) = Wx + b
- W, b 값을 임의의 값으로 주고 실제 데이터를 연산하여 H(x)의 값과 실제 값의 차이인 Cost를 계산
- Cost가 최소값이 되는 W와 b 찾기
@ (Linear) Hypothesis
- data의 규칙을 예상한 가설 함수
@ Cost function (=Lost function)
- H(x)의 값과 실제 y값의 편차
@ Linear Regression의 학습의 목표
- cost function이 가장 작은 W, b를 구하는 것 : minimize cost(W,b)
'ML (Machine Learning)' 카테고리의 다른 글
[딥러닝 기본 06] Lec 03 - linear regression의 cost 최소화 알고리즘의 원리 설명 (0) | 2017.05.30 |
---|---|
[딥러닝 기본 05] Lab 02 - tensorflow로 간단한 linear regression을 구현 (0) | 2017.05.30 |
[딥러닝 기본 03] Lab 01 - tensorflow의 설치 및 기본적인 operations (0) | 2017.05.30 |
[딥러닝 기본 02] Lec 01 - 기본적인 machine learning 의 용어와 개념 설명 (0) | 2017.05.30 |
[딥러닝 기본 01] Lec 00 - machine/deep learning 수업의 개요와 일정 (0) | 2017.05.30 |
댓글