모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.Lec 04 - multi-variable linear regression @ multi-variable linear regression- 여러개의 변수를 가지고 hypothesis를 예측 - Matrix를 이용 (대문자 X, W는 matrix)Matrix 곱셈은 shape이 아래 색상과 같이 일치해야 가능하다.역으로, W의 shape을 input과 output을 이용하여 구할 수 있다. - data instance 개수(초록색)를 n개로 표기하는 방법numpy : -1tensorflow : None - Matrix의 곱을 XW 형태로 사용 (WX 아님!)
모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.Lab 03 - linear regression의 cost 최소화의 tensorflow 구현 @ Simplified hypothesis : 간단한 설명을 위해 b를 생략@ TensorFlow - W와 cost(W)의 그래프 출력import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' import tensorflow as tf import matplotlib.pyplot as plt # 그래프 그리는 용도 # data set X = [1, 2, 3] Y = [1, 2, 3] W = tf.placeholder(tf.float32) # Hypothesis hypothesis = X * W # cost..
모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.Lec 03 - linear regression의 cost 최소화 알고리즘의 원리 설명 @ Simplified hypothesis : 간단한 설명을 위해 b를 생략H(x) 가 1차 함수 이므로, cost(W)는 2차 함수이다.minimize 값은 미분을 통해 구할 수 있다. (2차 함수의 변곡점은 미분한 값이 0인 지점) @ Gradient descent algorithm : 경사가 0이 되는 지점을 찾는 알고리즘 - learning rate과 gradient의 곱한 값만큼이동하며 학습하므로, 적절한 learning rate를 주는 것이 중요하다.(learning rate가 너무 큰 경우, 학습이 발산 / 너무 작은 경우, 학습..