모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.Lab 06_2 - tensorflow로 fancy softmax classification의 구현하기 @ Softmax classification @ Tensorflow- softmax_cross_entropy_with_logits 를 사용하여 Softmax classification 구현- 동물의 특징에 따라 7가지로 분류 예제- data file : import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' import tensorflow as tf import numpy as np # 동물 데이터 불러오기 xy = np.loadtxt('data-04-zoo.csv', delimiter=',..
모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.Lab 06_1 - tensorflow로 softmax classification의 구현하기 @ Softmax classification @ TensorFlow- 4개의 변수에 의해 3가지 등급으로 분류하는 학습import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' import tensorflow as tf # x_data : 4개의 변수로 구성 # y_data : one-hot 방식으로 3가지 label # [1, 0, 0] = 첫 번째 # [0, 1, 0] = 두 번째 # [0, 0, 1] = 세 번째 x_data = [[1, 2, 1, 1], [2, 1, 3, 2], [3, 1, 3, 4..
모두를 위한 머신러닝 / 딥러닝 김성훈 교수님 강의를 듣고 정리한 내용입니다.Lec 06_2 - softmax classification의 cost 함수 @ Softmax function- A일 확률, B일 확률, C일 확률을 총 합이 1인 통합 확률로 변환해주는 함수 - A일 확률 = 66%, B일 확률 = 24%, C일 확률 = 10% @ One-Hot encoding - 가장 확률이 높은 값을 1.0, 이외의 모든 값을 0.0으로 변환 @ Cost function - Cost function Minimize = Gradient descent algorithm 사용 @ Cross-Entropy - logistic regression과 classification의 cost function에 사용되는 함..