머신러닝/텐서플로우 썸네일형 리스트형 Linear Regression의 cost 최소화 알고리즘의 원리 설명 Hypothesis 와 Cost를 다음과 같이 정의하였다. 우리의 모델이 대략 이런 형태를 띠고 있다. 이것에 기반하여 모델이 실제 데이터와 얼마나 다른가 (가설의 값과 실체 값의 차이의 제곱의 평균) cost(W,b)를 최소화 시키는 W,b의 값을 우리가 가지고 있는 데이터를 통해서 구해보자는 것이 Linear Regrssion의 목표이다. Hypothesis를 간략화 해보자 W값에 따른 그래프를 그려보면 와 같은 그래프가 나오게 된다. cost가 최소화되는 점을 기계적으로 찾아내는 못적이다. 여기서 많이 사용되는 알고리즘이 gradient descent algorithm이다.Gradient descent algorithm(경사를 내려가는 알고리즘)- cost function을 최소화 시킨다.- 주어진.. 더보기 Tensorflow로 간단한 Linear Regression 구현(2) (1)에서의 코드와는 약간 다르다.tf.placeholder를 사용해서 구현했다.placeholder사용시 원하는 데이터를 feed_dict를 통해서 바로 넣어줄 수 있다는 장점이 있다.1234567891011121314151617181920212223import tensorflow as tfW = tf.Variable(tf.random_normal([1]), name = 'weight')b = tf.Variable(tf.random_normal([1]), name= 'bias') X = tf.placeholder(tf.float32, shape=[None])Y = tf.placeholder(tf.float32, shape=[None]) hypothesis = X * W + b cost = tf.redu.. 더보기 Tensorflow로 간단한 linear regression 구현(1) 세상의 많은 데이터들은 선형적인(Linear한) 관계를 띈다. 예를 들어보자. 공부시간과 시험점수의 관계, 키와 몸무게의 관계, 집의 크기와 집값의 관계 등이 있다. 선형 관계를 띠는 두 데이터의 관계를 H(x) = Wx + b라고 가정한다. 이 가정과 실제 값과의 차이 를 최소화 시켜야 한다다. cost를 다음과 같이 정의하고 이것을 최소화 시킬 것이다. 제곱을 하는 이유는 차이를 양수로 표현해 주고 차이가 클때 패널티를 많이 주기 위해서이다.cost 가 가장 작아지는 w,b를 가지는것 이것이 학습의 목표이다. 123456789101112131415161718192021222324252627import tensorflow as tf #tensorflow를 tf로 import 한다. x_train = [.. 더보기 이전 1 다음