Linear Regression
h(x) = wx + b
x 데이터와의 Cost(오차)를 줄이는 과정
Gradient Descent Algorithm
Cost가 최소인 w, b를 찾는 과정
위식을 변환하면 2차원 그래프 그려지고, 미분으로 기울기가 최소인부분을 찾음
Linear Regression
h(x) = wx + b
x 데이터와의 Cost(오차)를 줄이는 과정
Gradient Descent Algorithm
Cost가 최소인 w, b를 찾는 과정
위식을 변환하면 2차원 그래프 그려지고, 미분으로 기울기가 최소인부분을 찾음