Linear Regression을 설계하기 위해 필요한 3가지
1. Hypothesis
예측한 값
어떻게 예측할 것인지
2. Cost Function(loss)
잘했는지 못했는지를 예측하는 방법
예측한 값과 실제값의 차이를 구함
3. Gradient descent algorithm
cost를 최적화 하는 방법
밥 그릇 같이 생긴 그래프에서 cost의 최저 값을 구함
만약에 비교하고 싶은 대상이 3개일 경우에?
H(x,y,z) = wx + w'y + w''z + b
행렬의 곱셈 (내적)
H(X) = XW
matrix의 속성
[5, 3] * [? , ?] = [5, 1]
w는 3*1의 행렬이다.
ex)
[n, 3] * [3, 2] = [n, 2]
matrix를 사용하면 multivariable에 쉽게 처리
instance가 많아도 쉽게 처리
출력이 여러개여도 쉽게 처리
이론적으로는
H(x) = Wx + b 라고 표기하지만,
실제 사용에 있어서는
H(X) = XW 가 계산에 용이하기에
위와 같이 사용한다.
둘의 수학적 의미는 같다.
'programming > Deep Learning' 카테고리의 다른 글
lect 05-1 Logistic(regression) classification (0) | 2019.04.23 |
---|---|
lec04-2 TensorFlow로 파일에서 데이터 읽어오기 (0) | 2019.04.22 |
lec02.02 - TensorFlow로 간단한 linear regression 구현* (0) | 2019.04.19 |
lec02.01 - Linear Regression의 Hypothesis와 cost설명 (0) | 2019.04.19 |
01. tensorflow operation (0) | 2019.04.19 |