Regression?
: 넓은 범위의 예측
여기서, 데이터가 선형성을 가짐 (X, Y)
-> Linear Regression
-> 많은 경우의 데이터에서 선형성을 지님, 자주 쓰임
Hypothesis(가설)
: 학습? 실제 데이터에 대해 어떤 Linear한 선을 찾는 것
: 가설? Linear한 선을 긋는 행위 -> 아래의 그림에서 빨간 줄에 해당
W와 b에 따라 Hypothesis가 정해짐
Cost(Loss) Function
: 어떤 hypothesis가 좋은가? -> 실제 데이터와 비교가 필요
: 가설과 실제 데이터 간의 거리를 측정
: 즉, 가설과 실제 데이터 간의 차이를 계산하는데 사용하는 함수.
1. 가설 H(x)와 실제 데이터y 의 차이
제곱은 음수, 양수가 아닌, 절대적인 차이값을 위해
2. Formal하게 작성
m = 데이터의 갯수
데이터의 갯수가 상당히 커지면 cost값이 너무 높을 수 있으므로 1/m을 취함 -> normalization(일반화)
3. 2번의 cost에 Hypothesis식 대입
4. cost값을 최소화 하는 것이 목표
즉 cost를 최소화 하는 W, b를 찾는 것이 목표