머신러닝의 기초 - 선형 회귀 한 번에 제대로 이해하기 (30분만 투자해봐요!) - YouTube
Cost function
모델이 얼마나 잘 작동하는지 보고 더 보완할 수 있다.
학습 알고리즘이 모델의 예측과 실제 값의 차이를 평가하는 방법.
f(x) = wx + b 함수로 돌아가보자.
함수는 아래와 같이 작동한다.

그런데 linear model을 학습시킬 때 많은 m(총 x⒤,y⒤ 쌍의 합)중에서서 어떻게 함수 안에 들어갈 w,b 값을 정하게 되는 것일까? 이를 위해 cost function을 알아야 한다. 이제 편의성을 위해 n⒤를 n^i로 대체하여 쓰겠다.

(1) y-hat^i에서 y^i의 값을 뺀다 (=error)
(2) error의 값을 제곱한다.
(3) 모든 training set에서의 error 정도를 알기 위해 1부터 시작하는 i의 모든 수(m)를 합한 값을 곱해준다
(4) 다시 1/2m 사이즈로 줄여준다
이 방식은 squared error cost function이라 부른다.
Q. The cost function used for linear regression is

Which of these are the parameters of the model that can be adjusted?

'machine_learning > [coursera] Machine learning' 카테고리의 다른 글
| Cost function intuition (0) | 2023.04.29 |
|---|---|
| Linear regression model part 2 (0) | 2023.04.29 |
| Linear regression model part 1 (0) | 2023.04.29 |
| Jupyter Notebooks (0) | 2023.04.27 |
| Unsupervised learning part 2 (0) | 2023.04.27 |
