[Machine Learning]Linear Regression

Linear Regression 屬於 Supervised Learning(監督式學習),用來預測連續型(continuous)的變數。


Simple Linear Regression

Simple Linear Regression 假設 \(X, Y\) 存在線性關係,且可以使用以下的式子來表示 \(X, Y\)的關係。

\[Y \approx \beta_0 + \beta_1 X\]

而現實中我們無法知道參數 \(\beta_0, \beta_1\),這時候我們會使用 train data 找出估計參數 \(\hat{\beta_0}, \hat{\beta_1}\)。簡單線性回歸的估計式可以寫成,

\[\hat{y} = \hat{\beta_0} + \hat{\beta_1} x\]

其中,\(\hat{y}\) 是當 \(X = x\) 時 \(Y\)的預測值。


Estimating the Coefficients

現在有一堆 data, \((x_i, y_i), \thinspace i = 1, 2, 3, …, n\),根據上面的迴歸式可以將這些 data 表示成,

\[y_i \approx \hat{\beta_0} + \hat{\beta_1} x_i, \thinspace for \thinspace i = 1, 2, 3, ..., n\]

已經知道迴歸模型可以用上面的式子表示,那現在的任務是要找到 \(\hat{\beta_0}\) 和 \(\hat{\beta_1}\),只要找到這兩個參數就可以預測 \(y\) 了。

找 \(\hat{\beta_0}, \hat{\beta_1}\) 的方法叫 The Least Square Method(最小平方法)。

linear regression.png

以上圖為例,紅色的點為 observations,深藍色的線是用最小平方法找到的迴歸線。


The Least Square Method 是什麼?

式子 \( \hat{y_i} = \hat{\beta_0} + \hat{\beta_1} x_i \) 為 \(X = x_i\) 時 \(Y\) 的預測值。

我們使用 Residual(殘差) 來看這個預測的結果與實際數值的差距,定義為 \(e_i = y_i - \hat{y_i}\) (上圖中紅點到深藍色線的灰色線段們)。

將所有 Residual 相加便能

RSS =


Reference:
An Introduction to Statistical Learning with Applications in R