最小二乘法擬合線性回歸方程是機器學習中最基礎的內容了,之前都是從微積分求導的思路理解最小二乘法,現在看到線性代數視角下的最小二乘法感覺挺新穎,記錄一下。
我們經常會碰到Ax = b 方程組無解的情況,通常的原因是方程組過多,而未知數太少的情況,也就是矩陣A(n× m)的行數大於列數的情況(n遠遠大於m)。除非碰上極端情況,結果向量b都在矩陣A的列空間外。普通的消元法解決不了這類問題,因為我們的測量數據是包含雜訊的。
重申一遍:我們不能總是讓誤差項 e = b – Ax 等於0,當e為0時,x就是使方程組Ax=b 的解。當e 儘可能的取最小值的時候,求得的
就是最小二乘法的解決思路。具體來說,方程Ax=b 無解,但是方程A =p 可解(p:向量b在矩陣A的列空間上的投影)。我們把b向量分解成兩部分,在矩陣A的列空間的部分是p,垂直於p位於 零空間的部分是e。e = b – p, e p, 也就是 (b - A)=0。
當Ax=b無解時,方程左右乘以 求解 (b - A)=0
例 1 最小二乘法的一個典型應用就是擬合直線方程,如:給定數據(0,1),(1,9),(3,9)和(4,21)找到一條離數據點最近的直線。