上面的推導來自:梯度下降(Gradient Descent),一句代碼,一個式子我主要是沒看明白圖上如何用矩陣將上面的運算細節抽象的。


最近看吳恩達的機器學習視頻正好也碰到這個問題,其實是比較簡單的矩陣換算問題,不過首先還是得知道公式裏各個參數的意義。這裡引用下吳恩達視頻裏的例子:

這裡的X是根據訓練集的數據構建的一個 [公式] 矩陣,圖中有一步沒有說明就是 [公式]

後面就是矩陣換算了呀:由於 X 不一定是方陣,兩邊同時乘以X的轉置,再對其取逆就是 [公式] 的最終表達式了。


這個是linear model裡面著名的normal equation。

證明方法:網易公開課,吳恩達的斯坦福機器學習公開課cs229 第二節課後半段 有推導過程。


這裡有個證明,希望有幫助

機器學習筆記03:Normal equation與梯度下降的比較


先利用最小二乘法寫出J,再對J求駐點


我想先請問下你會算矩陣乘法麼。
吳恩達教授的機器學習裏第二課還是第三課有講解,講義裏有詳細的推導過程


推薦閱讀:
相關文章