之前我們已經學過了線性回歸代價函數梯度下降,但是他們就像一個人的胳膊和腿,只有組合在一起才會成為一個「完整的人」,這個「完整的人」就是一個機器學習演算法,讓我們一起來學習第一個機器學習演算法吧。

這個機器學習演算法叫做線性回歸的梯度下降演算法(Gradient Descent For Linear Regression),還記得我們學過的線性回歸函數、代價函數和梯度下降演算法嗎?如果忘記了,讓我們一起來回憶一下,如下圖(左為梯度下降,右為線性回歸和代價函數):

分別求出 j=0 和 j=1 時代價函數的偏導數,

帶入梯度下降演算法中,得到:

這個演算法也叫做「Batch」梯度下降(「Batch」 Gradient Descent ),他的特點就是每次進行梯度下降都要使用整個數據集。

恭喜你,到目前為止你已經學會了第一個機器學習演算法!這個演算法在解決線性回歸問題中十分好用。你已經成功地在通往機器學習的道路上邁出一小步了。

ps. 本篇文章是根據吳恩達機器學習課程整理的學習筆記。如果想要一起學習機器學習,可以關注微信公眾號「SuperFeng」,期待與你的相遇。

推薦閱讀:

相關文章