你這問題問的有點奇怪,先是問深度學習可以解決經典機器學習演算法問題嗎又說線性回歸可以用機器學習解決嗎?

須知線性回歸本來就是機器學習演算法,為什麼不能用機器學習解決,我感覺你應該問的是線性回歸能不能用深度學習解決。

線性回歸是個非常簡單的演算法,本來和深度學習沒什麼關係,畢竟太簡單了連根本不需要三層以上的隱藏層來表示。

不過線性回歸確實是能被抽象表示成一個簡單的神經網路的,但是這個神經網路太過於簡單,以至於不能稱為深度學習。

不管是機器學習也好,深度學習也罷,總的來說大致就是在解決分類和回歸問題,所以經典的機器學習演算法解決的問題,深度學習也能做。

唯一需要注意的是,當你訓練數據非常少的時候不建議使用深度學習,機器學習的效果比深度學習效果好太多。。。


可以的,一般簡單任務都採用機器學習。並且機器學習比深度學習更容易部署生產。


對於這個問題,首先要給出一個肯定的回答,可以,當然可以。

題主不要被深度學習這個概念搞糊塗了,它不是一個很複雜的概念。所謂深度學習,說到底就是藉助神經網路這個工具來求解擬合問題。且不說深度網路能不能求解線性回歸,最簡單的單神經元模型就可以做到這一點。

如圖所示,神經網路中的每個神經元一共會進行兩個步驟的運算工作:

  1. 對輸入進行加權求和,圖中即為 [公式]
  2. 應用激活函數。所謂激活函數,就是把線性輸入給掰彎,形成非線性輸出,常用的有sigmoid,tanh,relu等等。當然也可以不使用激活函數或者說使用線性激活函數 [公式] ,這樣的話,神經網路就變成了一個線性模型。

假設上圖所示的單神經元網路使用的是線性激活函數,那麼這個模型的輸出 就為[公式] ,這不就是最簡單的線性回歸問題么;如果我們現在替換掉線性激活函數,改用sigmoid激活函數,那麼輸出就變為了 [公式] ,這就成了最簡單的Logistic Regression問題。

當然,單個神經元可能並不能夠稱作是一個網路,但在這裡只是舉例說明這一點。神經網路並不是陽春白雪,說到底就是一個從輸入到輸出的函數映射 [公式] 。只不過這個映射關係並不是人工指定的,而是通過一定的規則訓練出來的。按道理講,神經網路可以擬合任意複雜的函數關係,更不要說簡單的線性回歸問題了。

題主如果想要進一步學習深度學習的話,建議去看吳恩達老師的深度學習視頻,在網易雲課堂上面就有免費的視頻課程。


你對深度學習是有什麼誤解嗎?你以為深度學習是一個神話嗎,還是一個咒語嗎?

深度學習是什麼?不就是一個尋找模型的參數的方法和過程嗎?

線性回歸是什麼?不就是一個模型嗎?

所以,為什麼不可以呢?太可以了。


可以,寫個一兩個全連階層效果差不多。但是容易過擬合。我沒有推過公式但是主觀感覺一兩個全鏈接跟線性回歸應該是一樣原理,你可以推一下看看


當然可以的。我不知道你具體的問題是什麼,但如果只是用來得到一系列連續的或者離散的值,深度學習神經網路是可以解決的。而且從某些角度上講,一個簡單的三層神經網路在對分類的處理上要比lr效果好一些(可以理解為回歸加上一個激活函數和閾值限定分布)。


當然可以,決策樹都能用tf實現


多看書多學習少玩知乎


建議好好看看深度學習和經典機器學習的區別


可以


推薦閱讀:
相关文章