集成學習對多個學習器的預測進行結合以提升集成性能. 本章對集成學習進行簡要介紹, 包括設計集成學習演算法的關鍵---多樣性, 以及集成學習的兩大代表性方法: Bagging和Boosting. 在Boosting系列方法中, 本章介紹使用最廣泛的AdaBoost和GradientBoosting.

本系列文章有以下特點: (a). 為了減輕讀者的負擔並能使儘可能多的讀者從中收益, 本文試圖儘可能少地使用數學知識, 只要求讀者有基本的微積分、線性代數和概率論基礎, 並在第一節對關鍵的數學知識進行回顧和介紹. (b). 本文不省略任何推導步驟, 適時補充背景知識, 力圖使本節內容是自足的, 使機器學習的初學者也能理解本文內容. (c). 機器學習近年來發展極其迅速, 已成為一個非常廣袤的領域. 本文無法涵蓋機器學習領域的方方面面, 僅就一些關鍵的機器學習流派的方法進行介紹. (d). 為了幫助讀者鞏固本文內容, 或引導讀者擴展相關知識, 文中穿插了許多問題, 並在最後一節進行問題的"快問快答".

全文pdf可在如下鏈接中下載

https://github.com/HaoMood/homepage/raw/master/files/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%B7%A5%E7%A8%8B%E5%B8%88%E9%9D%A2%E8%AF%95%E5%AE%9D%E5%85%B8-06-%E9%9B%86%E6%88%90%E5%AD%A6%E4%B9%A0.pdf?

github.com

推薦閱讀:

相關文章