視頻講解:
https://www.bilibili.com/video/av53400966?from=search&seid=8917174353134658904?www.bilibili.com源碼:
aespresso/a_journey_into_math_of_ml?github.com邏輯回歸是一種被廣泛使用的統計模型或分類器, 我們今天用的深度學習的主要組成元素就是線性變換和非線性映射, 這兩種計算在邏輯回歸裡面都有, 但邏輯回歸不同於深度學習的"黑盒機制", 我們完全可以搞明白它是怎樣解決問題的. 而對於深度學習, 我們可以明確所有的計算原理, 但並不知道這些神經元是怎樣協作從而解決問題的. 今天講的是邏輯回歸中的二項分類問題, 我們從0推導並用, 並說說激活函數和損失函數是怎麼來的.
今天的主題: (一). 二項邏輯回歸的直覺; (二). 邏輯回歸的來歷: 和 ; (三). 邏輯回歸的計算: 函數和 函數及它們的特性; (四). 最大似然估計 和損失函數; (五). 量化分類器性能, 困惑度
(一). 二項邏輯回歸的直覺
- 二項邏輯回歸是一個功能, 最終輸出的是介於 到 之間的值, 為了解決類似"成功或失敗","有或無"或"通過或拒絕"類似的"非是即否"的問題.
- 邏輯回歸是一個把線性回歸模型映射為概率的模型, 即把實數空間的輸出 映射到 , 從而獲取概率.
- 畫個圖, 我們首先定義一個二元線性回歸模型: , 其中 的取值範圍在