最近幾天在看有關邏輯回歸的東東,推導了一大堆公式,但是腦海浮現出個一個疑問:邏輯回歸為啥長這樣?為啥邏輯回歸要用Sigmoid函數?也許可能有人會說Sigmoid函數的性質很好,連續可導以及導函數簡單之類,但是Sigmoid不可能突然出現的吧?總會有一個被人發現的過程,對此有兩種解釋,一個是廣義線性模型(GLM),另一個是最大熵模型。
我會分成兩篇文章來說明,一部分從GLM的角度去推導,一部分從最大熵模型來推導。
1.1 廣義線性模型(GLM)
我們知道線性模型 往往用來預測的是連續值,對於分類問題效果往往不好,故考慮再對預測值做一次處理,這個處理的函數稱之為連接函數(link function),即下圖中的 函數。GLM如下圖所示: