從貝葉斯公式到最小二乘法
最近剛結束了在UCL一年的研究生學習課程,從本科學習計算機到研究生學習機器學習的課程,在學習的過程中走了很多彎路。最近在準備找工作,於是想將這一年所學習的機器學習的知識重新做一個總結,一方面希望大家能夠對我個人理解有錯誤的地方給予更正,一方面希望督促自己更快的進行學習總結。
在這一年的學習中我認為機器學習是統計學的一個分支,並且機器學習與計算機最大的不同在於計算機更注重功能的實現與演算法的應用,而機器學習更多的著重於機器學習統計學演算法的原理,代碼只是實現思想的一個工具。也就是說計算機更注重代碼,而機器學習更注重思想。在這個專題我會在找到工作前從基礎的線性回歸開始一直總結到強化學習,將我這一年所學的知識做一個整體的回顧與溫習。
- 概率論中的加法定則(Sum Rule)與乘法定則(Product Rule)的推導:
假設有兩個變數 與 , 可能取值為, , 可能取值為 , .
我們現在用如下符號表示:
- 表示所有可能得情況,即上圖所有小方塊的個數(即 )
則我們有:(可根據上圖的求出概率值)
- (1.1)
- (1.2)
因為 所以我們有:
所以 (1.3)
- (1.4)
- 由公式 (1.1), (1.2), (1.4) 我們可以得到:
(1.5)
- 結合公式 (1.3) 與公式 (1.5) 我們得到了概率論中的加法定則與乘法定則:
加法定則(Sum Rule):
乘法定則(Product Rule):
2. 貝葉斯公式(Bayes theorem):
由乘法定則: 我們可得:
因此我們的到貝葉斯公式(Bayes theorem)為:
(在這篇文章 6. 似然函數 中會對這個公式做進一步解讀)
3. 應用實例(乘法定則,加法定則,貝葉斯公式):
假設:我們現在有兩個盒子,一個紅色的盒子和一個藍色的盒子,我們選擇紅色盒子的概率為40%, 選擇藍色盒子的概率為60%。同時已知選擇橘黃色的球與綠色的球的概率均等。(如上圖)
我們現在想知道:(1) 我們選擇綠色球的概率是多少? (2) 在我們已知會選擇黃球的情況下,我們從藍色的盒子里拿到黃球的概率是多少?
求解:
(1) (由加法定則可得)
因為我們只有紅色的盒子和藍色的盒子可以選擇,則:
因為 , . 因此:
(2)
4. 概率密度函數 (Probability Density Function PDF)
(1) 定義:
連續性隨機變數的PDF用來描述這個變數的輸出值,在某個確定的取值點附近的可能性的函數。而隨機變數取值落在某個區域內的概率則為PDF在這個區域內的積分。因而對於連續值來說,我們有:
因為 非負,且x的值在x軸為一條線,所以
- ;
- .
(2) 對於連續變數的加法定則與乘法定則:
- 加法定則:
- 乘法定則:
5. 監督學習模型 (Supervised Learning Model):
給定一個訓練數據集 (training dataset):
根據該數據集推導一個函數 ,使得:
對於未知數據集(非訓練數據):
- 分類問題 (classification):
- 回歸(regression):
- x為輸入空間(input space), y為輸出空間(output space)
- 監督學習:計算一個函數可以最好的描述從輸入到輸出的關係。
6. 似然函數 (Likelihood function):
由貝葉斯公式可知:
(1)概率 (Probability):
表示已知參數 時,事件 的發生概率。
對於監督學習問題而言:我們要找到一個函數 , 而對於線性回歸來說, , 在訓練數據集已知 與 的情況下,我們 由 決定,則我們的目的是擬合 從而求出最終的 。則對於監督學習問題,我們要求的是: 在 已知的情況下 的概率。
(2) 似然函數(Likelihood function):
表示假設已知事件 發生,參數 的發生可能性。即似然函數是通過貝葉斯公式將未知看作為已知,求本身已知的發生可能性的函數。對於監督學習問題而言: 為未知, 為已知,則似然函數為
(3) 貝葉斯理論(Bayes theorem):
, 其中:
- 已知 下 的分布,即 的後驗分布(posterior distribution)
- 已知 下 的分布,即 的似然函數 (likelyihood function)
- 的先驗分布 (prior distribution)
因為貝葉斯公式中 已知,因而 已知,則:
對於監督學習問題來說:
- posterior:
- prior:
- likelihood:
因此為了求解 使得 ,我們在訓練數據集上求 可得 , 為了使得求出的 使 , 我們可以使用最大化似然函數使得 假設已知下,讓 是 的可能性最大,或者我們可以最大化後驗分布,使得 已知的情況下,求出 更可能使得
7. 極大似然估計 (Maximum Likelihood Estimation):
對於監督學習問題來說,似然函數為:
因此極大似然估計就是求 使得 最大,即為:
為了求得 使得似然函數最大化,我們可以用梯度上升(或者用梯度下降求負的似然函數)
(因為每行數據為獨立事件,所以可拆成連乘)
因為在現實生活中大部分的數據集都滿足高斯分布,所以我們假設似然函數服從高斯分布即:
因為:
所以
因為 已知,所以
則我們在極小化負的似然函數後得到方程 ,該方程就是最小二乘法的損失函數:
為了求得 ,我們另該函數導數為 , 即 .
因為
所以
因此,極大似然估計:
8. 利用最小二乘作線性回歸 python:
本例將用numpy產生100個一維隨機正太分布數據 作為數據feature,
並假設 , 將前80%個數據作為訓練數據,後20%作為測試數據。
- 產生隨機數據:
import numpy as np
import matplotlib.pyplot as plt
sampleNo = 50
mu = 85
sigma = 5
x = np.array([np.random.normal(mu, sigma, sampleNo)]).T
y = x[:,0] * 20
- 畫出 分布圖:
plt.hist( x[:,0], bins=30, normed=True)
plt.show()
- 畫出數據分布圖:
plt.scatter(x[:,0], y,c=g)
plt.title(Dataset)
plt.xlabel(x, fontsize=14)
plt.ylabel(y, fontsize=14)
plt.show()
- 將假數據分為前80%為訓練數據,後20%為測試數據:
train_num = int(sampleNo * 0.8)
x_train = x[0:train_num,:]
x_test = x[train_num:sampleNo,:]
y_train = y[0:train_num]
y_test = y[train_num:sampleNo]
- 利用最小二乘法求出w:
w = (np.linalg.inv(x_train.T.dot(x_train))).dot(x_train.T).dot(y_train)
- 在測試數據集上求出預測值:
y_pre =x_test.dot(w)
- 求出測試集模型誤差
loss = np.sum((y_test-y_pre)**2)
- 畫出擬合曲線(紅色)與數據點(綠色)
plt.scatter(x, y,c=g,marker=o)
plt.plot(x,x.dot(w),c=r)
plt.title(Dataset)
plt.xlabel(x, fontsize=14)
plt.ylabel(y, fontsize=14)
plt.show()
推薦閱讀: