高斯混合模型(Gaussian Mixture Model)與EM演算法原理(二)
接前文。
6. 高斯混合模型的EM演算法
前文講到,不完全數據集 的對數似然函數 的極大似然估計得到參數:
其中,響應度 , 。
雖然(1)式不是閉式解,但是我們可以根據(1)式,通過迭代的方法來計算參數 。
EM演算法(Expectation-Maximization algorithm)是就是這樣一種用於計算含有隱變數的模型的極大似然解的強大方法。
下面簡述用EM演算法來計算高斯混合模型參數的步驟:
1. 初始化:給參數均值向量 ,協方差矩陣 和混合係數 賦初值;並計算對數似然函數的初值;
* 註:可以用K均值聚類(K-means clustering)演算法來得到初始參數。
2. E步(Expectation step):用當前參數值 計算後驗概率(響應度) :
3. M步(Maximization step):用當前響應度 ,根據(1)式重新估計參數:
其中, 。
在M步中,先計算 的值,然後用 來計算新的協方差矩陣 。
4. 用新的參數 計算對數似然函數:
然後檢查是否收斂。(當然,也可直接檢查參數是否收斂。)
如果收斂,則得到了模型參數;如果還沒收斂,則返回第2步繼續迭代。
參考文獻[1], Section9.2, Page437指出,E步+M步可以保證對數似然函數的上升。不過需要注意的是,作為一種迭代演算法,EM演算法有可能收斂到局部最大值(local maximum)。
7. 換個角度看高斯混合模型的EM演算法
在前面的極大似然估計中,我們的目標函數是不完全數據集 的對數似然函數 。
現在我們換個角度來看:假如我們也有隱變數的觀測值 ,即知道 來自高斯混合中的哪一個分模型,換句話說,我們有完全數據集 ,那麼我們可以計算完全數據的對數似然函數 。
首先,一組完全數據 的似然函數為:
所以,整個完全數據集 的似然函數為:
(當然,我們假設每組數據相互獨立。)
取對數得
可以看出,和不完全數據的對數似然函數 相比,(2)式中 和 換了順序。
然而實際情況是,我們並不知道隱變數的觀測值,即(2)式中的 ,所以我們無法直接計算 。因此,我們考慮對 在隱變數 的後驗分布下求期望,利用求期望的過程,將 消掉。
在隱變數 的後驗分布下的期望:
其中, 表示 在後驗分布下的期望 。因 ,所以
也就是說,期望 就是響應度 。進而,
將上式簡記為 ,現在將 當作常數,求參數 ,使 最大化,即
採用拉格朗日乘子法,拉格朗日函數為:
先對 求梯度,因為
所以,
進而,
同之前極大化 一樣,可推得
然後是對 求梯度,
回憶在文(一)中,我們求 的極值點時,有
對比(3)(4)兩式,結合響應度 的公式,可發現兩式是一致的,這意味著兩種方法計算出的 也相同。
再來看 ,
對比前文,可以發現 也和 極值點的參數一致。
綜上,通過極大化 得到的模型參數,和 的極大似然估計結果是一致的。在EM演算法的每一次迭代中,我們都在對 求極大值。
這給了我們另一個角度來看EM演算法在高斯混合模型中的應用,也有助於我們理解EM演算法的一般形式。
8. EM演算法的一般形式
對於含有隱變數的概率模型,記變數和(離散的)隱變數分別為 ,模型參數為 ,(比如高斯混合模型的參數 ), 為變數 的 個觀測值的集合,即不完全數據集, 為相應的隱變數值的集合。
要計算 極大化對數似然函數 ,EM演算法的思路是:考慮完全數據集 的對數似然函數 在隱變數的後驗分布 下的期望,反覆迭代極大化這個期望,最終得到模型的參數值。其中 為當前參數。(若 相互獨立,則計算 實際上是計算 )
下面簡述EM演算法的一般形式:
1. 初始化模型參數 ;
2. E步(Expectation step):計算隱變數的後驗分布 ;
* 對於高斯混合模型,這一步實際上就是計算響應度 。
3. M步(Maximization step):極大化完全數據的對數似然函數 在隱變數的後驗分布 下的期望,即極大化函數:
得到相應的參數值 。
4. 檢查對數似然函數或參數是否收斂,如果沒收斂,則
回到第2步繼續迭代;
如果已收斂,則得到了模型參數。
EM演算法的每次循環可以使不完全數據集的對數似然函數上升,除非其已收斂到局部最大值(參考文獻[1], Section9.3, Page440)。
參考文獻
[1] Christopher M. Bishop. Pattern Recognition and Machine Learning, Springer, 2006.
[2] 李航,統計學習方法,清華大學出版社,2012年。
推薦閱讀: