最大熵馬爾可夫模型
雖然HMM可以達到很高的精確度,但是我們發現它需要大量的體系結構創新來處理未知的單詞、後退、後綴等等。如果我們能夠以一種乾淨的方式將任意的特性直接添加到模型中,這將會容易得多,但是這對於生成模型(如HMMs)來說很難。幸運的是,我們已經看到了這樣做的模型:邏輯回歸模型!但logistic回歸不是一個序列模型;它為單個觀察分配一個類。然而,我們可以將邏輯回歸轉化為一個判別序列模型,只需對連續的單詞運行它,使用分配給前一個單詞的類作為下一個單詞分類的一個特徵。當我們以這種方式應用邏輯回歸時,它被稱為最大熵馬爾可夫模型或MEMM5
設單詞序列為 ,標籤序列 。在隱馬爾可夫模型中,為了計算使P(T|W)最大化的最佳標記序列,我們依賴於貝葉斯規則和概率P(W|T):