2. 北漂浪子的博客:『深度學習word2vec 筆記之基礎篇』
優點:非常系統,結合源碼剖析,語言平實易懂
缺點:太啰嗦,有點抓不住精髓
3. Yoav Goldberg 的論文:『word2vec Explained- Deriving Mikolov et al.』s Negative-Sampling Word-Embedding Method』
優點:對 negative-sampling 的公式推導非常完備
缺點:不夠全面,而且都是公式,沒有圖示,略顯乾枯
4. Xin Rong 的論文:『word2vec Parameter Learning Explained』:
!重點推薦!
理論完備由淺入深非常好懂,且直擊要害,既有 high-level 的 intuition 的解釋,也有細節的推導過程
一定要看這篇paper!一定要看這篇paper!一定要看這篇paper!
5. 來斯惟的博士論文『基於神經網路的詞和文檔語義向量表示方法研究』以及他的博客(網名:licstar)
可以作為更深入全面的擴展閱讀,這裡不僅僅有 word2vec,而是把詞嵌入的所有主流方法通通梳理了一遍
6. 幾位大牛在知乎的回答:『word2vec 相比之前的 Word Embedding 方法好在什麼地方?』
劉知遠、邱錫鵬、李韶華等知名學者從不同角度發表對 Word2vec 的看法,非常值得一看
7. Sebastian 的博客:『On word embeddings - Part 2: Approximating the Softmax』
詳細講解了 softmax 的近似方法,Word2vec 的 hierarchical softmax 只是其中一種