半監督文本分類的對抗訓練方法

題目:

Adversarial Training Methods for Semi-Supervised Text Classification

作者:

Takeru Miyato, Andrew M. Dai, Ian Goodfellow

來源:

Published as a conference paper at ICLR 2017

Machine Learning (cs.LG)

Submitted on 25 May 2016

文檔鏈接:

arXiv:1605.07725

代碼鏈接:

github.com/tensorflow/m

github.com/TobiasLee/Te

摘要

對抗性訓練提供了一種正則化監督學習演算法的方法,而虛擬對抗性訓練能夠將監督學習演算法擴展到半監督設置。然而,這兩種方法都需要對輸入向量的大量條目進行小擾動,這對於稀疏的高維輸入(如一個熱詞表示)是不合適的。我們將對抗性訓練和虛擬對抗性訓練擴展到文本領域,方法是將擾動應用於一個遞歸神經網路中的單詞嵌入,而不是應用於原始輸入本身。該方法在多個基準半監督和純監督任務上均取得了較好的效果。我們提供了可視化和分析,表明學習的單詞嵌入在質量上得到了提高,並且在訓練時,模型不太容易過度擬合。

英文原文

Adversarial training provides a means of regularizing supervised learning algorithms while virtual adversarial training is able to extend supervised learning algorithms to the semi-supervised setting. However, both methods require making small perturbations to numerous entries of the input vector, which is inappropriate for sparse high-dimensional inputs such as one-hot word representations. We extend adversarial and virtual adversarial training to the text domain by applying perturbations to the word embeddings in a recurrent neural network rather than to the original input itself. The proposed method achieves state of the art results on multiple benchmark semi-supervised and purely supervised tasks. We provide visualizations and analysis showing that the learned word embeddings have improved in quality and that while training, the model is less prone to overfitting.

要點

我們的研究表明,Dai & Le(2015)提出的基於神經語言模型無監督預訓練的方法,在多個半監督文本分類任務(包括情感分類和主題分類)上取得了最先進的性能。我們強調,只有一個額外的超參數ε的,最優化,即限制對抗性擾動大小的範數約束,實現了這種最先進的性能。這些結果強烈鼓勵將我們提出的方法用於其他文本分類任務。我們認為文本分類是半監督學習的理想設置,因為有大量的未標記語料庫可供半監督學習演算法利用。這項工作是我們所知道的第一個使用對抗性和虛擬對抗性訓練來改進文本或RNN模型的工作。通過對訓練模型的分析,定性地描述了對抗訓練和虛擬對抗訓練的效果。我們發現,對抗性訓練和虛擬對抗性訓練在基本方法的基礎上改進了單詞嵌入。

圖1:使用乾淨的嵌入(a)和受幹擾的嵌入(b)的文本分類模型。

表1:數據集摘要。注意,沒有提供Rotten Tomatoes數據集的未標記示例,因此我們使用未標記的Amazon評論數據集。

圖2:學習曲線(a)的負對數似然,(b)對抗的損失(Eq。(6)中定義)和(c)虛擬對抗的損失(Eq。(8)中定義)在IMDB上。所有值對測試集進行評估。對抗和虛擬對抗的損失進行評估與?= 5.0。?不同的最優值之間的對抗訓練和虛擬對抗訓練,但5.0的價值表現都很好,並提供一個一致的觀點。

表2:IMDB情緒分類任務的測試性能。*表示使用預先訓練好的CNN嵌入和雙向LSTM。

表3:「好」和「壞」的10個最近鄰,每個方法都訓練了embeddings這個單詞。我們用餘弦距離表示度規。「基線」表示嵌入dropout的訓練,「隨機」表示帶有標記示例的隨機擾動訓練。「對抗」,

「虛擬對抗性」是指對抗性訓練和虛擬對抗性訓練。

表4:測試Elec和RCV1分類任務的性能。*表示使用CNN的預訓練嵌入,?表示使用CNN和雙向LSTM的預訓練嵌入。

表5:Rotten Tomatoes情感分類任務測試成績。*表示使用來自word2vec谷歌News的預訓練嵌入,?表示使用來自word2vec谷歌News的未標記數據

亞馬遜的評論。

表6:測試DBpedia主題分類任務的性能


推薦閱讀:
相關文章