在端到端的對話生成中,存在著生成句子「安全性回復」問題。近兩年來,關於提高生成句子多樣性的工作越來越被人們關注,其中最多的工作是如何將更多的信息進行編碼,以便在解碼過程中,可以指導多樣的、高信息量的句子生成。近期在學校工作不是很多,考慮會將相關的論文思路、可復現的代碼以及實驗效果整理一下。
這篇文章主要介紹的是一篇來自百度的工作,主要介紹瞭如何去選擇所需的知識來控制生成回復。這篇論文也作為今年2019語言與智能競賽,知識驅動對話賽道的基線。對這個比賽感興趣的,可以通過官網:2019 Language and Intelligence Challenge 報名參加,也可以私聊,一起交流~
首先介紹一下知識驅動對話這個比賽,我感覺賽題設計的比較新穎,也很有挑戰性。
競賽任務
給定對話目標g及相關知識信息M=f1,f2,...,fn。要求參評的對話系統輸出適用於當前對話序列H=u1,u2,...,ut-1的機器回復ut 使得對話自然流暢、信息豐富而且符合對話目標的規劃。 在對話過程中,機器處於主動狀態,引導用戶從一個話題聊到另一個話題。因此,對話系統為機器設定了一個對話目標,g 為「START->TOPIC_A->TOPIC_B」, 表示從冷啟動狀態主動聊到話題A,然後進一步聊到話題B, 提供的相關知識信息包括:話題A的知識信息,話題B的知識信息,話題A和話題B的關聯信息。
競賽數據
數據中的知識信息來源於電影和娛樂人物領域有聊天價值的知識信息,如票房、導演、評價等,以三元組SPO的形式組織,對話目標中的話題為電影或娛樂人物實體。數據集中共有3萬session,約12萬輪對話,其中10萬訓練集,1萬開發集,1萬測試集。