「PhD Talk」是 PaperWeekly 的學術直播間,旨在幫助更多的青年學者宣傳其最新科研成果。我們一直認為,單向地輸出知識並不是一個最好的方式,而有效地反饋和交流可能會讓知識的傳播更加有意義,從而產生更大的價值。

在本期 PhD Talk 中,來自香港大學的博士生顧佳濤,將向大家介紹他們在加速神經機器翻譯(NMT)方向的一些進展。

本次 Talk 分為三部分:

第一部分將以 Google Brain 的 Transformer 為基礎,簡要介紹一些神經機器翻譯的基本知識、主要進展和侷限

第二部分是這期的主要內容,嘉賓將以第一作者身份,為大家詳細介紹他們最近在 ICLR2018 上發表的文章 Non-autoregressive Neural Machine Translation。本文嘗試用非自回歸的方式改造 Transformer,在性能下降不多的情況下實現 10 倍左右的解碼速度。

最後,作為 brainstorming,嘉賓會和大家一起交流對於非自回歸解碼幾個已經實現或者可能的研究方向和應用

論文 | Non-Autoregressive Neural Machine Translation

鏈接 | paperweekly.site/papers

作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher

嘉賓介紹

顧佳濤

香港大學博士生

Jiatao Gu is currently a 4th year Ph.D. student at the Hong Kong University in Victor O.K. Li』s research group.

He was a former research intern at Salesforce Research (September ~ December 2017) and Microsoft Research (April ~ August 2017). He was also a former visiting student in Kyunghyun Cho』s group at NYU (June 2016 ~ January 2017). Before that, he received his Bachelors degree at Tsinghua University in 2014. Jiataos research interests cover natural language processing and deep learning, especially on neural machine translation.

He has published papers on ACL, EMNLP, NAACL, EACL, AAAI, and ICLR.

直播時間

3 月 9 日(週五)20:00-21:00

45 min 分享 + 15 min Q&A

直播觀看方式

1. 使用鬥魚App搜索房間號「1743775」

2. 通過PC端訪問:douyu.com/paperweekly

關於PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點擊「交流羣」,小助手將把你帶入 PaperWeekly 的交流羣裏。

微信公眾號:PaperWeekly

新浪微博:@PaperWeekly


推薦閱讀:
相關文章