「PhD Talk」是 PaperWeekly 的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果。我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义,从而产生更大的价值。

在本期 PhD Talk 中,来自香港大学的博士生顾佳涛,将向大家介绍他们在加速神经机器翻译(NMT)方向的一些进展。

本次 Talk 分为三部分:

第一部分将以 Google Brain 的 Transformer 为基础,简要介绍一些神经机器翻译的基本知识、主要进展和局限

第二部分是这期的主要内容,嘉宾将以第一作者身份,为大家详细介绍他们最近在 ICLR2018 上发表的文章 Non-autoregressive Neural Machine Translation。本文尝试用非自回归的方式改造 Transformer,在性能下降不多的情况下实现 10 倍左右的解码速度。

最后,作为 brainstorming,嘉宾会和大家一起交流对于非自回归解码几个已经实现或者可能的研究方向和应用

论文 | Non-Autoregressive Neural Machine Translation

链接 | paperweekly.site/papers

作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher

嘉宾介绍

顾佳涛

香港大学博士生

Jiatao Gu is currently a 4th year Ph.D. student at the Hong Kong University in Victor O.K. Li』s research group.

He was a former research intern at Salesforce Research (September ~ December 2017) and Microsoft Research (April ~ August 2017). He was also a former visiting student in Kyunghyun Cho』s group at NYU (June 2016 ~ January 2017). Before that, he received his Bachelors degree at Tsinghua University in 2014. Jiataos research interests cover natural language processing and deep learning, especially on neural machine translation.

He has published papers on ACL, EMNLP, NAACL, EACL, AAAI, and ICLR.

直播时间

3 月 9 日(周五)20:00-21:00

45 min 分享 + 15 min Q&A

直播观看方式

1. 使用斗鱼App搜索房间号「1743775」

2. 通过PC端访问:douyu.com/paperweekly

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智慧前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

微信公众号:PaperWeekly

新浪微博:@PaperWeekly


推荐阅读:
相关文章