會議除了目前三大AI/ML編譯器XLA(Tensorflow),TVM,Glow(Pytorch)之外;還有Intel的nGraph,PlaidML;Nvidia的TensorRT;Xilinx用於ACAP的編譯器。另外還有大神Chris的talk(很值得關注)和其它來自學界的講演。會議大部分Slides在網上都可以看到,這裡就不具體介紹了。我在一年前寫過一篇文章「Deep Learning的IR「之爭」」,主要討論IR的問題,和編譯器也是密切相關的。到今天,這個領域確實也是現在大家競爭的一個焦點。
XLA是比較早提編譯器概念的,但到現在主要還是針對Google的TPU進行優化。TVM相當活躍,前一段時間還搞了TVM conference,除了東家Amazon之外,華為,Intel,Xilinx,甚至「競爭對手」 Facebook都有參加。TVM的「野心」也很大,從最早的編譯器已經發展到了TVM Stack(如下圖,和我之前文章裏貼的圖已經有了很大的變化),從新的IR(Relay),到自動編譯優化的AutoTVM,到開源AI硬體加速器(VTA),開了很多有意思的話題。