原論文鏈接
https://arxiv.org/pdf/1705.09914.pdf
一、論文核心
《Dilated Residual Networks》這篇論文的核心在於創造性地提出了空洞卷積(Dilated Convolution)使 ResNet 在保持參數量不變、每個階段的卷積層視野不變的前提下,靠後的卷積層也可保持較大的 feature maps 尺寸從而有利於對小目標的檢測,提高模型整體性能。具體來說,ResNet最後一層卷積的 整體步長為32,DRN(Dilated ResNet) 則僅為8。當然,既然 feature maps 尺寸大了,計算量當然也會變大,雖然作者在論文中避而不談,但作為讀者可還要心知肚明。
二、什麼是空洞卷積
參考鏈接:如何理解空洞卷積(dilated convolution)?
兩張圖就可以秒懂:小朋友們,你們學會了嗎?