魚羊 發自 凹非寺
量子位 報道 | 公眾號 QbitAI
深度神經網路(DNN)如今已經無處不在,從下圍棋到打星際,DNN已經滲透到圖像識別、圖像分割、機器翻譯等各種領域,並且總是表現驚艷。
然而,深度神經網路到底是怎樣工作的,至今仍困擾著廣大研究者。
黑盒子總是讓人詬病,為了讓AI更好地服務於人類,更深入地理解AI是必要的。
谷歌AI的研究人員們正致力於此,他們在ICLR 2019的一篇論文中提出用邊緣分布來預測深度神經網路的泛化間隙,以便更有原則地設計DNN。
邊緣分布成泛化預測因子
想要理解泛化,就要了解一個重要的概念泛化間隙(generalization gap),即模型在訓練集上的準確率與在測試集上的準確率之間的差異。