還有一點就是無監督學習比大部分監督學習性能要好,以下是具體截圖:

2018 CVPR 論文『Deep Unsupervised Saliency Detection: A Multiple Noisy Labeling Perspective』實驗結果:

2019 NeurIPS 論文 DeepUSPS: Deep Robust Unsupervised Saliency PredictionWith Self-Supervision 實驗結果:


被第一個回答這個問題的「魔大」邀請回答這個問題。首先不明白提問者的意圖。「實驗數據照搬」是想暗示這幫德國人的NeurIPS 2019論文抄襲,或者其他?

首先,不能因為大量數據結果一模一樣就說實驗數據照搬。這個是公開數據集上用通用指標做的實驗對照,既然是同一個方法,同一個數據集,同一個評測指標。對比方法實驗結果完全一致無可厚非。不能看見數據一模一樣,就說「數據照搬」。

其次,與對數據完全一致的擔憂相反,我擔憂的反而是數據不一致,這個更需要我們警惕。對比方法中有我的論文,我們的方法結果在這個表格中的數字,比我們論文中的結果低了很多。由於我們課題組一直是開源代碼,我很好奇為何會有這麼明顯的不一致。此外,我注意到其他強監督的方法結果也統統被弱化了。很多時候,F-score會因為評測代碼的實現方法不同會有些許差異(但不會差這麼多)。但MAE是個很簡單的指標,不應該有差異。這是我對數據不理解的地方。稍後會給作者發郵件求證。

另外,NeurIPS 2019論文對比實驗確實有些偷懶。論文實驗數據暗示無監督方法結果優於弱監督方法。這個有些偷懶嫌疑,CVPR 2018,CVPR 2019 有很多方法結果要更好,而且開源,但是對比實驗選擇完全忽視。進而給讀者一種無監督比有監督還好的假象。隨著網路結構設計優化、訓練方法優化等,顯著性物體檢測方法近年來進展很快。無監督的方法也很有意義。但是這樣的結果有些誇大,對比不太公平,甚至有些誤導。

最後,由於演算法實現中的細節差異,或者無心之失,或者其他原因,很容易導致結果不一致,進而造成不公平比較(例如,有些指標是用自己實現代碼測試的,另一些指標用直接用別人論文中report的結果)。所以強烈呼籲大家發表文章後盡量開源,至少發布一個可執行的代碼。建議大家測試結果的時候,確保所有方法都用同樣的評測代碼進行評測,最好用大家用的比較多的開源代碼評測。比較實驗也最好全面,特別是不要跳過和近期頂級會議和期刊上發表的有開源代碼論文的比較。這樣可以方便讀者更好的理解一個領域。如果結果和原文report不一致,也建議大家仔細檢查,防止疏漏。

最後,開發無監督的方法很有意義。這兩篇論文也很有價值。如果由於數據不一致,而得到有些誤導讀者的實驗結果,就有點畫蛇添足了。


不然呢?造個假的?當然最好驗證一下。。。以防前人造假


好像沒毛病。

我見過更神奇的操作是拿尺子從baseline文章的圖上量出數據位置,然後再畫到新文章的圖上。好像也沒毛病。


這是正常操作啊……本來就是公開發表的數據,直接拿過來有何不可?


所以是想表達什麼意思?沒引用原文結果?還是說都得自己實現一遍?那是不是得從重寫一個框架開始

自己實現那就更有問題了 結果比原文低了別人覺得你故意壓別的方法 比原文好那更奇怪了原文還不放上最好的 即使自己實現了放原文結果也沒啥問題


說實話,沒看懂這篇文章提到的inter-image consistency體現在哪裡,如何實現的


……乍一看像是自問自答


同一個人做沒啥毛病 不同人做就感覺太省事了 萬一前人做的有問題啥都說不清


推薦閱讀:
相關文章