現在有了一個想法,就是結果比sota差點,而且sota用了n多種方法刷結果


故事編的好,論文發到飽。


不一定。

1、如果你的idea足夠新穎,給審稿人讀完之後有一種受到強大啟發,能有一種學到不少新知識的感覺,模型性能沒有那麼重要,但總不能太差。

2、如果你主賣的就不是性能,就不需要,比如我主賣速度快,在性能只掉一點的情況下,速度大幅度提升,這就完全不用sota了。如果此時你還到了sota,還會寫論文的話,那基本問題不大了。

我個人覺得什麼時候需要:

如果你的模型很多時候是之前work就有過的,比如層次化結構融入了上下文信息,多任務聯合建模充分利用相關任務信息,用gcn融入了句法信息,你用新提出的非自回歸模型做了一個新生成任務等等一系列,如果你的模型還到不了sota,那不是等於告訴別人,你加了這些信息還沒有work嗎,那基本會涼。


先回答問題,不一定需要sota效果。其實前面幾個回答都提到了講故事的能力了。就我個人的觀點而言,恰好最近讀了論文《Concatenated Power Mean Word Embeddings as Universal Cross-Lingual Sentence Representations》(sentence embedding相關),傳統的句子embedding的簡單做法是直接對句子中所有單詞的embedding進行相加平均,該論文認為不同的預訓練詞向量包含不同的信息,將它們進行拼接會比只使用一種詞向量要好,當然論文的內容不止這些。重點在於在實驗部分(下圖)。

可以發現作者提出的方法其實並沒有比InferSent的整體效果來的好,但是作者提出的方法卻非常簡單,說到底就是一個power mean+concat的思想,同時不依賴於高質量數據集。

所以說,我個人認為,論文並不一定需要達到sota,但是最好不要相差太多,如果與sota方法的思路方向不一致可能更好,還有就是基於傳統的做法思想進行了大的提升甚至逼近sota就更好了。


CV除了三大會, 還有BMVC,ACCV,WACV... 這些會基本是為非SOTA準備的. 當然還有ICIP,ICPR這種投了就中的。


講道理數據集是有限的,sota也是有限的,paper一年幾千幾萬篇,刷不出sota都別發了?

sota-&>story: 應用價值-現存方法存在的問題-你針對問題提出了新方法-實驗證明它能work,至少在某些條件下比現存方法好,比如速度快、所需訓練數據少、降低標註精度要求等,且好處符合你定義的問題。

很多時候就算沒有sota,以上故事很有說服力也有機會發的。


COCO上總的AP刷不過別人,但只在person這一類傲視群雄,或者person的AP small夠高,應該也能發。

BMVC,ACCV,WACV... 這些會基本是為非SOTA準備的. 當然還有ICIP,ICPR這種投了就中的。

消息可靠?


如果每一篇cvpr iccv eccv都 sota那現在各種排行榜準確率不都是100%了?

我覺得sota不重要,但是一定要有對比,要讓人感覺有可以借鑒的地方。至於怎麼讓人感覺到有借鑒的地方就要靠吹了....


重要的不是結果,是story


性能達不到的話,可以考慮更低的複雜度和模型的簡潔性,作為一種 baseline 提出。在某種特定設置下超過其他模型也是可以的。一個好的思路比盲目追求 STOA 更重要。


雖然我也沒什麼經驗,但感覺如果idea的motivation比較強,而且工作也work的話,應該可以多比較一些baseline來說明你的idea是有用的,工作量達到了論文還是能發的。


看了其他一些回答,我只想說Stoa的概念,不是一定比最好更好吧。


不是,但是對於來自非英語國家的比較junior的研究者來說,超過stoa是最簡單快捷明顯的展示自己方法優勢的途徑。


不用不用,每年幾百篇AI論文如果都是sota那人類早就到火星去啦。

解決的問題有針對性或者在某一類問題上有顯著提升就好,然後總體效果和sota可比就行。


推薦閱讀:
相关文章