现在有了一个想法,就是结果比sota差点,而且sota用了n多种方法刷结果


故事编的好,论文发到饱。


不一定。

1、如果你的idea足够新颖,给审稿人读完之后有一种受到强大启发,能有一种学到不少新知识的感觉,模型性能没有那么重要,但总不能太差。

2、如果你主卖的就不是性能,就不需要,比如我主卖速度快,在性能只掉一点的情况下,速度大幅度提升,这就完全不用sota了。如果此时你还到了sota,还会写论文的话,那基本问题不大了。

我个人觉得什么时候需要:

如果你的模型很多时候是之前work就有过的,比如层次化结构融入了上下文信息,多任务联合建模充分利用相关任务信息,用gcn融入了句法信息,你用新提出的非自回归模型做了一个新生成任务等等一系列,如果你的模型还到不了sota,那不是等于告诉别人,你加了这些信息还没有work吗,那基本会凉。


先回答问题,不一定需要sota效果。其实前面几个回答都提到了讲故事的能力了。就我个人的观点而言,恰好最近读了论文《Concatenated Power Mean Word Embeddings as Universal Cross-Lingual Sentence Representations》(sentence embedding相关),传统的句子embedding的简单做法是直接对句子中所有单词的embedding进行相加平均,该论文认为不同的预训练词向量包含不同的信息,将它们进行拼接会比只使用一种词向量要好,当然论文的内容不止这些。重点在于在实验部分(下图)。

可以发现作者提出的方法其实并没有比InferSent的整体效果来的好,但是作者提出的方法却非常简单,说到底就是一个power mean+concat的思想,同时不依赖于高质量数据集。

所以说,我个人认为,论文并不一定需要达到sota,但是最好不要相差太多,如果与sota方法的思路方向不一致可能更好,还有就是基于传统的做法思想进行了大的提升甚至逼近sota就更好了。


CV除了三大会, 还有BMVC,ACCV,WACV... 这些会基本是为非SOTA准备的. 当然还有ICIP,ICPR这种投了就中的。


讲道理数据集是有限的,sota也是有限的,paper一年几千几万篇,刷不出sota都别发了?

sota-&>story: 应用价值-现存方法存在的问题-你针对问题提出了新方法-实验证明它能work,至少在某些条件下比现存方法好,比如速度快、所需训练数据少、降低标注精度要求等,且好处符合你定义的问题。

很多时候就算没有sota,以上故事很有说服力也有机会发的。


COCO上总的AP刷不过别人,但只在person这一类傲视群雄,或者person的AP small够高,应该也能发。

BMVC,ACCV,WACV... 这些会基本是为非SOTA准备的. 当然还有ICIP,ICPR这种投了就中的。

消息可靠?


如果每一篇cvpr iccv eccv都 sota那现在各种排行榜准确率不都是100%了?

我觉得sota不重要,但是一定要有对比,要让人感觉有可以借鉴的地方。至于怎么让人感觉到有借鉴的地方就要靠吹了....


重要的不是结果,是story


性能达不到的话,可以考虑更低的复杂度和模型的简洁性,作为一种 baseline 提出。在某种特定设置下超过其他模型也是可以的。一个好的思路比盲目追求 STOA 更重要。


虽然我也没什么经验,但感觉如果idea的motivation比较强,而且工作也work的话,应该可以多比较一些baseline来说明你的idea是有用的,工作量达到了论文还是能发的。


看了其他一些回答,我只想说Stoa的概念,不是一定比最好更好吧。


不是,但是对于来自非英语国家的比较junior的研究者来说,超过stoa是最简单快捷明显的展示自己方法优势的途径。


不用不用,每年几百篇AI论文如果都是sota那人类早就到火星去啦。

解决的问题有针对性或者在某一类问题上有显著提升就好,然后总体效果和sota可比就行。


推荐阅读:
相关文章