截止投稿前八小時9910+


大家聽說過斐波那契投稿法么: 這次投的文章 = 上次被拒的文章+上上次被拒的文章


前有Alan huang的提出的斐波那契投稿公式,初步表明了拒稿與今年投稿之間的關係。

後有superbrother提出累計斐波那契投稿公式,將相似會議的拒稿因素考慮了進來。

但他們都沒有考慮不同年份的拒稿對今年投稿具有不同的影響。

據此,based on previous studies,我們提出t年前的拒稿對今年的投稿程指數遞減規律,相似會議按照不同參數矩陣進行weighted加和。

具體來說


說明領域欣欣向榮,頂會級成果層出不窮。是時候救助一下隔壁siggraph了。Siggraph投稿量不升反降,連錄用率也那麼高。

  • SIGGRAPH 2019 (Submitted: 385 Accepted: 111 Acceptance Rate: 29%)
  • SIGGRAPH 2018 (Submitted: 464 Accepted: 128 Acceptance Rate: 28%)
  • SIGGRAPH 2017 (Submitted: 439 Accepted: 126 Acceptance Rate: 28%)
  • SIGGRAPH 2016 (Submitted: 467 Accepted: 119 Acceptance Rate: 25%)
  • SIGGRAPH 2015 (Submitted: 462 Accepted: 118 Acceptance Rate: 25%)
  • SIGGRAPH 2014 (Submitted: 505 Accepted: 127 Acceptance Rate: 25%)
  • SIGGRAPH 2013 (Submitted: 480 Accepted: 115 Acceptance Rate: 24%)
  • SIGGRAPH 2012 (Submitted: 449 Accepted: 94 Acceptance Rate: 21%)
  • SIGGRAPH 2011 (Submitted: 432 Accepted: 82 Acceptance Rate: 19%)
  • SIGGRAPH 2010 (Submitted: 390 Accepted: 103 Acceptance Rate: 26%)
  • SIGGRAPH 2009 (Submitted: 439 Accepted: 78 Acceptance Rate: 18%)
  • SIGGRAPH 2008 (Submitted: 518 Accepted: 90 Acceptance Rate: 17%)
  • 來源 https://kesen.realtimerendering.com/


@Alan Huang 黃博士的斐波那契投稿略有點不準,因為轉投的意願會隨著投稿次數而快速衰減,我覺得真正的公式應該是 Momentum 投稿

黃博士的公式

這次的投稿 = 這次的新稿子 + 截至到上次累計的拒稿

修正後

這次的動量 = m * 上次的動量 + 這次的拒稿 ( m &< 1 )

這次的投稿 = 這次的新稿 + 上次的動量


個人拙見:深度學習的出現,讓部分CV任務研究(數學)門檻不再那麼高不可攀。

以分割為例,今年的ICCV在月初剛剛落下帷幕,回看一下10年前的ICCV-2009是怎麼做分割的

這篇文章是Pock, Cremers等人發在ICCV-2009的一篇分割文章,是用primal-dual演算法求解圖鬆弛Mumford-Shah模型的工作,目前有300+引用。

An Algorithm for Minimizing the Mumford-Shah Functional?

www.researchgate.net

貼幾張文章里的內容

方法介紹部分有很多公式,把這些公式看懂的門檻相對比較高,也不可能有幾個月速成的班。

以FCN、U-Net為代表的基於深度學習的分割方法的出現,大大降低了門檻,分割的模型可以非常簡潔,藉助tensorflow, pytorch等庫,可能一個月左右就能上手,而且結果也比傳統的分割方法好很多(有訓練數據的情況下)。

Thomas Pock?

www.tugraz.at

Daniel Cremers?

vision.in.tum.de


推薦閱讀:
相关文章