當前位置:
首頁 > 科技 > CVPR 2019接收論文公布:共1300篇,接收率降4%,你中了沒?

CVPR 2019接收論文公布:共1300篇,接收率降4%,你中了沒?

銅靈 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

這一天終於來了。

昨天,一年一度的視覺頂會CVPR放出了今年的接收論文。翹首以盼多日的CV er紛紛前來圍觀,場面一下子好生熱鬧。

官網數據顯示,本屆CVPR大會共收到5265篇有效投稿,共接收論文1300篇,接收率為25.2%。

目前放出的只有接收論文的ID,組委會表示,Oral、Spotlight和Poster論文的評審結果改日再放。

接收論文編號在此,來看看你的論文ID在不在裡面:

http://cvpr2019.thecvf.com/files/cvpr_2019_final_accept_list.txt

人氣連年上升

Github用戶t-taniai統計了從2019年來CVPR的接收數據,可以窺見CVPR 2019的接收趨勢。

數據中可看出,CVPR 2019的人氣值從2011年起逐年上漲,提交論文數只增不減。

並且,今年的增長數量尤其多,從2018年的3359篇有效提交論文直接漲到5265篇,提交數量增加了56%

可能也和申請人數的激增有關,CVPR論文接收率從去年的29.1%直接降至25.15%,成為史上接收率下降最嚴重的一年。

那麼,論文的ID與接收結果的關係如何,早早提交論文會不會「中獎」幾率要大一些?

那倒沒有。推特用戶Abhishek Das?統計了今年接收論文的ID,結果發現,ID編號與接收關係不大,每個區間的論文數量相差不大。

作為視覺領域的國際頂會,CVPR 2019的一舉一動都牽動著CV er的心。

今年的CVPR將於6月16-6月20日在美國加州長灘市舉辦,為期5天。

CVPR大會目前還未放出議程,官網顯示Demo的接收日期截止到3月31日,4月15日公布接收Demo,6月18-20號演示Demo。

部分接收論文

結果放出後,投中的網友熱情曬出了自己團隊的接收論文表示慶祝,其中不乏有我們平日經常見到的熟悉身影。量子位收集了部分論文,好研究提前看:

An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition(模式識別國家重點實驗室、中科院、中國科學院大學、中國科學技術大學)

地址:

https://128.84.21.199/abs/1902.09130

DenseFusion: 6D Object Pose Estimation by Iterative Dense Fusion(斯坦福大學,李飛飛夫婦參與)

地址:

https://arxiv.org/abs/1901.04780

EELVOS: Fast End-to-End Embedding Learning for Video Object Segmentation(RWTH Aachen University,谷歌)

地址:

https://128.84.21.199/abs/1902.09513

Attention-guided Unified Network for Panoptic Segmentation(中國科學院大學)

地址:

https://arxiv.org/abs/1812.03904

Deep High-Resolution Representation Learning for Human Pose Estimation(中國科學技術大學、微軟亞洲研究院)

地址:

https://128.84.21.199/abs/1902.09212

Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation(杭州科技大學、悉尼科技大學等)

地址:

https://arxiv.org/abs/1809.09478

InverseRenderNet: Learning single image inverse rendering(約克大學)

地址:

https://arxiv.org/abs/1811.12328

Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vision-Language Navigation(加州大學,微軟研究院,杜克大學)

地址:

https://arxiv.org/abs/1811.10092

GANFIT: Generative Adversarial Network Fitting for High Fidelity 3D Face Reconstruction(倫敦帝國理工學院等)

地址:

https://arxiv.org/abs/1902.05978

Variational Bayesian Dropout(武漢大學,阿德萊德大學)

地址:

https://arxiv.org/abs/1811.07533

LiFF: Light Field Features in Scale and Depth(斯坦福大學,悉尼大學)

地址:

https://arxiv.org/abs/1901.03916

Classification-Reconstruction Learning for Open-Set Recognition(東京大學、Data61-CSIRO、澳大利亞國立大學)

地址:

https://arxiv.org/abs/1812.04246

Improving the Performance of Unimodal Dynamic Hand-Gesture Recognition with Multimodal Training(Rutgers University、微軟等)

地址:

https://arxiv.org/abs/1812.06145

如果你的論文也被接收了,歡迎在評論區留下論文介紹與地址,等你來!

傳送門

CVPR2019官網首頁:

http://cvpr2019.thecvf.com/

CVPR各種統計數據:

https://taniai.space/cvconf/

接收論文ID趨勢統計:

https://twitter.com/abhshkdz/status/1099855206744051712

接收論文編號地址:

http://cvpr2019.thecvf.com/files/cvpr_2019_final_accept_list.txt

加入社群

量子位現開放「AI 行業」社群,面向AI行業相關從業者,技術、產品等人員,根據所在行業可選擇相應行業社群,在量子位公眾號(QbitAI)對話界面回復關鍵詞「行業群」,獲取入群方式。行業群會有審核,敬請諒解。

此外,量子位AI社群正在招募,歡迎對AI感興趣的同學,在量子位公眾號(QbitAI)對話界面回復關鍵字「交流群」,獲取入群方式。

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

喜歡就點「好看」吧 !

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

不用寫代碼,就能訓練測試深度學習模型!Uber開源AI工具箱Ludwig

TAG:量子位 |