CVPR 2020 Oral 汇总:论文 / 代码 / 解读(更新中)
在2月24日,CVPR 2020 公布接收論文結(jié)果公布,從 6656 篇有效投稿中錄取了 1470 篇論文,錄取率約為 22%。3月13日,CVPR Oral結(jié)果公布了。有大佬已經(jīng)分享了自己的工作,本文整理了已中Oral的論文,持續(xù)更新,分享給大家閱讀。
關注 極市平臺,獲取最新CV干貨
10.PolarMask: 一階段實例分割新思路[1,2]
論文地址:PolarMask: Single Shot Instance Segmentation with Polar Representation
代碼:https://github.com/xieenze/PolarMask
來自作者本人的詳細解讀:
Johnny ez:(CVPR20’Oral) PolarMask: 一階段實例分割新思路
PolarMask基于FCOS,把實例分割統(tǒng)一到了FCN的框架下。FCOS本質(zhì)上是一種FCN的dense prediction的檢測框架,可以在性能上不輸anchor based的目標檢測方法,讓行業(yè)看到了anchor free方法的潛力。本工作最大的貢獻在于:把更復雜的實例分割問題,轉(zhuǎn)化成在網(wǎng)絡設計和計算量復雜度上和物體檢測一樣復雜的任務,把對實例分割的建模變得簡單和高效。
兩種實例分割的建模方式:
實驗結(jié)果:
9.Scene Graph Generation開源框架[3,4]
論文鏈接:Unbiased Scene Graph Generation from Biased Training
論文代碼:https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch
來自作者本人的詳細解讀:
CVPR2020 | 最新最完善的場景圖生成 (SGG)開源框架,集成目前最全metrics,已開源
本文提出了一種基于因果推理的新穎SGG框架。選擇2019年熱門框架facebookresearch/maskrcnn-benchmark作為基礎,在其基礎上搭建了Scene-Graph-Benchmark.pytorch。該代碼不僅兼容了maskrcnn-benchmark所支持的所有detector模型,且得益于facebookresearch優(yōu)秀的代碼功底,更大大增加了SGG部分的可讀性和可操作性。
Recall:
8. Learning to Shade Hand-drawn Sketches[5]
論文地址:Learning to Shade Hand-drawn Sketches
代碼:https://github.com/qyzdao/ShadeSketch
本文提供了一種全自動方法,可以從成對的線描草圖和照明方向生成詳細而準確的藝術陰影。還提供了一個新的數(shù)據(jù)集,其中包含了用照明方向標記的成對的線描和陰影的一千個示例。值得一提的是,生成的陰影可以快速傳達草繪場景的基礎3D結(jié)構(gòu)。因此,本文的方法產(chǎn)生的陰影是可以直接使用的。本文生成的陰影尊重手繪線和基礎3D空間,并包含復雜且準確的細節(jié),例如自陰影效果。此外,生成的陰影還包含藝術效果,例如邊緣照明或背光產(chǎn)生的光暈,這也是傳統(tǒng)3D渲染方法可以實現(xiàn)的。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-4iA4D6CK-1584415938966)(http://bbs.cvmart.net/uploads/images/202003/17/11/QzX3cfsHq9.gif?imageView2/2/w/1240/h/0)]
生成的陰影手繪草圖
7. SAM: The Sensitivity of Attribution Methods to Hyperparameters[6]
論文地址:http://s.anhnguyen.me/sam_cvpr2020.pdf
代碼:https://github.com/anguyen8/sam
本文中對現(xiàn)有歸因方法的敏感性進行了透徹的實證研究,發(fā)現(xiàn)了一個趨勢:許多方法對它們共同的超參數(shù)的變化高度敏感,例如即使更改隨機種子也會產(chǎn)生不同的解釋!有趣的是,這種敏感性沒有反映在文獻中通常報道的數(shù)據(jù)集的average explanation accuracy scores 中。
[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-j3pmCOII-1584415938967)(http://bbs.cvmart.net/uploads/images/202003/17/11/PtG0BOSsE9.png?imageView2/2/w/1240/h/0)]
6.High Frequency Component Helps Explain the Generalization of Convolutional Neural Networks
論文地址:High Frequency Component Helps Explain the Generalization of Convolutional Neural Networks
本文研究了圖像數(shù)據(jù)的頻譜與卷積神經(jīng)網(wǎng)絡(CNN)的泛化之間的關系。我們首先注意到CNN捕獲圖像高頻分量的能力。這些高頻分量幾乎是人類無法察覺的。因此,觀察結(jié)果導致了與CNN泛化相關的多種假設,包括對對抗性示例的潛在解釋,對CNN魯棒性和準確性之間的權(quán)衡的討論,以及在理解訓練啟發(fā)式方法方面的一些證據(jù)。
5.Reinforced Feature Points: Optimizing Feature Detection and Description for a High-Level Task
論文地址:Reinforced Feature Points: Optimizing Feature Detection and Description for a High-Level Task
本文解決了計算機視覺的核心問題之一:用于圖像匹配的2D特征點的檢測和描述。長期以來,像SIFT這樣的算法在準確性和效率上都是無與倫比的。近年來,出現(xiàn)了使用神經(jīng)網(wǎng)絡來實現(xiàn)檢測和描述學習型特征檢測器,但用于訓練這些網(wǎng)絡low-level matching scores的改進并不一定會在高級視覺任務中有著更好的性能。本文提出了一種新的訓練方法,該方法將特征檢測器嵌入完整的視覺管道中,并以端到端的方式訓練可學習的參數(shù)。并利用這一方法解決了一對圖像之間的姿態(tài)估計任務。該訓練方法幾乎沒有學習任務的限制,并且適用于預測key point heat maps以及descriptors for key point locations。
4.AdderNet: Do We Really Need Multiplications in Deep Learning?
論文地址:AdderNet: Do We Really Need Multiplications in Deep Learning?
代碼:https://github.com/huawei-noah/AdderNet
沒有乘法的神經(jīng)網(wǎng)絡,你敢想象嗎?去年年底,來自北京大學、華為諾亞方舟實驗室、鵬城實驗室的研究人員將這一想法付諸實踐,他們提出了一種只用加法的神經(jīng)網(wǎng)絡AdderNet(加法器網(wǎng)絡)。一作是華為諾亞方舟實習生,正在北大讀博三。
在加法器網(wǎng)絡的新定義下,AdderNet的特征可視化以及特征向量的空間分布也和CNN有很大的不同。
在CIFAR-10的圖像分類任務中,AdderNet相比當初Bengio等人提出的加法神經(jīng)網(wǎng)絡BNN性能有大幅提升,并且已經(jīng)接近了傳統(tǒng)CNN的結(jié)果。在ImageNet的圖像分類任務中,AdderNets可以達到74.9%的top-1正確率和91.7%的top-5正確率,與CNN接近。
3.BBN: Bilateral-Branch Network with Cumulative Learning for Long-Tailed Visual Recognition
論文地址:http://www.weixiushen.com/publication/cvpr20_BBN.pdf
代碼:Megvii-Nanjing/BBN
曠視 魏秀參 團隊的paper,主要關注視覺識別任務中普遍存在的長尾問題。
詳細的可以看作者本人的解讀: https://www.zhihu.com/question/379109637/answer/1080076071
2.Cascade Cost Volume for High-Resolution Multi-View Stereo and Stereo Matching
論文地址:Cascade Cost Volume for High-Resolution Multi-View Stereo and Stereo Matching
代碼:alibaba/cascade-stereo
主要解決問題:目前基于Deep learning的方法構(gòu)建的3D Cost Volume需要3D卷積來做cost aggregation消耗顯存非常大,為了節(jié)省內(nèi)存一般最終輸出的depth/disparity map限制為輸入的1/4。
詳細的可以看作者本人的解讀: https://www.zhihu.com/question/379109637/answer/1083127862
1.RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds
論文地址:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds
代碼:QingyongHu/RandLA-Net
提出了一種針對大規(guī)模三維點云場景的輕量級、高效點云語義分割算法RandLA-Net。通過對現(xiàn)有的采樣策略進行全面綜合的分析,我們采用簡單高效的隨機采樣來顯著地減少計算量以及內(nèi)存消耗,并且引入了局部特征聚合模塊持續(xù)地增大每個點有效的感受野,保留大多數(shù)有效的信息。在Semantic3D,S3DIS以及SemanticKITTI等多個數(shù)據(jù)集上都取得了不錯的效果,而且相比于現(xiàn)有的處理大規(guī)模點云的算法SPG在速度上有近200倍的提升。
詳細的可以看作者本人的解讀:
Qingyong Hu:[CVPR 2020 Oral] RandLA-Net:大場景三維點云語義分割新框架(已開源)
參考文獻
[1] https://zhuanlan.zhihu.com/p/84890413
[2] PolarMask: Single Shot Instance Segmentation with Polar Representation
[3] https://zhuanlan.zhihu.com/p/109657521
[4] Unbiased Scene Graph Generation from Biased Training
[5] Learning to Shade Hand-drawn Sketches
[6] http://s.anhnguyen.me/sam_cvpr2020.pdf
[7] High Frequency Component Helps Explain the Generalization of Convolutional Neural Networks
[8] Reinforced Feature Points: Optimizing Feature Detection and Description for a High-Level Task
[9] AdderNet: Do We Really Need Multiplications in Deep Learning?
[10] https://www.zhihu.com/question/379109637/answer/1080076071
[11] https://www.zhihu.com/question/379109637/answer/1083127862
[11] Qingyong Hu:[CVPR 2020 Oral] RandLA-Net:大場景三維點云語義分割新框架(已開源)
總結(jié)
以上是生活随笔為你收集整理的CVPR 2020 Oral 汇总:论文 / 代码 / 解读(更新中)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ICCV 2019 | SPM:单阶段人
- 下一篇: CVPR2020 | 参数量减半,北大开