當前位置:
首頁 > 知識 > 華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

作者 | 周強

來源 | 我愛計算機視覺(ID:aicvml)

【導語】近日,華中科技大學發表了一篇新論文《IoU-aware Single-stage Object Detector for Accurate Localization》,在此論文中作者提出了一種非常簡單的目標檢測定位改進方法,通過預測目標候選包圍框與真實目標標註的IoU(交並比),並基於此與分類分數的乘積作為檢測置信度,用於NMS(非極大抑制)和COCO AP計算,顯著提高了目標檢測的定位精度。

作者均來自華中科技大學,並稱代碼將開源,不過目前還未公布地址。

論文地址:

https://arxiv.org/pdf/1912.05992.pdf

在目標檢測問題中,模型需要輸出目標分類分數和與其對應的目標定位的包圍框,在以往的模型中,經常使用分類分數作為目標定位準不準的置信度,並基於此對大量候選目標包圍框NMS,現在越來越多的工作發現,分類分數高並不能保證定位精度高。

作者認為IoU是直接反應定位準不準的直接指標,可以在目標檢測模型的分類和定位任務的基礎上添加IoU預測的任務,可以在一定程度上反應定位置信度。

作者是在著明的一階段目標檢測演算法RetinaNet基礎上做的改進,如下圖:

在包圍框回歸分支添加一個並行的預測IoU的任務。

相關的損失函數數學描述:

作者將分類分數和預測得到的IoU相乘,這個指標既反應了是不是這個目標,又反應了該位置和真實目標的可能的交並比,認為它是更加精確的檢測置信度:

公式中參數 α 用於控制兩者的貢獻大小。

實驗結果

作者在COCO test-dev上與其他State-of-the-art演算法的結果比較:

可見,相比於基線RetinaNet,取得了顯著的AP提升,提升在1.0%~1.6%之間。

在PASCAL VOC數據集上與RetinaNet的比較結果:

同樣取得了顯著的AP提升,AP 提升在1.1%~2.2%之間。

這篇文章儘管思路比較簡單,但改進還是明顯的,希望對其他目標檢測演算法也有效,期待有更多實驗結果出來。

(*本文為AI科技大本營轉載文章,轉載請聯繫作者)

精彩公開課

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 AI科技大本營 的精彩文章:

位元組跳動李航入選ACL Fellow,他曾這樣看待機器學習
聊聊抖音、奈飛、Twitch、大疆、快手、B站的多媒體關鍵技術