華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效
作者 | 周強
來源 | 我愛計算機視覺(ID:aicvml)
【導語】近日,華中科技大學發表了一篇新論文《IoU-aware Single-stage Object Detector for Accurate Localization》,在此論文中作者提出了一種非常簡單的目標檢測定位改進方法,通過預測目標候選包圍框與真實目標標註的IoU(交並比),並基於此與分類分數的乘積作為檢測置信度,用於NMS(非極大抑制)和COCO AP計算,顯著提高了目標檢測的定位精度。
作者均來自華中科技大學,並稱代碼將開源,不過目前還未公布地址。
論文地址:
https://arxiv.org/pdf/1912.05992.pdf
在目標檢測問題中,模型需要輸出目標分類分數和與其對應的目標定位的包圍框,在以往的模型中,經常使用分類分數作為目標定位準不準的置信度,並基於此對大量候選目標包圍框NMS,現在越來越多的工作發現,分類分數高並不能保證定位精度高。
作者認為IoU是直接反應定位準不準的直接指標,可以在目標檢測模型的分類和定位任務的基礎上添加IoU預測的任務,可以在一定程度上反應定位置信度。
作者是在著明的一階段目標檢測演算法RetinaNet基礎上做的改進,如下圖:
在包圍框回歸分支添加一個並行的預測IoU的任務。
相關的損失函數數學描述:
作者將分類分數和預測得到的IoU相乘,這個指標既反應了是不是這個目標,又反應了該位置和真實目標的可能的交並比,認為它是更加精確的檢測置信度:
公式中參數 α 用於控制兩者的貢獻大小。
實驗結果
作者在COCO test-dev上與其他State-of-the-art演算法的結果比較:
可見,相比於基線RetinaNet,取得了顯著的AP提升,提升在1.0%~1.6%之間。
在PASCAL VOC數據集上與RetinaNet的比較結果:
同樣取得了顯著的AP提升,AP 提升在1.1%~2.2%之間。
這篇文章儘管思路比較簡單,但改進還是明顯的,希望對其他目標檢測演算法也有效,期待有更多實驗結果出來。
(*本文為AI科技大本營轉載文章,轉載請聯繫作者)
精彩公開課


※位元組跳動李航入選ACL Fellow,他曾這樣看待機器學習
※聊聊抖音、奈飛、Twitch、大疆、快手、B站的多媒體關鍵技術