當前位置:
首頁 > 新聞 > DilatedNet - 擴張卷積(語義分割)

DilatedNet - 擴張卷積(語義分割)

本文為 AI 研習社編譯的技術博客,原標題 :

Review: DilatedNet — Dilated Convolution (Semantic Segmentation)

作者 | Sik-Ho Tsang

翻譯 | 斯蒂芬·二狗子

校對 | 醬番梨 審核 | 約翰遜·李加薪 整理 | 立魚王

原文鏈接:

https://towardsdatascience.com/review-dilated-convolution-semantic-segmentation-9d5a5bd768f5

註:本文的相關鏈接請訪問文末【閱讀原文】

這次,對來自普林斯頓大學和英特爾實驗室的Dilated Convolution一文進行了簡要回顧。擴張卷積的思想來自小波分解。它也被稱為「atrous convolution」,「algorithmeàtrous」和「hole algorithm」。因此,如果我們能夠將它們轉變為深度學習框架,那麼可以認為過去的任何想法仍然是有用的。

當我寫這篇故事時,這個擴張卷積已經在2016年ICLR上發表,引用超過1000次。(SH Tsang @ Medium)

涉及的內容

  1. 擴張卷積

  2. 多尺度上下文聚合(上下文模塊)

  3. 結果

1.擴張卷積

標準卷積(左),擴張卷積(右)

左邊是標準卷積。正確的是擴張卷積。我們可以看到,在求和時,s+lt=p 我們將在卷積期間跳過一些點。

當 l = 1時,它是標準卷積。

當 l > 1時,它是擴張的卷積。

DilatedNet - 擴張卷積(語義分割)

打開今日頭條,查看更多圖片

標準卷積(l = 1)

DilatedNet - 擴張卷積(語義分割)

擴張卷積(l = 2)

上面給出了當l = 2 時擴張卷積的一個例子 。我們可以看到,與標準卷積相比,感受野更大。

DilatedNet - 擴張卷積(語義分割)

l = 1(左),l = 2(中),l = 4(右)

上圖顯示了有關感受野的三個示例。

2.多尺度的上下文聚合(上下文模塊)

基於擴張卷積來構建的上下文模塊Context Module,如下所示:

DilatedNet - 擴張卷積(語義分割)

基礎的上下文模塊,和大的上下文模塊

如圖,context module有7層,這些層採用不同擴張率的3×3 kernel size 的擴張卷積,擴張的率分別為1,1,2,4,8,16,1。

最後一層用了一個1×1的卷積,將通道數映射為與輸入通道數相同大小。因此,輸入和輸出具有相同數量的通道。它可以插入到不同類型的卷積神經網路中。

基本上下文模塊basic context module在整個模塊中僅有1個通道(1C,1 channel),而大上下文模塊large context module從1C 作為輸入到第7層的32C的通道數。

3.結果3.1. PASCAL VOC 2012

VGG-16 作為一個前端模塊(預訓練)。刪除了最後的兩個池化層和striding 層,並將context上下文模塊插入其中。中間的特徵圖的padding也被移除了。作者只是對輸入的特徵圖加了一個寬度為33的padding。Zero Padding (填充0)和 reflection padding(使用輸入邊界的反射填充,一種padding方式)在我們的實驗中得出了類似的結果。此外,使用輸入和輸出的通道channels的數量的權重來初始化的方式代替標準隨機初始化模型參數。

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012 測試集

與原作者訓練的公共模型相比,擴張卷積方法在測試集上的性能優於FCN-8s 模型 和 DeepLabv1 模型 約5個百分點。

獲得了67.6%的mean IoU(平均交並比)

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012 驗證集

通過對來自 微軟-COCO數據集 的圖像進行訓練,如上所示,對擴張卷積本身進行消融實驗研究。

  • Front end:前端模塊

  • Basic:基本上下文模塊

  • Large:大型上下文模塊

  • CRF:使用DeepLabv1和 DeepLabv2中 提到的條件隨機場的對模型輸做處理步驟

  • RNN:通過遞歸神經網路使用條件隨機場的後處理步驟

我們可以看到採用擴張卷積(basic 或 large)總能改善結果,並且還可以繼續使用其他後續處理步驟,如CRF。

獲得了73.9%的mean IoU(平均交並比)

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012 測試集

上表中的前端模塊也是通過對來自Microsoft COCO數據集進行訓練而獲得的。使用CRF-RNN(即上表中的RNN),獲得75.3%的平均IoU。雷鋒網雷鋒網雷鋒網

3.2. 定性結果

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012

所有模型都使用 VGG-16 進行特徵提取,使用擴張卷積在分割結果上具有更好的效果

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012

使用CRF-RNN作為後面的處理步驟,以獲得了更好的結果。但CRF-RNN使得該過程不是端到端的學習。

DilatedNet - 擴張卷積(語義分割)

失敗案例

如上所示的一些模型分割出錯的情況,當對象被遮擋時,分割出錯。

在附錄中給出不同的數據集的測試結果,即CamVid,KITTI和Cityscapes,請隨時閱讀本文。他們還發布了應用擴張卷積的殘差網路Dilated Residual Networks。希望我能在將來寫到它。:)

參考

[2016 ICLR] [Dilated Convolutions]

Multi-Scale Context Aggregation by Dilated Convolutions

我的相關評論

[ VGGNet ] [ FCN ] [ DeconvNet ] [ DeepLabv1和DeepLabv2 ]

想要繼續查看該篇文章相關鏈接和參考文獻?

點擊DilatedNet - 擴張卷積(語義分割)】即可訪問:

https://ai.yanxishe.com/page/TextTranslation/1538

機器學習大禮包

限時免費18本經典書籍/Stanford經典教材+論文

點擊鏈接即可獲取:

https://ai.yanxishe.com/page/resourceDetail/574

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

讓榮耀和小米高管差點打起來的這項技術究竟是什麼?
圖靈獎評委們,明年可以考慮下這兩位 AI 先驅

TAG:雷鋒網 |