當前位置:
首頁 > 新聞 > ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

本文由機器之心發布。


在瑞典斯德哥爾摩國際會展中心舉行的國際機器學習大會 (ICML) 受到全世界科技界的關注。來自國內人工智慧企業隊代表第四範式的姚權銘與來自香港科技大學的研究者提出的「Online Convolutional Sparse Coding with Sample-Dependent Dictionary:樣本自適應的在線卷積稀疏編碼」入選 ICML 2018。

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

論文鏈接:http://proceedings.mlr.press/v80/wang18k.html

隨著卷積神經網路(CNN)在圖像識別的效果越來越好,CNN 越來越受 AI 學者的青睞,越來越多的應用也開始嘗試採用 CNN 方法,但是,隨著對 CNN 的嘗試和研究的深入,它的不可解釋性以及實驗的不可複製重複的問題變的越來越嚴重,相比與處理圖像分類問題的 CNN,卷積稀疏編碼(CSC)是一個線性卷積的無監督的學習的方法。CSC 模型更簡單,更直觀容易分析理解。因此,最近一些機器學習&機器視覺大牛 (e.g. Michael Elad - 稀疏編碼的創始人之一) 開始嘗試著用 CSC 解決應用問題和理解 CNN,在應用層面上,醫療/生物圖片數據,例如腦磁圖 (Magnetoencephalography, MEG),(電子顯微鏡獲得),還有頻譜 (hyperspectral image) 和光場 (light field) 數據上都使用 CSC 取得了非常不錯的成果。

不同於傳統的 CSC 演算法使用由所有樣本共享的字典來卷積,此篇論文中的 SCSC 使用的是樣本自適應的字典,其中每個過濾器是從數據中學習的一組基礎濾波器的線性組合。這種增加的靈活性允許捕獲大量依賴於樣本的模式,這在處理大型或高維數據集時特別有用。在計算上,所得到的模型可以通過在線學習有效地學習。在大型的數據集上的實驗結果表明,所提出的 SCSC 演算法優於現有的 CSC 演算法,具有顯著減少的時間和空間複雜度。

這篇論文提出的樣本自適應的卷積稀疏編碼 (SCSC) 主要解決傳統卷積稀疏編碼 (CSC) 不能適用於高維度數據 (P 表示) 和較多過濾器 (K 表示) 的問題。SCSC 的核心有兩點:

(a) 首先將 CSC 過濾器用兩部分表示,第一部分是基礎濾波器 (base filters) 所有樣本共享,第二部分是樣本自適應係數 (sample-dependent weights) 每個樣本單獨學習。這樣一來,和標準 CSC 比較,SCSC 方法中並沒有全局的濾波器,而是對每個樣本從一堆基礎濾波器中通過樣本自適應係數組合出來自己的濾波器。

(b) 基於以上模型,只有基礎濾波器是依賴於全部數據的。方法的第二點在於我們使用在線學習的方法去快速並且小內存的學習基礎濾波器。

下圖對比了標準的 CSC 演算法與研究人員提出的樣本自適應 SCSC 演算法:

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

左邊是標準 CSC 演算法,右邊是論文提出的樣本自適應 SCSC 演算法。相比而言,對於每個測試樣本,研究人員都會用樣本獨立的係數 Wi 和基礎濾波器 B 組合出來一個樣本自適應的新濾波器。

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

表 1:SCSC 與其他 CSC 演算法在時間/空間複雜度的比較

與目前的最新的 CSC 演算法進行對比,SCSC 演算法的優勢主要體現在三個方面:

(1) 大數據集

在小樣本數據集的實驗中,論文中將 SCSC 演算法與批量 CSC 演算法進行比較 (包括 DeconvNet、fast CSC、fast and flexible CSC 等),其中也包括著與 SCSC 一樣採用在線方法的 OCSC,實驗的檢驗指標採用的是 PSNR(峰值信噪比 Peak Signal to Noise Ratio),得到的結果如下圖:

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

上方的圖表現了各種 CSC 方法在時鐘時間 (clock time) 下的 PSNR 收斂性,實驗表明了小樣本數據集條件下,在線 CSC 演算法比批量 CSC 演算法收斂的更快,具有更好的 PSNR,而同樣是在線方法的 OCSC,SCSC 雖然與 OCSC 具有類似的 PSNR,但 SCSC 收斂的更快。

而在大樣本數據集實驗中,所有的批處理 CSC 演算法和兩個在線 CSC 演算法 OCDL DEGRAUX 和 OCDLLU 不能處理這樣大的數據集。因此,研究人員只比較 SCSC 與 OCSC,比較的結果如下:

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

在 CIFAR-10 數據集上,研究人員設定 SCSC 和 OCSC 的 K(濾波器數量)=300。在 Flower 數據集上,SCSC 的 K 值仍為 300。然而,OCSC 只能使用 k=50,因為它的內存佔用大得多。圖 7 顯示了測試的 PSNR 的收斂性。在這兩種情況下,SCSC 顯著優於 OCSC。

(2) 高維度數據集下的表現

高維數組採用的是三種數據集:視頻數據集、光譜數據集、光場數據集。研究人員將 SCSC 與 OCSC 和 CCSC(分散式 CSC 的演算法)作對比,為了公平的比較,所有的方法只使用一台機器。值得一提的是,由於 SCSC 的內存佔用小,實驗人員可以在 GTX 1080 TI GPU 上運行這個實驗。OCSC 也在 GPU 上運行用於視頻。然而,OCSC 只能在 CPU 上運行多光譜和光場。CCSC 在處理過程中需要訪問所有的樣本和代碼,只能在 CPU 上運行,實驗的結果如下圖:

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

根據論文中的實驗結果顯示,SCSC 是唯一的可以處理整個視頻,多光譜和光場數據集在一台機器上的方法。相比之下,CCSC 只能處理最多 30 個視頻樣本、40 個多光譜樣本和 35 個光場樣本。OCSC 可以處理整個視頻和多光譜,但是在使用整個光場數據集的 2 天內不能收斂。

至於速度,如 Table 4 所示 SCSC 的速度是最快的。但是值得注意的是,這僅僅只是作為參考,因為 SCSC 是在 GPU 上運行的,而其他的(除了視頻數據集上的 OCSC)都是在 CPU 上運行。然而,這仍然表明 SCSC 的一個重要優點,即它的小內存佔用可以受益於 GPU 的使用,而其他的則不能。

(3) 圖像的去噪與修復

在以前的實驗中,學習字典的優勢是通過重建乾淨的圖像來證明的。此篇論文中研究人員進一步研究學習字典中的兩個應用:圖像去噪和修復。研究人員使用 SCSC 與(批處理 CSC)SBCSC 和(在線)OCSC 進行比較。結果如表 5 所示:

ICML 2018|第四範式聯合港科大提出樣本自適應在線卷積稀疏編碼

可以看出,由 SCSC 獲得的 PSNR 始終高於其他方法。這同時也表明,在圖像重建中產生高 PSNR 的字典也在可以使其他圖像處理應用發揮更好的性能。

未來工作

同時研究人員也表示,未來將結合自適應在線卷積稀疏編碼 SCSC 和神經網路模型的優勢,將樣本自適應的 idea 應用到卷積神經網路模型中。這將增加神經網路遷移學習的能力同時減少其所需要的計算量,使得這些網路在高維度低樣本數據上也適用。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

DeepMind提出關係RNN:記憶模塊RMC解決關係推理難題
劍橋大學:156頁PPT全景展示AI過去的12個月

TAG:機器之心 |