當前位置:
首頁 > 新聞 > 英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

英偉達又出 GAN 新研究了。小編拿出珍藏貓片試了試,於是好好的一篇新研究報道變成了大型吸貓現場……快來吸貓!

藉助圖像數據集,無監督圖像到圖像轉換方法可以將給定類的圖像映射到另一類的模擬圖像,例如

CycleGAN

將馬轉換為斑馬。雖然這種模型非常成功,但在訓練時需要大量源類和目標類的圖像,也就是說需要大量馬和斑馬的圖像。而這樣訓練出來的模型只能轉換斑馬與馬,作者認為這極大限制了這些方法的應用。

因為人類能夠從少量樣本中抓住新事物的本質,並「想像」出它們在不同情況下的狀態。作者從中獲得啟發,探索一種 few-shot 無監督的圖像到圖像遷移演算法,這種演算法適用於測試時僅由少量樣本圖像指定的以前沒見過的目標類。

通過對抗訓練方案和新網路設計的結合,該模型能夠實現 few-shot 圖像生成。此外,在經過大量實驗驗證以及與基準數據集上的幾種基線方法比較後,作者證實了所提出框架的有效性。

試用效果

既然效果這麼棒,小編忍不住拿出了家崽的百天照試試效果。

  • Demo 試用地址:https://nvlabs.github.io/FUNIT/petswap.html

下面這張照片展示了我家小溪溪的日常——喪。(微笑臉)

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

打開今日頭條,查看更多圖片

我把這張照片上傳到 demo 頁面,經過後台系統的一系列神操作之後,嗯,我看到了一堆喪喪的動物。(苦笑臉)

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

第 2 張的小狗狗是溪溪的犬版嗎?表情一毛一樣!我的天吶~

再試一下,下面這張照片也是溪溪的經典表情——嚴肅臉,嚴肅中帶著一點驚訝,驚訝中還有一點彷徨……(此處省略表情描述 500 字)。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

嗯哼,系統生成的圖如下,一堆目瞪口呆.jpg。寶寶們為啥不開心呀?

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

突然想起來,溪溪還有一張 wink 照呢,老母親私以為神似劉昊然(請迷妹們不要打我)……

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

不知道是不是因為背景太複雜(溪溪害羞鑽進了被子里),生成的圖效果似乎不太好。看第 15 張,小貓有一隻眼完全閉上了,但是溪溪可沒有閉眼哦。不過溪溪小警長的小白爪在生成的每張圖中都有體現,雖然看不太出是爪子還是耳朵還是別的什麼……

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

圖像到圖像的轉換到底怎麼了?

上面英偉達的 FUNIT 已經非常強了,那麼一般的圖像轉換又有什麼問題呢?說到圖像到圖像的轉換(image-to-image translation),我們最熟悉的可能就是 CycleGAN,它可以將某種圖像轉換為另一種,例如將馬轉換為斑馬。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

這樣看起來非常有意思,但卻有一個很大的限制。如果我們希望完成馬和斑馬之間的轉換,那麼要弄一堆馬的照片和一堆斑馬的照片,再訓練 CycleGAN 模型就能獲得兩類圖像之間的轉換關係。雖然馬和斑馬之間的圖像不需要成對匹配,但這樣是不是還有一些複雜?感覺不能像人那樣自由「想像」?

其實人類擁有出色的泛化能力,當看到從未見過的動物照片時,我們可以輕易想像出該動物不同姿態的樣子,尤其是當我們還記得該姿態下的其它動物長什麼樣子。這是一種很強的泛化能力,那麼機器學習也能做到這一點嗎?

雖然當前無監督圖像到圖像轉換演算法在很多方面都非常成功,尤其是跨圖像類別的複雜外觀轉換,但根據先驗知識從新一類少量樣本中進行泛化的能力依然無法做到。具體來說,如果模型需要在某些類別上執行圖像轉換,那麼這些演算法需要所有類別的大量圖像作為訓練集。也就是說,它們不支持 few-shot 泛化。

雖然無監督圖像到圖像方法取得了顯著成功,但總體而言有以下兩方面的限制:

  • 其一,這些方法通常需要在訓練時看到目標類的大量圖像;
  • 其二,用於一個轉換任務的訓練模型在測試時無法應用於另一個轉換任務。

為了解決這些限制,作為縮小人類和機器想像能力之間差距的一種嘗試,英偉達的研究者提出一種 Few-shot 無監督圖像到圖像轉換(FUNIT)框架。該框架旨在學習一種新穎的圖像到圖像轉換模型,從而利用目標類的少量圖像將源類圖像映射到目標類圖像。也就是說,該模型在訓練階段從未看過目標類圖像,卻被要求在測試時生成一些目標類圖像。

為了更好地理解這種新穎的圖像轉換,作者在下圖展示了動物面部的 few-shot 轉換結果:

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

如上所示,其中 y_1 和 y_2 是測試階段可用的目標類 few-shot 樣本圖像、x 是源類輸入圖像,而 x bar 就是源類到目標類的轉換結果了。我們可以看出來,x 和 x bar 之間的「神態」都非常相似。

英偉達的 Few-Shot 解決方案

接著,研究者假設人們的 few-shot 生成能力是由過去的視覺體驗發展而來—如果一個人過去看過很多不同對象類的圖像,則能夠更好地想像出新對象類的圖像。基於此假設,他們使用包含眾多不同對象類圖像的數據集來訓練 FUNIT 數據集,以模擬過去的視覺體驗。具體來說,他們訓練該模型,從而將其中一類的圖像轉換為另一類(利用該類的少量樣本圖像)。

他們假設通過學習提取用於轉換任務的少量樣本圖像的外觀模式,該模型得到了一個可泛化的外觀模式提取器,在測試時,該提取器可以在 few-shot 圖像到圖像轉換任務中應用於未見過類別的圖像。

在實驗部分,他們給出了實驗性證據,即 few-shot 轉換性能會隨著訓練集中類的增加而提升。

研究者提出的框架基於生成對抗網路(GAN)。通過對抗訓練方案和新網路設計的結合,他們實現了預期的 few-shot 圖像到圖像轉換能力。

此外,在經過三個數據集的實驗驗證以及與其他基線方法在一些不同的性能指標上進行比較之後,他們證實了所提框架的有效性,並且該框架可應用於 few-shot 圖像分類任務。通過在 few-shot 類圖像模型生成的圖像上訓練分類器,FUNIT 框架性能優於當前基於特徵錯覺(feature hallucination)的最佳 few-shot 分類方法。

FUNIT 框架

為了訓練 FUNIT,研究者使用一組對象類圖像(如不同動物的圖像)並將其稱為源類。他們不假設任何兩類之間都存在可以配對的圖像(也就是說沒有兩種不同物種的動物是完全相同的姿態)。他們使用源類圖像訓練多類無監督圖像到圖像轉換模型。在測試階段,他們為模型提供少量新對象類(稱為目標類)圖像。該模型利用非常少的新目標類圖像將任何源類圖像轉換成目標類的模擬圖像。當他們為同一模型提供少量新的不同目標類圖像時,該模型必須將任何源類圖像轉換成這一新的不同目標類的模擬圖像。

FUNIT 框架包含一個條件式圖像生成器 G 和一個多任務對抗判別器 D。與現有無監督圖像到圖像轉換框架中輸入一個圖像的條件式圖像生成器不同,研究者提出的生成器 G 能夠同時輸入內容圖像 x 和一組 K 個類別的圖像 {y_1, ..., y_K},並通過

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

輸出圖像 x bar。

研究者假設內容圖像屬於對象類 c_x,而每一個 K 類圖像屬於對象類 c_y。一般來說,K 值很小,對象類 c_x 區別於 c_y。他們將 G 稱為 few-shot 圖像轉換器。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

圖 1:訓練。訓練集包含來自幾種對象類別(源類別)的圖像。研究者訓練一個模型在這些源對象類別圖像之間進行轉換。

部署。研究者向訓練得到的模型展示極少的目標類別圖像,儘管模型在訓練期間從未見過來自目標類別的任何圖像,但這已經足夠使其將源類別圖像轉換為目標類別的類似圖像。注意,FUNIT 生成器接收兩個輸入:1)一幅內容圖像和 2)一組目標類別圖像。它的目標是生成與目標類別圖像類似的輸入圖像的轉換。

如圖 1 所示,G 將一個輸入內容圖像 x 映射到一個輸出圖像 x bar,這樣一來,x bar 看起來就會像是一幅屬於源類別 c_y 的圖像,x bar 和 x 結構相似。讓 S 和 T 分別表示源類集和目標類集。在訓練期間,G 學習在兩個任意採樣的源類別 c_x, c_y∈ S(c_x ≠ c_y)之間進行圖像轉換。測試期間,G 從一個未見過的目標類別 c ∈ T 中提取幾幅圖像作為類別圖像,並將從任何一個源類採樣的圖像映射到目標類別 c 的類似圖像。

FUNIT 的學習過程

如果想要了解 FUNIT 的學習過程,那麼了解它的目標函數及組成模塊是最好不過了。如前所述,整個 FUNIT 框架主要包含 Few-shot 圖像轉換器和多任務對抗判別器。其中 Few-shot 圖像轉換器 G 又包含內容編碼器 E_x、類別編碼器 E_y 和解碼器 F_x,通過這些模塊,前面方程 (1) 就可以改寫為:

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

其中 X bar 就是我們希望生成的圖像。如果構建了轉換器 G 和判別器 D,那麼整個 FUNIT 框架就能通過類似 GAN 的方法得到訓練,即解極小極大最優化問題:

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

其中 L_GAN、L_R 和 L_F 分別是 GAN 的損失函數、圖像內容重構損失和特徵匹配損失,它們共同構建了整個模型的目標函數。下面簡要地展示了這三種損失函數的計算公式,當然在原論文中,這三個損失函數都有詳細的解釋,讀者可參考原論文理解。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

如上在 GAN 的損失函數中,D 的上標表示不同的目標類別。整個損失函數僅使用對應類別的二元預測分進行計算。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

如上很容易看出來,重構損失 L_R 主要會幫助 G 學習轉換模型,原始圖像要和轉換的圖像相近一點比較好。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

最後是特徵匹配損失,它會為整個訓練提供正則化效果。其中 D_f 為特徵抽取器,它會從輸出圖像與圖像類別中抽取特徵。

實驗

根據目標類別中的圖像在訓練過程中是否可用,研究者將基線模型分為兩類:公平(不可用)和不公平(可用)。

如表 1 所示,本文中提出的 FUNIT 框架在 Animal Faces 和 North American Birds 數據集上的所有性能指標上都優於 few-shot 無監督圖像到圖像轉換任務基線。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

表 1:與「公平」和「非公平」基線的性能比較結果。↑表示值越大越好,↓表示值越小越好。

從表中還可以看出,FUNIT 模型的性能與測試時可用目標圖像 K 的數量呈正相關。

研究人員可視化了 FUNIT-5 few-shot 無監督圖像到圖像轉換方法得到的結果(如下圖 2 所示)。結果顯示,FUNIT 模型可以成功地將源類圖像轉換為新類的類似圖像,輸出的圖像非常逼真。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

圖 2:利用本文中的 few-shot 無監督圖像到圖像轉換方法得到的結果。

該結果利用 FUNIT-5 模型計算得到的。從上到下依次是動物面部、鳥、花和食物數據集得到的結果。研究者為每個數據集訓練一個模型。y_1、y_2 是 5 個隨機採樣類別圖像中的兩個,x 是輸入內容圖像,xˉ表示轉換輸出。結果顯示,儘管在訓練過程中沒有見過任何來自目標類的圖像,但 FUNIT 能夠在困難的 few-shot 設置下生成可信的轉換輸出。從圖中可以看出,輸出圖像中的對象與輸入中的對象姿態類似。

下圖 3 提供了幾種基線模型與 FUNIT 在 few-shot 圖像到圖像轉換任務中的性能比較。由於基線模型不是為 few-shot 圖像轉換任務設計的,它們在如此具有挑戰性的任務中表現無法令人滿意。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

圖 3:Few-shot 圖像到圖像轉換性能的可視化比較。上圖中的 6 列圖像從左到右依次是輸入內容圖像 x、兩個輸入目標類圖像 y_1、y_2、從「不公平」及「公平」StarGAN 基線得到的轉換結果及本文中的框架得到的結果。

研究人員還讓人類受試者參與了生成圖像的評價,受試者偏好得分如下圖所示(表中數字為喜歡 FUNIT 生成結果的用戶所佔百分比)。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

表 2:受試者用戶偏好得分。

結果表明,無論是與「公平」還是「不公平」的基線相比,受試者都認為 FUNIT-5 生成的結果更加可信。

研究人員還分析了在訓練時見到的對象類別數發生變化時模型性能的變化(設定為一個樣本,即 FUNIT-1)。如圖所示,在轉換準確率方面,性能與對象類別數呈正相關。這表明,在訓練中看到的對象類別數越多,FUNIT 模型在測試中表現越好。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

圖 4:Few-shot 圖像轉換性能 vs. 在動物面部數據集上訓練時見到的對象類別數。性能與訓練期間見到的源對象類別數成正比。

研究者使用動物和鳥類數據集對 FUNIT 的 few-shot 分類性能進行了評估(結果如下圖)。更確切地說,他們利用訓練得到的 FUNIT 模型為每個 few-shot 類別生成 N 個圖像,然後利用生成的圖像訓練分類器。

他們發現,與 Hariharan 等人提出的 few-shot 分類方法相比,利用 FUNIT 所生成圖像訓練得到的分類器性能更好。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

表 3:在 5 種類別上的 few-shot 分類平均準確率。

最後,想要搞點事情的小夥伴們可以看看論文與實現呀。

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

論文:Few-Shot Unsupervised Image-to-Image Translation

英偉達又火了一篇圖像轉換論文,我們竟然用來吸貓

  • 論文地址:https://arxiv.org/pdf/1905.01723.pdf
  • 實現地址:https://github.com/NVlabs/FUNIT

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

聯合漢語分詞和依存句法分析的統一模型:當前效果最佳
?台灣清華奪冠,清華獲亞軍:2019 ASC世界超算大賽落幕

TAG:機器之心 |