當前位置:
首頁 > 新聞 > DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)



新智元推薦

作者:Balaji Lakshminarayanan

【新智元導讀】本文是DeepMind高級研究科學家Balaji Lakshminarayanan在SF AI Meetup上演講的slides,總結了他以及 Ian Goodfellow,Shakir Mohamed, Mihaela Rosca等人最新的GAN工作。

PPT下載:http://www.gatsby.ucl.ac.uk/~balaji/Understanding-GANs.pdf

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

《理解生成對抗網路》

包括以下內容:

  • GAN與概率機器學習中的其他方法有哪些聯繫?

  • 如何比較分布?

  • 生成模型與演算法

  • 如何結合VAE和GAN來獲得更好的結果?

  • 縮小理論與實踐之間的差距

  • 其他一些有趣的研究方向和應用

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

問題陳述:

一個生成模型

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

我們的目標是:從真實分布

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

給定樣本

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

,找到 θ

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

GAN概述

鑒別器(Discriminator):訓練一個分類器,使用樣本區分兩個分布

生成器(Generator):生成愚弄鑒別器的樣本

Minimax game:在訓練鑒別器和生成器之間交替

  • 對應JS散度的最小值的納什均衡

  • 在實踐中為了穩定訓練需要一些技巧

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

GAN的各種變體非常多

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

GAN與概率機器學習中的其他方法有哪些聯繫?

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

隱式模型:生成數據的隨機過程

規定模型:提供有關觀察的概率的知識,並指定一個條件對數似然函數。

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

通過比較學習:使用樣本比較估計分布與真實分布

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

定義一個聯合損失函數

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

,並在Comparison loss和Generative loss間交替

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

如何比較分布?

以下介紹了四種方法,包括:

  • 類概率估計

  • 散度最小化(f-GAN)

  • 密度比估計

  • 時矩匹配

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

如何比較分布?——方法小結

類概率估計

  • 建立一個分類器來區分真實樣本和真實樣本

  • 原始的GAN解決方案

密度比匹配

  • 直接將真實比率與估計值之間的預期誤差最小化

散度最小化

  • 最小化真實密度 p* 和乘積 r(x)q(x) 之間的廣義散度

  • f-GAN方法

時矩匹配(Moment matching)

  • 匹配 p* 和 r(x)q(x) 的時矩

  • MMD,最優傳輸( optimal transport),等

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

如何學習生成器?

在GAN中,生成器是可微分的

  • 生成器loss有以下幾種形式,例如:f-散度 D_f = E_q [f(r)]

  • 可以利用再參數化的技巧

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

小結:在隱式生成模型中學習

密度比估計

  • 但它們不專註於學習生成器

近似貝葉斯計算(ABC)和likelihood-free 推理

  • 低維,理論更好理解

  • 對參數的貝葉斯推斷

  • 模擬器通常是不可微分的

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

生成模型與演算法

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

對一個固定模型,比較其推理演算法

  1. 用最大似然估計(MLE)訓練

  2. 通過Wasserstein GAN訓練生成器

  3. 比較

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

小結:

  • Wasserstein距離可以比較模型。

  • 通過訓練critic可以近似估計Wasserstein距離。

  • 通過WGAN進行訓練能得到更好的樣本,但對數概率顯著更差。

  • 通過WGAN訓練的Latent code是非高斯的。

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

如何結合VAE和GAN來獲得更好的結果?

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

Mode collapse問題:

  • 「Unrolled GAN」論文中的MoG toy 的例子

  • VAE還有其他問題,但不會遭到Mode collapse

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

將自動編碼器添加到GAN,及與VAE中Evidence Lower Bound (ELOB)的關係

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

評估不同的變體

我們的VAE-GAN的混合模型可與state-of-the-art的GANs相媲美

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

小結:VAEs和GANs

VAE:

  • 變分推理:重構;編碼器網路

  • 後期的latent與先前的匹配

GAN:

  • 隱式解碼器

  • 可以使用隱式編碼器:用於匹配分布的鑒別器

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

縮小理論與實踐之間的差距

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

GAN理論與實踐的區別

已經有許多新的GAN變體被提出(例如Wasserstein GAN)

  • 由新理論激發的損失函數和正則化項

  • 理論與實踐之間的有顯著區別

如何彌補這個差距?

  • 理論預測失敗的綜合數據集

  • 將新的正規化項添加到原始non-saturating GAN

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

Jensen Shannon divergence失敗時的合成數據集比較

  • Gradient penalty能得到更好的表現

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

在真實數據集上的結果

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

小結:

一些令人驚訝的發現:

  • 梯度懲罰(gradient penalty)也能穩定(非Wasserstein的)GAN

  • 不僅要考慮理想的損失函數,還要考慮優化

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

其他一些有趣的研究方向:

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

GAN用於模仿學習

  • 使用一個單獨的網路(鑒別器)來「學習」現實的動作

  • 對抗模仿學習:RL獎勵來自鑒別器

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

研究:

  • 利用納什均衡收斂的想法

  • 與RL(actor-critic方法)的聯繫

  • 控制理論

應用:

  • Class-conditional生成

  • 文本-圖像生成

  • 圖像-圖像轉換

  • 單圖像超解析度

  • 域適應

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

小結:

穩定GAN訓練的方法

  • 結合自動編碼器

  • 梯度懲罰

GAN文獻中一些有用的工具:

  • 密度比(density ratio)的技巧在其他領域也很有用(例如信息傳遞)

  • 隱式變分逼近

  • 學習一個現實的損失函數

  • 如何處理不可微分的模擬器?——使用可微分近似進行搜索?

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

李飛飛推特評會議科技含金量不高;馬云:AI是人類威脅
本周六,華為AI邀請你參加新智元×華為Mobile AI公開課

TAG:新智元 |