DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用(PPT)
新智元推薦
作者:Balaji Lakshminarayanan
【新智元導讀】本文是DeepMind高級研究科學家Balaji Lakshminarayanan在SF AI Meetup上演講的slides,總結了他以及 Ian Goodfellow,Shakir Mohamed, Mihaela Rosca等人最新的GAN工作。
PPT下載:http://www.gatsby.ucl.ac.uk/~balaji/Understanding-GANs.pdf
《理解生成對抗網路》
包括以下內容:
GAN與概率機器學習中的其他方法有哪些聯繫?
如何比較分布?
生成模型與演算法
如何結合VAE和GAN來獲得更好的結果?
縮小理論與實踐之間的差距
其他一些有趣的研究方向和應用
問題陳述:
一個生成模型
我們的目標是:從真實分布
給定樣本
,找到 θ
GAN概述
鑒別器(Discriminator):訓練一個分類器,使用樣本區分兩個分布
生成器(Generator):生成愚弄鑒別器的樣本
Minimax game:在訓練鑒別器和生成器之間交替
對應JS散度的最小值的納什均衡
在實踐中為了穩定訓練需要一些技巧
GAN的各種變體非常多
GAN與概率機器學習中的其他方法有哪些聯繫?
隱式模型:生成數據的隨機過程
規定模型:提供有關觀察的概率的知識,並指定一個條件對數似然函數。
通過比較學習:使用樣本比較估計分布與真實分布
定義一個聯合損失函數
,並在Comparison loss和Generative loss間交替
如何比較分布?
以下介紹了四種方法,包括:
類概率估計
散度最小化(f-GAN)
密度比估計
時矩匹配
如何比較分布?——方法小結
類概率估計
建立一個分類器來區分真實樣本和真實樣本
原始的GAN解決方案
密度比匹配
直接將真實比率與估計值之間的預期誤差最小化
散度最小化
最小化真實密度 p* 和乘積 r(x)q(x) 之間的廣義散度
f-GAN方法
時矩匹配(Moment matching)
匹配 p* 和 r(x)q(x) 的時矩
MMD,最優傳輸( optimal transport),等
如何學習生成器?
在GAN中,生成器是可微分的
生成器loss有以下幾種形式,例如:f-散度 D_f = E_q [f(r)]
可以利用再參數化的技巧
小結:在隱式生成模型中學習
密度比估計
但它們不專註於學習生成器
近似貝葉斯計算(ABC)和likelihood-free 推理
低維,理論更好理解
對參數的貝葉斯推斷
模擬器通常是不可微分的
生成模型與演算法
對一個固定模型,比較其推理演算法
用最大似然估計(MLE)訓練
通過Wasserstein GAN訓練生成器
比較
小結:
Wasserstein距離可以比較模型。
通過訓練critic可以近似估計Wasserstein距離。
通過WGAN進行訓練能得到更好的樣本,但對數概率顯著更差。
通過WGAN訓練的Latent code是非高斯的。
如何結合VAE和GAN來獲得更好的結果?
Mode collapse問題:
「Unrolled GAN」論文中的MoG toy 的例子
VAE還有其他問題,但不會遭到Mode collapse
將自動編碼器添加到GAN,及與VAE中Evidence Lower Bound (ELOB)的關係
評估不同的變體
我們的VAE-GAN的混合模型可與state-of-the-art的GANs相媲美
小結:VAEs和GANs
VAE:
變分推理:重構;編碼器網路
後期的latent與先前的匹配
GAN:
隱式解碼器
可以使用隱式編碼器:用於匹配分布的鑒別器
縮小理論與實踐之間的差距
GAN理論與實踐的區別
已經有許多新的GAN變體被提出(例如Wasserstein GAN)
由新理論激發的損失函數和正則化項
理論與實踐之間的有顯著區別
如何彌補這個差距?
理論預測失敗的綜合數據集
將新的正規化項添加到原始non-saturating GAN
Jensen Shannon divergence失敗時的合成數據集比較
Gradient penalty能得到更好的表現
在真實數據集上的結果
小結:
一些令人驚訝的發現:
梯度懲罰(gradient penalty)也能穩定(非Wasserstein的)GAN
不僅要考慮理想的損失函數,還要考慮優化
其他一些有趣的研究方向:
GAN用於模仿學習
使用一個單獨的網路(鑒別器)來「學習」現實的動作
對抗模仿學習:RL獎勵來自鑒別器
研究:
利用納什均衡收斂的想法
與RL(actor-critic方法)的聯繫
控制理論
應用:
Class-conditional生成
文本-圖像生成
圖像-圖像轉換
單圖像超解析度
域適應
小結:
穩定GAN訓練的方法
結合自動編碼器
梯度懲罰
GAN文獻中一些有用的工具:
密度比(density ratio)的技巧在其他領域也很有用(例如信息傳遞)
隱式變分逼近
學習一個現實的損失函數
如何處理不可微分的模擬器?——使用可微分近似進行搜索?
※李飛飛推特評會議科技含金量不高;馬云:AI是人類威脅
※本周六,華為AI邀請你參加新智元×華為Mobile AI公開課
TAG:新智元 |