當前位置:
首頁 > 新聞 > DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用

DeepMind高級研究員:重新理解GAN,最新演算法、技巧及應用

新智元推薦

作者:Balaji Lakshminarayanan

【新智元導讀】本文是DeepMind高級研究科學家Balaji Lakshminarayanan在SF AI Meetup上演講的slides,總結了他以及 Ian Goodfellow,Shakir Mohamed, Mihaela Rosca等人最新的GAN工作。

PPT下載:http://www.gatsby.ucl.ac.uk/~balaji/Understanding-GANs.pdf

《理解生成對抗網路》

包括以下內容:

GAN與概率機器學習中的其他方法有哪些聯繫?

如何比較分布?

生成模型與演算法

如何結合VAE和GAN來獲得更好的結果?

縮小理論與實踐之間的差距

其他一些有趣的研究方向和應用

問題陳述:

一個生成模型

我們的目標是:從真實分布給定樣本,找到 θ

GAN概述

鑒別器(Discriminator):訓練一個分類器,使用樣本區分兩個分布

生成器(Generator):生成愚弄鑒別器的樣本

Minimax game:在訓練鑒別器和生成器之間交替

對應JS散度的最小值的納什均衡

在實踐中為了穩定訓練需要一些技巧

GAN的各種變體非常多

GAN與概率機器學習中的其他方法有哪些聯繫?

隱式模型:生成數據的隨機過程

規定模型:提供有關觀察的概率的知識,並指定一個條件對數似然函數。

通過比較學習:使用樣本比較估計分布與真實分布

定義一個聯合損失函數,並在Comparison loss和Generative loss間交替

如何比較分布?

以下介紹了四種方法,包括:

類概率估計

散度最小化(f-GAN)

密度比估計

時矩匹配

如何比較分布?——方法小結

類概率估計

建立一個分類器來區分真實樣本和真實樣本

原始的GAN解決方案

密度比匹配

直接將真實比率與估計值之間的預期誤差最小化

散度最小化

最小化真實密度 p* 和乘積 r(x)q(x) 之間的廣義散度

f-GAN方法

時矩匹配(Moment matching)

匹配 p* 和 r(x)q(x) 的時矩

MMD,最優傳輸( optimal transport),等

如何學習生成器?

在GAN中,生成器是可微分的

生成器loss有以下幾種形式,例如:f-散度 D_f = E_q [f(r)]

可以利用再參數化的技巧

小結:在隱式生成模型中學習

密度比估計

但它們不專註於學習生成器

近似貝葉斯計算(ABC)和likelihood-free 推理

低維,理論更好理解

對參數的貝葉斯推斷

模擬器通常是不可微分的

生成模型與演算法

對一個固定模型,比較其推理演算法

用最大似然估計(MLE)訓練

通過Wasserstein GAN訓練生成器

比較

小結:

Wasserstein距離可以比較模型。

通過訓練critic可以近似估計Wasserstein距離。

通過WGAN進行訓練能得到更好的樣本,但對數概率顯著更差。

通過WGAN訓練的Latent code是非高斯的。

如何結合VAE和GAN來獲得更好的結果?

Mode collapse問題:

「Unrolled GAN」論文中的MoG toy 的例子

VAE還有其他問題,但不會遭到Mode collapse

將自動編碼器添加到GAN,及與VAE中Evidence Lower Bound (ELOB)的關係

評估不同的變體

我們的VAE-GAN的混合模型可與state-of-the-art的GANs相媲美

小結:VAEs和GANs

VAE:

變分推理:重構;編碼器網路

後期的latent與先前的匹配

GAN:

隱式解碼器

可以使用隱式編碼器:用於匹配分布的鑒別器

縮小理論與實踐之間的差距

GAN理論與實踐的區別

已經有許多新的GAN變體被提出(例如Wasserstein GAN)

由新理論激發的損失函數和正則化項

理論與實踐之間的有顯著區別

如何彌補這個差距?

理論預測失敗的綜合數據集

將新的正規化項添加到原始non-saturating GAN

Jensen Shannon divergence失敗時的合成數據集比較

Gradient penalty能得到更好的表現

在真實數據集上的結果

小結:

一些令人驚訝的發現:

梯度懲罰(gradient penalty)也能穩定(非Wasserstein的)GAN

不僅要考慮理想的損失函數,還要考慮優化

其他一些有趣的研究方向:

GAN用於模仿學習

使用一個單獨的網路(鑒別器)來「學習」現實的動作

對抗模仿學習:RL獎勵來自鑒別器

研究:

利用納什均衡收斂的想法

與RL(actor-critic方法)的聯繫

控制理論

應用:

Class-conditional生成

文本-圖像生成

圖像-圖像轉換

單圖像超解析度

域適應

小結:

穩定GAN訓練的方法

結合自動編碼器

梯度懲罰

GAN文獻中一些有用的工具:

密度比(density ratio)的技巧在其他領域也很有用(例如信息傳遞)

隱式變分逼近

學習一個現實的損失函數

如何處理不可微分的模擬器?——使用可微分近似進行搜索?

加入社群

新智元AI技術+產業社群招募中,歡迎對AI技術+產業落地感興趣的同學,加小助手微信號: aiera2015_1 入群;通過審核後我們將邀請進群,加入社群後務必修改群備註(姓名-公司-職位;專業群審核較嚴,敬請諒解)。

此外,新智元AI技術+產業領域社群(智能汽車、機器學習、深度學習、神經網路等)正在面向正在從事相關領域的工程師及研究人員進行招募。

加入新智元技術社群 共享AI+開放平台


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

五天拿下Google、Facebook、Airbnb 等矽谷五家公司Offer
孜孜不倦,上下求索——悼念原復旦大學計算機學院朱洪教授

TAG:新智元 |