當前位置:
首頁 > 知識 > 資料 | 生成對抗網路(GAN)論文閱讀路線圖【打包下載】

資料 | 生成對抗網路(GAN)論文閱讀路線圖【打包下載】

如果你剛入門深度對抗網路,可能會遇到的第一個問題是「應該從哪篇論文開始讀起呢?」




論文打包下載方式


見文末


 


這裡給出了GAN論文閱讀路線圖!



路線圖按照下面四個準則構建而成:




  • 從提綱到細節



  • 從經典到前沿



  • 從通用領域到特定領域



  • 專註於最先進的技術







作者:?dil Sülo, METU


編譯:專知




為了幫助其他想要了解更多關於GAN技術的人,我想按照我閱讀的順序分享一些我讀過的文章。

在閱讀這些論文之前,如果您不熟悉這些論文,我建議您學習一些深度學習的基礎知識。 我也相信其中一些論文背後的數學可能非常困難,所以如果你覺得不舒服,你可以跳過這些部分。




這是我的論文閱讀路線圖,我給出了一些我自己關於論文的評論:



1. NIPS 2016 Tutorial: Generative Adversarial Networks




這是Ian Goodfellow的一個教程,介紹了GANS的重要性、它們的工作原理、與它們相關的研究前沿以及將GANS與其他方法結合起來最前沿的視覺模型。本教程首先介紹GANS的應用實例。然後,Ian Goodfellow對GANS和其他模型,如變分編碼器進行了比較。Goodfellow後來解釋了生成器和判別器是如何工作的,並且還描述了它們之間的關係。接下來,Goodfellow給出了改進GANS性能的一些技巧和竅門,以及與GANS相關的一些研究前沿。他還提及了GANS面臨的問題,比如模式崩塌。最後,Goodfellow提出了一些實際操作和解決方法。




Paper link: https://arxiv.org/abs/1701.00160




2. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks




這篇論文描述了一種使卷積GAN訓練更加穩定的新型結構——深度卷積生成網路(DCGAN)。研究人員給出了這種結構的一些指導方針,例如為更深的結構移除全連接的隱藏層,為生成器和鑒別器使用 batch normalisation,在生成器中為除輸出層之外的所有層使用ReLU,以及在鑒別器中的所有層使用LeakyReLU。




Paper link: https://arxiv.org/abs/1511.06434




3. Wasserstein GAN




本文提出了一種Wasserstein GAN(WGAN)來優化GANs的訓練過程。藉助於WGAN,作者避免了模式崩塌等問題,並提供了可以調試和超參數搜索的學習方式,使用weight clipping來進行了一個Lipschitz約束,但是將在下一篇文章中看到另一種技術,將改進這部分。




Paper link: https://arxiv.org/abs/1701.07875




4. Improved Training of Wasserstein GANs




這篇論文發現,有時WGAN可能會出現不滿意的結果,如產生不好的例子,不能收斂等。這是由於上面提到的weight clipping的使用。在這個工作中,研究人員提出了一種替代weight clipping命名梯度懲罰的方法,把這種結構稱為WGAN-GP,並表明這種技術的使用極大地提高了WGAN的性能。




Paper link: 

https://arxiv.org/abs/1704.00028




5. On the Regularization of Wasserstein GANs




為了提升GAN訓練的穩定性,這篇論文提出了一種新的懲罰項來加強Lipschitz約束。他們把這種結構稱為WGAN-LP,並且在他們的實驗中,他們把它與上面提到的WGAN-GP進行比較。




Paper link: https://arxiv.org/abs/1709.08894




下面的論文提出了新的技術和結構,可以作為最前沿的tricks 來使生成式對抗網路的訓練變得穩定。




6. Is Generator Conditioning Causally Related to GAN Performance?




本文提出了一種重要的技術Jacobian Clamping。通過該技術的幫助,研究者提供了GAN生成器的conditioning 和由這些GAN生成器表示的模型的「質量」之間存在因果關係的證據。




Paper link: https://arxiv.org/abs/1802.08768




7. Neural Photo Editing with Introspective Adversarial Networks




在這篇論文中,作者提出了感知圖像編輯器(Neural Photo Editor),它是一個圖像編輯界面,可以用生成神經網路的能力來對圖像進行比較大的語義層面的合理修改。為了解決達到準確重建而不損失特徵性質,作者提出了內省對抗式網路(Introspective Adversarial Network),該網路將GAN和VAE創新地結合在一起。通過使用基於權重分享的擴張卷積(weight-shareddilated convolutions)計算塊,該模型可以有效的獲得遠程依賴(long-rangedependencies),並且通過正交正則化(Orthogonal Regularization)這樣一個新的權重正則化方法,提升了泛化表現。作者在CeleA,SVHN和CIFAR-100資料庫上驗證了模型的有效性,並且產生了具有高視覺保真度的樣例和重構圖片。




Paper link: https://arxiv.org/abs/1609.07093




8. GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium




在這篇論文中, 作者引入兩種基於時間尺度的跟新規則,它們被證明可以收斂到穩定的局部納什均衡。




Paper link: https://arxiv.org/abs/1706.08500




9. Spectral Normalization for Generative Adversarial Networks




這篇文章提出一種稱為spectral normalization的新的權重歸一化技術,以穩定GAN鑒別器的訓練。




在高維空間中,鑒別器做出的密度比例估計往往不準確,而且在訓練中非常不穩定,生成器網路也難以學到目標分布的多模態結構。更糟糕的是,當生成的和目標數據分布區域不相交的時候,就存在著一個能完美區分生成的數據和目標數據的鑒別器。一旦遇到了這樣的狀況、訓練出了這樣的鑒別器,生成器的訓練就基本停滯了,因為這樣產生的鑒別器的關於輸入的導數就成了0。這種情況讓作者們思考如何引入一些新的限制,避免訓練出這樣的鑒別器。在這篇論文中,作者們提出了一種新的權重正則化方法,稱作「spectral normalization」(光譜標準化),它可以穩定鑒別器網路的訓練過程。這種正則化方法的性質很讓人喜歡:(1)只需要調節Lipschitz常數一個超參數,而且想到達到令人滿意的模型表現也不需要反覆調試僅有的這一個參數;(2)方法的實現非常簡單,額外的計算開銷也很小。




Paper link: https://arxiv.org/abs/1802.05957




10. Generalization and Equilibrium in Generative Adversarial Nets (GANs)




泛化能力是衡量生成模型好壞的一個重要標準,本文指出 JS 散度、Wasserstein 距離都不能很好地衡量模型的泛化能力,為此,文中提出了一種基於 discriminator 的 neural network divergence/distance,用于衡量模型的泛化能力。此外作者還證明了 WGAN 的純策略納什均衡解的存在性,並提出MIX+GAN(混合策略 GAN)的訓練模式,該模式在實際訓練中更穩定,並且證明了混合策略納什均衡解的存在性。




Paper link: https://arxiv.org/abs/1703.00573




參考鏈接:


https://www.kdnuggets.com/2018/10/generative-adversarial-networks-paper-reading-road-map.html




論文打包下載方式



關注公眾號,後台回復關鍵詞


20181031




推薦閱讀



10月機器學習開源項目Top10



互聯網公司項目的上線過程



459頁《Python深度學習》下載



【資源】這本開放書籍幫你掃清通往ML的數學絆腳石


樸素貝葉斯詳解及中文輿情分析(附代碼實踐)



【代碼集合】深度強化學習Pytorch實現集錦


【資源】機器學習演算法工程師手冊(PDF下載)



喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!

TAG: |