GAN論文整理

原始GAN

Goodfellow和Bengio等人發(fā)表在NIPS 2014年的文章Generative adversary network,是生成對(duì)抗網(wǎng)絡(luò)的開(kāi)創(chuàng)文章,論文思想啟發(fā)自博弈論中的二人零和博弈。在二人零和博弈中,兩位博弈方的利益之和為零或一個(gè)常數(shù),即一方有所得,另一方必有所失。GAN模型中的兩位博弈方分別由生成式模型(generative model)和判別式模型(discriminative model)充當(dāng)。生成模型G捕捉樣本數(shù)據(jù)的分布,判別模型D是一個(gè)二分類器,估計(jì)一個(gè)樣本來(lái)自于訓(xùn)練數(shù)據(jù)(而非生成數(shù)據(jù))的概率。G和D一般都是非線性映射函數(shù),例如多層感知機(jī)、卷積神經(jīng)網(wǎng)絡(luò)等。

如圖所示,左圖是一個(gè)判別式模型,當(dāng)輸入訓(xùn)練數(shù)據(jù)x時(shí),期待輸出高概率(接近1);右圖下半部分是生成模型,輸入是一些服從某一簡(jiǎn)單分布(例如高斯分布)的隨機(jī)噪聲z,輸出是與訓(xùn)練圖像相同尺寸的生成圖像。向判別模型D輸入生成樣本,對(duì)于D來(lái)說(shuō)期望輸出低概率(判斷為生成樣本),對(duì)于生成模型G來(lái)說(shuō)要盡量欺騙D,使判別模型輸出高概率(誤判為真實(shí)樣本),從而形成競(jìng)爭(zhēng)與對(duì)抗。

GAN.png

GAN優(yōu)勢(shì)很多:根據(jù)實(shí)際的結(jié)果,看上去產(chǎn)生了更好的樣本;GAN能訓(xùn)練任何一種生成器網(wǎng)絡(luò);GAN不需要設(shè)計(jì)遵循任何種類的因式分解的模型,任何生成器網(wǎng)絡(luò)和任何鑒別器都會(huì)有用;GAN無(wú)需利用馬爾科夫鏈反復(fù)采樣,無(wú)需在學(xué)習(xí)過(guò)程中進(jìn)行推斷,回避了近似計(jì)算棘手的概率的難題。

GAN主要存在的以下問(wèn)題:網(wǎng)絡(luò)難以收斂,目前所有的理論都認(rèn)為GAN應(yīng)該在納什均衡上有很好的表現(xiàn),但梯度下降只有在凸函數(shù)的情況下才能保證實(shí)現(xiàn)納什均衡。

GAN發(fā)展

一方面GAN的發(fā)展很快,這里只是簡(jiǎn)單粗略將相關(guān)論文分了幾類,歡迎反饋,持續(xù)更新。此外最近ICLR 2017 在進(jìn)行Open Review,可以關(guān)注下ICLR 2017 Conference Track,也有相應(yīng)論文筆記分享ICLR 2017 | GAN Missing Modes 和 GAN

GAN從2014年到現(xiàn)在發(fā)展很快,特別是最近ICLR 2016/2017關(guān)于GAN的論文很多,GAN現(xiàn)在有很多問(wèn)題還有到解決,潛力很大。總體可以將已有的GANs論文分為以下幾類

  1. GAN Theory
  2. GAN in Semi-supervised
  3. Muti-GAN
  4. GAN with other Generative model
  5. GAN with RNN
  6. GAN in Application

GAN Theory

此類關(guān)注與無(wú)監(jiān)督GAN本身原理的研究:比較兩個(gè)分布的距離;用DL的一些方法讓GAN快速收斂等等。相關(guān)論文有:

  • GAN: Goodfellow, Ian, et al. "Generative adversarial nets." Advances in Neural Information Processing Systems. 2014.
  • LAPGAN: Denton, Emily L., Soumith Chintala, and Rob Fergus. "Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks." Advances in neural information processing systems. 2015.
  • DCGAN: Radford, Alec, Luke Metz, and Soumith Chintala. "Unsupervised representation learning with deep convolutional generative adversarial networks." arXiv preprint arXiv:1511.06434 (2015).
  • Improved GAN: Salimans, Tim, et al. "Improved techniques for training gans." arXiv preprint arXiv:1606.03498 (2016).
  • InfoGAN: Chen, Xi, et al. "Infogan: Interpretable representation learning by information maximizing generative adversarial nets." arXiv preprint arXiv:1606.03657(2016).**
  • EnergyGAN: Zhao, Junbo, Michael Mathieu, and Yann LeCun. "Energy-based Generative Adversarial Network." arXiv preprint arXiv:1609.03126 (2016).
  • Creswell, Antonia, and Anil A. Bharath. "Task Specific Adversarial Cost Function." arXiv preprint arXiv:1609.08661 (2016).
  • f-GAN: Nowozin, Sebastian, Botond Cseke, and Ryota Tomioka. "f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization." arXiv preprint arXiv:1606.00709 (2016).
  • Unrolled Generative Adversarial Networks, ICLR 2017 Open Review
  • Improving Generative Adversarial Networks with Denoising Feature Matching, ICLR 2017 Open Review
  • Mode Regularized Generative Adversarial Networks, ICLR 2017 Open Review
  • b-GAN: Unified Framework of Generative Adversarial Networks, ICLR 2017 Open Review
  • Mohamed, Shakir, and Balaji Lakshminarayanan. "Learning in Implicit Generative Models." arXiv preprint arXiv:1610.03483 (2016).

GAN in Semi-supervised

此類研究將GAN用于半監(jiān)督學(xué)習(xí),相關(guān)論文有:

  • Springenberg, Jost Tobias. "Unsupervised and Semi-supervised Learning with Categorical Generative Adversarial Networks." arXiv preprint arXiv:1511.06390 (2015).
  • Odena, Augustus. "Semi-Supervised Learning with Generative Adversarial Networks." arXiv preprint arXiv:1606.01583 (2016).

Muti-GAN

此類研究將多個(gè)GAN進(jìn)行組合,相關(guān)論文有:

  • CoupledGAN: Liu, Ming-Yu, and Oncel Tuzel. "Coupled Generative Adversarial Networks." arXiv preprint arXiv:1606.07536 (2016).
  • Wang, Xiaolong, and Abhinav Gupta. "Generative Image Modeling using Style and Structure Adversarial Networks." arXiv preprint arXiv:1603.05631(2016).
  • Generative Adversarial Parallelization, ICLR 2017 Open Review
  • LR-GAN: Layered Recursive Generative Adversarial Networks for Image Generation, ICLR 2017 Open Review

GAN with other Generative model

此類研究將GAN與其他生成模型組合,相關(guān)論文有:

  • Dosovitskiy, Alexey, and Thomas Brox. "Generating images with perceptual similarity metrics based on deep networks." arXiv preprint arXiv:1602.02644(2016).
  • Larsen, Anders Boesen Lindbo, S?ren Kaae S?nderby, and Ole Winther. "Autoencoding beyond pixels using a learned similarity metric." arXiv preprint arXiv:1512.09300 (2015).
  • Theis, Lucas, and Matthias Bethge. "Generative image modeling using spatial lstms." Advances in Neural Information Processing Systems. 2015.

GAN with RNN

此類研究將GAN與RNN結(jié)合(也以參考Pixel RNN),相關(guān)論文有:

  • Im, Daniel Jiwoong, et al. "Generating images with recurrent adversarial networks." arXiv preprint arXiv:1602.05110 (2016).
  • Kwak, Hanock, and Byoung-Tak Zhang. "Generating Images Part by Part with Composite Generative Adversarial Networks." arXiv preprint arXiv:1607.05387 (2016).
  • Yu, Lantao, et al. "SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient." arXiv preprint arXiv:1609.05473 (2016).

GAN in Application

此類研究將GAN的實(shí)際運(yùn)用(不包括圖像生成),相關(guān)論文有:

  • Zhu, Jun-Yan, et al. "Generative visual manipulation on the natural image manifold." European Conference on Computer Vision. Springer International Publishing, 2016.
  • Creswell, Antonia, and Anil Anthony Bharath. "Adversarial Training For Sketch Retrieval." European Conference on Computer Vision. Springer International Publishing, 2016.
  • Reed, Scott, et al. "Generative adversarial text to image synthesis." arXiv preprint arXiv:1605.05396 (2016).
  • Ravanbakhsh, Siamak, et al. "Enabling Dark Energy Science with Deep Generative Models of Galaxy Images." arXiv preprint arXiv:1609.05796(2016).
  • Abadi, Martín, and David G. Andersen. "Learning to Protect Communications with Adversarial Neural Cryptography." arXiv preprint arXiv:1610.06918(2016).
  • Odena, Augustus, Christopher Olah, and Jonathon Shlens. "Conditional Image Synthesis With Auxiliary Classifier GANs." arXiv preprint arXiv:1610.09585 (2016).
  • Ledig, Christian, et al. "Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network." arXiv preprint arXiv:1609.04802 (2016).
  • Nguyen, Anh, et al. "Synthesizing the preferred inputs for neurons in neural networks via deep generator networks." arXiv preprint arXiv:1605.09304(2016).
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,837評(píng)論 6 531
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,196評(píng)論 3 414
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人,你說(shuō)我怎么就攤上這事。” “怎么了?”我有些...
    開(kāi)封第一講書人閱讀 175,688評(píng)論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我,道長(zhǎng),這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書人閱讀 62,654評(píng)論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 71,456評(píng)論 6 406
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書人閱讀 54,955評(píng)論 1 321
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,044評(píng)論 3 440
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書人閱讀 42,195評(píng)論 0 287
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,725評(píng)論 1 333
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 40,608評(píng)論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 42,802評(píng)論 1 369
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,318評(píng)論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 44,048評(píng)論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 34,422評(píng)論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 35,673評(píng)論 1 281
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 51,424評(píng)論 3 390
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 47,762評(píng)論 2 372

推薦閱讀更多精彩內(nèi)容

  • Deep Learning Papers Reading Roadmap If you are a newcome...
    vdes閱讀 2,123評(píng)論 0 1
  • 作為長(zhǎng)投學(xué)院課程準(zhǔn)備要閱讀3本理財(cái)書。本書為第一本 書名:30歲前的每一天,最現(xiàn)實(shí)的夢(mèng)想管理指南 書籍介紹:豆瓣網(wǎng)...
    swanlin閱讀 541評(píng)論 0 0
  • 2017年5月17日分享 沒(méi)有一個(gè)事物天生就是完美的,需要不斷的打磨,裂變,成長(zhǎng),才能生成有價(jià)值的,有生命力的,有...
    吳波全息空間閱讀 177評(píng)論 0 0
  • 1|不慌張不抱怨 昨天早上醒來(lái),吃了點(diǎn)早餐,吃了點(diǎn)水果。像往常一樣,來(lái)到電腦前,打開(kāi)簡(jiǎn)書…… 突然間,左手手掌底部...
    ZeroworldC閱讀 1,018評(píng)論 1 3
  • 24歲開(kāi)始,我漸漸失去了說(shuō)話的能力。 “早。” “嗯。” “好。” “是嗎,”加上“呵呵。”我每天可能只會(huì)說(shuō)上十幾...
    北方趙五閱讀 151評(píng)論 0 1