The-GAN-ZOO

? ? ? ? ? ? ? ?? (轉)生成對抗網絡(GANs)最新家譜:為你揭秘GANs的前世今生

? ? ?? 生成對抗網絡(GAN)一經提出就風光無限,更是被Yann Lecun譽為“十年來機器學習領域最有趣的想法”。GAN“左右互搏”的理念幾乎眾所周知,但正如卷積神經網絡(CNN)一樣,GAN發展至今已經衍生出了諸多變化形態。

今天就來為大家盤點一下GAN大家庭中各具特色的成員們

1.DCGANs

2.Improved DCGANs

3.Conditional GANs

4.InfoGANs

5.Wasserstein GANs

6.Improved WGANs

7.BEGANs

8.ProGANs

9.CycleGANs

PS:可以點擊以下鏈接以了更多相關內容

https://github.com/zhangqianhui/AdversarialNetsPapers

https://github.com/hindupuravinash/the-gan-zoo?

GANs概論

如果你對GANs很熟悉的話,你可以跳過這部分的內容。

GANs最早由Ian Goodfellow提出,由兩個網絡構成,一個生成器和一個鑒別器。他們在同一時間訓練并且在極小化極大算法(minimax)中進行競爭。生成器被訓練來欺騙鑒別器以產生逼真的圖像,鑒別器則在訓練中學會不被生成器愚弄。

GAN 訓練原理概覽

首先,生成器通過從一個簡單分布(例如正態分布)中抽取一個噪音向量Z,并且上行采樣(upsample)這個向量來生成圖像。在最初的循環中,這些圖像看起來非常嘈雜。然后,鑒別器得到真偽圖像并學習去識別它們。隨后生成器通過反向傳播算法(backpropagation)收到鑒別器的反饋,漸漸在生成圖像時做得更好。我們最終希望偽圖像的分布盡可能地接近真圖像。或者,簡單來說,我們想要偽圖像盡可能看起來像真的一樣。

值得一提的是,因為GANs是用極小化極大算法做優化的,所以訓練過程可能會很不穩定。不過你可以使用一些“小技巧”來獲得更穩健的訓練過程。

在下面這個視頻中,你可以看到GANs所生成圖片的訓練演變過程。

代碼

如果對GANs的基本實現感興趣,可以參見代碼的鏈接:

Tensorflow(https://github.com/ericjang/genadv_tutorial/blob/master/genadv1.ipynb)

Torch 和 Python (PyTorch)(https://github.com/devnag/pytorch-generative-adversarial-networks;https://medium.com/@devnag/generative-adversarial-networks-gans-in-50-lines-of-code-pytorch-e81b79659e3f)

Torch 和 Lua(https://github.com/lopezpaz/metal)

雖然這些不是最前沿的內容,但它們對于掌握理念很有幫助。

接下來我將按照粗略的時間順序描述最近這些年來出現的GANs相關的一些進展和類型。

深度卷積生成式對抗網絡(Deep Convolutional GANs, DCGANs)

DCGANs是GAN結構的最早的重要發展。就訓練和生成更高質量的樣本來說,DCGANs更加穩定。

論文鏈接:https://arxiv.org/abs/1511.06434

DCGAN的作者們專注于提升初代GAN的框架結構。他們發現:

批次(Batch)的正態化在兩個網絡中都是必須要做的。

完全隱藏的連接層不是一個好的想法。

避免池化,只需卷積

修正線性單元(ReLU)激活函數非常有用。

DCGANs截至目前任然被時常提起,因為它們成為了實踐和使用GANs的主要基準之一。

在這篇論文發布后不久,就在Theano, Torch, TensorflowChainer中出現了不同的可使用的實現方法,這些方法可以在你感興趣的任何數據集上測試。所以,如果你遇到了生成后奇怪的數據集,你完全可以歸咎于這些家伙。

DCGANs的使用場景如下:

你想要比基礎GANs表現更好(這是必須的)。基礎GANs適用于簡單的數據集,然而DCGANs比這要強得多。

你在尋找一種穩固的基準方法來比較你的新GAN算法。

從現在開始,除非特別說明,我接下來將要描述的所有GANs的類型都被假定為有DCGAN的結構。

提升深度卷積生成式對抗網絡(Improved DCGANs)

一系列提升先前的DCGAN的技術。例如,這一提升后的基準方法能夠生成更好的高分辨率圖像。

論文鏈接:https://arxiv.org/abs/1606.03498

GANs的主要問題之一是收斂性。收斂性不是一定的,而且盡管DCGAN做了結構細化,訓練過程仍可能非常不穩定。

在這篇論文里,作者們針對GAN訓練過程提出了不同的增強方法。以下是其中一部分:

特征匹配:他們提出了一種新的目標函數,而不是讓生成器盡可能地去蒙騙鑒別器。這個目標函數需要生成器生成的數據能夠跟真實數據的統計量相匹配。在這種情況下,鑒別器只被用來指定哪些才是值得去匹配的統計量。

歷史平均:在更新參數值時,把它們過去的值也納入考慮。

單側標簽平滑:這一項非常簡單:只要把你的鑒別器的目標輸出值從[0=假圖像,1=真圖像]改成[0=假圖像,0.9=真圖像]。不錯,這樣就提升了訓練效果。

虛擬批次正態化:通過使用從其他批次計算的統計量來避免依賴于同一批次的數據。這樣的計算成本很高,所以它僅僅被用在生成器當中。

所有這些技術都使得模型在生成高分辨率圖像時能表現得更好,而這正是GANs的弱項之一。

作為對比,請看在128x128圖像上原始DCGAN提升后的DCGAN的表現差異:

這些本來都是狗的圖片。正如你看到的,DCGAN表現很糟糕,而用improved DCGAN你至少可以看到一些包含狗的特征的內容。這也說明了GANs的另一局限——生成結構性的內容。

Improved DCGANs的使用場景如下

生成更高分辨率的圖像

條件生成式對抗網絡(Conditional GANs, cGANs)

條件式生成式對抗網絡使用額外的標簽信息用于生成更高質量圖片,并且使圖片的呈現可控制。

論文鏈接:https://arxiv.org/abs/1411.1784

CGANs是GAN框架的擴展。我們用條件信息Y來描述數據的某些特征。假設我們要處理面部圖像,Y則可以用來描述頭發顏色或者性別。然后這些屬性被插入生成器和鑒別器。

使用臉部特征信息的條件生成網絡如上圖所示

條件式生成對抗網絡有兩個很有意思的地方:

1、隨著你不斷給模型提供更多信息,GAN學習探索這些信息,然后產生更好的樣本。

2、我們用兩種方法來控制圖片的呈現,在沒有CGAN的時候所有圖片信息使用Z編碼。在CGAN下,我們加入了條件信息Y,于是Z和Y對不同信息進行編碼。

例如,我們假設Y對手寫數字0-9進行編碼。Z對其他變量編碼,這些變量可以是數字的風格比如(大小,粗細,旋轉角度等。)

MNIST(Mixed National Institute of Standards and Technology database,簡單機器視覺數據集)樣本中Z和Y的區別如上圖。Z是行,Y是列;Z對數字的風格編碼,Y對數字本身編碼。

最近的研究成果

在這個領域有很多有趣的文章,我介紹2個:

1、使用生成對抗網絡學習在指定位置畫畫

(論文:https://arxiv.org/abs/1610.02454;代碼:https://github.com/reedscot/nips2016):這篇論文里作者設計了一個本文描述的方法來告訴GAN畫什么,同時使用方框和標記告訴GAN繪畫主體的位置。如下圖示:

堆棧式GAN

(原文:https://arxiv.org/abs/1612.03242;代碼:https://github.com/hanzhanggit/StackGAN)

這篇文章和上一篇比較類似,這里作者同時使用2個GAN網絡(階段1和階段2)用于提升圖片的質量。第1階段用來獲得包含圖片“基本”概念的低分辨率圖片。第2階段用更多的細節和更高的分辨率提煉第1階段的圖片。

這篇文章據我所知是生成高質量圖片最好的模型之一,不信請看下圖。

條件式生成網絡的使用場景如下:

1、你有一個帶標簽的訓練集,想提高生成圖片的質量

2、你想對圖片的某些特征進行精細的控制,比如在某個設定的位置生成特定大小的一只紅色小鳥。

最大信息化生成對抗網絡(InfoGANs)

GANs可以在無監督模式下對噪聲向量Z的一部分有意義的圖像特征進行編碼。比如對某一數字的旋轉編碼

論文鏈接:https://arxiv.org/abs/1606.03657

你是否曾想過GAN里輸入噪聲Z對哪些信息進行編碼?一般來說它對圖片的不同類型的特征使用一種非常“嘈雜”的方式編碼。例如,取Z向量的一個位置 并且插入一個-1到1之間的值。這是下圖所示的MNIST數據集的訓練模型。

左上圖像是對Z插值取-1的時候,右下是插值為1的時候

上圖中,生成的圖片看似是從4慢慢變成“Y”(很像是4和9的混合體)。

這就是我之前所說的使用一種“嘈雜”的方式進行編碼:Z的一個位置是圖像多個特征的一個參數。

這種情況下,這個位置改變了數字自己(某種程度,從4變成9)和他的風格(從粗體變成斜體)。

然而,你無法定義Z的位置的確切含義。

如果使用Z的一些位置來代表唯一且受限的信息,正如CGAN里的條件信息Y呢?

例如,第一個位置是0-9之間的數值來控制數字,第二個位置來控制數字的旋轉,這就是文中作者想要表達的。

有意思的是,與CGANS不同,他們使用無監督的方法實現并不需要標簽信息。

他們是這么做的,把Z向量拆分成兩部分:C和Z

C對數據分布的語義特征進行編碼

Z對分布的所有非結構化噪聲進行編碼

如何用C對這些特征編碼呢?

通過改變損失函數避免C被GAN簡單地忽略掉。所以他們使用一種信息論正則化確保C與生成器分布之間的互信息[z1] (mutual information)。

也就是說,如果C變化,生成的圖像也會變化。這導致你不能明確的控制什么類型的信息將被引入C中。但是C的每一個位置都有獨特的含義。

如下圖所示:

C的第一位置編碼數字的類別,第二位置編碼旋轉方向。

然而,不使用標簽信息的代價是,這些編碼僅對非常簡單的數據集有效比如MNIST庫里的數字。

并且,你還需要手工設定C的每個位置。例如文章中作者需要定義C的第一位置是介于0-9的整數以對應數據集的十類數字。你會認為這樣不是百分百的無監督,因為需要手動給模型提供一些細節。

你可能需要用到infoGANs的場景如下:

1、數據集不太復雜

2、你想訓練一個CGAN模型但是缺少標簽信息

3、你想知道數據集主要有意義的圖像特征并且對他們進行控制

生成式對抗網絡(Wasserstein GANs)

修改損失函數以引入Wasserstein距離,這樣以來WassGANs 的損失函數同圖片質量建立聯系。同時訓練的穩定性有所提升而并非依賴于架構。

論文鏈接:https://arxiv.org/abs/1701.07875

GANs 經常存在收斂問題,所以你并不知道什么時候該停止訓練。換句話說損失函數同圖像質量無關,這可是個大難題。

因為:

你需要不斷的查看樣本來確認模型訓練是否正確

因為不收斂,你不知道何時該停止訓練

也沒有數值指示你調參的效果如何

舉個例子,看下面DCGAN的兩個無信息損失函數完美的生成MNIST樣本的迭代圖[z2]

僅看上圖你知道什么時候該停止訓練嗎?

這種可解釋性的問題也是Wasserstein GANs要解決的。

怎樣解決呢?

如果真實和偽造樣本的分布不重疊(一般都是這樣)GANs可以用來最小化JS散度(Jensen-Shannon divergence)直到0。

所以與其最小化JS散度,作者使用Wasserstein距離來描述不同分布中點之間的距離。

思路大概如此,如果你想了解更多,我強烈建議你看這篇文章(https://paper.dropbox.com/doc/Wasserstein-GAN-GvU0p2V9ThzdwY3BbhoP7)或者更深入分析或者閱讀本論文。

WassGAN有和圖像質量關聯的損失函數并且能夠收斂。同時他更加穩定而不依賴GAN的結構。比如,就算你去掉批標準化或者使用怪異的結構,它仍能很好的工作。

這就是他的損失函數圖,損失越低,圖像質量越好。完美!

Wasserstein GANs的應用場景如下:

你需要尋找最先進的且有最高訓練穩定性的GAN

你想要一個有信息量且可以解讀的損失函數。

加強版WGANs (Improved WGANs , WGAN-GP)

這個模型使用的是Wasserstein GANs,并應用了梯度懲罰(gradient penalty)來代替權重剪輯(weight clipping)及其帶來的一些不需要的行為。這個方法可以帶來更高的聚合度、更高質量的樣本和更穩定的訓練。

論文:https://arxiv.org/abs/1704.00028

代碼:https://github.com/igul222/improved_wgan_training

針對問題:WGANs有時候會生成一些質量不佳的樣本,或者是無法在某些集合中生成聚集。這種現象主要是由于為了滿足Lipschitz限制而在WGANs中應用權重剪輯(即把所有權重限制在一個由最小值和最大值組成的范圍內)所造成的。如果你對這個限制不太了解,那么你只需要記住它是WGANs正常運行的一個必要條件。那么為什么權重剪輯會造成如上問題呢?這是因為它會使WGANs偏向于使用那些過于簡單的函數,這意味著當WGANs想要模擬復雜的數據時,簡單地估算近似值令其無法得到準確的結果(如下圖所示)。另外,權重剪輯也使得梯度爆炸與消失更容易發生。

左圖是使用了簡單的函數導致無法正確模擬高斯為8的WGANs運行后的結果,而右圖則是經過使用了更復雜的函數的WGAN-GP矯正后的圖像。

梯度懲罰(Gradient penalty):所以我們該如何擺脫權重剪輯帶來的不良效果呢?

WGAN-GP的作者(GP表示梯度懲罰)提出了使用另一種叫梯度懲罰的辦法來加強Lipschitz限制的建議。原則上,梯度懲罰的原理是對某些梯度實行了均值為1的限制。對于那些均值偏離于1的梯度將會實施懲罰(減少權重),這也是為什么它被稱為梯度懲罰的原因。

優點:由于在訓練中使用了梯度懲罰而不是權重剪輯,WGANs獲得了更快的聚合。另外,因為不再必須對超參數進行調整,而且網絡架構的使用也不再像之前那么重要,訓練在某種程度上變得更加穩定。雖然很難說清楚到底有多少,但這些WGAN-GP確實產生了更高質量的樣本。在已驗證并測試的結構上,這些樣本的質量和作為基線的WGANs產出的結果非常相似。

基于同一個網絡架構,WGANs-GP明顯在生成高質量樣本上更有優勢,而GANs則不然。

比如,據作者所知,這是首次GANs能夠在殘差網絡的結構上運行:

為了不超出本篇博文的范疇,還有許多其他有趣的細節我這里就不一一闡述了。如果你對這個訓練方式有興趣想要了解更多(例如,為什么梯度懲罰只應用于“某些”特定梯度,又或者怎樣才能把這個模型用于文本數據樣本),我會建議你自行閱讀一下該論文。

強化版的WGAN的優點如下:

l? 更快的聚合

l? 可以在各種各樣的網絡架構和數據集中使用

l? 不像其他的GANs一樣需要太多的超參數調整

邊界均衡GANs(Boundary Equilibrium GANs,BEGANs)

GANs使用一個自動編碼器作為均衡判別器。它們可在一個簡單的架構上被訓練出來,且合成一個動態的可以使得均衡器和生成器在訓練中兩者平衡的階段

論文:https://arxiv.org/abs/1703.10717

一個有趣的事實:BEGANs 和WGAN-GP幾乎是同一天在論文上發表。

理念:讓BEGAN區別于其他GANs的原因有兩個,一是它們使用了一個自動編碼器作為均衡判別器(這一點和EBGANs類似),二是為了適用于這個情境的一個特別的損失函數。這種選擇背后的理由是什么呢?強迫我們使用像素重建損失函數來制造模糊生成樣本的自動編碼器是否也不是傳說中那么“邪惡”呢?

要回答這些問題,我們需要考慮以下兩點:

1. 為什么要重建像素損失?作者解釋說這么做的原因是,對于那些符合對像素損失的重建分布模式的假設,我們可以依賴它們去匹配樣本的分布模式。

2. 而這又引出了下一個問題:如何才可以達到這一目的呢?一個重要的觀點是,從自動編碼器/均衡判別器形成的像素重建損失(換言之,就是基于某個圖像輸入,輸出最優化的像素重建)并不是經BEGANs最小化后生成的最終損失。可以說,這個重建損失不過是為了計算最終損失的其中一個步驟。而最終損失的計算這是通過衡量基于真實數據的重建損失和基于生成數據的重建損失之間的Wasserstein距離(是的,現在它無處不在)。

這么一看似乎這其中的信息量非常大,但我可以保證,一旦我們看清損失函數是如何作用于生成器和判別器,這一切將會變得再明白不過了。

生成器專注于生成那些能夠讓判別器良好重建的圖像

而判別器則致力于盡可能良好地重建真實圖像,同時重建那些誤差最大化的生成圖像。

差異因數:另一個有趣的成分是所謂的差異因數。通過這個因子你能控制判別器不同程度的表現,決定它能只專注于形成對真實圖像的完美重建(注重質量),又或是更側重在區分真實圖像和生成圖像(注重多樣性)。然后,它們就能更進一步地利用這個差異因數去保持生成器和判別器在訓練中的平衡。如同WGANs,這一模型同樣應用均衡狀態作為調整和圖像質量相關的聚合度的方法。然而,和WGANs (與 WGANs-GP)不盡相同的是,它們利用了Wasserstein 距離,而非Lipschitz限制,去測量均衡水平。

結論:BEGANs并不需要任何花里胡哨的網絡架構就可以訓練得當。如同在論文中所述的,“不批量標準化,不丟棄神經網絡元,無反卷積,也沒有卷積濾鏡的指數化增長”,這些生成樣本(128x128)的質量已經相當好了。

然而,在這篇論文中有一個重要的細節值得我們注意:論文中使用的未發表數據集的樣本量是目前廣為使用的 CelebA數據集的兩倍之大。因此,為了得到更具有現實意義的定性比較,我邀請大家去查看那些使用了CelebA的公開模型(https://github.com/carpedm20/BEGAN-tensorflow),并看看那些由此生成的樣本。

最后,如果你對BEGANs感興趣想要了解更多,我建議你閱讀一下這篇博文(https://blog.heuritech.com/2017/04/11/began-state-of-the-art-generation-of-faces-with-generative-adversarial-networks/),里面對BEGANs有更多詳細的介紹。

你需要BEGANs的原因一般會和需要使用WGANs-GP的情況差不多。這兩個模型的結果往往非常相似(穩定的訓練、簡單的架構、和圖像質量相關的損失函數),而兩者的不同主要在于過程中使用的手段。由于評估生成式模型本身就不是一件容易的事,我們很難去說清楚孰優孰劣。但就像Theisetal在他們的論文(https://arxiv.org/abs/1511.01844)中所說的,選擇一個評估的方法,不然就依據實際情況來做判定。在這種情況下,WGANs-GP具有更高的初始分數(Inception score)而BEGANs則能生成非常優質的圖像,兩者都是未來最值得研究和最具有革新意義的模型。

漸進式發展生成對抗網絡(Progressive growing of GANs,ProGANs)

在訓練過程中,逐步嵌入新的高分辨率的層次,來生成相當逼真的圖像。更多的進步以及新興的考核機制也相繼涌現。新生成的圖片質量高得驚人。

論文:https://arxiv.org/abs/1710.10196

代碼:https://github.com/tkarras/progressive_growing_of_gans

生成高分辨率的圖像是個大挑戰。圖片越大,對生成對抗網絡來說越可能失敗。因為它要求模型學習辨別更細微、復雜的細節。為了使大家更好理解,在這篇文章發表之前,GANs產出圖像的合理尺寸大概是256x256。漸進式生成對抗網絡(ProGANs)將它提升到了一個全新水準-生成尺寸為1024x1024的圖片。我們來看看它是如何實現的:

理念:ProGANs-建立于WFGANs-GP-引入了一種靈活地將新層次逐漸嵌入到訓練時間的方式。每一層都利用上采樣增強了生成器和判別器里的圖像分辨率。

步驟分解如下:

1 首先,利用低像素圖片訓練生成器和判別器。

2 在一定時間點(開始聚合的時候),提高分辨率。這是通過“遷移階段”/“平滑技術”非常完美地實現的。

新的層次是借助α控制的一系列細微的線性步驟添加,而不是簡單粗暴地加上一層。

我們看看生成器里都發生了什么。最初,當α = 0,無變化。產出主要來自于前一低分辨率層(16x16)的貢獻。

當提升α的值,新一層(32x32)開始通過反向傳播調整它的權重。最后,當α趨近于1,我們幾乎可以跳過32x32這一層的操作。同理適用于判別器,當然是以完全相反的方式:不是使圖片更大,而是更小。

3 一旦轉化完成,繼續訓練生成器與判別器。假如得到的圖片質量分辨率不達標,請回到步驟2。

不過,等等……對新的高分辨率圖像的上采樣與串聯不是已經在StackGANs(還有新StackGANs++)里實現了么?沒錯,也不全對。首先,StackGANs是將文字翻譯為圖像的條件GANs,它引入文字描述作為額外輸入值。而ProGANs沒有使用任何假定式的信息。更加有趣的是,盡管StackGANs和ProGANs都對更高分辨率的圖片串聯,StackGANs需要盡量多的根據上采樣獨立配對的GANs-需單獨訓練,你想進行上采樣3次么?那你要訓練3個GANs。另一方面,在ProGANs模型中只有一個單一的GAN被訓練。在這一訓練中,更多的上采樣層被逐步疊加至上采樣的圖片,上采樣3次的嘗試只是增加更多的層在訓練時間上,而不是抓3個新的GANs逐次訓練。總而言之,ProGANs采用一種與StackGANs相似的理念,它完美地完成,而且在沒有額外信息的情況下產出更好的結果。

結果。作為漸進訓練的結果,ProGANs生成的圖片有更高的質量,而針對1024x1024圖像的訓練時間也縮減了5.4倍。背后的理由是,ProGAN不需要一次性學習所有大、小規模的典型圖片。在ProGAN模型里,小規模的圖像最先被學習(低分辨率層次聚合),然后模型可以自行聚焦在完善大尺寸圖片的結構上(新的高分辨率層次聚合)。

其他的提升。

另外,該論文提出了新的設計決策來更進一步提升模型的性能。概述如下:

小批量標準差:將標準差運用于這些小批量的所有特征屬性,允許每個小批量有相似的統計數據。然后,總結為一個新的層的單一值,嵌入至網絡尾端。

均衡的學習速率:通過在訓練過程中持續地將每個權重除以一個常量,確保所有權重的學習速度一致。

像素標準化:在生成器上,每一個矢量的特征是根據其卷基層標準化的(論文里的精確公式)。這是為了防止生成器和判別器的梯度量級的逐步上漲。

CelebA-HQ(CelebA高級版)。 值得一提的是,作者為了實現高分辨率訓練,改進了原始的CelebA,從而得到了CelebA-HQ,簡單來說,它們移除原像,應用高斯濾波器來生成一種景深效果,然后探測到人臉圖像,得到一個1024x1024尺寸的裁剪圖片,在這一流程之后,他們從202k張圖片里保留了最優質的30k張圖片。

評估

最后,我們介紹一種新的評估方式

背后的理念是:生成圖像的本地圖形結構應該與訓練圖像的結構匹配。

那么如何測量本地結構?

使用Laplacian pyramid算法,你可以得到不同的空間頻段,來作為描述符。

最后,我們從生成圖像和原始圖像中提取描述符,將其規范化,然后使用著名的Wasserstein距離檢測它們有多接近。距離越近越好。

你可能會想在以下場景使用ProGANs的使用場景如下:

假如你希望獲得最完美的結果。但是考慮到…

你需要花大量時間搭建模型:我們需要在一個單一的NVIDIA Tesla P100 GPU上花20天訓練網絡

如果你開始懷疑世界的真實性。GANs的下一輪迭代可能會給你一些比現實生活還真實的樣本參考。

循環生成對抗網絡(Cycle GANs)

論文:https://arxiv.org/pdf/1703.10593.pdf

代碼:https://github.com/junyanz/CycleGAN

循環GANs是目前最先進的用于圖片互譯的生成對抗網絡。

這些GANs并不需要配對的數據集來學習不同領域之間的轉譯,這點很棒,因為配對數據集很難獲取。然而CycleGANs仍然需要通過兩個不同領域的數據X和Y(例如X是普通的馬匹,Y是斑馬)來訓練。為了將轉換限制于從一個領域到另一領域的范疇,他們使用所謂的“循環一致性損失”。大意是,如果可以將馬匹A轉化成斑馬A,那么當你將斑馬A逆轉化,應該能得到馬匹A才對。

這種從一個領域到另一領域的變換與另一熱門概念“神經風格轉換”是有區別的。后者結合了一副圖像的“內容”與另一圖像的“樣式”。循環GANs則是在一個領域轉換至另一領域的過程中學習總結非常高層次的特征。因此,循環GANs更籠統,并且適用于多種映射關系,例如將一個速寫轉化為真實物品。

總結一下,生成對抗網絡在近期取得了兩大顯著進步

WGANS-GP和BEGANs

? ? ?? 盡管理論研究方向不同,但它們提供了相似的優點。其次,我們有ProGANs(基于WGANS-GP),它打開了一條通往生成高清圖像的清晰路徑。同時,循環GANs讓我們看到了GANs從數據集提取有用信息的潛力以及這些信息如何轉入至另一非關聯的數據分布。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,967評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,273評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,870評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,742評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,527評論 6 407
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,010評論 1 322
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,108評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,250評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,769評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,656評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,853評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,371評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,103評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,472評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,717評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,487評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,815評論 2 372