天天看點

生成對抗網絡

生成式對抗網絡(generative adversarial network,GAN)是基于可微生成器網絡的另一種生成式模組化方法。生成式對抗網絡基于博弈論場景,其中生成器網絡必須與對手競争。生成網絡直接産生樣本

生成對抗網絡

。其對手,判别器網絡(dircriminator network)試圖區分從訓練資料抽取的樣本和從生成器抽取的樣本。判别器出發由

生成對抗網絡

給出的機率值,訓示x是真實訓練樣本而不是從模型抽取的僞樣本的機率。

形式化表示生成對抗網絡中學習的最簡單方法是零和遊戲,其中函數

生成對抗網絡

确定判别器的受益。生成器接受

生成對抗網絡

作為它自己的受益。在學習期間,每個玩家嘗試最大化自己的受益,是以收斂在

生成對抗網絡

v的預設選擇是

生成對抗網絡

這驅使判别器試圖學習将樣品正确地分類為真或僞造的。同時,生成器試圖欺騙分類器以讓其相信樣本是真實的。在收斂時,生成器的樣本與真實資料不可區分,并且判别器處處都輸出1/2。然後可以丢棄判别器。設計GNA的主要動機是學習過程既不需要近似推斷,也不需要配分函數梯度的近似。當

生成對抗網絡

生成對抗網絡

中是凸的(例如,在機率密度函數的空間中直接執行優化的情況)時,該過程保證收斂并且是漸近一緻的。不幸的是,在實踐中由神經網絡表示的g和d以及

生成對抗網絡

不凸時,GAN中的學習可能是困難的。Goodfellow認為不收斂可能會引起GAN的欠拟合問題。一般來說,同時對兩個玩家的成本梯度下降不能保證達到平衡。例如,考慮價值函數v(a,b)=ab,其中一個玩家的成本梯度下降不能保證達到平衡。例如,考慮價值函數v(a,b)=ab,其中一個玩家控制a并産生成本ab,而另一個玩家控制b并接收成本-ab。如果我們将每個玩家模組化為無窮小的梯度步驟,每個玩家以及另一個玩家為代價降低自己的成本,則a和b進入穩定模式的原型軌迹,而不是到達原點處的平衡點。注意,極小極大化遊戲的平衡不是v的局部最小值。相反,它們是同時最小化的兩個玩家成本的點。這意味着它們是v的鞍點,相對于第一個玩家的參數是局部最小值,而相對于第二個玩家的參數是局部最大值。兩個玩家可以永遠輪流增加然後減少v,而不是正好停在玩家沒有能力降低其成本的鞍點。目前不知道這種不收斂的問題會在多大程度上影響GAN。

Goodfellow确定了另一種替代的形式化收益公式,其中博弈不再是零和,每當判别器最優時,具有與最大似然學習相同的預期梯度。因為最大似然訓練收斂,這種GAN博弈的重述在給定足夠的樣本時也應該收斂。不幸的是,這種替代的形式化似乎并沒有提高實踐中的收斂,可能是由于判别器的次優性或圍繞期望梯度的高方差。

在真實實驗中,GAN博弈的最佳表現形式既不是零和,也不等于最大似然,而是Goodfellow引入的帶有啟發式動機的不同形式。這種最佳性能的形式中,生成器旨在增加判别器發生錯誤的對數機率,而不是旨在降低判别器進行正确預測的對數機率。這種重述僅僅是觀察的結果,即使在判别器确信拒絕所有生成器樣本的情況下,它也能導緻生成器代價函數的導數相對于判别器的對數保持很大。

穩定GAN學習仍然是一個開放的問題。幸運的是,當仔細選擇模型架構和超參數時,GAN學習效果很好,Radford設計了一個深度卷積GAN(DCGAN),在圖像合成的任務上表現非常好,并表明其潛在的表示空間能捕獲到變化的重要因素。GAN學習問題也可以通過将生成過程分成許多級别的細節來簡化。我們可以訓練由條件的GAN,并學習從分布p(x|y)中采樣,而不是簡單地從邊緣分布p(x)中采樣。Denton表明一系列的條件GAN可以被訓練為首先生成非常低分辨率的圖像,然後增量地向圖像添加細節。由于使用拉普拉斯金字塔來生成包含不同細節水準的圖像,這種技術被稱為LAPGAN模型。LAPGAN生成器不僅能夠欺騙判别器網絡,而且你能夠欺騙人類的觀察者,實驗主體将高達40%的網絡輸出識别為真實資料。