編輯:LRS
【新智元導讀】Playground Research推出了新一代文本到圖像模型PGv3,具備240億參數量,采用深度融合的大型語言模型,實作了在圖形設計和遵循文本提示指令上甚至超越了人類設計師,同時支援精确的RGB顔色控制和多語言識别。
自去年以來,文本到圖像生成模型取得了巨大進展,模型的架構從傳統的基于UNet逐漸轉變為基于Transformer的模型。
Playground Research最近釋出了一篇論文,詳細介紹了團隊最新的、基于DiT的擴散模型Playground v3(簡稱PGv3),将模型參數量擴充到240億,在多個測試基準上達到了最先進的性能,更擅長圖形設計。
論文連結:https://arxiv.org/abs/2409.10695
資料連結:https://huggingface.co/datasets/playgroundai/CapsBench
與傳統依賴于預訓練語言模型如T5或CLIP文本編碼器的文本到圖像生成模型不同,PGv3完全內建了大型語言模型(LLMs),基于全新的深度融合(Deep-Fusion)架構,利用僅解碼器(decoder-only)大型語言模型的知識,來進行文本到圖像生成任務。
此外,為了提高圖像描述的品質,研究人員開發了一個内部描述生成器(in-house captioner),能夠生成不同詳細程度的描述,豐富了文本結構的多樣性,還引入了一個新的基準CapsBench來評估詳細的圖像描述性能。
實驗結果表明,PGv3在文本提示遵循、複雜推理和文本渲染準确率方面表現出色;使用者偏好研究表明,PGv3模型在常見的設計應用中,如表情包(stickers)、海報和logo設計,具有超越人類的圖形設計能力,還能夠精确控制RGB顔色和多語言了解。
PGv3模型架構
Playground v3(PGv3)是一個潛擴散模型(LDM),使用EDM公式進行訓練。像DALL-E 3、Imagen 2和Stable Diffusion 3等其他模型一樣,PGv3旨在執行文本到圖像(t2i)生成任務。
PGv3完全內建了一個大型語言模型(Llama3-8B),以增強其在提示了解和遵循方面的能力。
文本編碼器
Transformer模型中的每層捕捉到的表示不同,包含不同級别的單詞級和句子級資訊,标準做法是使用T5編碼器或CLIP文本編碼器的最後一層輸出,或是結合倒數第二層的輸出,不過,研究人員發現選擇用于調節文本轉圖像模型的最佳層非常麻煩,特别是使用解碼器風格的大型語言模型時,具有更複雜的内部表示。
研究人員認為,資訊流通過LLM每層的連續性是其生成能力的關鍵,而LLM中的知識橫跨了所有層,而不是被某一層的輸出所封裝,是以PGv3在設計時,複制了LLM的所有Transformer塊,可以從LLM的每個對應層中都擷取隐藏嵌入輸出。
這種方法可以充分利用LLM完整的「思考過程」,能夠引導模型模仿LLM的推理和生成過程,是以在生成圖像時,可以實作更好的提示遵循和一緻性能力。
模型結構
PGv3采用了DiT風格的模型結構,圖像模型中的每個Transformer塊都設定得與語言模型(Llama3-8B)中的對應塊相同,僅包含一個注意力層和一個前饋層,參數也相同,如隐藏次元大小、注意力頭的數量和注意力頭的次元,并且隻訓練了圖像模型部分。
在擴散采樣過程中,語言模型部分隻需要運作一次,就可以生成所有中間隐藏嵌入。
與大多數傳統的基于CNN的擴散模型不同,Transformer模型将圖像特征的自注意力與圖像和文本特征之間的交叉注意力分開,然後進行聯合注意力操作,可以從圖像和文本值的組合池中提取相關特征,并且能減少計算成本和推理時間,下面還有一些對性能提升有用的操作:
1. Transformer塊之間的U-Net跳躍連接配接。
2. 中間層的token下采樣,在32層中,在中間層将圖像鍵和值的序列長度減少了四倍,使整個網絡類似于隻有一個下采樣的傳統卷積U-Net,略微加快了訓練和推理時間,而且沒有性能下降。
3. 位置嵌入,與llama3中的旋轉位置嵌入(RoPE)相同,由于圖像是二維的特征,是以研究人員探索了2D版本的RoPE:
「插值-PE」(interpolating-PE)方法不管序列長度如何,保持起始和結束位置ID固定後,在中間插值位置ID,不過該方法在訓練分辨率上嚴重過拟合,并且無法泛化到未見過的縱橫比。
相比之下,「擴充-PE」(expand-PE)方法按序列長度成比例增加位置ID,不使用任何技巧或歸一化,性能表現良好,沒有顯示出分辨率過拟合的迹象。
新的VAE
潛擴散模型(LDM)的變分自編碼器(VAE),對于确定模型的細粒度圖像品質上限來說非常重要。
研究人員将VAE的潛通道數從4增加到16,增強了合成細節的能力,比如較小的面部和文字;除了在256×256分辨率下進行訓練外,還擴充到512×512分辨率,進一步提高了重建性能。
CapsBench描述基準
圖像描述評估是一個複雜的問題,目前的評估名額主要分為兩類:
1. 基于參考的名額,如BLEU、CIDEr、METEOR、SPICE,使用一個真實描述或一組描述來計算相似度作為品質度量,模型得分受到參考格式的限制;
2. 無參考名額,如CLIPScore、InfoMetIC、TIGEr,使用參考圖像的語義向量或圖像的多個區域來計算所提出描述的相似度名額,但缺點是,對于密集圖像和長而詳細的描述,語義向量不具備代表性,因為包含的概念太多。
一種新型的評估方法是基于問題的名額,從描述中生成問題,并使用這些問題評估所提出的描述,有助于全面評估文本到圖像模型。
受到DSG和DPG-bench的啟發,研究人員提出了一種反向的圖像描述評估方法,在17個圖像類别中生成「是-否」問答對:通用、圖像類型、文本、顔色、位置、關系、相對位置、實體、實體大小、實體形狀、計數、情感、模糊、圖像僞影、專有名詞(世界知識)、調色闆和色彩分級。
在評估過程中,使用語言模型僅基于候選描述回答問題,答案選項為「是」、「否」和「不适用」。
CapsBench包含200張圖像和2471個問題,平均每張圖像12個問題,覆寫電影場景、卡通場景、電影海報、邀請函、廣告、休閑攝影、街頭攝影、風景攝影和室内攝影。
實驗結果
研究人員對比了Ideogram-2(左上),PGv3(右上)和Flux-pro(左下),當以縮略圖形式檢視時,3個模型的圖像看起來相似,定性差異很小。
當放大檢查細節和紋理時,就能看出明顯差別:Flux-pro生成的皮膚紋理過于平滑,類似于3D渲染的效果,不夠真實;Ideogram-2提供了更真實的皮膚紋理,但在遵循提示詞方面表現不好,提示詞很長的情況下,就會丢失關鍵細節。
相比之下,PGv3在遵循提示和生成真實圖像方面都表現出色,還展現出明顯優于其他模型的電影質感。
指令遵循
彩色文本代表模型未能捕捉到的具體細節,可以看到PGv3始終能夠遵循細節。随着測試提示變長,并包含更多詳細資訊時,PGv3的優勢變得尤為明顯,研究人員将這種性能提升歸功于我們內建了大型語言模型(LLM)的模型結構和先進的視覺-語言模型(VLM)圖像描述系統。
文本渲染
模型能夠生成各種類别的圖像,包括海報、logo、表情包、書籍封面和示範幻燈片,PGv3還能夠複現帶有定制文本的表情包,并憑借其強大的提示遵循和文本渲染能力,創造出具有無限角色和構圖的全新表情包。
RGB顔色控制
PGv3在生成内容中實作了異常精細的顔色控制,超越了标準調色闆,憑借其強大的提示遵循能力和專業訓練,PGv3使使用者能夠使用精确的RGB值精确控制圖像中每個對象或區域的顔色,非常适合需要精确顔色比對的專業設計場景。
多語言能力
得益于語言模型天生能夠了解多種語言,并建構出良好的相關詞表示,PGv3能夠自然地解釋各種語言的提示,并且多語言能力僅通過少量的多語言文本和圖像對資料集(數萬張圖像)就足夠了。