0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟提出Control-GPT:用GPT-4實現(xiàn)可控文本到圖像生成!

CVer ? 來源:機器之心 ? 2023-06-05 15:31 ? 次閱讀

擴散模型雖好,但如何保證生成的圖像準確高質(zhì)量?GPT-4或許能幫上忙。

文本到圖像生成領(lǐng)域近兩年取得了很大的突破,從 GAN 到 Stable Diffusion,圖像生成的速度越來越快,生成效果越來越好。然而,AI 模型生成的圖像在細節(jié)上還有很多瑕疵,并且使用自然語言指定對象的確切位置、大小或形狀存在一定的困難。為了生成精準、高質(zhì)量的圖像,現(xiàn)有方法通常依賴于廣泛的提 prompt 工程或手動創(chuàng)建圖像草圖。這些方法需要大量的人工工作,因此非常低效。

最近,來自加州大學伯克利分校(UC 伯克利)和微軟研究院的研究者從編程的角度思考了這個問題。當前,用戶能夠使用大型語言模型較好地控制代碼生成,這讓該研究看到了編寫程序來控制生成圖像細節(jié)的可能,包括物體的形狀、大小、位置等等。基于此,該研究提出利用大型語言模型(LLM)生成代碼的功能實現(xiàn)可控型文本到圖像生成。

ec7cbdc6-0356-11ee-90ce-dac502259ad0.png

Controllable Text-to-Image Generation with GPT-4

論文地址:https://arxiv.org/abs/2305.18583

該研究提出了一個簡單而有效的框架 Control-GPT,它利用 LLM 的強大功能根據(jù)文本 prompt 生成草圖。Control-GPT 的工作原理是首先使用 GPT-4 生成 TikZ 代碼形式的草圖。如下圖 1 (c) 所示,程序草圖(programmatic sketch)是按照準確的文本說明繪制的,隨后這些草圖被輸入 Control-GPT。Control-GPT 是 Stable Diffusion 的一種變體,它能接受額外的輸入,例如參考圖像、分割圖等等。這些草圖會充當擴散模型的參考點,使擴散模型能夠更好地理解空間關(guān)系和特殊概念,而不是僅僅依賴于文本 prompt。這種方法使得 prompt 工程和草圖創(chuàng)建過程不再需要人為干預,并提高了擴散模型的可控性。

ec872fc2-0356-11ee-90ce-dac502259ad0.png

我們來看一下 Control-GPT 方法的具體細節(jié)。

方法

對圖像生成來說,訓練過程的一個較大挑戰(zhàn)是缺乏包含對齊文本和圖像的數(shù)據(jù)集。為了解決這個難題,該研究將現(xiàn)有實例分割數(shù)據(jù)集(例如 COCO 和 LVIS)中的實例掩碼轉(zhuǎn)換為多邊形的表示形式,這與 GPT-4 生成的草圖類似。

然后,該研究構(gòu)建了一個包含圖像、文本描述和多邊形草圖的三元數(shù)據(jù)集,并微調(diào)了 ControlNet。該研究發(fā)現(xiàn)這種方法有助于更好地理解 GPT 生成的草圖,并且可以幫助模型更好地遵循文本 prompt 指令。

ControlNet 是擴散模型的一種變體,它需要額外的輸入條件。該研究使用 ControlNet 作為基礎(chǔ)圖像生成模型,并通過編程草圖和 grounding token 的路徑對其進行擴展。

框架

如下圖 2 所示,在 Control-GPT 中,首先 GPT-4 會根據(jù)文本描述生成 TikZ 代碼形式的草圖,并輸出圖像中物體的位置。然后該研究用 LATEX 編譯 TikZ 代碼,將草圖轉(zhuǎn)換為圖像格式,再將編程草圖、文本描述和物體位置的 grounding token 提供給經(jīng)過調(diào)優(yōu)的 ControlNet 模型,最終生成符合條件的圖像。

ec93dcb8-0356-11ee-90ce-dac502259ad0.png

使用 GPT-4 生成的草圖訓練 ControlNet 是必要的,因為預訓練的 ControlNet 不理解生成的草圖,不能將其轉(zhuǎn)換為現(xiàn)實圖像。為了 prompt GPT-4,該研究要求用戶遵循如下的 prompt 樣本,以讓 GPT-4 請求 TikZ 代碼片段的結(jié)構(gòu)化輸出,以及相關(guān)物體的名稱和位置。然后,該研究使用 GPT-4 的輸出來編譯草圖圖像并獲得 grounding token。

ecdf4464-0356-11ee-90ce-dac502259ad0.png

LLM 繪制草圖的準確性如何

Control-GPT 的精度取決于 LLM 生成草圖時的準確性和可控性。因此,該研究對 LLM 在草圖生成方面的性能進行了基準測試。實驗結(jié)果表明 GPT 系列模型在草圖生成方面明顯優(yōu)于 LLaMa 等開源模型,并且 GPT-4 在遵循文本指令方面表現(xiàn)出驚人的高準確性(約 97%)。

該研究對 Control-GPT 和一些經(jīng)典模型的生成結(jié)果進行了人工評估,結(jié)果表明當圖像中包含兩個不相關(guān)的罕見物體組合時,一些模型的生成效果比較差,而 Control-GPT 的生成結(jié)果相對較好,如下表 2 所示:

ecf6ea56-0356-11ee-90ce-dac502259ad0.png

查詢 LLMs,生成一個 TikZ 代碼片段來描述給定的文本,進而檢查 LLMs 的性能。如下表 1 所示,GPT-series 模型的大多數(shù)代碼片段都可以編譯為有效的草圖,而 LLaMA 和 Alpaca 的輸出要么是空的,要么不可運行。在 GPT-series 模型中,最新的 GPT-4 在 95 個查詢中只有 3 次失敗,這些查詢成功地生成了有效草圖,在遵循文本指令方面的成功率大約有 97%。ChatGPT 是 GPT-3.5 的 RLHF 微調(diào)版本,其性能明顯低于原始 GPT-3.5。在調(diào)優(yōu)過程中,聊天能力和代碼生成之間可能存在著權(quán)衡。

ed024fd6-0356-11ee-90ce-dac502259ad0.png

在下圖 4 中,研究者提供了一個來自 GPT 系列模型的可視化草圖例子。雖然生成的草圖不如照片那樣逼真,但它們往往能捕捉到語義,并正確推理出物體的空間關(guān)系。生成的草圖經(jīng)常出人意料地通過簡單的代碼片斷來正確處理物體形狀。

下圖最后一行展示了 GPT-4 的一個失敗案例,即模型無法生成物體形狀,而 GPT-3.5 卻能給出一個正確的草圖。GPT-4 在草圖生成方面的高精度帶來的啟發(fā)是:可以使用它來提高圖像生成模型的可控性。

ed147de6-0356-11ee-90ce-dac502259ad0.png

實驗

基于 Visor 數(shù)據(jù)集,研究者對 Control-GPT 進行了一系列實驗設置的評估,測試其在空間關(guān)系、物體位置和大小方面的可控性。他們還將評估擴展到多個物體和分布外的 prompt。廣泛的實驗表明,Control-GPT 可以大大提升擴散模型的可控性。

下表 3 中列出了定量評估結(jié)果??梢钥吹剑珻ontrol-GPT 模型可以在給定的一些規(guī)格下更好地控制物體的大小和位置。與幾乎無法控制物體位置和尺寸的 Stable Diffusion 模型(SD-v1.5)相比,Control-GPT 將總體精度從 0% 提高到 14.18%。與現(xiàn)成的 ControlNet 相比,Control-GPT 在所有指標上也取得了更好的表現(xiàn),獲得了從 8.46% 到 4.18% 的整體改善。這些結(jié)果展示了本文的 LLM 集成框架在更細化和精確控制圖像生成過程方面的潛力。

ed1d08f8-0356-11ee-90ce-dac502259ad0.png

視覺化。下圖 6 展示了定性評估結(jié)果,可以看到,ControlGPT 可以按照物體位置和尺寸的規(guī)范繪制物體。相比之下,ControlNet 也能遵循,但卻很難生成正確的物體,而 Stable Diffusion 則無法遵循規(guī)范。

ed2b57c8-0356-11ee-90ce-dac502259ad0.png

對空間關(guān)系的消融實驗。研究者還探討了模型是否對不同類型的空間關(guān)系(如左 / 右 / 上 / 下)有偏好,作為空間關(guān)系基準分析的一部分。從下表 4 中可以看出,Control-GPT 在 Visor Score 和物體準確性方面一直比所有的基線模型工作得更好。

ed995d04-0356-11ee-90ce-dac502259ad0.png

多個物體之間的關(guān)系。研究者對 Control-GPT 生成多個物體的能力進行了進一步的評估,這些物體的空間關(guān)系由 prompt 指定。下圖 7 展示了一些例子,Control-GPT 能理解不同物體之間的空間關(guān)系,并在 GPT-4 的幫助下將它們放入布局中,表現(xiàn)出了更好的性能。

edbbb304-0356-11ee-90ce-dac502259ad0.png

可控性與圖像逼真度。通常,在生成逼真圖像與遵循精確布局之間往往存在著妥協(xié),特別是對于分布外的文字 prompt。如下圖 8 所示,(a)是一個例子,生成的圖像完全遵循布局,但這導致了圖像中的一些偽影;而在(b)中,照片往往看起來很逼真,但沒有很好地遵循草圖。

edcf60fc-0356-11ee-90ce-dac502259ad0.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1088

    瀏覽量

    40515
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24749
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    354

    瀏覽量

    15446

原文標題:微軟提出Control-GPT:用GPT-4實現(xiàn)可控文本到圖像生成!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    ChatGPT升級 OpenAI史上最強大模型GPT-4發(fā)布

    是 Generative Pre-trained Transformer 4 的縮寫,即生成型預訓練變換模型 4,是一個多模態(tài)大型語言模型。根據(jù)OpenAI的描述,GPT-4 支持接
    的頭像 發(fā)表于 03-15 18:15 ?2843次閱讀

    OpenAI正式發(fā)布GPT-4:支持圖像文本的輸入、 處理中文的準確度大幅提升

    ChatGPT 的經(jīng)驗教訓迭代調(diào)整 GPT-4,從而在真實性和可控性等方面取得了有史以來最好的結(jié)果(盡管遠非完美)。
    的頭像 發(fā)表于 03-16 09:46 ?1882次閱讀

    GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領(lǐng)先

    而且 GPT-4 是多模態(tài)的,同時支持文本圖像輸入功能。此外,GPT-4 比以前的版本“更大”,這意味著其已經(jīng)在更多的數(shù)據(jù)上進行了訓練,并且在模型文件中有更多的權(quán)重,這也使得它的運行
    的頭像 發(fā)表于 03-17 10:31 ?3457次閱讀

    語言模型GPT-4在北京高考題目上的測試結(jié)果

    計算符號的表示。針對數(shù)學和物理中的公式,我們發(fā)現(xiàn)不管用文本類輸入(如,t_0)還是latex輸入(如, )都不影響GPT-4的理解。為了統(tǒng)一,我們都盡可能采用latex表達問題,因此所有考試題目都由作者手敲公式輸入,不可避免
    的頭像 發(fā)表于 03-22 14:13 ?1395次閱讀

    關(guān)于GPT-4的產(chǎn)品化狂想

    GPT-4是條件,而不是結(jié)果
    的頭像 發(fā)表于 03-26 10:48 ?3032次閱讀
    關(guān)于<b class='flag-5'>GPT-4</b>的產(chǎn)品化狂想

    GPT-4是這樣搞電機的

    GPT-4寫電機基礎(chǔ)程序沒問題
    的頭像 發(fā)表于 04-17 09:41 ?1049次閱讀
    <b class='flag-5'>GPT-4</b>是這樣搞電機的

    微軟GPT-4搜索引擎重大升級 新Bing開放AI能力

    GPT-4,GPT-4有更強悍的能力可以提供創(chuàng)意性文章創(chuàng)作和圖像識別功能。微軟馬上跟進,宣布旗下的Bing Chat已經(jīng)升級使用了OpenAI提供的
    的頭像 發(fā)表于 05-05 17:15 ?2640次閱讀

    GPT-4 Copilot X震撼來襲!AI寫代碼效率10倍提升,碼農(nóng)遭降維打擊

    來源:新智元【導讀】GPT-4加強版Copilot來了!剛剛,GitHub發(fā)布了新一代代碼生成工具GitHubCopilotX,動嘴寫代碼不再是夢。微軟真的殺瘋了!上周,微軟
    的頭像 發(fā)表于 04-04 16:35 ?919次閱讀
    <b class='flag-5'>GPT-4</b> Copilot X震撼來襲!AI寫代碼效率10倍提升,碼農(nóng)遭降維打擊

    GPT-4已經(jīng)會自己設計芯片了嗎?

    對話,紐約大學Tandon工程學院的研究人員就通過GPT-4造出了一個芯片。 具體來說,GPT-4通過來回對話,就生成了可行的Verilog。隨后將基準測試和處理器發(fā)送到Skywater 130 nm
    的頭像 發(fā)表于 06-20 11:51 ?998次閱讀
    <b class='flag-5'>GPT-4</b>已經(jīng)會自己設計芯片了嗎?

    GPT-3.5 vs GPT-4:ChatGPT Plus 值得訂閱費嗎 國內(nèi)怎么付費?

    GPT-3.5 vs GPT-4:ChatGPT Plus值得訂閱費嗎?ChatGPT Plus國內(nèi)如何付費?? ChatGPT-3.5一切都很好,但ChatGPT-4(通過ChatGPT Plus
    的頭像 發(fā)表于 08-02 12:09 ?4318次閱讀
    <b class='flag-5'>GPT</b>-3.5 vs <b class='flag-5'>GPT-4</b>:ChatGPT Plus 值得訂閱費嗎 國內(nèi)怎么付費?

    GPT-4沒有推理能力嗎?

    今年三月,OpenAI 重磅發(fā)布了 GPT-4 大模型,帶來了比 ChatGPT 背后 GPT-3.5 更強的推理、計算、邏輯能力,也引發(fā)了全民使用的熱潮。在各行各領(lǐng)域研究人員、開發(fā)者、設計師的使用過程中,「GPT-4 是最為領(lǐng)
    的頭像 發(fā)表于 08-11 14:20 ?924次閱讀
    <b class='flag-5'>GPT-4</b>沒有推理能力嗎?

    微軟Copilot(Bing Chat)將升級至GPT-4 Turbo

    微軟Copilot(Bing Chat)將升級至GPT-4 Turbo 微軟廣告和網(wǎng)絡服務負責人Mikhail Parakhin在X平臺透露,Copilot(Bing Chat)目前還在解決一些問題
    的頭像 發(fā)表于 11-28 18:37 ?1185次閱讀

    OpenAI發(fā)布的GPT-4 Turbo版本ChatGPT plus有什么功能?

    GPT-4的最新版本。OpenAI憑借承諾增強功能和成本效率的模型實現(xiàn)了巨大飛躍,為人工智能行業(yè)樹立了新標準。 我們來看看OpenAI帶來了什么: 文本圖像理解
    的頭像 發(fā)表于 12-05 17:57 ?2564次閱讀
    OpenAI發(fā)布的<b class='flag-5'>GPT-4</b> Turbo版本ChatGPT plus有什么功能?

    微軟Copilot全面更新為OpenAI的GPT-4 Turbo模型

    起初,Copilot作為Bing Chat AI助手推出,初期采用GPT-3.5模型,隨后升級至GPT-4取得顯著進步,如今再次更新至性能卓越的GPT-4 Turbo模型,這無疑將使得Copilot功能再上新臺階。
    的頭像 發(fā)表于 03-13 13:42 ?760次閱讀

    阿里云發(fā)布通義千問2.5大模型,多項能力超越GPT-4

    阿里云隆重推出了通義千問 2.5 版,宣稱其“技術(shù)進步,全面超越GPT-4”,尤其是在中文環(huán)境中的多種任務(如文本理解、文本生成、知識問答及生活建議、臨時聊天及對話以及安全風險評估)方面表現(xiàn)出色,超越了
    的頭像 發(fā)表于 05-09 14:17 ?984次閱讀