來自伯克利人工智能研究(BAIR)實驗室的研究人員開源深度學(xué)習(xí)模型 InstructPix2Pix,它可以遵循人類指令來編輯圖像。InstructPix2Pix 在合成數(shù)據(jù)上進(jìn)行訓(xùn)練,表現(xiàn)優(yōu)于基線 AI 圖像編輯模型。
BAIR 團(tuán)隊在最近舉行的 2023 年 IEEE/CVF 計算機視覺和模式識別(CVPR)大會上展示了他們的工作成果。他們先是生成了一個合成訓(xùn)練數(shù)據(jù)集,其中的訓(xùn)練樣本是成對的圖像以及用于將第一幅圖像轉(zhuǎn)換為第二幅圖像的編輯指令。該數(shù)據(jù)集用于訓(xùn)練圖像生成擴(kuò)散模型,該模型可以接受基于文本的指令來編輯圖像。例如,給定一張騎馬的人的圖片和提示詞“讓她變成騎龍”,它會輸出原始圖片,但原來的馬被替換了龍。BAIR 的研究人員的表示:
盡管模型完全是在合成樣本上進(jìn)行訓(xùn)練的,但它實現(xiàn)了對任意真實圖像和人類自然語言指令的零樣本泛化。我們的模型能夠進(jìn)行直觀的圖像編輯,可以遵循人類指令執(zhí)行多種編輯:替換對象、改變圖像風(fēng)格、修改設(shè)置、藝術(shù)媒介等。
之前的 AI 圖像編輯能力通常是進(jìn)行風(fēng)格轉(zhuǎn)換,流行的文本到圖像生成模型(如 DALL-E 和 Stable Diffusion)也支持圖像到圖像風(fēng)格轉(zhuǎn)換操作。然而,使用這些模型進(jìn)行有針對性的編輯仍然具有挑戰(zhàn)性。最近,InfoQ 報道了微軟的 Visual ChatGPT,它可以調(diào)用外部工具來編輯圖像,前提是提供編輯操作的文本描述。
為了訓(xùn)練 InstructPix2Pix,BAIR 首先創(chuàng)建了一個合成數(shù)據(jù)集。為此,團(tuán)隊在一個由輸入文字說明、編輯指令和期望輸出文字說明組成的人類文本樣本的小數(shù)據(jù)集上對 GPT-3 進(jìn)行了微調(diào)。然后,這個微調(diào)模型被給予一個大型的輸入圖像文字說明數(shù)據(jù)集,從中生成了超過 450k 次編輯和輸出文字說明。然后,團(tuán)隊將輸入和輸出文字說明饋送到預(yù)訓(xùn)練的 Prompt-to-Prompt 模型中,該模型根據(jù)文字說明生成成對的相似圖像。
InstructPix2Pix 的架構(gòu),圖片來源:https://arxiv.org/abs/2211.09800
研究人員鑒于這個數(shù)據(jù)集訓(xùn)練了基于 Stable Diffusion 的 InstructPix2Pix。為了評估其性能,團(tuán)隊將其輸出與基線模型 SDEdit 進(jìn)行了比較。他們使用兩個指標(biāo)之間的權(quán)衡:一致性(即輸入圖像和編輯后圖像的 CLIP 嵌入之間的余弦相似度)和方向相似性(即編輯后文字說明中的變化與編輯后圖像的變化在多大程度上保持一致)。在實驗中,對于給定的方向相似性值,InstructPix2Pix 產(chǎn)生的圖像比 SDEdit 具有更高的一致性。
人工智能研究員吳恩達(dá)在他的深度學(xué)習(xí)新聞郵件組“The Batch”中評價了 InstructPix2Pix:
這項工作簡化了生成和人造圖像的編輯操作,并提供了更一致的結(jié)果。巧妙地利用現(xiàn)有模型,模型作者能夠使用相對較少的人類標(biāo)記樣本在新任務(wù)上訓(xùn)練他們的模型。
InstructPix2Pix 的代碼可在 GitHub 上獲取,模型和基于 Web 的演示可在 Huggingface 上訪問。
-
Web
+關(guān)注
關(guān)注
2文章
1263瀏覽量
69470 -
人工智能
+關(guān)注
關(guān)注
1791文章
47279瀏覽量
238493 -
模型
+關(guān)注
關(guān)注
1文章
3243瀏覽量
48840 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1208瀏覽量
24701
原文標(biāo)題:伯克利 AI 實驗室開源圖像編輯模型 InstructPix2Pix,簡化生成圖像編輯并提供一致結(jié)果
文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論