0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何去解決文本到圖像生成的跨模態(tài)對比損失問題?

LiveVideoStack ? 來源:LiveVideoStack ? 作者:Google AI Blog ? 2021-06-15 10:07 ? 次閱讀

Google提出了一個跨模態(tài)對比學(xué)習(xí)框架來訓(xùn)練用于文本到圖像合成的 GAN 模型,用于研究解決生成的跨模態(tài)對比損失問題。

從文本到圖像的自動生成,如何訓(xùn)練模型僅通過一段文本描述輸入就能生成具體的圖像,是一項非常具有挑戰(zhàn)性的任務(wù)。

與其它指導(dǎo)圖像創(chuàng)建的輸入類型相比,描述性句子是一種更直觀、更靈活的視覺概念表達(dá)方式。強(qiáng)大的自動文本到圖像的生成系統(tǒng)可以成為快速、有效的內(nèi)容生產(chǎn)、制作工具,用于更多具有創(chuàng)造性的應(yīng)用當(dāng)中。

在CVPR 2021中,Google提出了一個跨模態(tài)對比生成對抗網(wǎng)絡(luò)(XMC-GAN),訓(xùn)練用于文本到圖像合成的 GAN 模型,通過模態(tài)間與模態(tài)內(nèi)的對比學(xué)習(xí)使圖像和文本之間的互信息最大化,解決文本到圖像生成的跨模態(tài)對比損失問題。

poYBAGDIDJ-AfrniAADMgxcEq1k626.jpg

XMC-GAN 文本到圖像合成模型中的模態(tài)間和模態(tài)內(nèi)對比學(xué)習(xí)

XMC-GAN 被成功應(yīng)用于三個具有挑戰(zhàn)性的數(shù)據(jù)集:一個是MS-COCO 圖像描述集合,另外兩個是用Localized Narratives注釋的數(shù)據(jù)集,一個是包括MS-COCO 圖像(稱為LN-COCO) ,另一個描述開放圖像數(shù)據(jù) (LN-OpenImages)。結(jié)果顯示 XMC-GAN生成圖像所描繪的場景相比于使用其它技術(shù)生成的圖像質(zhì)量更高,在每個方面都達(dá)到了最先進(jìn)的水平。

pYYBAGDIDI-AdQkNAAB3Ifj0XNA593.jpg

MS-COCO對圖像質(zhì)量和文本對齊的人工評估

此外,XMC-GAN還在 LN-OpenImages 上進(jìn)行了一系列訓(xùn)練和評估,這相比于 MS-COCO 更具有挑戰(zhàn)性,由于數(shù)據(jù)集更大,圖像涵蓋主題范圍更加廣泛且復(fù)雜。

對于人類評估和定量指標(biāo),XMC-GAN 在多個數(shù)據(jù)集模型中相較之前有顯著的改進(jìn)。可以生成與輸入描述非常匹配的高質(zhì)量圖像,包括更長,更詳細(xì)的敘述,同時端到端模型的復(fù)雜度也相對較為簡單,這代表了從自然語言描述生成圖像的創(chuàng)造性應(yīng)用的重大進(jìn)步。

責(zé)任編輯:lq6

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41084
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2186

    瀏覽量

    76336

原文標(biāo)題:XMC-GAN:從文本到圖像的跨模態(tài)對比學(xué)習(xí)

文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦
    熱點推薦

    如何使用離線工具od SPSDK生成完整圖像

    對我來說,完整圖像是指包含 keyblob、FCB 等的圖像。換句話說,圖像包含 0x30000000 0x30000FFF 之間的大約 4KB。 如果我理解正確,使用 SPT(以
    發(fā)表于 03-28 06:51

    一種多模態(tài)駕駛場景生成框架UMGen介紹

    端自動駕駛技術(shù)的快速發(fā)展對閉環(huán)仿真器提出了迫切需求,而生成式模型為其提供了一種有效的技術(shù)架構(gòu)。然而,現(xiàn)有的駕駛場景生成方法大多側(cè)重于圖像模態(tài)
    的頭像 發(fā)表于 03-24 15:57 ?803次閱讀
    一種多<b class='flag-5'>模態(tài)</b>駕駛場景<b class='flag-5'>生成</b>框架UMGen介紹

    ?VLM(視覺語言模型)?詳細(xì)解析

    支持生成式任務(wù)。 多模態(tài)融合 :通過模態(tài)注意力機(jī)制、投影層(如CLIP將圖像文本映射到同一空間
    的頭像 發(fā)表于 03-17 15:32 ?3230次閱讀
    ?VLM(視覺語言模型)?詳細(xì)解析

    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺效果。
    的頭像 發(fā)表于 03-12 13:49 ?727次閱讀
    使用OpenVINO GenAI和LoRA適配器進(jìn)行<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>

    ??低曃乃汛鎯ο盗校?b class='flag-5'>跨模態(tài)檢索,安防新境界

    海康威視推出的文搜存儲系列產(chǎn)品,引領(lǐng)了安防領(lǐng)域的信息檢索新革命。該產(chǎn)品憑借多模態(tài)大模型技術(shù),實現(xiàn)了自然語言與視頻圖像模態(tài)信息檢索,將安防錄像回溯帶入了全新的智能時代。 用戶只需輸入
    的頭像 發(fā)表于 02-18 14:08 ?628次閱讀

    一文詳解視覺語言模型

    視覺語言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像文本。
    的頭像 發(fā)表于 02-12 11:13 ?1592次閱讀
    一文詳解視覺語言模型

    #新年新氣象,大家新年快樂!#AIGC入門及鴻蒙入門

    ,基于擴(kuò)散模型,能夠生成與給定文本描述相符的圖像。 鴻蒙系統(tǒng)入門 1.基礎(chǔ)知識:鴻蒙系統(tǒng)(HarmonyOS)是華為推出的一款分布式操作系統(tǒng),旨在實現(xiàn)設(shè)備、
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    模型,能夠生成與給定文本描述相符的圖像。 鴻蒙系統(tǒng)入門 1. 基礎(chǔ)知識: 鴻蒙系統(tǒng)(HarmonyOS)是華為推出的一款分布式操作系統(tǒng),旨在實現(xiàn)設(shè)備、
    發(fā)表于 01-13 10:32

    淺析OpenVINO 2024.5的新功能

    ,事實上在安全、監(jiān)控或醫(yī)療保健等某些領(lǐng)域至關(guān)重要。它代表了從處理文本到處理不同輸入和生成不同形式輸出的重大演變。例如,多模態(tài)模型可以接收長視頻,并以圖像或音頻片段的形式輸出關(guān)鍵信息。
    的頭像 發(fā)表于 11-25 17:12 ?605次閱讀

    生成式AI工具作用

    生成式AI工具是指那些能夠自動生成文本、圖像、音頻、視頻等多種類型數(shù)據(jù)的人工智能技術(shù)。在此,petacloud.ai小編為您整理生成式AI工具作用。
    的頭像 發(fā)表于 10-28 11:19 ?673次閱讀

    如何使用 Llama 3 進(jìn)行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進(jìn)行文本生成,可以通過以下幾種方式實現(xiàn),取決于你是否愿意在本地運行模型或者使用現(xiàn)成的API
    的頭像 發(fā)表于 10-27 14:21 ?1009次閱讀

    AIGC與傳統(tǒng)內(nèi)容生成的區(qū)別

    AIGC : 主要面向非結(jié)構(gòu)化數(shù)據(jù)的生成,如自然語言文本、圖像、音頻、視頻等。 這類數(shù)據(jù)規(guī)模更大,內(nèi)在結(jié)構(gòu)更復(fù)雜,對處理技術(shù)提出了更高要求。 傳統(tǒng)內(nèi)容生成 : 主要處理結(jié)構(gòu)化數(shù)據(jù),如
    的頭像 發(fā)表于 10-25 15:13 ?1161次閱讀

    利用OpenVINO部署Qwen2多模態(tài)模型

    模態(tài)大模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實現(xiàn)更加智能化的信息處理。簡單來說,多模態(tài)
    的頭像 發(fā)表于 10-18 09:39 ?1119次閱讀

    Meta發(fā)布多模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了一項重要技術(shù)突破,成功推出了多模態(tài)LLAMA 3.2人工智能模型。這一創(chuàng)新模型不僅能夠深度解析文本信息,還實現(xiàn)了對圖像內(nèi)容的精準(zhǔn)理解,標(biāo)志著Meta在AI多
    的頭像 發(fā)表于 09-27 11:44 ?657次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標(biāo)志著AI圖像創(chuàng)作領(lǐng)域邁入了一個全新的高度
    的頭像 發(fā)表于 08-30 16:23 ?1538次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品