0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌大腦打造“以一當(dāng)十”的GAN:僅用10%標(biāo)記數(shù)據(jù),生成圖像卻更逼真

DPVg_AI_era ? 來源:YXQ ? 2019-03-22 08:53 ? 次閱讀

近日,谷歌大腦研究人員提出了一種基于自監(jiān)督和半監(jiān)督學(xué)習(xí)的“條件GAN”,使用的標(biāo)記數(shù)據(jù)量大降90%,生成圖像的質(zhì)量比現(xiàn)有全監(jiān)督最優(yōu)模型BigGAN高出20%(以FID得分計(jì)),有望緩解圖像生成和識(shí)別領(lǐng)域標(biāo)記數(shù)據(jù)量嚴(yán)重不足的問題。

生成對(duì)抗網(wǎng)絡(luò)(GAN)是一類強(qiáng)大的深度生成模型。GAN背后的主要思想是訓(xùn)練兩個(gè)神經(jīng)網(wǎng)絡(luò):生成器負(fù)責(zé)學(xué)習(xí)如何合成數(shù)據(jù),而判別器負(fù)責(zé)學(xué)習(xí)如何區(qū)分真實(shí)數(shù)據(jù)與生成器合成的虛假數(shù)據(jù)。目前,GAN已成功用于高保真自然圖像合成,改善學(xué)習(xí)圖像壓縮質(zhì)量,以及數(shù)據(jù)增強(qiáng)等任務(wù)。

對(duì)于自然圖像合成任務(wù)來說,現(xiàn)有的最優(yōu)結(jié)果是通過條件GAN實(shí)現(xiàn)的。與無條件GAN不同,條件GAN在訓(xùn)練期間要使用標(biāo)簽(比如汽車,狗等)。雖然數(shù)據(jù)標(biāo)記讓圖像合成任務(wù)變得更容易實(shí)現(xiàn),在性能上獲得了顯著提升,但是這種方法需要大量標(biāo)記數(shù)據(jù),而在實(shí)際任務(wù)中很少有大量標(biāo)記數(shù)據(jù)可用。

隨著ImageNet上訓(xùn)練過程的持續(xù),生成的圖像逼真度進(jìn)步明顯

谷歌大腦的研究人員在最近的《用更少的數(shù)據(jù)標(biāo)簽生成高保真圖像》中,提出了一種新方法來減少訓(xùn)練最先進(jìn)條件GAN所需的標(biāo)記數(shù)據(jù)量。文章提出結(jié)合大規(guī)模GAN的最新進(jìn)展,將高保真自然圖像合成技術(shù)與最先進(jìn)技術(shù)相結(jié)合,使數(shù)據(jù)標(biāo)記數(shù)量減少到原來的10%。

在此基礎(chǔ)上,研究人員還發(fā)布了Compare GAN庫(kù)的重大更新,其中包含了訓(xùn)練和評(píng)估現(xiàn)代GAN所需的所有組件。

利用半監(jiān)督和自監(jiān)督方式提升預(yù)測(cè)性能

條件GAN與基線BigGAN的FID分?jǐn)?shù)對(duì)比,圖中黑色豎線為BigGAN基線模型(使用全部標(biāo)記數(shù)據(jù))得分。S3GAN在僅使用10%標(biāo)記數(shù)據(jù)的情況下,得分比基線模型最優(yōu)得分高20%

在條件GAN中,生成器和判別器通常都以分類標(biāo)簽為應(yīng)用條件?,F(xiàn)在,研究人員建議使用推斷得出的數(shù)據(jù)標(biāo)簽,來替換手工標(biāo)記的真實(shí)標(biāo)簽。

上行:BigGAN全監(jiān)督式學(xué)習(xí)生成的128×128像素最優(yōu)圖像樣本。下行為S3GAN生成的圖像樣本,標(biāo)記數(shù)據(jù)量降低了90%,F(xiàn)ID得分與BigGAN表現(xiàn)相當(dāng)

為了推斷大型數(shù)據(jù)集中多數(shù)未標(biāo)記數(shù)據(jù)的高質(zhì)量標(biāo)簽,可以采取兩步方法:首先,僅使用數(shù)據(jù)集的未標(biāo)記部分來學(xué)習(xí)特征表示。

為了學(xué)習(xí)特征表示,需要利用新方法,以不同的方法利用自我監(jiān)督機(jī)制:將未標(biāo)記的圖像進(jìn)行隨機(jī)旋轉(zhuǎn),由深度卷積神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)預(yù)測(cè)旋轉(zhuǎn)角度。這背后的思路是,模型需要能夠識(shí)別主要對(duì)象及其形狀,才能在此類任務(wù)中獲得成功。

對(duì)一幅未標(biāo)記的圖像進(jìn)行隨機(jī)旋轉(zhuǎn),網(wǎng)絡(luò)的任務(wù)是預(yù)測(cè)旋轉(zhuǎn)角度。成功的模型需要捕捉有意義的語義圖像特征,這些特征可用于完成其他視覺任務(wù)

研究人員將訓(xùn)練網(wǎng)絡(luò)的一個(gè)中間層的激活模式視為輸入的新特征表示,并訓(xùn)練分類器,以使用原始數(shù)據(jù)集的標(biāo)記部分識(shí)別該輸入的標(biāo)簽。由于網(wǎng)絡(luò)經(jīng)過預(yù)訓(xùn)練,可以從數(shù)據(jù)中提取具有語義意義的特征,因此,訓(xùn)練此分類器比從頭開始訓(xùn)練整個(gè)網(wǎng)絡(luò)更具樣本效率。最后使用分類器對(duì)未標(biāo)記的數(shù)據(jù)進(jìn)行標(biāo)記。

為了進(jìn)一步提高模型質(zhì)量和訓(xùn)練的穩(wěn)定性,最好讓判別器網(wǎng)絡(luò)學(xué)習(xí)有意義的特征表示。通過這些改進(jìn)手段,在加上大規(guī)模的訓(xùn)練,使得新的條件GAN在ImageNet圖像合成任務(wù)上達(dá)到了最優(yōu)性能。

給定潛在向量,由生成器網(wǎng)絡(luò)生成圖像。在每行中,最左側(cè)和最右側(cè)圖像的潛在代碼之間的線性插值導(dǎo)致圖像空間中的語義插值

CompareGAN:用于訓(xùn)練和評(píng)估GAN的庫(kù)

對(duì)GAN的前沿研究在很大程度上依賴于經(jīng)過精心設(shè)計(jì)和測(cè)試的代碼庫(kù),即使只是復(fù)制或再現(xiàn)先前的結(jié)果和技術(shù),也需要付出巨大努力。

為了促進(jìn)開放科學(xué)并讓研究界從最近的進(jìn)步中獲益,研究人員發(fā)布了Compare GAN庫(kù)的重大更新。該庫(kù)包括現(xiàn)代GAN中常用的損失函數(shù),正則化和歸一化方案,神經(jīng)架構(gòu)和量化指標(biāo),現(xiàn)已支持:

GPU和TPU訓(xùn)練

通過Gin進(jìn)行輕量級(jí)配置(含實(shí)例)

通過TensorFlow數(shù)據(jù)集庫(kù)提供大量數(shù)據(jù)集

未來方向:自監(jiān)督學(xué)習(xí)會(huì)讓GAN更強(qiáng)大

由于標(biāo)記數(shù)據(jù)源和未標(biāo)記數(shù)據(jù)源之間的差距越來越大,讓模型具備從部分標(biāo)記的數(shù)據(jù)中學(xué)習(xí)的能力變得越來越重要。

目前來看,自監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)的簡(jiǎn)單而有力的結(jié)合,有助于縮小GAN的這一現(xiàn)實(shí)差距。自監(jiān)督是一個(gè)值得研究的領(lǐng)域,值得在該領(lǐng)域開展面向其他生成建模任務(wù)的研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6171

    瀏覽量

    105488
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1943

    瀏覽量

    73585

原文標(biāo)題:谷歌大腦打造“以一當(dāng)十”的GAN:僅用10%標(biāo)記數(shù)據(jù),生成圖像卻更逼真

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢(shì)可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3 模型根據(jù)這些提示生成高質(zhì)量的圖像
    的頭像 發(fā)表于 01-03 10:38 ?224次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen模型<b class='flag-5'>生成</b>高質(zhì)量<b class='flag-5'>圖像</b>

    沃達(dá)豐與谷歌深化年戰(zhàn)略合作

    沃達(dá)豐近日宣布,其與全球科技巨頭谷歌的戰(zhàn)略合作伙伴關(guān)系得到了進(jìn)步深化。這為期年的協(xié)議,總價(jià)值超過10億美元,旨在將
    的頭像 發(fā)表于 10-09 16:22 ?268次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這里程碑式的發(fā)布標(biāo)志著AI圖像創(chuàng)作領(lǐng)域邁入了
    的頭像 發(fā)表于 08-30 16:23 ?1145次閱讀

    深入理解渲染引擎:打造逼真圖像的關(guān)鍵

    在數(shù)字世界中,圖像渲染是創(chuàng)造逼真視覺效果的核心技術(shù)。渲染引擎,作為這過程中的關(guān)鍵組件,負(fù)責(zé)將二維或三維的模型、紋理、光照等數(shù)據(jù)轉(zhuǎn)化為人們?nèi)庋劭梢姷亩S
    的頭像 發(fā)表于 06-29 08:28 ?337次閱讀
    深入理解渲染引擎:<b class='flag-5'>打造</b><b class='flag-5'>逼真</b><b class='flag-5'>圖像</b>的關(guān)鍵

    谷歌發(fā)布AI文生圖大模型Imagen

    近日,谷歌在人工智能領(lǐng)域取得新突破,正式推出了Imagen文生圖模型。這款模型以其卓越的細(xì)節(jié)調(diào)整功能、逼真的光線效果以及從草圖快速生成高分辨率圖像的能力,引起了業(yè)界的廣泛關(guān)注。
    的頭像 發(fā)表于 05-16 09:30 ?537次閱讀

    谷歌發(fā)布Imagen 3,提升圖像文本生成技術(shù)

    已為谷歌人工智能研究所DeepMind掌門人的德米斯·哈薩比斯指出,相比于前款I(lǐng)magen 2,Image 3能夠更加精準(zhǔn)地解碼文字提示信息,并據(jù)此創(chuàng)建出更有創(chuàng)造力、細(xì)節(jié)豐富且出錯(cuò)率較低的圖像。
    的頭像 發(fā)表于 05-15 11:24 ?693次閱讀

    OpenAI發(fā)布圖像檢測(cè)分類器,可區(qū)分AI生成圖像與實(shí)拍照片

    據(jù)OpenAI介紹,初步測(cè)試結(jié)果表明,該分類器在辨別非AI生成圖像與DALL·E 3生成圖像時(shí),成功率高達(dá)近98%,僅有不到0.5%的非AI圖像
    的頭像 發(fā)表于 05-09 09:57 ?473次閱讀

    深度學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)(GAN)全解析

    GANs真正的能力來源于它們遵循的對(duì)抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成器被它生成圖像所推動(dòng)著進(jìn)行訓(xùn)練,很難知道生成
    發(fā)表于 03-29 14:42 ?4610次閱讀
    深度學(xué)習(xí)<b class='flag-5'>生成</b>對(duì)抗網(wǎng)絡(luò)(<b class='flag-5'>GAN</b>)全解析

    麻省理工與Adobe新技術(shù)DMD提升圖像生成速度

    2023年3月27日,據(jù)傳,新型文生圖算法雖然使得圖像生成無比逼真,但奈何運(yùn)行速度較慢。近期,美國(guó)麻省理工學(xué)院聯(lián)合Adobe推出新型DMD方法,僅略微犧牲圖像質(zhì)量就大幅度提高
    的頭像 發(fā)表于 03-27 14:17 ?527次閱讀

    谷歌計(jì)劃重新推出改進(jìn)后的Gemini AI模型人像生成功能

    谷歌DeepMind的首席執(zhí)行官德米斯·哈薩比斯在2月26日透露,公司計(jì)劃在接下來的幾周內(nèi)重新發(fā)布其備受關(guān)注的Gemini AI模型人像生成功能。此前,由于在某些歷史圖像生成描述中出現(xiàn)
    的頭像 發(fā)表于 02-28 10:17 ?608次閱讀

    谷歌暫停Gemini人像生成服務(wù)

    盡管谷歌團(tuán)隊(duì)于今年初就推介了這個(gè)GPU加速的人臉生成項(xiàng)目,但仍有部分用戶反映出生成的歷史名人形象存在著錯(cuò)誤,因此決定實(shí)行技術(shù)停擺,并謀劃對(duì)這功能進(jìn)行調(diào)整和優(yōu)化。
    的頭像 發(fā)表于 02-27 14:16 ?510次閱讀

    谷歌Gemini AI模型因人物圖像生成問題暫停運(yùn)行

    據(jù)報(bào)道,部分用戶發(fā)現(xiàn)Gemini生成的圖片存在明顯錯(cuò)誤,如特斯拉創(chuàng)始人和其他名人變成了黑人模樣。谷歌已決定暫停該模型的人物圖像生成功能以待改善。
    的頭像 發(fā)表于 02-25 09:59 ?596次閱讀

    谷歌地圖引入生成式AI功能

    谷歌近日宣布,在其廣受歡迎的谷歌地圖應(yīng)用中引入了全新的生成式AI功能。這創(chuàng)新功能利用大型模型,深入分析了地圖上超過2.5億個(gè)地點(diǎn)的詳細(xì)信息,并結(jié)合了超過3億貢獻(xiàn)者的社區(qū)意見,為用戶提
    的頭像 發(fā)表于 02-06 16:42 ?5086次閱讀

    谷歌推出圖像生成新工具ImageFX,提升圖像質(zhì)量

    作為實(shí)驗(yàn)室的新興工具,ImageFX 允許用戶借助簡(jiǎn)潔的文字指令來創(chuàng)作圖像。經(jīng)過前期試驗(yàn),該團(tuán)隊(duì)認(rèn)為對(duì)生成型人工智能工具來說最關(guān)鍵的是如何啟發(fā)并鼓勵(lì)用戶挖掘和實(shí)踐創(chuàng)意想法。
    的頭像 發(fā)表于 02-02 14:18 ?686次閱讀

    二值圖像連通區(qū)域的標(biāo)記原理

    二值圖像種由黑白兩色組成的圖像,其像素值只有兩種可能,分別對(duì)應(yīng)黑色和白色。在二值圖像中,連通區(qū)域是指塊相鄰的、像素值相同的區(qū)域。為了對(duì)
    的頭像 發(fā)表于 01-05 14:28 ?873次閱讀