0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

太秀了!DeepMind推出最強(qiáng)表示學(xué)習(xí)模型BigBiGAN

DPVg_AI_era ? 來源:lq ? 2019-07-13 08:01 ? 次閱讀

今天,DeepMind爆出一篇重磅論文,引發(fā)學(xué)術(shù)圈熱烈反響:基于最強(qiáng)圖像生成器BigGAN,打造了BigBiGAN,在無監(jiān)督表示學(xué)習(xí)和圖像生成方面均實(shí)現(xiàn)了最先進(jìn)的性能!Ian Goodfellow也稱贊“太酷了!”

GAN在圖像合成方面一次次讓人們驚嘆不已!

例如,被稱為史上最強(qiáng)圖像生成器的BigGAN——許多人看到BigGAN生成的圖像都要感嘆“太逼真了!DeepMind太秀了吧!”

BigGAN生成的逼真圖像

這不是最秀的。今天,DeepMind的一篇新論文再次引發(fā)學(xué)術(shù)圈熱烈反響,論文題為《大規(guī)模對抗性表示學(xué)習(xí)》。

論文鏈接:

https://arxiv.org/pdf/1907.02544.pdf

在這篇論文中,DeepMind基于最先進(jìn)的BigGAN模型構(gòu)建了BigBiGAN模型,通過添加編碼器和修改鑒別器將其擴(kuò)展到表示學(xué)習(xí)。

BigBiGAN表明,“圖像生成質(zhì)量的進(jìn)步轉(zhuǎn)化為了表示學(xué)習(xí)性能的顯著提高”。

研究人員廣泛評估了BigBiGAN模型的表示學(xué)習(xí)和生成性能,證明這些基于生成的模型在ImageNet上的無監(jiān)督表示學(xué)習(xí)和無條件圖像生成方面都達(dá)到了state of the art的水平。

這篇論文在Twitter上引發(fā)很大反響。GAN發(fā)明人Ian Goodfellow說:“很有趣,又回到了表示學(xué)習(xí)。我讀PhD期間,我和大多數(shù)合作者都對作為樣本生成的副產(chǎn)品的表示學(xué)習(xí)很感興趣,而不是樣本生成本身。”

Goodfellow說:“當(dāng)年我們在寫最初的GAN論文時,我的合著者@dwf(David Warde-Farley)試圖得到一些類似于BiGAN的東西,用于表示學(xué)習(xí)。5年后看到這一成果,我覺得太酷了?!?/p>

Andrej Karpathy也說:“無監(jiān)督/自監(jiān)督學(xué)習(xí)是一個非常豐富的領(lǐng)域,它將消除目前對大規(guī)模數(shù)據(jù)集的必要性.”

總結(jié)而言,這篇論文展示了GAN可以用于無監(jiān)督表示學(xué)習(xí),并在ImageNet上獲得了最先進(jìn)的結(jié)果。

下面是BigBiGAN生成的一些重建樣本,可以看到,重建是傾向于強(qiáng)調(diào)高級語義,而不是像素級的細(xì)節(jié)。

下面,新智元帶來對這篇論文的詳細(xì)解讀。

基于BigGAN打造BigBiGAN:學(xué)習(xí)高級語義,而非細(xì)節(jié)

近年來,我們已經(jīng)看到視覺數(shù)據(jù)生成模型的快速發(fā)展。雖然這些模型以前局限于模式單一或少模式、結(jié)構(gòu)簡單、分辨率低的領(lǐng)域,但隨著建模和硬件的進(jìn)步,它們已經(jīng)獲得了令人信服地生成復(fù)雜、多模態(tài)、高分辨率圖像分布的能力。

直觀地說,在特定域中生成數(shù)據(jù)的能力需要高度理解所述域的語義。這一想法長期以來頗具吸引力,因為原始數(shù)據(jù)既便宜——可以從互聯(lián)網(wǎng)等來源獲得幾乎無限的供應(yīng)——又豐富,圖像包含的信息遠(yuǎn)遠(yuǎn)超過典型的機(jī)器學(xué)習(xí)模型訓(xùn)練用來預(yù)測的類別標(biāo)簽。

然而,盡管生成模型取得的進(jìn)展不可否認(rèn),但仍然存在一些令人困擾的問題:這些模型學(xué)到了什么語義,以及如何利用它們進(jìn)行表示學(xué)習(xí)?

僅憑原始數(shù)據(jù)就能真正理解生成這個夢想幾乎不可能實(shí)現(xiàn)。相反,最成功的無監(jiān)督學(xué)習(xí)方法利用了監(jiān)督學(xué)習(xí)領(lǐng)域的技術(shù),這是一種被稱為自監(jiān)督學(xué)習(xí)(self-supervised learnin)的方法。

這些方法通常涉及以某種方式更改或保留數(shù)據(jù)的某些方面,并訓(xùn)練模型來預(yù)測或生成缺失信息的某些方面。

例如,Richard Zhang等人的研究(CVPR 2016)提出了一種非監(jiān)督學(xué)習(xí)的圖像著色方法,在這種方法中,模型被給予輸入圖像中顏色通道的子集,并經(jīng)過訓(xùn)練來預(yù)測缺失的通道。

作為無監(jiān)督學(xué)習(xí)手段的生成模型為self-supervised的任務(wù)提供了一個很有吸引力的替代方案,因為它們經(jīng)過訓(xùn)練,可以對整個數(shù)據(jù)分布建模,而不需要修改原始數(shù)據(jù)。

GAN是一類應(yīng)用于表示學(xué)習(xí)的生成模型。GAN框架中的生成器是一個從隨機(jī)采樣的潛在變量(也稱為“噪聲”)到生成數(shù)據(jù)的前饋映射,其中學(xué)習(xí)信號由經(jīng)過訓(xùn)練的鑒別器提供,用來區(qū)分真實(shí)數(shù)據(jù)和生成的數(shù)據(jù)樣本,引導(dǎo)生成器的輸出跟隨數(shù)據(jù)分布。

作為GAN框架的擴(kuò)展,Vincent Dumoulin等人(ICLR 2017)提出adversarially learned inference(ALI)[7],或Jeff Donahue等人(ICLR 2017)提出bidirectional GAN (BiGAN)[4]方法,這些方法通過編碼器模塊將實(shí)際數(shù)據(jù)映射到潛在數(shù)據(jù)(與生成器學(xué)習(xí)的映射相反)來增強(qiáng)標(biāo)準(zhǔn)GAN。

在最優(yōu)判別器的極限下,[4]論文表明確定性BiGAN的行為類似于自編碼器,最大限度地降低了重建成本l?;然而,重建誤差曲面的形狀是由參數(shù)鑒別器決定的,而不是像誤差l?這樣的簡單像素級度量。

由于鑒別器通常是一個功能強(qiáng)大的神經(jīng)網(wǎng)絡(luò),我們希望它能產(chǎn)生一個誤差曲面,在重建時強(qiáng)調(diào)“語義”誤差,而不是強(qiáng)調(diào)低層次的細(xì)節(jié)。

BigBiGAN重建的更多圖像

論文證明了通過BiGAN或ALI框架學(xué)習(xí)的編碼器是在ImageNet上學(xué)習(xí)下游任務(wù)的一種有效的視覺表示方法。然而,它使用了DCGAN風(fēng)格的生成器,無法在這個數(shù)據(jù)集上生成高質(zhì)量的圖像,因此編碼器能夠建模的語義也相當(dāng)有限。

在這項工作中,我們再次使用BigGAN作為生成器,這是一個能夠捕獲ImageNet圖像中的許多模式和結(jié)構(gòu)的先進(jìn)模型。我們的貢獻(xiàn)如下:

我們證明了BigBiGAN (BiGAN with BigGAN generator)與ImageNet上無監(jiān)督表示學(xué)習(xí)的最先進(jìn)技術(shù)相匹敵。

我們?yōu)锽igBiGAN提出了一個更穩(wěn)定的聯(lián)合鑒別器。

我們對模型設(shè)計選擇進(jìn)行了全面的實(shí)證分析和消融研究。

我們證明,表示學(xué)習(xí)目標(biāo)還有助于無條件生成圖像,并展示了無條件生成ImageNet的最先進(jìn)結(jié)果。

BigBiGAN框架的結(jié)構(gòu)

BigBiGAN框架的結(jié)構(gòu)

BigBiGAN框架的結(jié)構(gòu)如上圖所示。

聯(lián)合判別器D用于計算損失l。其輸入是data-latent pairs,可以是從數(shù)據(jù)分布和編碼器輸出采樣的,或從生成器G輸入和潛在分布采樣的?。損失l包括一元數(shù)據(jù)項和一元潛在項,以及將數(shù)據(jù)和潛在分布聯(lián)系起來的共同項。

評估和結(jié)果:表示學(xué)習(xí)、圖像生成實(shí)現(xiàn)最優(yōu)性能

表示學(xué)習(xí)

我們現(xiàn)在從上述簡化學(xué)習(xí)結(jié)果中獲取基于train-val分類精度的最優(yōu)模型,在官方ImageNet驗證集上得出結(jié)果,并與最近的無監(jiān)督學(xué)習(xí)研究文獻(xiàn)中的現(xiàn)有技術(shù)水平進(jìn)行比較。

為了進(jìn)行這些比較,我們還提供了基于規(guī)模較小的ResNet-50的最佳性能GAN變種的分類結(jié)果。詳細(xì)比較結(jié)果在表2中給出。

與當(dāng)前許多自監(jiān)督學(xué)習(xí)方法相比,本文中采用的純基于生成模型的BigBiGAN方法在表示學(xué)習(xí)方面表現(xiàn)良好,在最近的無監(jiān)督學(xué)習(xí)任務(wù)上的表現(xiàn)達(dá)到了SOTA 水平,最近公布的結(jié)果顯示,本文中的方法在使用表2的AvePool相同的表示學(xué)習(xí)架構(gòu)和特征的旋轉(zhuǎn)預(yù)測預(yù)訓(xùn)練任務(wù)中,將top-1精度由55.4%提高到60.8%。

表1:多個BigBiGAN變體的性能結(jié)果,在生成圖像的初始分?jǐn)?shù)(IS)和Fréchet初始距離(FID),監(jiān)督式邏輯回歸分類器ImageNet top-1精度百分比(Cls。)由編碼器特征訓(xùn)練,并基于從訓(xùn)練集中隨機(jī)抽樣的10K圖像進(jìn)行分割計算,我們將其稱為“train-val”分割。

表2:在官方ImageNet驗證集上對BigBiGAN模型與最近的基于監(jiān)督式邏輯回歸分類器的其他方法的對比。

表3:我們的BigBiGAN與無監(jiān)督(無條件)生成方法、以及之前報告的無監(jiān)督BigGAN的性能結(jié)果對比。

無監(jiān)督式圖像生成

表3所示為BigBiGAN進(jìn)行無監(jiān)督生成的結(jié)果,與基于BigGAN的無監(jiān)督生成結(jié)果做比較。請注意,這些結(jié)果與表1中的結(jié)果不同,因為使用的是數(shù)據(jù)增強(qiáng)方法(而非表1中的用于所有結(jié)果的ResNet樣式預(yù)處理方法)。

這些結(jié)果表明,BigBiGAN顯著提升了以IS和FID為量度的基線無條件BigGAN生成結(jié)果的性能。

圖2:從無監(jiān)督的BigBiGAN模型中選擇的圖像重建結(jié)果。上面一行的圖像是真實(shí)圖像(x~Px),下面一行圖像是由G(E(x))計算出的這些圖像的重建結(jié)果。與大多數(shù)顯式重建成本(例如像素數(shù)量)不同,由(Big)BiGAN 實(shí)現(xiàn)隱式最小化的重建成本更多傾向于強(qiáng)調(diào)圖像的語義及其他更高級的細(xì)節(jié)。

圖像重建:更偏重高級語義,而非像素細(xì)節(jié)

圖2中所示的圖像重建在像素上遠(yuǎn)達(dá)不到完美,可能部分原因是目標(biāo)沒有明確強(qiáng)制執(zhí)行重建成本,在訓(xùn)練時甚至對重建模型進(jìn)行計算。然而,它們可以為編碼器ε學(xué)習(xí)建模的特征提供一些幫助。

比如,當(dāng)輸入圖像中包含狗、人或食物時,重建結(jié)果通常是姿勢、位置和紋理等相同特征“類別”的不同實(shí)例。例如,臉朝同一方向的另一只類似的狗。重建結(jié)果傾向于保留輸入的高級語義,而不是低級細(xì)節(jié),這表明BigBiGAN的訓(xùn)練在鼓勵編碼器對前者進(jìn)行建模,而不是后者。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3643

    瀏覽量

    134510
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1084

    瀏覽量

    40461
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    130

    瀏覽量

    10863

原文標(biāo)題:DeepMind爆出無監(jiān)督表示學(xué)習(xí)模型BigBiGAN,GAN之父點(diǎn)贊!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    大語言模型:原理與工程時間+小白初識大語言模型

    解鎖 我理解的是基于深度學(xué)習(xí),需要訓(xùn)練各種數(shù)據(jù)知識最后生成自己的的語言理解和能力的交互模型。 對于常說的RNN是處理短序列的數(shù)據(jù)時表現(xiàn)出色,耳真正厲害的是Transformer,此框架被推出后直接
    發(fā)表于 05-12 23:57

    未來的AI 深挖谷歌 DeepMind 和它背后的技術(shù)

    學(xué)習(xí)從非結(jié)構(gòu)化數(shù)據(jù)中學(xué)習(xí)來編寫分析報告或執(zhí)行無人監(jiān)督的任務(wù)。所有這些發(fā)展都為不同的公司發(fā)揮作用并證明他們的價值奠定基礎(chǔ)。因此,很多像DeepMind這樣的公司成立了,來繼續(xù)發(fā)展這一領(lǐng)
    發(fā)表于 08-26 12:04

    機(jī)器學(xué)習(xí)如何賦能風(fēng)力發(fā)電?DeepMind 做了以下嘗試 精選資料推薦

    谷歌 DeepMind 博客昨日更新一篇關(guān)于機(jī)器學(xué)習(xí)如何賦能風(fēng)力發(fā)電的文章,詳細(xì)介紹谷歌全球可再生能源項目中針對風(fēng)電場的機(jī)器學(xué)習(xí)實(shí)驗結(jié)果,雷鋒網(wǎng)(公眾號:雷鋒網(wǎng)) AI 科技評論將之
    發(fā)表于 07-12 07:41

    !小學(xué)生都開始學(xué)習(xí)華為鴻蒙?

    活到老學(xué)到老,學(xué)習(xí)是人的一生之題。鴻蒙從誕生發(fā)展至今,也有不少開發(fā)者或小白接觸鴻蒙,開始不斷探索這個新世界。但我萬萬沒想到,現(xiàn)在連小學(xué)生都開始加入鴻蒙的世界!在華為開發(fā)者大會上,一群小學(xué)生在“智慧
    發(fā)表于 10-29 14:41

    基于邊采樣的網(wǎng)絡(luò)表示學(xué)習(xí)模型

    近年來,以微博、微信、Facebook為代表的社交網(wǎng)絡(luò)不斷發(fā)展,網(wǎng)絡(luò)表示學(xué)習(xí)引起了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注.傳統(tǒng)的網(wǎng)絡(luò)表示學(xué)習(xí)模型利用圖矩陣
    發(fā)表于 12-18 10:17 ?0次下載
    基于邊采樣的網(wǎng)絡(luò)<b class='flag-5'>表示</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    DeepMind攜手Unity,加速機(jī)器學(xué)習(xí)和人工智能研究

    2014年被谷歌收購的英國人工智能公司DeepMind部門與Unity合作,加速機(jī)器學(xué)習(xí)和人工智能(AI)研究。該合作將重點(diǎn)關(guān)注DeepMind和其他人可用于測試和可視化實(shí)驗算法的“虛擬環(huán)境”。
    發(fā)表于 09-28 10:43 ?1349次閱讀

    谷歌、DeepMind重磅推出PlaNet 強(qiáng)化學(xué)習(xí)新突破

    Google AI 與 DeepMind 合作推出深度規(guī)劃網(wǎng)絡(luò) (PlaNet),這是一個純粹基于模型的智能體,能從圖像輸入中學(xué)習(xí)世界模型,
    的頭像 發(fā)表于 02-17 09:30 ?3341次閱讀
    谷歌、<b class='flag-5'>DeepMind</b>重磅<b class='flag-5'>推出</b>PlaNet 強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>新突破

    BigBiGAN問世,“GAN父”都說酷的無監(jiān)督表示學(xué)習(xí)模型有多優(yōu)秀?

    BigBiGAN是一種純粹基于生成模型的無監(jiān)督學(xué)習(xí)方法,它在ImageNet上實(shí)現(xiàn)圖像表示學(xué)習(xí)
    的頭像 發(fā)表于 07-11 15:48 ?2786次閱讀

    谷歌和DeepMind研究人員合作提出新的強(qiáng)化學(xué)習(xí)方法Dreamer 可利用世界模型實(shí)現(xiàn)高效的行為學(xué)習(xí)

    近年來隨著強(qiáng)化學(xué)習(xí)的發(fā)展,使得智能體選擇恰當(dāng)行為以實(shí)現(xiàn)目標(biāo)的能力得到迅速地提升。目前研究領(lǐng)域主要使用兩種方法:一種是無模型(model-free)的強(qiáng)化學(xué)習(xí)方法,通過試錯的方式來學(xué)習(xí)預(yù)
    發(fā)表于 03-26 11:41 ?1974次閱讀

    基于LSTM的表示學(xué)習(xí)-文本分類模型

    分類的關(guān)鍵。為了獲得妤的文本表示,提高文本分類性能,構(gòu)建了基于LSTM的表示學(xué)習(xí)-文本分類模型,其中表示
    發(fā)表于 06-15 16:17 ?18次下載

    語言模型做先驗,統(tǒng)一強(qiáng)化學(xué)習(xí)智能體,DeepMind選擇走這條通用AI之路

    在智能體的開發(fā)中,強(qiáng)化學(xué)習(xí)與大語言模型、視覺語言模型等基礎(chǔ)模型的進(jìn)一步融合究竟能擦出怎樣的火花?谷歌 DeepMind 給了我們新的答案。
    的頭像 發(fā)表于 07-24 16:55 ?535次閱讀
    語言<b class='flag-5'>模型</b>做先驗,統(tǒng)一強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>智能體,<b class='flag-5'>DeepMind</b>選擇走這條通用AI之路

    谷歌DeepMind發(fā)布機(jī)器人大模型RT-2,提高泛化與涌現(xiàn)能力

    7月28日,谷歌DeepMind推出了一款新的機(jī)器人模型Robotics Transformer 2(RT-2)。
    發(fā)表于 08-02 14:22 ?452次閱讀
    谷歌<b class='flag-5'>DeepMind</b>發(fā)布機(jī)器人大<b class='flag-5'>模型</b>RT-2,提高泛化與涌現(xiàn)能力

    再登Nature!DeepMind模型突破60年數(shù)學(xué)難題,解法超出人類已有認(rèn)知

    用大模型解決困擾數(shù)學(xué)家60多年的問題,谷歌DeepMind最新成果再登 Nature。 作者之一、谷歌DeepMind研究副總裁Pushmeet Kohli表示: 訓(xùn)練數(shù)據(jù)中不會有這個
    的頭像 發(fā)表于 12-24 21:40 ?538次閱讀
    再登Nature!<b class='flag-5'>DeepMind</b>大<b class='flag-5'>模型</b>突破60年數(shù)學(xué)難題,解法超出人類已有認(rèn)知

    谷歌DeepMind推新AI模型Genie,能生成2D游戲平臺

    據(jù)報道,谷歌公司的DeepMind團(tuán)隊近期發(fā)布AI模型Genie,此模型擁有多達(dá)110億個參數(shù),能夠依據(jù)用戶提供的圖片及提示詞創(chuàng)建出相當(dāng)完整的2D游戲場景。
    的頭像 發(fā)表于 02-27 14:53 ?783次閱讀

    谷歌DeepMind推出新一代藥物研發(fā)AI模型AlphaFold 3

    谷歌DeepMind公司近日重磅推出了一款名為AlphaFold 3的全新藥物研發(fā)AI模型,這一創(chuàng)新技術(shù)將為科學(xué)家們提供前所未有的幫助,使他們能更精確地理解疾病機(jī)制,進(jìn)而開發(fā)出更高效的治療藥物。
    的頭像 發(fā)表于 05-10 09:35 ?396次閱讀