0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌MIT最新研究證明:高質(zhì)量數(shù)據(jù)獲取不難,大模型就是歸途

CVer ? 來(lái)源:新智元 ? 2024-01-15 15:40 ? 次閱讀

【導(dǎo)讀】數(shù)據(jù)獲取最新解,便是從生成模型中學(xué)習(xí)。

獲取高質(zhì)量數(shù)據(jù),已經(jīng)成為當(dāng)前大模型訓(xùn)練的一大瓶頸。

前幾天,OpenAI被《紐約時(shí)報(bào)》起訴,并要求索賠數(shù)十億美元。訴狀中,列舉了GPT-4抄襲的多項(xiàng)罪證。

甚至,《紐約時(shí)報(bào)》還呼吁摧毀幾乎所有的GPT等大模型。

236ef1be-b365-11ee-8b88-92fbcf53809c.png

一直以來(lái),AI界多位大佬認(rèn)為「合成數(shù)據(jù)」或許是解決這個(gè)問(wèn)題的最優(yōu)解。

237c6ace-b365-11ee-8b88-92fbcf53809c.png

此前,谷歌團(tuán)隊(duì)還提出了用LLM代替人類標(biāo)記偏好的方法RLAIF,效果甚至不輸人類。

23821e7e-b365-11ee-8b88-92fbcf53809c.png

現(xiàn)如今,谷歌MIT的研究人員發(fā)現(xiàn),從大模型中學(xué)習(xí)可以得到使用真實(shí)數(shù)據(jù)訓(xùn)練的最佳模型的表征。

這一最新方法稱SynCLR,一種完全從合成圖像和合成描述學(xué)習(xí)虛擬表征的方法,無(wú)需任何真實(shí)數(shù)據(jù)。

23864198-b365-11ee-8b88-92fbcf53809c.png

論文地址:https://arxiv.org/abs/2312.17742

實(shí)驗(yàn)結(jié)果表明,通過(guò)SynCLR方法學(xué)習(xí)到的表征,能夠與OpenAI的CLIP在ImageNet 上的傳輸效果一樣好。

238a48a6-b365-11ee-8b88-92fbcf53809c.png

從生成模型中學(xué)習(xí)

目前表現(xiàn)最好的「視覺(jué)表征」學(xué)習(xí)方法依賴于大規(guī)模的實(shí)際數(shù)據(jù)集。然而,真實(shí)數(shù)據(jù)的收集卻有不少的困難。

為了降低收集數(shù)據(jù)的成本,研究人員本文中提出了一個(gè)問(wèn)題:

從現(xiàn)成的生成模型中采樣的合成數(shù)據(jù),是否是一條通往大規(guī)模策劃數(shù)據(jù)集的可行之路,從而訓(xùn)練出最先進(jìn)的視覺(jué)表征?

2394f6fc-b365-11ee-8b88-92fbcf53809c.png

與直接從數(shù)據(jù)中學(xué)習(xí)不同,谷歌研究人員稱這種模式為「從模型中學(xué)習(xí)」。作為建立大規(guī)模訓(xùn)練集的數(shù)據(jù)源,模型有幾個(gè)優(yōu)勢(shì):

- 通過(guò)其潛在變量、條件變量和超參數(shù),為數(shù)據(jù)管理提供了新的控制方法。

- 模型也更容易共享和存儲(chǔ)(因?yàn)槟P捅葦?shù)據(jù)更容易壓縮),并且可以產(chǎn)生無(wú)限數(shù)量的數(shù)據(jù)樣本。

越來(lái)越多的文獻(xiàn)研究了生成模型的這些特性和其他優(yōu)點(diǎn)和缺點(diǎn),并將其作為訓(xùn)練下游模型的數(shù)據(jù)源。

其中一些方法采用混合模式,即混合真實(shí)數(shù)據(jù)集和合成數(shù)據(jù)集,或需要一個(gè)真實(shí)數(shù)據(jù)集來(lái)生成另一個(gè)合成數(shù)據(jù)集。

其他方法試圖從純粹的「合成數(shù)據(jù)」中學(xué)習(xí)表征,但遠(yuǎn)遠(yuǎn)落后于表現(xiàn)最好的模型。

論文中,研究人員提出的最新方法,使用生成模型重新定義可視化類的粒度。

如圖2所示,使用2個(gè)提示生成了四張圖片「一只戴著墨鏡和沙灘帽的金毛獵犬騎著自行車」和「一只可愛(ài)的金毛獵犬坐在壽司做成的房子里」。

2398edf2-b365-11ee-8b88-92fbcf53809c.png

傳統(tǒng)的自監(jiān)督方法(如Sim-CLR)會(huì)將這些圖像視為不同的類,不同圖像的嵌入會(huì)被分開(kāi),而不會(huì)明確考慮圖像之間的共享語(yǔ)義。

另一個(gè)極端是,監(jiān)督學(xué)習(xí)方法(即SupCE)會(huì)將所有這些圖像視為單一類(如「金毛獵犬」)。這就忽略了這些圖像在語(yǔ)義上的細(xì)微差別,例如在一對(duì)圖像中狗在騎自行車,而在另一對(duì)圖像中狗坐在壽司屋內(nèi)。

相反,SynCLR方法將描述視為類,即每個(gè)描述一個(gè)可視化類。

這樣,我們就可以按照「騎自行車」和「坐在壽司店里」這兩個(gè)概念對(duì)圖片進(jìn)行分組。

這種粒度很難在真實(shí)數(shù)據(jù)中挖掘,因?yàn)槭占山o定描述的多張圖片并非易事,尤其是當(dāng)描述數(shù)量增加時(shí)。

然而,文本到圖像的擴(kuò)散模型從根本上就具備這種能力。

只需對(duì)相同的描述設(shè)定條件,并使用不同的噪聲輸入,文本到圖像的擴(kuò)散模型就能生成與相同描述相匹配的不同圖像。

具體來(lái)說(shuō),作者研究了在沒(méi)有真實(shí)圖像或文本數(shù)據(jù)的情況下,學(xué)習(xí)視覺(jué)編碼器的問(wèn)題。

最新方法依賴3個(gè)關(guān)鍵資源的利用:一個(gè)語(yǔ)言生成模型(g1),一個(gè)文本到圖像的生成模型(g2),以及一個(gè)經(jīng)過(guò)整理的視覺(jué)概念列表(c)。

前處理包括三個(gè)步驟:

(1)使用(g1)合成一組全面的圖像描述T,其中涵蓋了C中的各種視覺(jué)概念;

(2)對(duì)于T中的每個(gè)標(biāo)題,使用(g2)生成多個(gè)圖像,最終生成一個(gè)廣泛的合成圖像數(shù)據(jù)集X;

(3)在X上進(jìn)行訓(xùn)練,以獲得視覺(jué)表示編碼器f。

然后,分別使用llama-27b和Stable Diffusion 1.5作為(g1)和(g2),因?yàn)槠渫评硭俣群芸臁?/p>

合成描述

為了利用強(qiáng)大的文本到圖像模型的能力,來(lái)生成大量的訓(xùn)練圖像數(shù)據(jù)集,首先需要一個(gè)不僅精確描述圖像而且展示多樣性的描述集合,以包含廣泛的視覺(jué)概念。

對(duì)此,作者開(kāi)發(fā)了一種可擴(kuò)展的方法來(lái)創(chuàng)建如此大量的描述集,利用大模型的上下文學(xué)習(xí)能力。

如下展示了三個(gè)合成模板的示例。

239dfde2-b365-11ee-8b88-92fbcf53809c.png

如下是使用Llama-2生成上下文描述,研究人員在每次推理運(yùn)行中隨機(jī)抽取三個(gè)上下文示例。

23a225c0-b365-11ee-8b88-92fbcf53809c.png

合成圖像

對(duì)于每個(gè)文本描述,研究人員都會(huì)用不同的隨機(jī)噪聲啟動(dòng)反向擴(kuò)散過(guò)程,從而生成各種圖像。

在此過(guò)程中,無(wú)分類器引導(dǎo)(CFG)比例是一個(gè)關(guān)鍵因素。

CFG標(biāo)度越高,樣本的質(zhì)量和文本與圖像之間的一致性就越好,而標(biāo)度越低,樣本的多樣性就越大,也就越符合基于給定文本的圖像原始條件分布。

23acdab0-b365-11ee-8b88-92fbcf53809c.png

表征學(xué)習(xí)

論文中,表征學(xué)習(xí)的方法建立在StableRep的基礎(chǔ)上。

作者提出的方法的關(guān)鍵組成部分是多正對(duì)比學(xué)習(xí)損失,它的工作原理是對(duì)齊(在嵌入空間)從同一描述生成的圖像。

另外,研究中還結(jié)合了其他自監(jiān)督學(xué)習(xí)方法的多種技術(shù)。

與OpenAI的CLIP相媲美

實(shí)驗(yàn)評(píng)估中,研究人員首先進(jìn)行消融研究,以評(píng)估管道內(nèi)各種設(shè)計(jì)和模塊的有效性,然后繼續(xù)擴(kuò)大合成數(shù)據(jù)的量。

下圖是不同描述合成策略的比較。

研究人員報(bào)告了9個(gè)細(xì)粒度數(shù)據(jù)集的ImageNet線性評(píng)估準(zhǔn)確性和平均準(zhǔn)確性。這里的每個(gè)項(xiàng)目包括1000萬(wàn)個(gè)描述和每個(gè)描述4張圖片。

23b2e8ec-b365-11ee-8b88-92fbcf53809c.png

下表是ImageNet線性評(píng)估與細(xì)粒度分類的比較。

盡管只使用了合成數(shù)據(jù),但SynCLR與OpenAI的CLIP和DINO v2模型取得了不相上下的結(jié)果。

23b6b3b4-b365-11ee-8b88-92fbcf53809c.png

下表是在相同的合成數(shù)據(jù)上比較SynCLR和CLIP,可以看出,SynCLR明顯優(yōu)于CLIP。

具體設(shè)置為,每個(gè)標(biāo)題生成4個(gè)圖像,SynCaps-150M為SynCLR和CLIP提供了更好的表示。

23bb41b8-b365-11ee-8b88-92fbcf53809c.png

PCA可視化如下。按照DINO v2,研究人員計(jì)算了同一組圖像的斑塊之間的PCA,并根據(jù)其前3個(gè)分量進(jìn)行著色。

與DINO v2相比,SynCLR對(duì)汽車和飛機(jī)的繪制的圖更為準(zhǔn)確,而對(duì)能繪制的圖則稍差一些。

23cc3496-b365-11ee-8b88-92fbcf53809c.png

圖6和圖7中,分別展示了不同訓(xùn)練規(guī)模下的ImageNet線性準(zhǔn)確率,以及不同訓(xùn)練參數(shù)規(guī)模下的精細(xì)分類。

23d0c47a-b365-11ee-8b88-92fbcf53809c.png

為什么要從生成模型中學(xué)習(xí)?

一個(gè)令人信服的原因是,生成模型可以像數(shù)百個(gè)數(shù)據(jù)集一樣同時(shí)運(yùn)作,能夠?yàn)椴邉澯?xùn)練數(shù)據(jù)提供了一種方便有效的方法。

總而言之,最新論文研究了視覺(jué)表征學(xué)習(xí)的新范式——從生成模型中學(xué)習(xí)。

在沒(méi)有使用任何實(shí)際數(shù)據(jù)的情況下,SynCLR學(xué)習(xí)到的視覺(jué)表征,與最先進(jìn)的通用視覺(jué)表征學(xué)習(xí)器學(xué)習(xí)到的視覺(jué)表征不相上下。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3248

    瀏覽量

    48864
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    354

    瀏覽量

    15402
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1092

    瀏覽量

    6541
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2465

    瀏覽量

    2762

原文標(biāo)題:谷歌MIT最新研究證明:高質(zhì)量數(shù)據(jù)獲取不難,大模型就是歸途

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    訊飛星辰MaaS平臺(tái)完成全新升級(jí)

    高質(zhì)量數(shù)據(jù)的助攻,讓微調(diào)大模型青出于藍(lán)而勝于藍(lán)!
    的頭像 發(fā)表于 11-22 10:38 ?345次閱讀

    標(biāo)貝科技:AI基礎(chǔ)數(shù)據(jù)服務(wù),人工智能行業(yè)發(fā)展的底層支撐

    隨著不同大模型在語(yǔ)言理解及生成等領(lǐng)域的出色表現(xiàn),大模型別后的規(guī)模規(guī)律不斷強(qiáng)化數(shù)據(jù)在要提升AI性能上的關(guān)鍵作用,AI數(shù)據(jù)服務(wù)可加速高質(zhì)量數(shù)據(jù)
    的頭像 發(fā)表于 11-14 18:32 ?269次閱讀
    標(biāo)貝科技:AI基礎(chǔ)<b class='flag-5'>數(shù)據(jù)</b>服務(wù),人工智能行業(yè)發(fā)展的底層支撐

    使用AI大模型進(jìn)行數(shù)據(jù)分析的技巧

    以及后續(xù)的分析步驟。 確定需要分析的數(shù)據(jù)類型、規(guī)模和復(fù)雜度,以便選擇合適的AI大模型。 二、高質(zhì)量數(shù)據(jù)收集與處理 數(shù)據(jù)來(lái)源 :從可靠的來(lái)源收集數(shù)據(jù)
    的頭像 發(fā)表于 10-23 15:14 ?780次閱讀

    白皮書(shū)下載丨《生成式AI如何改變AI缺陷檢測(cè)的傳統(tǒng)范式》

    在自動(dòng)化和智能化技術(shù)飛速發(fā)展的今天,制造業(yè)對(duì)AI視覺(jué)技術(shù)的需求日益增長(zhǎng)。然而,高質(zhì)量的訓(xùn)練數(shù)據(jù)獲取成為制約AI模型性能提升的關(guān)鍵因素。傳統(tǒng)的數(shù)據(jù)
    的頭像 發(fā)表于 10-18 08:05 ?342次閱讀
    白皮書(shū)下載丨《生成式AI如何改變AI缺陷檢測(cè)的傳統(tǒng)范式》

    中興通訊引領(lǐng)5G-A高質(zhì)量發(fā)展新紀(jì)元

    中國(guó)5G商用5周年之際,以“智聯(lián)未來(lái) 無(wú)限可能”為主題的2024移動(dòng)通信高質(zhì)量發(fā)展論壇在北京舉辦。本屆論壇系統(tǒng)呈現(xiàn)總結(jié)我國(guó)移動(dòng)通信,特別是5G產(chǎn)業(yè)自身高質(zhì)量發(fā)展和引領(lǐng)數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展的成果和經(jīng)驗(yàn),展望5G-A、6G協(xié)同創(chuàng)新發(fā)展
    的頭像 發(fā)表于 10-15 10:32 ?511次閱讀

    TVP5147高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5147高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-09 11:34 ?0次下載
    TVP5147<b class='flag-5'>高質(zhì)量</b>、單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    TVP5146高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5146高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-04 10:00 ?0次下載
    TVP5146<b class='flag-5'>高質(zhì)量</b>、單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    和多樣性。高質(zhì)量數(shù)據(jù)能確保模型穩(wěn)定收斂,而數(shù)據(jù)的多樣性則有助于模型學(xué)習(xí)廣泛的通用能力,如文本生成、信息抽取、問(wèn)答和編程等。此外,數(shù)據(jù)的多樣性
    發(fā)表于 05-07 17:10

    京東方華燦光電獲評(píng)國(guó)家級(jí)綠色工廠,助力行業(yè)高質(zhì)量發(fā)展

    “綠色發(fā)展是高質(zhì)量發(fā)展的底色,新質(zhì)生產(chǎn)力本身就是綠色生產(chǎn)力”。日前,根據(jù)工業(yè)和信息化部公布的2023年度綠色制造名單所示,京東方華燦光電(浙江)有限公司獲評(píng)國(guó)家級(jí)綠色工廠。綠色發(fā)展,正成為京東方華燦高質(zhì)量發(fā)展新的底色。
    的頭像 發(fā)表于 04-10 11:04 ?693次閱讀

    北斗芯片產(chǎn)業(yè)的高質(zhì)量發(fā)展之路

    高質(zhì)量發(fā)展是全面建設(shè)社會(huì)主義現(xiàn)代化國(guó)家的首要任務(wù)”,二十大報(bào)告中對(duì)高質(zhì)量發(fā)展有著明確的論斷和要求。在2023年的全國(guó)兩會(huì)中還指出,加快實(shí)現(xiàn)高水平科技自立自強(qiáng),是推動(dòng)高質(zhì)量發(fā)展的必由之路。中國(guó)衛(wèi)星
    的頭像 發(fā)表于 03-15 14:03 ?398次閱讀
    北斗芯片產(chǎn)業(yè)的<b class='flag-5'>高質(zhì)量</b>發(fā)展之路

    富捷電子被授予“高質(zhì)量發(fā)展突出貢獻(xiàn)獎(jiǎng)”

    在近日舉行的馬鞍山新區(qū)高質(zhì)量發(fā)展表彰大會(huì)上,富捷電子在推動(dòng)地區(qū)經(jīng)濟(jì)發(fā)展中的卓越貢獻(xiàn),被授予“高質(zhì)量發(fā)展突出貢獻(xiàn)獎(jiǎng)”。
    的頭像 發(fā)表于 02-23 15:16 ?689次閱讀

    穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級(jí)?高質(zhì)量發(fā)展 | 聯(lián)誠(chéng)發(fā)高質(zhì)量發(fā)展工作推進(jìn)會(huì)議召開(kāi)

    2月21日下午,聯(lián)誠(chéng)發(fā)LCF以“穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級(jí)?高質(zhì)量發(fā)展”為主題的企業(yè)高質(zhì)量發(fā)展工作推進(jìn)大會(huì)在聯(lián)誠(chéng)發(fā)深圳總部隆重召開(kāi)。擂起奮進(jìn)催征的戰(zhàn)鼓,爭(zhēng)分奪秒搶抓寶貴春光,明確企業(yè)重點(diǎn)目標(biāo)任務(wù),全力以赴
    的頭像 發(fā)表于 02-22 11:33 ?474次閱讀
    穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級(jí)?<b class='flag-5'>高質(zhì)量</b>發(fā)展 | 聯(lián)誠(chéng)發(fā)<b class='flag-5'>高質(zhì)量</b>發(fā)展工作推進(jìn)會(huì)議召開(kāi)

    捷易科技出席廣東省韶關(guān)市高質(zhì)量發(fā)展大會(huì)

    ABSTRACT摘要2月19日,2024年韶關(guān)市高質(zhì)量發(fā)展招商大會(huì)在韶關(guān)舉行,來(lái)自政府、科技、企業(yè)各界專家代表共同探討韶關(guān)高質(zhì)量發(fā)展。捷易科技總經(jīng)理韓運(yùn)恒出席大會(huì)。JAEALOT2024年2月19日
    的頭像 發(fā)表于 02-22 08:25 ?499次閱讀
    捷易科技出席廣東省韶關(guān)市<b class='flag-5'>高質(zhì)量</b>發(fā)展大會(huì)

    商湯科技與庫(kù)醇科技達(dá)成合作 為垂域大模型構(gòu)建高質(zhì)量大規(guī)模的領(lǐng)域微調(diào)數(shù)據(jù)

    數(shù)字化轉(zhuǎn)型,為垂域大模型構(gòu)建高質(zhì)量大規(guī)模的領(lǐng)域微調(diào)數(shù)據(jù)。 ? 本次合作將基于商湯通用大模型進(jìn)行二次開(kāi)發(fā),給模型注入領(lǐng)域知識(shí), 訓(xùn)練一個(gè)專門(mén)根
    的頭像 發(fā)表于 01-10 09:46 ?717次閱讀
    商湯科技與庫(kù)醇科技達(dá)成合作 為垂域大<b class='flag-5'>模型</b>構(gòu)建<b class='flag-5'>高質(zhì)量</b>大規(guī)模的領(lǐng)域微調(diào)<b class='flag-5'>數(shù)據(jù)</b>

    畢馬威:2023年人工智能全域變革圖景展望

    模型的訓(xùn)練需要大量的高質(zhì)量數(shù)據(jù),但是目前在數(shù)據(jù)質(zhì)量方面還存在一定的問(wèn)題,包括數(shù)據(jù)噪聲、數(shù)據(jù)缺失
    的頭像 發(fā)表于 01-04 16:02 ?657次閱讀
    畢馬威:2023年人工智能全域變革圖景展望