【導(dǎo)讀】數(shù)據(jù)獲取最新解,便是從生成模型中學(xué)習(xí)。
獲取高質(zhì)量數(shù)據(jù),已經(jīng)成為當(dāng)前大模型訓(xùn)練的一大瓶頸。
前幾天,OpenAI被《紐約時(shí)報(bào)》起訴,并要求索賠數(shù)十億美元。訴狀中,列舉了GPT-4抄襲的多項(xiàng)罪證。
甚至,《紐約時(shí)報(bào)》還呼吁摧毀幾乎所有的GPT等大模型。
一直以來(lái),AI界多位大佬認(rèn)為「合成數(shù)據(jù)」或許是解決這個(gè)問(wèn)題的最優(yōu)解。
此前,谷歌團(tuán)隊(duì)還提出了用LLM代替人類標(biāo)記偏好的方法RLAIF,效果甚至不輸人類。
現(xiàn)如今,谷歌MIT的研究人員發(fā)現(xiàn),從大模型中學(xué)習(xí)可以得到使用真實(shí)數(shù)據(jù)訓(xùn)練的最佳模型的表征。
這一最新方法稱SynCLR,一種完全從合成圖像和合成描述學(xué)習(xí)虛擬表征的方法,無(wú)需任何真實(shí)數(shù)據(jù)。
論文地址:https://arxiv.org/abs/2312.17742
實(shí)驗(yàn)結(jié)果表明,通過(guò)SynCLR方法學(xué)習(xí)到的表征,能夠與OpenAI的CLIP在ImageNet 上的傳輸效果一樣好。
從生成模型中學(xué)習(xí)
目前表現(xiàn)最好的「視覺(jué)表征」學(xué)習(xí)方法依賴于大規(guī)模的實(shí)際數(shù)據(jù)集。然而,真實(shí)數(shù)據(jù)的收集卻有不少的困難。
為了降低收集數(shù)據(jù)的成本,研究人員本文中提出了一個(gè)問(wèn)題:
從現(xiàn)成的生成模型中采樣的合成數(shù)據(jù),是否是一條通往大規(guī)模策劃數(shù)據(jù)集的可行之路,從而訓(xùn)練出最先進(jìn)的視覺(jué)表征?
與直接從數(shù)據(jù)中學(xué)習(xí)不同,谷歌研究人員稱這種模式為「從模型中學(xué)習(xí)」。作為建立大規(guī)模訓(xùn)練集的數(shù)據(jù)源,模型有幾個(gè)優(yōu)勢(shì):
- 通過(guò)其潛在變量、條件變量和超參數(shù),為數(shù)據(jù)管理提供了新的控制方法。
- 模型也更容易共享和存儲(chǔ)(因?yàn)槟P捅葦?shù)據(jù)更容易壓縮),并且可以產(chǎn)生無(wú)限數(shù)量的數(shù)據(jù)樣本。
越來(lái)越多的文獻(xiàn)研究了生成模型的這些特性和其他優(yōu)點(diǎn)和缺點(diǎn),并將其作為訓(xùn)練下游模型的數(shù)據(jù)源。
其中一些方法采用混合模式,即混合真實(shí)數(shù)據(jù)集和合成數(shù)據(jù)集,或需要一個(gè)真實(shí)數(shù)據(jù)集來(lái)生成另一個(gè)合成數(shù)據(jù)集。
其他方法試圖從純粹的「合成數(shù)據(jù)」中學(xué)習(xí)表征,但遠(yuǎn)遠(yuǎn)落后于表現(xiàn)最好的模型。
論文中,研究人員提出的最新方法,使用生成模型重新定義可視化類的粒度。
如圖2所示,使用2個(gè)提示生成了四張圖片「一只戴著墨鏡和沙灘帽的金毛獵犬騎著自行車」和「一只可愛(ài)的金毛獵犬坐在壽司做成的房子里」。
傳統(tǒng)的自監(jiān)督方法(如Sim-CLR)會(huì)將這些圖像視為不同的類,不同圖像的嵌入會(huì)被分開(kāi),而不會(huì)明確考慮圖像之間的共享語(yǔ)義。
另一個(gè)極端是,監(jiān)督學(xué)習(xí)方法(即SupCE)會(huì)將所有這些圖像視為單一類(如「金毛獵犬」)。這就忽略了這些圖像在語(yǔ)義上的細(xì)微差別,例如在一對(duì)圖像中狗在騎自行車,而在另一對(duì)圖像中狗坐在壽司屋內(nèi)。
相反,SynCLR方法將描述視為類,即每個(gè)描述一個(gè)可視化類。
這樣,我們就可以按照「騎自行車」和「坐在壽司店里」這兩個(gè)概念對(duì)圖片進(jìn)行分組。
這種粒度很難在真實(shí)數(shù)據(jù)中挖掘,因?yàn)槭占山o定描述的多張圖片并非易事,尤其是當(dāng)描述數(shù)量增加時(shí)。
然而,文本到圖像的擴(kuò)散模型從根本上就具備這種能力。
只需對(duì)相同的描述設(shè)定條件,并使用不同的噪聲輸入,文本到圖像的擴(kuò)散模型就能生成與相同描述相匹配的不同圖像。
具體來(lái)說(shuō),作者研究了在沒(méi)有真實(shí)圖像或文本數(shù)據(jù)的情況下,學(xué)習(xí)視覺(jué)編碼器的問(wèn)題。
最新方法依賴3個(gè)關(guān)鍵資源的利用:一個(gè)語(yǔ)言生成模型(g1),一個(gè)文本到圖像的生成模型(g2),以及一個(gè)經(jīng)過(guò)整理的視覺(jué)概念列表(c)。
前處理包括三個(gè)步驟:
(1)使用(g1)合成一組全面的圖像描述T,其中涵蓋了C中的各種視覺(jué)概念;
(2)對(duì)于T中的每個(gè)標(biāo)題,使用(g2)生成多個(gè)圖像,最終生成一個(gè)廣泛的合成圖像數(shù)據(jù)集X;
(3)在X上進(jìn)行訓(xùn)練,以獲得視覺(jué)表示編碼器f。
然后,分別使用llama-27b和Stable Diffusion 1.5作為(g1)和(g2),因?yàn)槠渫评硭俣群芸臁?/p>
合成描述
為了利用強(qiáng)大的文本到圖像模型的能力,來(lái)生成大量的訓(xùn)練圖像數(shù)據(jù)集,首先需要一個(gè)不僅精確描述圖像而且展示多樣性的描述集合,以包含廣泛的視覺(jué)概念。
對(duì)此,作者開(kāi)發(fā)了一種可擴(kuò)展的方法來(lái)創(chuàng)建如此大量的描述集,利用大模型的上下文學(xué)習(xí)能力。
如下展示了三個(gè)合成模板的示例。
如下是使用Llama-2生成上下文描述,研究人員在每次推理運(yùn)行中隨機(jī)抽取三個(gè)上下文示例。
合成圖像
對(duì)于每個(gè)文本描述,研究人員都會(huì)用不同的隨機(jī)噪聲啟動(dòng)反向擴(kuò)散過(guò)程,從而生成各種圖像。
在此過(guò)程中,無(wú)分類器引導(dǎo)(CFG)比例是一個(gè)關(guān)鍵因素。
CFG標(biāo)度越高,樣本的質(zhì)量和文本與圖像之間的一致性就越好,而標(biāo)度越低,樣本的多樣性就越大,也就越符合基于給定文本的圖像原始條件分布。
表征學(xué)習(xí)
論文中,表征學(xué)習(xí)的方法建立在StableRep的基礎(chǔ)上。
作者提出的方法的關(guān)鍵組成部分是多正對(duì)比學(xué)習(xí)損失,它的工作原理是對(duì)齊(在嵌入空間)從同一描述生成的圖像。
另外,研究中還結(jié)合了其他自監(jiān)督學(xué)習(xí)方法的多種技術(shù)。
與OpenAI的CLIP相媲美
實(shí)驗(yàn)評(píng)估中,研究人員首先進(jìn)行消融研究,以評(píng)估管道內(nèi)各種設(shè)計(jì)和模塊的有效性,然后繼續(xù)擴(kuò)大合成數(shù)據(jù)的量。
下圖是不同描述合成策略的比較。
研究人員報(bào)告了9個(gè)細(xì)粒度數(shù)據(jù)集的ImageNet線性評(píng)估準(zhǔn)確性和平均準(zhǔn)確性。這里的每個(gè)項(xiàng)目包括1000萬(wàn)個(gè)描述和每個(gè)描述4張圖片。
下表是ImageNet線性評(píng)估與細(xì)粒度分類的比較。
盡管只使用了合成數(shù)據(jù),但SynCLR與OpenAI的CLIP和DINO v2模型取得了不相上下的結(jié)果。
下表是在相同的合成數(shù)據(jù)上比較SynCLR和CLIP,可以看出,SynCLR明顯優(yōu)于CLIP。
具體設(shè)置為,每個(gè)標(biāo)題生成4個(gè)圖像,SynCaps-150M為SynCLR和CLIP提供了更好的表示。
PCA可視化如下。按照DINO v2,研究人員計(jì)算了同一組圖像的斑塊之間的PCA,并根據(jù)其前3個(gè)分量進(jìn)行著色。
與DINO v2相比,SynCLR對(duì)汽車和飛機(jī)的繪制的圖更為準(zhǔn)確,而對(duì)能繪制的圖則稍差一些。
圖6和圖7中,分別展示了不同訓(xùn)練規(guī)模下的ImageNet線性準(zhǔn)確率,以及不同訓(xùn)練參數(shù)規(guī)模下的精細(xì)分類。
為什么要從生成模型中學(xué)習(xí)?
一個(gè)令人信服的原因是,生成模型可以像數(shù)百個(gè)數(shù)據(jù)集一樣同時(shí)運(yùn)作,能夠?yàn)椴邉澯?xùn)練數(shù)據(jù)提供了一種方便有效的方法。
總而言之,最新論文研究了視覺(jué)表征學(xué)習(xí)的新范式——從生成模型中學(xué)習(xí)。
在沒(méi)有使用任何實(shí)際數(shù)據(jù)的情況下,SynCLR學(xué)習(xí)到的視覺(jué)表征,與最先進(jìn)的通用視覺(jué)表征學(xué)習(xí)器學(xué)習(xí)到的視覺(jué)表征不相上下。
-
模型
+關(guān)注
關(guān)注
1文章
3248瀏覽量
48864 -
GPT
+關(guān)注
關(guān)注
0文章
354瀏覽量
15402 -
OpenAI
+關(guān)注
關(guān)注
9文章
1092瀏覽量
6541 -
大模型
+關(guān)注
關(guān)注
2文章
2465瀏覽量
2762
原文標(biāo)題:谷歌MIT最新研究證明:高質(zhì)量數(shù)據(jù)獲取不難,大模型就是歸途
文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論