0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

爆了!GPT-4模型架構(gòu)、訓(xùn)練成本、數(shù)據(jù)集信息都被扒出來(lái)了

CVer ? 來(lái)源:機(jī)器之心 ? 2023-07-12 14:16 ? 次閱讀

一直以來(lái),大家都對(duì) GPT-4 的模型架構(gòu)、基礎(chǔ)設(shè)施、訓(xùn)練數(shù)據(jù)集、成本等信息非常好奇。

奈何 OpenAI 嘴太嚴(yán),很長(zhǎng)時(shí)間以來(lái),大家也都只是猜測(cè)這些數(shù)據(jù)。

不久之前,「天才黑客」喬治?霍茲(George Hotz)在接受一家名為 Latent Space 的 AI 技術(shù)播客采訪時(shí)透露出一個(gè)小道消息,稱 GPT-4 是由 8 個(gè)混合專家模型組成的集成系統(tǒng),每個(gè)專家模型都有 2200 億個(gè)參數(shù)(比 GPT-3 的 1750 億參數(shù)量略多一些),并且這些模型經(jīng)過(guò)了針對(duì)不同數(shù)據(jù)和任務(wù)分布的訓(xùn)練。

雖然此消息無(wú)法驗(yàn)證,但其流傳度非常高,也被部分業(yè)內(nèi)人士認(rèn)為非常合理。

最近,更多的消息似乎被泄露了出來(lái)。

今日,SemiAnalysis 發(fā)布了一篇付費(fèi)訂閱的內(nèi)容,「揭秘」了有關(guān) GPT-4 的更多信息。

62a83668-2073-11ee-962d-dac502259ad0.png

文章稱,他們從許多來(lái)源收集了大量有關(guān) GPT-4 的信息,包括模型架構(gòu)、訓(xùn)練基礎(chǔ)設(shè)施、推理基礎(chǔ)設(shè)施、參數(shù)量、訓(xùn)練數(shù)據(jù)集組成、token 量、層數(shù)、并行策略、多模態(tài)視覺適應(yīng)、不同工程權(quán)衡背后的思維過(guò)程、獨(dú)特的實(shí)現(xiàn)技術(shù)以及如何減輕與巨型模型推理有關(guān)的瓶頸等。

作者表示,GPT-4 最有趣的方面是理解 OpenAI 為什么做出某些架構(gòu)決策。

此外,文章還介紹了 A100 上 GPT-4 的訓(xùn)練和推理成本,以及如何拓展到下一代模型架構(gòu) H100 。

我們根據(jù) Deep Trading(一家算法交易公司)創(chuàng)始人 Yam Peleg 的推文(目前已刪除),整理了以下關(guān)于 GPT-4 的數(shù)據(jù)信息。感興趣的讀者可以細(xì)致研究下。

62c6c88a-2073-11ee-962d-dac502259ad0.png

不過(guò)請(qǐng)注意,這并非官方確認(rèn)的數(shù)據(jù),大家自行判斷其準(zhǔn)確性。

62de8ec0-2073-11ee-962d-dac502259ad0.png

1、參數(shù)量:GPT-4 的大小是 GPT-3 的 10 倍以上。文章認(rèn)為它 120 層網(wǎng)絡(luò)中總共有 1.8 萬(wàn)億個(gè)參數(shù)。

2、確實(shí)是混合專家模型。OpenAI 能夠通過(guò)使用混合專家(MoE)模型來(lái)保持合理成本。他們?cè)谀P椭惺褂昧?16 個(gè)專家模型,每個(gè)專家模型大約有 111B 個(gè)參數(shù)。這些專家模型中的 2 個(gè)被路由到每個(gè)前向傳遞。

3、MoE 路由:盡管文獻(xiàn)中對(duì)于選擇將每個(gè) token 路由到哪個(gè)專家模型的高級(jí)路由算法進(jìn)行了大量討論,但據(jù)稱 OpenAI 在當(dāng)前的 GPT-4 模型中采用了相當(dāng)簡(jiǎn)單的路由方式。該模型大約使用了 550 億個(gè)共享參數(shù)來(lái)進(jìn)行注意力計(jì)算。

62f0bb4a-2073-11ee-962d-dac502259ad0.png

4、推理:每次前向傳遞的推理(生成 1 個(gè) token)僅利用約 2800 億個(gè)參數(shù)和約 560 TFLOP 的計(jì)算量。相比之下,純密集模型每次前向傳遞需要大約 1.8 萬(wàn)億個(gè)參數(shù)和約 3700 TFLOP 的計(jì)算量。

5、數(shù)據(jù)集:GPT-4 的訓(xùn)練數(shù)據(jù)集包含約 13 萬(wàn)億個(gè) token。這些 token 是重復(fù)計(jì)算之后的結(jié)果,多個(gè) epoch 中的 token 都計(jì)算在內(nèi)。

Epoch 數(shù)量:針對(duì)基于文本的數(shù)據(jù)進(jìn)行了 2 個(gè) epoch 的訓(xùn)練,而針對(duì)基于代碼的數(shù)據(jù)進(jìn)行了 4 個(gè) epoch 的訓(xùn)練。此外,還有來(lái)自 ScaleAI 和內(nèi)部的數(shù)百萬(wàn)行的指令微調(diào)數(shù)據(jù)。

6、GPT-4 32K:在預(yù)訓(xùn)練階段,GPT-4 使用了 8k 的上下文長(zhǎng)度(seqlen)。而 32k 序列長(zhǎng)度版本的 GPT-4 是在預(yù)訓(xùn)練后對(duì) 8k 版本進(jìn)行微調(diào)而得到的。

636c0728-2073-11ee-962d-dac502259ad0.png

7、Batch Size:在計(jì)算集群上,幾天時(shí)間里,batch size 逐漸增加,最后,OpenAI 使用 batch size 達(dá)到了 6000 萬(wàn)!當(dāng)然,由于不是每個(gè)專家模型都能看到所有 token,因此這僅僅是每個(gè)專家模型處理 750 萬(wàn)個(gè) token 的 batch size。

真實(shí)的 batch size:將這個(gè)數(shù)字除以序列長(zhǎng)度(seq len)即可得到真實(shí)的 batch size。請(qǐng)不要再使用這種誤導(dǎo)性的數(shù)字了。

8、并行策略:為了在所有 A100 GPU 上進(jìn)行并行計(jì)算,他們采用了 8 路張量并行,因?yàn)檫@是 NVLink 的極限。除此之外,他們還采用了 15 路流水線并行。(很可能使用了 ZeRo Stage 1,也可能使用了塊級(jí)的 FSDP)。

641a88f2-2073-11ee-962d-dac502259ad0.png

9、訓(xùn)練成本:OpenAI 在 GPT-4 的訓(xùn)練中使用了大約 2.15e25 的 FLOPS,使用了約 25,000 個(gè) A100 GPU,訓(xùn)練了 90 到 100 天,利用率(MFU)約為 32% 至 36%。這種極低的利用率部分是由于大量的故障導(dǎo)致需要重新啟動(dòng)檢查點(diǎn)。

如果他們?cè)谠贫说拿總€(gè) A100 GPU 的成本大約為每小時(shí) 1 美元,那么僅此次訓(xùn)練的成本將達(dá)到約 6300 萬(wàn)美元。(而如今,如果使用約 8192 個(gè) H100 GPU 進(jìn)行預(yù)訓(xùn)練,用時(shí)將降到 55 天左右,成本為 2150 萬(wàn)美元,每個(gè) H100 GPU 的計(jì)費(fèi)標(biāo)準(zhǔn)為每小時(shí) 2 美元。)

10、使用專家混合模型時(shí)的 tradeoff:在使用專家混合模型時(shí)存在多方面 tradeoff。

例如,在推理過(guò)程中處理 MoE 非常困難,因?yàn)椴⒎悄P偷拿總€(gè)部分都在每個(gè) token 生成時(shí)被利用。這意味著在某些部分被使用時(shí),其他部分可能處于閑置狀態(tài)。在為用戶提供服務(wù)時(shí),這會(huì)嚴(yán)重影響資源利用率。研究人員已經(jīng)證明使用 64 到 128 個(gè)專家比使用 16 個(gè)專家能夠?qū)崿F(xiàn)更好的損失(loss),但這僅僅是研究的結(jié)果。

選擇較少的專家模型有多個(gè)原因。OpenAI 選擇 16 個(gè)專家模型的一大原因是:在許多任務(wù)中,更多的專家模型很難泛化,也可能更難收斂。

由于進(jìn)行了如此大規(guī)模的訓(xùn)練,OpenAI 選擇在專家模型數(shù)量上更加保守。

643928ac-2073-11ee-962d-dac502259ad0.png

11、推理成本:GPT-4 的推理成本是 1750 億參數(shù)的 Davinci 模型的 3 倍。這主要是因?yàn)?GPT-4 需要更大規(guī)模的集群,并且達(dá)到的利用率要低得多。

據(jù)估計(jì),在用 128 個(gè) A100 GPU 進(jìn)行推理的情況下,8k 版本 GPT-4 推理的成本為每 1,000 個(gè) token 0.0049 美分。如果使用 128 個(gè) H100 GPU 進(jìn)行推理,同樣的 8k 版本 GPT-4 推理成本為每 1,000 個(gè) token 0.0021 美分。值得注意的是,這些估計(jì)假設(shè)了高利用率和保持較高的 batch size。

12、Multi-Query Attention:OpenAI 和其他機(jī)構(gòu)一樣,也在使用 Multi-Query Attention(MQA)。由于使用 MQA 只需要一個(gè)注意力頭(head),并且可以顯著減少用于 KV 緩存的內(nèi)存容量。即便如此,32k 序列長(zhǎng)度的 GPT-4 也絕對(duì)無(wú)法在 40GB 的 A100 GPU 上運(yùn)行,而 8k 序列長(zhǎng)度的模型則受到了最大 batch size 的限制。

64c135f8-2073-11ee-962d-dac502259ad0.png

13、連續(xù) batching:OpenAI 實(shí)現(xiàn)了可變 batch size 和連續(xù) batching。這樣做是為了允許一定程度的最大延遲,并優(yōu)化推理成本。

14、視覺多模態(tài):它是一個(gè)獨(dú)立于文本編碼器的視覺編碼器,二者之間存在交叉注意力。該架構(gòu)類似于 Flamingo。這在 GPT-4 的 1.8 萬(wàn)億個(gè)參數(shù)之上增加了更多參數(shù)。在純文本的預(yù)訓(xùn)練之后,它又經(jīng)過(guò)了另外約 2 萬(wàn)億個(gè) token 的微調(diào)。

對(duì)于視覺模型,OpenAI 本來(lái)希望從零開始訓(xùn)練,但由于其尚未成熟,所以他們決定先從文本開始訓(xùn)練來(lái)降低風(fēng)險(xiǎn)。

這種視覺能力的主要目的之一是使自主智能體能夠閱讀網(wǎng)頁(yè)并轉(zhuǎn)錄圖像和視頻中的內(nèi)容。

他們訓(xùn)練的一部分?jǐn)?shù)據(jù)是聯(lián)合數(shù)據(jù)(包括渲染的 LaTeX / 文本)、網(wǎng)頁(yè)的截屏、YouTube 視頻(采樣幀),并使用 Whisper 對(duì)其進(jìn)行運(yùn)行以獲取轉(zhuǎn)錄文本。

6572b53a-2073-11ee-962d-dac502259ad0.png

15、推測(cè)式解碼(Speculative Decoding):OpenAI 可能在 GPT-4 的推理過(guò)程中使用了推測(cè)式解碼技術(shù)(不確定是否 100%)。這種方法是使用一個(gè)更小更快的模型提前解碼多個(gè) token,并將它們作為單個(gè) batch 輸入到一個(gè)大型的預(yù)測(cè)模型(oracle model)中。

如果小型模型對(duì)其預(yù)測(cè)是正確的,大型模型將會(huì)同意,我們可以在單個(gè) batch 中解碼多個(gè) token。

但是,如果大型模型拒絕了草稿模型預(yù)測(cè)的 token,那么 batch 中剩余的部分將被丟棄,然后我們將繼續(xù)使用大型模型進(jìn)行解碼。

有些陰謀論指出,新的 GPT-4 質(zhì)量已經(jīng)下降,這可能只是因?yàn)樗麄冏屚茰y(cè)式解碼模型(speculative decoding model)將概率較低的序列傳遞給預(yù)測(cè)模型,從而導(dǎo)致了這種誤解。

65a0d032-2073-11ee-962d-dac502259ad0.png

16、推理架構(gòu):推理運(yùn)行在由 128 個(gè) GPU 組成的集群上。在不同地點(diǎn)的多個(gè)數(shù)據(jù)中心存在多個(gè)這樣的集群。推理過(guò)程采用 8 路張量并行(tensor parallelism)和 16 路流水線并行(pipeline parallelism)。每個(gè)由 8 個(gè) GPU 組成的節(jié)點(diǎn)僅具有約 1300 億個(gè)參數(shù)。

該模型有 120 層,因此適合于 15 個(gè)不同的節(jié)點(diǎn)??赡艿谝粋€(gè)節(jié)點(diǎn)的層數(shù)較少,因?yàn)樗€需要計(jì)算嵌入。

根據(jù)這些數(shù)字,如果 OpenAI 試圖按照 chinchilla 的最佳指標(biāo)進(jìn)行訓(xùn)練,他們應(yīng)該使用的 token 數(shù)量是現(xiàn)在的兩倍。這表明他們?cè)讷@取高質(zhì)量數(shù)據(jù)方面遇到了困難。

最后想說(shuō)的是,這應(yīng)該是迄今為止關(guān)于 GPT-4 最為詳細(xì)的數(shù)據(jù)揭秘。目前還不能求證是否真實(shí),但也值得大家研究下。正如原文作者所說(shuō),「有趣的方面是理解 OpenAI 為什么做出某些架構(gòu)決策。」

關(guān)于 GPT-4 的這些架構(gòu)信息,你怎么看?

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3254

    瀏覽量

    48881
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24725
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1096

    瀏覽量

    6557

原文標(biāo)題:爆了!GPT-4模型架構(gòu)、訓(xùn)練成本、數(shù)據(jù)集信息都被扒出來(lái)了...

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    OpenAI GPT-5開發(fā)滯后:訓(xùn)練成本高昂

    已經(jīng)對(duì)GPT-5進(jìn)行了至少兩輪大規(guī)模訓(xùn)練,希望通過(guò)海量數(shù)據(jù)資源來(lái)優(yōu)化模型效能。然而,首次訓(xùn)練的實(shí)際運(yùn)行結(jié)果并未達(dá)到預(yù)期標(biāo)準(zhǔn),導(dǎo)致更大規(guī)模的
    的頭像 發(fā)表于 12-23 11:04 ?216次閱讀

    麻省理工學(xué)院推出新型機(jī)器人訓(xùn)練模型

    近日,據(jù)TechCrunch報(bào)道,麻省理工學(xué)院的研究團(tuán)隊(duì)展示一種創(chuàng)新的機(jī)器人訓(xùn)練模型,該模型突破了傳統(tǒng)模仿學(xué)習(xí)方法的局限,不再依賴標(biāo)準(zhǔn)數(shù)據(jù)
    的頭像 發(fā)表于 11-04 14:56 ?498次閱讀

    Llama 3 與 GPT-4 比較

    沿。 一、技術(shù)架構(gòu) Llama 3和GPT-4都是基于深度學(xué)習(xí)的自然語(yǔ)言處理(NLP)模型,但它們的設(shè)計(jì)理念和技術(shù)細(xì)節(jié)有所不同。 Llama 3 采用了一種創(chuàng)新的混合架構(gòu),結(jié)合
    的頭像 發(fā)表于 10-27 14:17 ?376次閱讀

    AI大模型訓(xùn)練成本飆升,未來(lái)三年或達(dá)千億美元

    Anthropic的首席執(zhí)行官Dario Amodei在知名Podcast節(jié)目《In Good Company》中,就這一話題發(fā)表深刻見解,揭示AI大模型訓(xùn)練成本即將面臨的巨大挑戰(zhàn)
    的頭像 發(fā)表于 07-11 15:06 ?554次閱讀

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯(cuò)

    基于GPT-4模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯(cuò)誤而設(shè)計(jì),其獨(dú)特的作用在于,讓人們能夠用GPT-4來(lái)查找GP
    的頭像 發(fā)表于 06-29 09:55 ?552次閱讀

    谷歌Gemini Ultra模型訓(xùn)練成本近2億美元

    斯坦福大學(xué)與研究巨頭Epoch AI聯(lián)合揭示云計(jì)算時(shí)代下AI模型訓(xùn)練成本的飛速增長(zhǎng)。最新研究結(jié)果顯示,AI巨頭OpenAI的GPT-4訓(xùn)練成本
    的頭像 發(fā)表于 06-07 09:36 ?601次閱讀

    GPT-4人工智能模型預(yù)測(cè)公司未來(lái)盈利勝過(guò)人類分析師

    據(jù)悉,本次研究中,研究人員僅向GPT-4提供匿名的財(cái)務(wù)數(shù)據(jù),包括資產(chǎn)負(fù)債表和損益表,并要求其預(yù)測(cè)未來(lái)盈利增長(zhǎng)。盡管未獲得其他信息,GPT-4
    的頭像 發(fā)表于 05-27 16:41 ?609次閱讀

    OpenAI全新GPT-4o能力炸場(chǎng)!速度快/成本低,能讀懂人類情緒

    ”的意思。GPT-4o文本、推理、編碼能力達(dá)到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為
    的頭像 發(fā)表于 05-15 00:15 ?7845次閱讀

    阿里云發(fā)布通義千問(wèn)2.5大模型,多項(xiàng)能力超越GPT-4

    阿里云隆重推出了通義千問(wèn) 2.5 版,宣稱其“技術(shù)進(jìn)步,全面超越GPT-4”,尤其是在中文環(huán)境中的多種任務(wù)(如文本理解、文本生成、知識(shí)問(wèn)答及生活建議、臨時(shí)聊天及對(duì)話以及安全風(fēng)險(xiǎn)評(píng)估)方面表現(xiàn)出色,超越GPT-4。
    的頭像 發(fā)表于 05-09 14:17 ?967次閱讀

    商湯科技發(fā)布5.0多模態(tài)大模型,綜合能力全面對(duì)標(biāo)GPT-4 Turbo

    商湯科技發(fā)布5.0多模態(tài)大模型,綜合能力全面對(duì)標(biāo)GPT-4 Turbo 4月23日,商湯科技董事長(zhǎng)兼CEO徐立在2024商湯技術(shù)交流日上發(fā)布行業(yè)首個(gè)云、端、邊全棧大
    的頭像 發(fā)表于 04-24 16:49 ?1122次閱讀

    OpenAI推出Vision模型GPT-4 Turbo,融合文本與圖像理解

    據(jù)悉,此模型沿用GPT-4 Turbo系列特有的12.8萬(wàn)token窗口規(guī)模及截至2023年12月的知識(shí)庫(kù)架構(gòu),其創(chuàng)新亮點(diǎn)則是強(qiáng)大的視覺理解功能。
    的頭像 發(fā)表于 04-10 10:49 ?416次閱讀

    微軟Copilot全面更新為OpenAI的GPT-4 Turbo模型

    起初,Copilot作為Bing Chat AI助手推出,初期采用GPT-3.5模型,隨后升級(jí)至GPT-4取得顯著進(jìn)步,如今再次更新至性能卓越的GPT-4 Turbo
    的頭像 發(fā)表于 03-13 13:42 ?743次閱讀

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude 3系列在推理、數(shù)學(xué)、編碼、多語(yǔ)言理解和視覺方面全面超越包括GPT-4在內(nèi)的所
    的頭像 發(fā)表于 03-05 09:58 ?670次閱讀

    Anthropic推出Claude 3系列模型,全面超越GPT-4,樹立AI新標(biāo)桿

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic震撼發(fā)布全新的Claude 3系列模型,該系列模型在多模態(tài)和語(yǔ)言能力等關(guān)鍵領(lǐng)域展現(xiàn)出卓越性能,成功擊敗此前被廣泛認(rèn)為是全球最強(qiáng)AI
    的頭像 發(fā)表于 03-05 09:49 ?696次閱讀

    全球最強(qiáng)大模型易主:GPT-4被超越,Claude 3系列嶄露頭角

    近日,人工智能領(lǐng)域迎來(lái)了一場(chǎng)革命性的突破。Anthropic公司發(fā)布全新的Claude 3系列模型,該系列模型在多模態(tài)和語(yǔ)言能力等關(guān)鍵指標(biāo)上展現(xiàn)出卓越性能,成功超越
    的頭像 發(fā)表于 03-05 09:42 ?666次閱讀