0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

解讀ChatGPT背后的技術(shù)重點(diǎn)

OSC開(kāi)源社區(qū) ? 來(lái)源:Hugging Face ? 2023-02-09 17:11 ? 次閱讀

近段時(shí)間,ChatGPT 橫空出世并獲得巨大成功,使得 RLHF、SFT、IFT、CoT 等這些晦澀的縮寫(xiě)開(kāi)始出現(xiàn)在普羅大眾的討論中。這些晦澀的首字母縮略詞究竟是什么意思?為什么它們?nèi)绱酥匾??我們調(diào)查了相關(guān)的所有重要論文,以對(duì)這些工作進(jìn)行分類(lèi),總結(jié)迄今為止的工作,并對(duì)后續(xù)工作進(jìn)行展望。

我們先來(lái)看看基于語(yǔ)言模型的會(huì)話(huà)代理的全景。ChatGPT 并非首創(chuàng),事實(shí)上很多組織在 OpenAI 之前就發(fā)布了自己的語(yǔ)言模型對(duì)話(huà)代理 (dialog agents),包括 Meta 的 BlenderBot,Google 的 LaMDA,DeepMind 的 Sparrow,以及 Anthropic 的 Assistant (Anthropic 的 Claude 就是部分基于 Assistant 繼續(xù)開(kāi)發(fā)而得的)。

其中一些團(tuán)隊(duì)還公布了他們構(gòu)建開(kāi)源聊天機(jī)器人的計(jì)劃,并公開(kāi)分享了路線(xiàn)圖 (比如 LAION 團(tuán)隊(duì)的 Open Assistant),其他團(tuán)隊(duì)肯定也有類(lèi)似的內(nèi)容,但尚未宣布。

下表根據(jù)是否能公開(kāi)訪(fǎng)問(wèn)、訓(xùn)練數(shù)據(jù)、模型架構(gòu)和評(píng)估方向的詳細(xì)信息對(duì)這些 AI 聊天機(jī)器人進(jìn)行了比較。ChatGPT 沒(méi)有這些信息的記錄,因此我們改為使用 InstructGPT 的詳細(xì)信息,這是一個(gè)來(lái)自 OpenAI 的指令微調(diào)模型,據(jù)信它是 ChatGPT 的基礎(chǔ)。

LaMDA BlenderBot 3 Sparrow ChatGPT / InstructGPT Assistant
組織 Google Meta DeepMind OpenAI Anthropic
能否公開(kāi)訪(fǎng)問(wèn) 有限
大小 137B 175B 70B 175B 52B
預(yù)訓(xùn)練
基礎(chǔ)模型
未知 OPT Chinchilla GPT-3.5 未知
預(yù)訓(xùn)練語(yǔ)料庫(kù)大小 (詞數(shù)) 2.81T 180B 1.4T 未知 400B
模型是否可以
訪(fǎng)問(wèn)網(wǎng)絡(luò)
有監(jiān)督
微調(diào)
微調(diào)
數(shù)據(jù)大小
質(zhì)量:6.4K
安全性:8K
真實(shí)性:4K
IR:49K
大小從 18K 到 1.2M 不等的 20 個(gè) NLP 數(shù)據(jù)集 未知 12.7K (此為 InstructGPT,ChatGPT 可能更多) 150K+ LM 生成的數(shù)據(jù)
RLHF
人為制定的安全規(guī)則
評(píng)價(jià)標(biāo)準(zhǔn) 1、質(zhì)量 (合情性、具體性、趣味性)
2、安全性 (偏見(jiàn)) 3、真實(shí)性
1、質(zhì)量 (參與度、知識(shí)運(yùn)用)
2、安全性 (毒性、偏見(jiàn))
1、校直 (有幫助,無(wú)害,正確)
2、證據(jù) (來(lái)自網(wǎng)絡(luò))
3、是否違反規(guī)則
4、偏見(jiàn)和刻板印象
5、誠(chéng)信度
1、 校直 (有幫助、無(wú)害、真實(shí))
2、偏見(jiàn)
1、校直 (有幫助、無(wú)害、誠(chéng)實(shí))
2、偏見(jiàn)
用于數(shù)據(jù)標(biāo)注的眾包平臺(tái) 美國(guó)供應(yīng)商 亞馬遜 MTurk 未知 Upwork 和 Scale AI Surge AI、Amazon MTurk 和 Upwork

我們觀(guān)察到,盡管在訓(xùn)練數(shù)據(jù)、模型和微調(diào)方面存在許多差異,但也存在一些共性。上述所有聊天機(jī)器人的一個(gè)共同目標(biāo)是「指令依從 (instruction following)」,即遵循用戶(hù)指定的指令。例如,要求 ChatGPT 寫(xiě)一首關(guān)于微調(diào)的詩(shī)。

9f4047dc-a71f-11ed-bfe3-dac502259ad0.jpgChatGPT 指令示例

從預(yù)測(cè)文本到遵循指令

通常,基礎(chǔ)模型的語(yǔ)言建模目標(biāo)不足以讓模型學(xué)會(huì)以有用的方式遵循用戶(hù)的指令。模型創(chuàng)建者使用「指令微調(diào) (Instruction Fine-Tuning,IFT)」方法來(lái)達(dá)到該目的,該方法除了使用情感分析、文本分類(lèi)、摘要等經(jīng)典 NLP 任務(wù)來(lái)微調(diào)模型外,還在非常多樣化的任務(wù)集上向基礎(chǔ)模型示范各種書(shū)面指令及其輸出,從而實(shí)現(xiàn)對(duì)基礎(chǔ)模型的微調(diào)。

這些指令示范由三個(gè)主要部分組成 —— 指令、輸入和輸出。輸入是可選的,一些任務(wù)只需要指令,如上文使用 ChatGPT 做開(kāi)放式文本生成的示例。當(dāng)存在輸入時(shí),輸入和輸出組成一個(gè)「實(shí)例 (instance)」。給定指令可以有多個(gè)輸入和輸出實(shí)例。如下例 (摘自 Wang 等,'22):

9f51a9c8-a71f-11ed-bfe3-dac502259ad0.png指令和實(shí)例示例

IFT 的訓(xùn)練數(shù)據(jù)通常是人工編寫(xiě)的指令及用語(yǔ)言模型自舉 (bootstrap) 生成的實(shí)例的集合。在自舉時(shí),先使用少樣本技術(shù)輸入一些樣本給 LM 用于提示它 (如上圖所示),隨后要求 LM 生成新的指令、輸入和輸出。每一輪都會(huì)從人工編寫(xiě)的樣本和模型生成的樣本中各選擇一些送給模型。人類(lèi)和模型對(duì)創(chuàng)建數(shù)據(jù)集的貢獻(xiàn)構(gòu)成了一個(gè)譜圖,見(jiàn)下圖:

9f5e8990-a71f-11ed-bfe3-dac502259ad0.pngIFT 譜圖

譜圖的一端是純模型生成的 IFT 數(shù)據(jù)集,例如 Unnatural Instructions (Honovich 等,'22);另一端是經(jīng)由社區(qū)的大量努力精心制作的指令如 Super-natural instructions (Wang 等,'22)。在這兩者之間的工作是使用一小組高質(zhì)量的種子數(shù)據(jù)集,然后進(jìn)行自舉生成最終數(shù)據(jù)集,如 Self-Instruct (Wang 等,'22)。

為 IFT 整理數(shù)據(jù)集的另一種方法是將現(xiàn)有的用于各種任務(wù) (包括提示)的高質(zhì)量眾包 NLP 數(shù)據(jù)集使用統(tǒng)一模式或不同模板轉(zhuǎn)換為指令。這一系列工作包括 T0 (Sanh 等,'22)、Natural instructions 數(shù)據(jù)集 (Mishra 等,'22)、FLAN LM (Wei 等,'22) 和 OPT-IML (Iyer 等,'22)。

安全地遵循指令

然而,經(jīng)過(guò)指令微調(diào)的 LM 并不總是能生成 有幫助的 和 安全的 響應(yīng)。這種行為的例子包括通過(guò)總是給出無(wú)益的回應(yīng)來(lái)逃避,例如 “對(duì)不起,我不明白?!?或?qū)γ舾?a href="http://www.wenjunhu.com/v/tag/" target="_blank">話(huà)題的用戶(hù)輸入生成不安全的響應(yīng)。為了減輕這種行為,模型開(kāi)發(fā)人員使用 有監(jiān)督微調(diào) (Supervised Fine-tuning, SFT),在高質(zhì)量的人類(lèi)標(biāo)注數(shù)據(jù)上微調(diào)基礎(chǔ)語(yǔ)言模型,以提高有用性和無(wú)害性。例如,請(qǐng)參閱下面的表格(摘自 Sparrow 論文的附錄 F)。

SFT 和 IFT 聯(lián)系非常緊密。指令微調(diào)可以看作是有監(jiān)督微調(diào)的一個(gè)子集。在最近的文獻(xiàn)中,SFT 階段經(jīng)常被用于提高響應(yīng)的安全性,而不是接在 IFT 后面提高指令相應(yīng)的具體性。將來(lái),這種分類(lèi)和劃分應(yīng)該日臻成熟,形成更清晰的使用場(chǎng)景和方法論。

9f7e9bcc-a71f-11ed-bfe3-dac502259ad0.png人工安全規(guī)則

谷歌的 LaMDA 也根據(jù)一組規(guī)則 (論文附錄 A) 在帶有安全標(biāo)注的對(duì)話(huà)數(shù)據(jù)集上進(jìn)行微調(diào)。這些規(guī)則通常由模型創(chuàng)建者預(yù)先定義和開(kāi)發(fā),涵蓋廣泛的主題,包括傷害、歧視、錯(cuò)誤信息。

微調(diào)模型

同時(shí),OpenAI 的 InstructGPT、DeepMind 的 Sparrow 和 Anthropic 的 Constitutional AI 使用 人類(lèi)反饋強(qiáng)化學(xué)習(xí) (Reinforcement Learning From Human Feedback,RLHF) 來(lái)微調(diào)模型,該方法使用基于人類(lèi)偏好的標(biāo)注數(shù)據(jù)。在 RLHF 中,根據(jù)人類(lèi)反饋來(lái)對(duì)模型的響應(yīng)進(jìn)行排序標(biāo)注 (如,根據(jù)人類(lèi)偏好選擇文本簡(jiǎn)介)。然后,用這些帶標(biāo)注的響應(yīng)來(lái)訓(xùn)練偏好模型,該模型用于返回 RL 優(yōu)化器的標(biāo)量獎(jiǎng)勵(lì)。最后,通過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練對(duì)話(huà)代理來(lái)模擬偏好模型。有關(guān)更多詳細(xì)信息,請(qǐng)參閱我們之前關(guān)于 RLHF 的文章: ChatGPT 背后的“功臣”——RLHF 技術(shù)詳解。

思維鏈 (Chain-of-thought,CoT) 提示 (Wei 等,'22) 是指令示范的一種特殊情況,它通過(guò)引發(fā)對(duì)話(huà)代理的逐步推理來(lái)生成輸出。使用 CoT 微調(diào)的模型使用帶有逐步推理的人工標(biāo)注的指令數(shù)據(jù)集。這是 Let’s think step by step 這一著名提示的由來(lái)。下面的示例取自 Chung 等,'22,橙色高亮的部分是指令,粉色是輸入和輸出,藍(lán)色是 CoT 推理。

9f96042e-a71f-11ed-bfe3-dac502259ad0.png

CoT 圖解

如 Chung 等,'22 中所述,使用 CoT 微調(diào)的模型在涉及常識(shí)、算術(shù)和符號(hào)推理的任務(wù)上表現(xiàn)得更好。

如 Bai 等,'22 的工作所示,CoT 微調(diào)也顯示出對(duì)無(wú)害性非常有效 (有時(shí)比 RLHF 做得更好),而且對(duì)敏感提示,模型不會(huì)回避并生成 “抱歉,我無(wú)法回答這個(gè)問(wèn)題” 這樣的回答。更多示例,請(qǐng)參見(jiàn)其論文的附錄 D。

9fb63b9a-a71f-11ed-bfe3-dac502259ad0.pngCoT 和 RLHF 的對(duì)比

要點(diǎn)

與預(yù)訓(xùn)練數(shù)據(jù)相比,您只需要非常小的一部分?jǐn)?shù)據(jù)來(lái)進(jìn)行指令微調(diào) (幾百個(gè)數(shù)量級(jí));

使用人工標(biāo)注的有監(jiān)督微調(diào)使模型輸出更安全和有用;

CoT 微調(diào)提高了模型在需要逐步思考的任務(wù)上的性能,并使它們?cè)诿舾性?huà)題上不那么回避。

對(duì)話(huà)代理的進(jìn)一步工作

這個(gè)博客總結(jié)了許多關(guān)于使對(duì)話(huà)代理有用的現(xiàn)有工作。但仍有許多懸而未決的問(wèn)題有待探索。我們?cè)谶@里列出了其中的一些。

RL 在從人類(lèi)反饋中學(xué)習(xí)有多重要?我們能否通過(guò)在 IFT 或 SFT 中使用更高質(zhì)量的數(shù)據(jù)進(jìn)行訓(xùn)練來(lái)獲得 RLHF 的性能?

為了安全的角度看,Sparrow 中的 SFT+RLHF 與 LaMDA 中僅使用 SFT 相比如何?

鑒于我們有 IFT、SFT、CoT 和 RLHF,預(yù)訓(xùn)練有多大的必要性?如何折衷?人們應(yīng)該使用的最佳基礎(chǔ)模型是什么 (公開(kāi)的和非公開(kāi)的)?

本文中引用的許多模型都經(jīng)過(guò) 紅藍(lán)對(duì)抗 (red-teaming) 的精心設(shè)計(jì),工程師特地搜尋故障模式并基于已被揭示的問(wèn)題改進(jìn)后續(xù)的訓(xùn)練 (提示和方法)。我們?nèi)绾蜗到y(tǒng)地記錄這些方法的效果并重現(xiàn)它們?






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    211

    文章

    28571

    瀏覽量

    207736
  • COT
    COT
    +關(guān)注

    關(guān)注

    0

    文章

    23

    瀏覽量

    16491
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1106

    瀏覽量

    6603
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1566

    瀏覽量

    7868

原文標(biāo)題:解讀ChatGPT背后的技術(shù)重點(diǎn):RLHF、IFT、CoT、紅藍(lán)對(duì)抗

文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    LLM風(fēng)口背后,ChatGPT的成本問(wèn)題

    趁著ChatGPT這一熱門(mén)話(huà)題還未消退,我們來(lái)聊一聊這類(lèi)大規(guī)模語(yǔ)言模型(LLM)或通用人工智能(AGI)背后的細(xì)節(jié)。畢竟目前相關(guān)的概念股跟風(fēng)大漲,但還是有不少人在持觀(guān)望態(tài)度。無(wú)論是國(guó)外還是國(guó)內(nèi)
    的頭像 發(fā)表于 02-15 01:19 ?4648次閱讀

    ChatGPT背后的算力芯片

    今年以來(lái)可以說(shuō)是最熱的賽道,而AI大模型對(duì)算力的需求爆發(fā),也帶動(dòng)了AI服務(wù)器中各種類(lèi)型的芯片需求,所以本期核芯觀(guān)察將關(guān)注ChatGPT背后所用到的算力芯片產(chǎn)業(yè)鏈,梳理目前主流類(lèi)型的AI算力芯片產(chǎn)業(yè)上下游企業(yè)以及運(yùn)作模式。 ? ChatG
    的頭像 發(fā)表于 05-21 00:01 ?3539次閱讀
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>背后</b>的算力芯片

    【6.2】技術(shù)解讀(框架、場(chǎng)景案例解讀

    `技術(shù)解讀(框架、場(chǎng)景案例解讀)`
    發(fā)表于 06-04 17:12

    科技大廠(chǎng)競(jìng)逐AIGC,中國(guó)的ChatGPT在哪?

    產(chǎn)業(yè)版ChatGPT--ChatJD。 可見(jiàn),大廠(chǎng)的態(tài)度十分鮮明:ChatGPT已經(jīng)是既定的未來(lái),這場(chǎng)新的科技競(jìng)技賽哨聲響起,誰(shuí)都不甘落于下風(fēng)。從科技巨頭,到行業(yè)龍頭,中國(guó)企業(yè)競(jìng)逐AI賽道,AIGC(利用人工智能技術(shù)
    發(fā)表于 03-03 14:28

    詳細(xì)解讀ChatGPT 背后技術(shù)重點(diǎn)

    通常,基礎(chǔ)模型的語(yǔ)言建模目標(biāo)不足以讓模型學(xué)會(huì)以有用的方式遵循用戶(hù)的指令。模型創(chuàng)建者使用「指令微調(diào) (Instruction Fine-Tuning,IFT)」方法來(lái)達(dá)到該目的。
    發(fā)表于 02-09 10:20 ?741次閱讀

    解讀ChatGPT背后技術(shù)重點(diǎn):RLHF、IFT、CoT、紅藍(lán)對(duì)抗

    我們先來(lái)看看基于語(yǔ)言模型的會(huì)話(huà)代理的全景。ChatGPT 并非首創(chuàng),事實(shí)上很多組織在 OpenAI 之前就發(fā)布了自己的語(yǔ)言模型對(duì)話(huà)代理 (dialog agents),包括 Meta
    的頭像 發(fā)表于 02-09 10:20 ?2362次閱讀

    ChatGPT背后的原理簡(jiǎn)析

     chatGPT是一種基于轉(zhuǎn)移學(xué) 習(xí)的大型語(yǔ)言模型,它使用GPT-2 (Generative PretrainedTransformer2)模型的技術(shù),并進(jìn)行了進(jìn)一步的訓(xùn)練和優(yōu)化。
    的頭像 發(fā)表于 02-09 15:09 ?8027次閱讀
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>背后</b>的原理簡(jiǎn)析

    ChatGPT背后:OpenAI 創(chuàng)始人Sam Altman如何用微軟的數(shù)十億美元打造了全球最熱門(mén)技術(shù)

    內(nèi)容來(lái)自?MoPaaS 編者按: ChatGPT產(chǎn)生的影響還在繼續(xù),ChatGPT 以及其創(chuàng)造者 OpenAI 背后的故事卻鮮為人知。OpenAI 是怎樣偏離其初心堅(jiān)持商業(yè)化?憑什么 Altman
    的頭像 發(fā)表于 02-10 09:10 ?4010次閱讀

    ChatGPT實(shí)現(xiàn)原理

    OpenAI發(fā)明的一種自然語(yǔ)言處理技術(shù)。它是一種預(yù)訓(xùn)練的深度學(xué)習(xí)模型,可以用來(lái)生成文本,識(shí)別語(yǔ)義,做文本分類(lèi)等任務(wù)。 ChatGPT實(shí)現(xiàn)原理 火爆的ChatGPT,得益于A(yíng)IGC 背后
    的頭像 發(fā)表于 02-13 17:32 ?10.8w次閱讀
    <b class='flag-5'>ChatGPT</b>實(shí)現(xiàn)原理

    ChatGPT關(guān)于幾個(gè)硬件問(wèn)題的回答

    相比以往的AI對(duì)話(huà)模型,ChatGPT背后的自然語(yǔ)言處理技術(shù)著實(shí)讓人感到驚嘆。
    發(fā)表于 02-15 14:42 ?490次閱讀

    ChatGPT for SegmentFault 插件來(lái)襲 ChatGPT for SegmentFault 插件使用方案解讀

    機(jī)器人插件,可以幫助開(kāi)發(fā)者快速構(gòu)建聊天機(jī)器人應(yīng)用。下文小編會(huì)給大家分享一下ChatGPT for SegmentFault 插件使用方案解讀ChatGPT for SegmentFault 是一個(gè)
    的頭像 發(fā)表于 02-16 18:45 ?2978次閱讀

    ChatGPT成功背后技術(shù)原因

    ChatGPT不僅是自然語(yǔ)言理解領(lǐng)域的一項(xiàng)技術(shù)進(jìn)步,會(huì)引發(fā)新一輪信息服務(wù)和內(nèi)容生成領(lǐng)域的商業(yè)潮流,同時(shí),其背后基于海量數(shù)據(jù)的深度生成技術(shù),以及基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)
    發(fā)表于 02-21 09:40 ?1163次閱讀

    ChatGPT背后的大模型技術(shù)

    由于ChatGPT可以適用于非常多的任務(wù),很多人認(rèn)為 AI 已經(jīng)迎來(lái)拐點(diǎn)。李開(kāi)復(fù)將此前的 AI 定義為 AI 1.0,此后的AI定義為AI 2.0。AI 1.0 中模型適用于單領(lǐng)域,AI 2.0 中
    的頭像 發(fā)表于 05-29 11:16 ?1495次閱讀
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>背后</b>的大模型<b class='flag-5'>技術(shù)</b>

    ChatGPT背后:OpenAI 創(chuàng)始人Sam Altman如何用微軟的數(shù)十億美元打造了全球最熱門(mén)技術(shù)

    內(nèi)容來(lái)自MoPaaS編者按:ChatGPT產(chǎn)生的影響還在繼續(xù),ChatGPT以及其創(chuàng)造者OpenAI背后的故事卻鮮為人知。OpenAI是怎樣偏離其初心堅(jiān)持商業(yè)化?憑什么Altman可以讓微軟早期押注
    的頭像 發(fā)表于 02-13 14:28 ?819次閱讀
    <b class='flag-5'>ChatGPT</b> 的<b class='flag-5'>背后</b>:OpenAI 創(chuàng)始人Sam Altman如何用微軟的數(shù)十億美元打造了全球最熱門(mén)<b class='flag-5'>技術(shù)</b>

    chatgpt是什么意思 ChatGPT背后技術(shù)原理

      今天我們?yōu)榇蠹規(guī)?lái)的文章,深入淺出地闡釋了ChatGPT背后技術(shù)原理,沒(méi)有NLP或算法經(jīng)驗(yàn)的小伙伴,也可以輕松理解ChatGPT是如何工作的?! ?/div>
    發(fā)表于 07-18 17:12 ?0次下載