【導(dǎo)讀】語言模型該怎么增強(qiáng)?
ChatGPT算是點(diǎn)燃了語言模型的一把火,NLP的從業(yè)者都在反思與總結(jié)未來的研究方向。
最近圖靈獎得主Yann LeCun參與撰寫了一篇關(guān)于「增強(qiáng)語言模型」的綜述,回顧了語言模型與推理技能和使用工具的能力相結(jié)合的工作,并得出結(jié)論,這個新的研究方向有可能解決傳統(tǒng)語言模型的局限性,如可解釋性、一致性和可擴(kuò)展性問題。
論文鏈接:https://arxiv.org/abs/2302.07842
增強(qiáng)語言模型中,推理意為將復(fù)雜的任務(wù)分解為更簡單的子任務(wù),工具包括調(diào)用外部模塊(如代碼解釋器、計算器等),LM可以通過啟發(fā)式方法單獨(dú)使用或組合利用這些增強(qiáng)措施,或者通過演示學(xué)習(xí)實現(xiàn)。
在遵循標(biāo)準(zhǔn)的missing token預(yù)測目標(biāo)的同時,增強(qiáng)的LM可以使用各種可能是非參數(shù)化的外部模塊來擴(kuò)展上下文處理能力,不局限于純語言建模范式,可以稱之為增強(qiáng)語言模型(ALMs, Augmented Language Models)。
missing token的預(yù)測目標(biāo)可以讓ALM學(xué)習(xí)推理、使用工具甚至行動(act),同時仍然能夠執(zhí)行標(biāo)準(zhǔn)的自然語言任務(wù),甚至在幾個基準(zhǔn)數(shù)據(jù)集上性能超過大多數(shù)常規(guī)LM。
增強(qiáng)語言模型
大型語言模型(LLMs)推動了自然語言處理的巨大進(jìn)步,并且已經(jīng)逐步成為數(shù)百萬用戶所用產(chǎn)品的技術(shù)核心,包括寫代碼助手Copilot、谷歌搜索引擎以及最近發(fā)布的ChatGPT。
Memorization 與Compositionality 能力相結(jié)合,使得LLM能夠以前所未有的性能水平執(zhí)行各種任務(wù),如語言理解或有條件和無條件的文本生成,從而為更廣泛的人機(jī)互動開辟了一條實用的道路。
然而,目前LLM的發(fā)展仍然受到諸多限制,阻礙了其向更廣泛應(yīng)用場景的部署。比如LLMs經(jīng)常提供非事實但看似合理的預(yù)測,也被稱為幻覺(hallucinations),很多錯誤其實完全是可以避免的,包括算術(shù)問題和在推理鏈中出現(xiàn)的小錯誤。
此外,許多LLM的突破性能力似乎是隨著規(guī)模的擴(kuò)大而出現(xiàn)的,以可訓(xùn)練參數(shù)的數(shù)量來衡量的話,之前的研究人員已經(jīng)證明,一旦模型達(dá)到一定的規(guī)模,LLM就能夠通過few-shot prompting來完成一些BIG-bench任務(wù)。
盡管最近也有工作訓(xùn)練出了一些較小的LMs,同時還能保留一些大模型的能力,但當(dāng)下LLMs的規(guī)模和對數(shù)據(jù)的需求對于訓(xùn)練和維護(hù)都是不切實際的:大型模型的持續(xù)學(xué)習(xí)仍然是一個開放的研究問題。
Meta的研究人員們認(rèn)為這些問題源于LLMs的一個基本缺陷:其訓(xùn)練過程就是給定一個參數(shù)模型和有限的上下文(通常是n個前后的詞),然后進(jìn)行統(tǒng)計語言建模。
雖然近年來,由于軟件和硬件的發(fā)展,上下文尺寸n一直在增長,但大多數(shù)模型仍然使用相對較小的上下文尺寸,所以模型的巨大規(guī)模是儲存沒有出現(xiàn)在上下文知識的一個必要條件,對于執(zhí)行下游任務(wù)來說也很關(guān)鍵。
因此,一個不斷增長的研究趨勢就是用稍微偏離上述的純統(tǒng)計語言建模范式的方式來解決這些問題。
例如,有一項工作是通過增加從「相關(guān)外部文件中提取的信息」計算相關(guān)度來規(guī)避LLM的有限語境尺寸的問題。通過為LMs配備一個檢索模塊,從數(shù)據(jù)庫中檢索出給定語境下的此類文檔,從而實現(xiàn)與更大規(guī)模LM的某些能力相匹配,同時擁有更少的參數(shù)。
需要注意的是,現(xiàn)在產(chǎn)生的模型是非參數(shù)化的,因為它可以查詢外部數(shù)據(jù)源。更一般的,LM還可以通過推理策略改善其上下文,以便在生成答案之前生成更相關(guān)的上下文,通過更多的計算來提升性能。
另一個策略是允許LM利用外部工具,用LM的權(quán)重中不包含的重要缺失信息來增強(qiáng)當(dāng)前語境。盡管這些工作大多旨在緩解上述LM的缺點(diǎn),但可以直接想到,更系統(tǒng)地用推理和工具來增強(qiáng)LM,可能會導(dǎo)致明顯更強(qiáng)大的智能體。
研究人員將這些模型統(tǒng)稱為增強(qiáng)語言模型(ALMs)。
隨著這一趨勢的加速,跟蹤和理解眾多模型變得十分困難,需要對ALMs的工作進(jìn)行分類,并對有時出于不同目的而使用的技術(shù)術(shù)語進(jìn)行定義。
推理Reasoning
在ALM的背景下,推理是將一個潛在的復(fù)雜任務(wù)分解成更簡單的子任務(wù),LM可以自己或使用工具更容易地解決。
目前有各種分解子任務(wù)的方法,例如遞歸或迭代,在某種意義上來說,推理類似于LeCun于2022年發(fā)表論文「通往自主機(jī)器智能的路線」中定義的計劃。
論文鏈接:
https://openreview.net/pdf?id=BZ5a1r-kVsf
在這篇survey中,推理指的是提高LM中推理能力的各種策略,比如利用少量的幾個例子進(jìn)行step-by-step推理。雖然目前還沒有完全理解LM是否真的在推理,或者僅僅是產(chǎn)生了一個更大的背景,增加了正確預(yù)測missing tokens的可能性。
鑒于目前的技術(shù)水平,推理可能是一個被濫用的說法,但這個術(shù)語已經(jīng)在社區(qū)內(nèi)廣泛使用了。在ALM的語境中,推理的一個更務(wù)實的定義是在得出prompt的答案之前給模型更多的計算步驟。
工具Tool
對于ALM來說,工具是一個外部模塊,通常使用一個規(guī)則或一個特殊的token來調(diào)用,其輸出包含在ALM的上下文中。
工具可以用來收集外部信息,或者對虛擬或物理世界產(chǎn)生影響(一般由ALM感知):比如說文件檢索器可以用來作為獲取外部信息的工具,或者用機(jī)器臂對外部影響進(jìn)行感知。
工具可以在訓(xùn)練時或推理時被調(diào)用,更一般地說,模型需要學(xué)習(xí)與工具的互動,包括學(xué)習(xí)調(diào)用其API。
行為Act
對于ALM來說,調(diào)用一個對虛擬或物理世界有影響的工具并觀察其結(jié)果,通常是將其納入ALM的當(dāng)前上下文。
這篇survey中介紹的一些工作討論了在網(wǎng)絡(luò)中搜索(seraching the web),或者通過LMs進(jìn)行機(jī)械臂操縱。在略微濫用術(shù)語的情況下,有時會把ALM對一個工具的調(diào)用表示為一個行動(action),即使沒有對外部世界產(chǎn)生影響。
為什么要同時討論推理和工具?
LM中推理和工具的結(jié)合應(yīng)該允許在沒有啟發(fā)式的情況下解決廣泛的復(fù)雜任務(wù),即具有更好的泛化能力。
通常情況下,推理會促進(jìn)LM將一個給定的問題分解成可能更簡單的子任務(wù),而工具則有助于正確地完成每個步驟,例如從數(shù)學(xué)運(yùn)算中獲得結(jié)果。
換句話說,推理是LM結(jié)合不同工具以解決復(fù)雜任務(wù)的一種方式,而工具則是避免推理失敗和有效分解的一種方式。
兩者都應(yīng)該受益于對方,并且推理和工具可以放在同一個模塊里,因為二者都是通過增強(qiáng)LM的上下文來更好地預(yù)測missing tokens,盡管是以不同的方式。
為什么要同時討論工具和行動?
收集額外信息的工具和對虛擬或物理世界產(chǎn)生影響的工具可以被LM以同樣的方式調(diào)用。
例如,輸出python代碼解決數(shù)學(xué)運(yùn)算的LM和輸出python代碼操縱機(jī)械臂的LM之間似乎沒有什么區(qū)別。
這篇綜述中討論的一些工作已經(jīng)在使用對虛擬或物理世界產(chǎn)生影響的LM,在這種觀點(diǎn)下,我們可以說LM有行動的潛力,并期望在LM作為自主智能體的方向上取得重要進(jìn)展。
分類方法
研究人員將綜述中介紹的工作分解上述三個維度,并分別介紹,最后還討論了其他維度的相關(guān)工作。
對讀者來說,應(yīng)該記得,其中很多技術(shù)最初是在LM之外的背景下引入的,如果需要的話,盡可能查看提到的論文的介紹和相關(guān)工作。
最后,盡管綜述專注于LLM,但并非所有的相關(guān)工作都采用了大模型,而是以LM的正確性為宗旨。
審核編輯 :李倩
-
語言模型
+關(guān)注
關(guān)注
0文章
529瀏覽量
10292 -
nlp
+關(guān)注
關(guān)注
1文章
489瀏覽量
22052 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1564瀏覽量
7805
原文標(biāo)題:ChatGPT之后何去何從?LeCun新作:全面綜述下一代「增強(qiáng)語言模型」
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論