0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

斯坦福教授Manning長(zhǎng)文梳理:十年后的基礎(chǔ)模型能成AGI嗎?

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:新智元 ? 2023-09-07 16:04 ? 次閱讀

【新智元導(dǎo)讀】從手工規(guī)則、神經(jīng)網(wǎng)絡(luò)到Transformer基礎(chǔ)模型,自然語(yǔ)言處理的未來(lái)是統(tǒng)一多模態(tài),走向通用人工智能!

過(guò)去十年間,僅靠簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)計(jì)算,以及大規(guī)模的訓(xùn)練數(shù)據(jù)支持,自然語(yǔ)言處理領(lǐng)域取得了相當(dāng)大的突破,由此訓(xùn)練得到的預(yù)訓(xùn)練語(yǔ)言模型,如BERT、GPT-3等模型都提供了強(qiáng)大的通用語(yǔ)言理解、生成和推理能力。

前段時(shí)間,斯坦福大學(xué)大學(xué)教授Christopher D. Manning在Daedalus期刊上發(fā)表了一篇關(guān)于「人類語(yǔ)言理解和推理」的論文,主要梳理自然語(yǔ)言處理的發(fā)展歷史,并分析了基礎(chǔ)模型的未來(lái)發(fā)展前景。

論文作者Christopher Manning是斯坦福大學(xué)計(jì)算機(jī)與語(yǔ)言學(xué)教授,也是將深度學(xué)習(xí)應(yīng)用于自然語(yǔ)言處理領(lǐng)域的領(lǐng)軍者,研究方向?qū)W⒂诶?a target="_blank">機(jī)器學(xué)習(xí)方法處理計(jì)算語(yǔ)言學(xué)問(wèn)題,以使計(jì)算機(jī)能夠智能處理、理解并生成人類語(yǔ)言。

Manning教授是ACM Fellow,AAAI Fellow 和ACL Fellow,他的多部著作,如《統(tǒng)計(jì)自然語(yǔ)言處理基礎(chǔ)》、《信息檢索導(dǎo)論》等都成為了經(jīng)典教材,其課程斯坦福CS224n《深度學(xué)習(xí)自然語(yǔ)言處理》更是無(wú)數(shù)NLPer的入門必看。

NLP的四個(gè)時(shí)代

第一時(shí)代(1950-1969)

NLP的研究最早始于機(jī)器翻譯的研究,當(dāng)時(shí)的人們認(rèn)為,翻譯任務(wù)可以基于二戰(zhàn)期間在密碼破譯的成果繼續(xù)發(fā)展,冷戰(zhàn)的雙方也都在開(kāi)發(fā)能夠翻譯其他國(guó)家科學(xué)成果的系統(tǒng),不過(guò)在此期間,人們對(duì)自然語(yǔ)言、人工智能或機(jī)器學(xué)習(xí)的結(jié)構(gòu)幾乎一無(wú)所知。

當(dāng)時(shí)的計(jì)算量和可用數(shù)據(jù)都非常少,雖然最初的系統(tǒng)被大張旗鼓地宣傳,但這些系統(tǒng)只提供了單詞級(jí)的翻譯查找和一些簡(jiǎn)單的、基于規(guī)則的機(jī)制來(lái)處理單詞的屈折形式(形態(tài)學(xué))和詞序。

第二時(shí)代(1970-1992)

這一時(shí)期可以看到一系列NLP演示系統(tǒng)的發(fā)展,在處理自然語(yǔ)言中的語(yǔ)法和引用等現(xiàn)象方面表現(xiàn)出了復(fù)雜性和深度,包括Terry Winograd的SHRDLU,Bill Woods的LUNAR,Roger Schank的SAM,加里Hendrix的LIFER和Danny Bobrow的GUS,都是手工構(gòu)建的、基于規(guī)則的系統(tǒng),甚至還可用用于諸如數(shù)據(jù)庫(kù)查詢之類的任務(wù)。

語(yǔ)言學(xué)和基于知識(shí)的人工智能正在迅速發(fā)展,在這個(gè)時(shí)代的第二個(gè)十年,出現(xiàn)了新一代手工構(gòu)建的系統(tǒng),在陳述性語(yǔ)言知識(shí)和程序處理之間有著明確的界限,并且受益于語(yǔ)言學(xué)理論的發(fā)展。

第三時(shí)代(1993-2012)

在此期間,數(shù)字化文本的可用數(shù)量顯著提升,NLP的發(fā)展逐漸轉(zhuǎn)為深度的語(yǔ)言理解,從數(shù)千萬(wàn)字的文本中提取位置、隱喻概念等信息,不過(guò)仍然只是基于單詞分析,所以大部分研究人員主要專注于帶標(biāo)注的語(yǔ)言資源,如標(biāo)記單詞的含義、公司名稱、樹(shù)庫(kù)等,然后使用有監(jiān)督機(jī)器學(xué)習(xí)技術(shù)來(lái)構(gòu)建模型。

第四時(shí)代(2013-現(xiàn)在)

深度學(xué)習(xí)或人工神經(jīng)網(wǎng)絡(luò)方法開(kāi)始發(fā)展,可以對(duì)長(zhǎng)距離的上下文進(jìn)行建模,單詞和句子由數(shù)百或數(shù)千維的實(shí)值向量空間進(jìn)行表示,向量空間中的距離可以表示意義或語(yǔ)法的相似度,不過(guò)在執(zhí)行任務(wù)上還是和之前的有監(jiān)督學(xué)習(xí)類似。

2018年,超大規(guī)模自監(jiān)督神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)取得了重大成功,可以簡(jiǎn)單地輸入大量文本(數(shù)十億個(gè)單詞)來(lái)學(xué)習(xí)知識(shí),基本思想就是在「給定前幾個(gè)單詞」的情況下連續(xù)地預(yù)測(cè)下一個(gè)單詞,重復(fù)數(shù)十億次預(yù)測(cè)并從錯(cuò)誤中學(xué)習(xí),然后就可以用于問(wèn)答或文本分類任務(wù)。

預(yù)訓(xùn)練的自監(jiān)督方法的影響是革命性的,無(wú)需人類標(biāo)注即可產(chǎn)生一個(gè)強(qiáng)大的模型,后續(xù)簡(jiǎn)單微調(diào)即可用于各種自然語(yǔ)言任務(wù)。

模型架構(gòu)

自2018年以來(lái),NLP應(yīng)用的主要神經(jīng)網(wǎng)絡(luò)模型轉(zhuǎn)為Transformer神經(jīng)網(wǎng)絡(luò),核心思想是注意力機(jī)制,單詞的表征計(jì)算為來(lái)自其他位置單詞表征的加權(quán)組合。

Transofrmer一個(gè)常見(jiàn)的自監(jiān)督目標(biāo)是遮罩文本中出現(xiàn)的單詞,將該位置的query, key和value向量與其他單詞進(jìn)行比較,計(jì)算出注意力權(quán)重并加權(quán)平均,再通過(guò)全連接層、歸一化層和殘差連接來(lái)產(chǎn)生新的單詞向量,再重復(fù)多次增加網(wǎng)絡(luò)的深度。

c79c93dc-4d39-11ee-a25d-92fbcf53809c.png

雖然Transformer的網(wǎng)絡(luò)結(jié)構(gòu)看起來(lái)不復(fù)雜,涉及到的計(jì)算也很簡(jiǎn)單,但如果模型參數(shù)量足夠大,并且有大量的數(shù)據(jù)用來(lái)訓(xùn)練預(yù)測(cè)的話,模型就可以發(fā)現(xiàn)自然語(yǔ)言的大部分結(jié)構(gòu),包括句法結(jié)構(gòu)、單詞的內(nèi)涵、事實(shí)知識(shí)等。

prompt生成

從2018年到2020年,研究人員使用大型預(yù)訓(xùn)練語(yǔ)言模型(LPLM)的主要方法就是使用少量的標(biāo)注數(shù)據(jù)進(jìn)行微調(diào),使其適用于自定義任務(wù)。

但GPT-3(Generative Pre-training Transformer-3)發(fā)布后,研究人員驚訝地發(fā)現(xiàn),只需要輸入一段prompt,即便在沒(méi)有訓(xùn)練過(guò)的新任務(wù)上,模型也可以很好地完成。

相比之下,傳統(tǒng)的NLP模型由多個(gè)精心設(shè)計(jì)的組件以流水線的方式組裝起來(lái),先捕獲文本的句子結(jié)構(gòu)和低級(jí)實(shí)體,然后再識(shí)別出更高層次的含義,再輸入到某些特定領(lǐng)域的執(zhí)行組件中。

在過(guò)去的幾年里,公司已經(jīng)開(kāi)始用LPLM取代這種傳統(tǒng)的NLP解決方案,通過(guò)微調(diào)來(lái)執(zhí)行特定任務(wù)。

機(jī)器翻譯

早期的機(jī)器翻譯系統(tǒng)只能在有限的領(lǐng)域中覆蓋有限的語(yǔ)言結(jié)構(gòu)。

2006年推出的谷歌翻譯首次從大規(guī)模平行語(yǔ)料中構(gòu)建統(tǒng)計(jì)模型;2016年谷歌翻譯轉(zhuǎn)為神經(jīng)機(jī)器翻譯系統(tǒng),質(zhì)量得到極大提升;2020年再次更新為基于Transformer的神經(jīng)翻譯系統(tǒng),不再需要兩種語(yǔ)言的平行語(yǔ)料,而是采用一個(gè)巨大的預(yù)訓(xùn)練網(wǎng)絡(luò),通過(guò)一個(gè)特別的token指示語(yǔ)言類型進(jìn)行翻譯。

問(wèn)答任務(wù)

問(wèn)答系統(tǒng)需要在文本集合中查找相關(guān)信息,然后提供特定問(wèn)題的答案,下游有許多直接的商業(yè)應(yīng)用場(chǎng)景,例如售前售后客戶支持等。

現(xiàn)代神經(jīng)網(wǎng)絡(luò)問(wèn)答系統(tǒng)在提取文本中存在的答案具有很高的精度,也相當(dāng)擅長(zhǎng)分類出不存在答案的文本。

分類任務(wù)

對(duì)于常見(jiàn)的傳統(tǒng)NLP任務(wù),例如在一段文本中識(shí)別出人員或組織名稱,或者對(duì)文本中關(guān)于產(chǎn)品的情感進(jìn)行分類(積極或消極),目前最好的系統(tǒng)仍然是基于LPLM的微調(diào)。

文本生成

除了許多創(chuàng)造性的用途之外,生成系統(tǒng)還可以編寫公式化的新聞文章,比如體育報(bào)道、自動(dòng)摘要等,也可以基于放射科醫(yī)師的檢測(cè)結(jié)果生成報(bào)告。

不過(guò),雖然效果很好,但研究人員們?nèi)匀缓軕岩蛇@些系統(tǒng)是否真的理解了他們?cè)谧鍪裁?,或者只是一個(gè)無(wú)意義的、復(fù)雜的重寫系統(tǒng)。

意義(meaning)

語(yǔ)言學(xué)、語(yǔ)言哲學(xué)和編程語(yǔ)言都在研究描述意義的方法,即指稱語(yǔ)義學(xué)方法(denotational semantics)或指稱理論(heory of reference):一個(gè)詞、短語(yǔ)或句子的意義是它所描述的世界中的一組對(duì)象或情況(或其數(shù)學(xué)抽象)。

現(xiàn)代NLP的簡(jiǎn)單分布語(yǔ)義學(xué)認(rèn)為,一個(gè)詞的意義只是其上下文的描述,Manning認(rèn)為,意義產(chǎn)生于理解語(yǔ)言形式和其他事物之間的聯(lián)系網(wǎng)絡(luò),如果足夠密集,就可以很好地理解語(yǔ)言形式的意義。

LPLM在語(yǔ)言理解任務(wù)上的成功,以及將大規(guī)模自監(jiān)督學(xué)習(xí)擴(kuò)展到其他數(shù)據(jù)模態(tài)(如視覺(jué)、機(jī)器人、知識(shí)圖譜、生物信息學(xué)和多模態(tài)數(shù)據(jù))的廣泛前景,使得AI變得更加通用。

基礎(chǔ)模型

除了BERT和GPT-3這樣早期的基礎(chǔ)模型外,還可以將語(yǔ)言模型與知識(shí)圖神經(jīng)網(wǎng)絡(luò)、結(jié)構(gòu)化數(shù)據(jù)連接起來(lái),或是獲取其他感官數(shù)據(jù),以實(shí)現(xiàn)多模態(tài)學(xué)習(xí),如DALL-E模型,在成對(duì)的圖像、文本的語(yǔ)料庫(kù)進(jìn)行自監(jiān)督學(xué)習(xí)后,可以通過(guò)生成相應(yīng)的圖片來(lái)表達(dá)新文本的含義。

我們目前還處于基礎(chǔ)模型研發(fā)的早期,但未來(lái)大多數(shù)信息處理和分析任務(wù),甚至像機(jī)器人控制這樣的任務(wù),都可以由相對(duì)較少的基礎(chǔ)模型來(lái)處理。

雖然大型基礎(chǔ)模型的訓(xùn)練是昂貴且耗時(shí)的,但訓(xùn)練完成后,使其適應(yīng)于不同的任務(wù)還是相當(dāng)容易的,可以直接使用自然語(yǔ)言來(lái)調(diào)整模型的輸出。

但這種方式也存在風(fēng)險(xiǎn):

1. 有能力訓(xùn)練基礎(chǔ)模型的機(jī)構(gòu)享受的權(quán)利和影響力可能會(huì)過(guò)大;

2. 大量終端用戶可能會(huì)遭受模型訓(xùn)練過(guò)程中的偏差影響;

3. 由于模型及其訓(xùn)練數(shù)據(jù)非常大,所以很難判斷在特定環(huán)境中使用模型是否安全。

雖然這些模型的最終只能模糊地理解世界,缺乏人類水平的仔細(xì)邏輯或因果推理能力,但基礎(chǔ)模型的廣泛有效性也意味著可以應(yīng)用的場(chǎng)景非常多,下一個(gè)十年內(nèi)或許可以發(fā)展為真正的通用人工智能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47279

    瀏覽量

    238511
  • Agi
    Agi
    +關(guān)注

    關(guān)注

    0

    文章

    80

    瀏覽量

    10207
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    618

    瀏覽量

    13561

原文標(biāo)題:NLP七十年!斯坦福教授Manning長(zhǎng)文梳理:十年后的基礎(chǔ)模型能成AGI嗎?

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    臺(tái)積電新任CTO由美國(guó)斯坦福教授黃漢森出任

    業(yè)界透露,臺(tái)積電在新任CTO人選上沒(méi)有從內(nèi)部拔擢,而是意外地向外借將,由在學(xué)術(shù)界擁有高度知名的美國(guó)斯坦福教授黃漢森(Philip Wong)出任。
    的頭像 發(fā)表于 08-02 11:24 ?8962次閱讀

    斯坦福開(kāi)發(fā)過(guò)熱自動(dòng)斷電電池

    導(dǎo)致起火。開(kāi)發(fā)電池的斯坦福教授  在斯坦福開(kāi)發(fā)的新電池中,研究人員采用聚乙烯薄膜材料,薄膜上嵌入了鎳磁粉,它會(huì)形成納米級(jí)的突起。研究人員在突起部分覆蓋石墨烯導(dǎo)電材料,讓電流可以從表面通過(guò)。當(dāng)溫度
    發(fā)表于 01-12 11:57

    積累的編程知識(shí)在十年后將有一半沒(méi)用

    積累的編程知識(shí)在十年后將有一半沒(méi)用【導(dǎo)讀】:Ben Northrop 年滿 40 歲,本文是他對(duì)職業(yè)生涯的思考。他認(rèn)為從長(zhǎng)遠(yuǎn)來(lái)看,應(yīng)該多投資一些不容易過(guò)期、衰竭期較長(zhǎng)的知識(shí)領(lǐng)域中。 我是一名程序員
    發(fā)表于 11-21 14:33

    關(guān)于斯坦福的CNTFET的問(wèn)題

    之前下載了斯坦福2015的CNTFET VS model,是.va的文件,不知道怎么用啊,該怎么通過(guò)cadence的pspice進(jìn)行仿真啊,求指點(diǎn)
    發(fā)表于 01-26 13:47

    效率可達(dá)離子電池倍的輕型紙電池在斯坦福誕生

    效率可達(dá)離子電池倍的輕型紙電池在斯坦福誕生       北京時(shí)間12月8日消息,據(jù)國(guó)外媒體報(bào)道,將來(lái)有一天,輕型
    發(fā)表于 12-10 10:58 ?1231次閱讀

    全球無(wú)線電源產(chǎn)品出貨量十年后增至10億

    全球無(wú)線電源產(chǎn)品出貨量十年后增至10億  根據(jù)IMS Research最新分析,全球使用無(wú)線充電技術(shù)的消費(fèi)電子產(chǎn)品出貨量將從2009的150萬(wàn)臺(tái),增長(zhǎng)至2019將近10億臺(tái)。
    發(fā)表于 03-01 12:18 ?745次閱讀

    一位工程師的十年工作感悟

    十年前我本科畢業(yè),加入公司,22歲,十年后我32歲,已經(jīng)過(guò)了30歲的門檻。
    的頭像 發(fā)表于 08-30 11:54 ?6209次閱讀

    李飛飛重返斯坦福大動(dòng)作 布斯坦福開(kāi)啟以人為中心的AI計(jì)劃

    根據(jù)HAI官網(wǎng),參與學(xué)者還包括斯坦福大學(xué)語(yǔ)言學(xué)和計(jì)算機(jī)科學(xué)教授Chris Manning,計(jì)算機(jī)科學(xué)與電氣工程系教授William Dally,計(jì)算機(jī)科學(xué)
    的頭像 發(fā)表于 10-21 09:48 ?5140次閱讀

    斯坦福開(kāi)啟以人為中心的AI計(jì)劃

    李飛飛宣布斯坦福開(kāi)啟「以人為中心的 AI 計(jì)劃」(Human-Centered AI Initiative,HAI),該項(xiàng)目由李飛飛和斯坦福大學(xué)前教務(wù)長(zhǎng) John Etchemendy 共同主導(dǎo),Chris Manning 也參
    的頭像 發(fā)表于 10-25 11:45 ?3803次閱讀

    十年后的網(wǎng)絡(luò)將支撐萬(wàn)億級(jí)連接服務(wù)并具有六大特性

    2018中國(guó)SD-WAN峰會(huì)于在北京召開(kāi),江蘇省未來(lái)網(wǎng)絡(luò)創(chuàng)新研究院院長(zhǎng) 、中國(guó)工程院院士劉韻潔先生認(rèn)為十年后的網(wǎng)絡(luò)將支撐萬(wàn)億級(jí)、人機(jī)物、全時(shí)空、安全、智能的連接服務(wù),分享了未來(lái)網(wǎng)絡(luò)的發(fā)展與機(jī)遇。
    發(fā)表于 11-05 08:47 ?1517次閱讀

    INTEL這十年擠牙膏之旅

    十年后同樣4核8線程i3-9350K,單核177,多核749 ,總體性能多了22%
    的頭像 發(fā)表于 03-18 17:08 ?4023次閱讀

    預(yù)測(cè)十年后光纖傳輸系統(tǒng)技術(shù):干線單波長(zhǎng)可達(dá)Tbps 單纖可達(dá)Pbps量級(jí)

    在“CCSA下一代光傳送網(wǎng)產(chǎn)業(yè)與技術(shù)標(biāo)準(zhǔn)推進(jìn)委員會(huì)(TC618 )成立大會(huì)”既“新一代光傳送網(wǎng)發(fā)展論壇(NGOF)2020度會(huì)議”上,中國(guó)工程院院士鄔賀銓預(yù)測(cè):十年后相干光通信+硅光技術(shù),干線單
    的頭像 發(fā)表于 01-04 10:54 ?2635次閱讀

    2021斯坦福關(guān)于AI的全面報(bào)告

    2021 年度的斯坦福 AI Index 報(bào)告正式發(fā)布,從七大版塊出發(fā),探討了過(guò)去一中的 AI 總體發(fā)展情況。
    的頭像 發(fā)表于 03-12 10:23 ?2898次閱讀

    芯片能屯一堆十年后暴漲再賣掉嗎?

    何止?jié)q 5 倍,聽(tīng)說(shuō)有的 MCU 都漲了幾倍。所以有人建議多囤點(diǎn)芯片,十年后再賣。酒越存越香,股票基金十年后也可能暴漲,芯片難不成也可以這么操作? 答案是:否! 以某個(gè)芯片的外包裝為例: 第一條寫
    的頭像 發(fā)表于 06-18 15:31 ?3836次閱讀

    GPT-4就是AGI!谷歌斯坦福科學(xué)家揭秘大模型如何超智能

    導(dǎo)讀谷歌研究院和斯坦福HAI的兩位專家發(fā)文稱,現(xiàn)在最前沿的AI模型,未來(lái)將會(huì)被認(rèn)為是第一代AGI。最前沿的LLM已經(jīng)用強(qiáng)大的能力證明,AGI即將到來(lái)!通用人工智能(
    的頭像 發(fā)表于 10-14 08:28 ?515次閱讀
    GPT-4就是<b class='flag-5'>AGI</b>!谷歌<b class='flag-5'>斯坦福</b>科學(xué)家揭秘大<b class='flag-5'>模型</b>如何超智能