0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從詞語意義到關(guān)系推斷,ChatGPT是如何理解人類語言的?

阿爾法工場研究院 ? 來源:阿爾法工場研究院 ? 2023-04-21 09:32 ? 次閱讀

導(dǎo)語:這是一個革命性的技術(shù),對于許多知識工作者來說,從市場營銷到工程師,從招聘人員到社會工作者,GPT將改變一切。

現(xiàn)在,你可能已經(jīng)聽說過OpenAI的ChatGPT,或者任何一個替代品GPT-3、GPT-4、微軟的Bing Chat、Facebook的LLaMa甚至谷歌的Bard。

它們是可以參與對話的人工智能程序。它們非常聰明,很容易被誤認(rèn)為是人類,并能熟練完成各種任務(wù),從寫論文到創(chuàng)建網(wǎng)站。

一臺電腦怎么能進(jìn)行這樣的對話呢?讓我們來看看它是如何工作的。

一種概率性的方法

自然語言最簡單的模型是一個天真的概率模型,也被稱為馬爾可夫鏈 1 。這個想法很簡單:取一個參考文本,越長越好,然后學(xué)習(xí)單詞序列的概率。例如,給定一個句子:

The cat eats the rat. 貓吃了老鼠。

該模型將了解到,在 “貓 ”之后,總是有 “吃”,然后是“的”。但是在“the”之后,有50%的機(jī)會出現(xiàn)“貓”,50%的機(jī)會出現(xiàn) “老鼠”。

我們可以用這個模型來問一個不完整的句子后的下一個詞是什么。如果我們重復(fù)這個過程,我們可以生成整個句子。

如果我們要求模型生成一個句子,我們可以得到與訓(xùn)練文本完全相同的東西:

The cat eats the rat. 貓吃了老鼠。

We could also get:我們也可以得到:

The rat.

The cat eats the cat eats the cat eats the rat.

貓吃貓,貓吃貓,貓吃老鼠。

每當(dāng)我們到達(dá)“the”這個詞時,模型可以在 “老鼠”或 “貓 ”之間進(jìn)行選擇。

當(dāng)然,我們用來訓(xùn)練模型的文本會更長,但你已經(jīng)可以看到一些問題。如果我們在整個維基百科網(wǎng)站上進(jìn)行訓(xùn)練,我們可以得到這樣的結(jié)果:

解釋他的行為,并因戴維斯的強(qiáng)烈語言和文化而被送入精神病院。

這個句子更復(fù)雜,詞匯更豐富,但它沒有任何意義,因?yàn)檫@個模型缺乏上下文:它只使用最新的詞來生成下一個詞。

我們可以擴(kuò)展這個模型,以考慮到2、3或4個語境詞(“吃了”后面是“老鼠”),但那樣我們可能只是在重復(fù)輸入文本的整個部分:維基百科上有多少次完全相同的4個詞的序列?

從文字到意義

到目前為止,問題之一是,我們把單詞當(dāng)作一堆沒有意義的字母。這個模型不理解 “the ”和 “a”之間的關(guān)系,“king”和“queen”之間的關(guān)系,等等。

我們怎樣才能從單詞中提取意義呢?試圖向計(jì)算機(jī)解釋意義和定義這些詞是一個死胡同,這個任務(wù)太復(fù)雜了(人們已經(jīng)嘗試了幾十年)。

你甚至怎么能代表一個詞的含義呢?好吧,有一樣?xùn)|西計(jì)算機(jī)可以完全理解:數(shù)字。如果我們將單詞的含義表示為沿著幾個軸的數(shù)字,會怎么樣呢?

For instance: on a scale of -1 (masculine) to 1 (feminine), how do you evaluate this word?

例如:在-1(男性化)到1(女性化)的范圍內(nèi),你如何評價這個詞?

king: -1

queen: 1

table: 0

mustache: -0.9

或者:在-1(卑鄙)到1(美好)的范圍內(nèi),你如何評價這個詞?

wolf: -0.8

princess: 0.9

table: 0.1

gift: 1

或者甚至:在-1(名詞)到1(動詞)的范圍內(nèi),你如何評價這個詞?

king: -1

speak: 1

pretty: 0

以此類推。有了足夠的軸來評估單詞,我們應(yīng)該能夠得到一個單詞的近似含義。問題就在于:你如何選擇軸,以及你如何評估所有的詞?

再一次,這項(xiàng)任務(wù)是如此復(fù)雜,以至于我們將讓計(jì)算機(jī)做艱苦的工作:我們只是告訴它,一起出現(xiàn)的詞有一個相關(guān)的含義。

有了足夠的文本,計(jì)算機(jī)就可以確定軸線和它們的評價。在我們的貓的例子中,貓和老鼠都是動物(近義詞),知道 “吃 ”是動物做的事情是很有用的。但是在數(shù)學(xué)教科書中,不會有貓或老鼠,因?yàn)樗鼈兊暮x與教科書中的用詞相去甚遠(yuǎn)。

我們得到的軸線往往難以解釋:我們可能會發(fā)現(xiàn)一些預(yù)期的軸,如男性/女性,但大多數(shù)會更復(fù)雜,要么只有在與其他軸結(jié)合時才有意義,要么同時代表幾個概念。

這種方法被稱為 “單詞嵌入”,將單詞表示為一個數(shù)字矢量。

從意義到關(guān)系

現(xiàn)在我們有了作為數(shù)字的意義,我們可以使用有趣的屬性:比如說我們可以把它們加起來。這意味著什么呢?好吧,比如把 “美國 ”和 “貨幣”相加(或者說把它們的數(shù)字表示相加)就會得到 "美元"(或者說與 "美元 "的數(shù)字表示接近的數(shù)字)?!懊绹?”+“首都”=“華盛頓”,“吃”+“名詞”=“餐”,等等。

我們也可以做減法:例如,“國王”--“男人”+“女人”=“女王”,或者 “華盛頓”--“美國 ”+“英格蘭”=“倫敦”。

我們還可以用它來尋找密切相關(guān)的詞,同義詞。

我們可以學(xué)習(xí)這些關(guān)系嗎?

通過使用這種數(shù)字單詞表示法,我們可以回到我們的初始模型,但這次是學(xué)習(xí)關(guān)系而不是單詞。

然而,由于關(guān)系更加復(fù)雜,我們需要更多的背景。值得慶幸的是,現(xiàn)在我們有了數(shù)字,我們可以使用近似值。

與其學(xué)習(xí) “在'貓'后面有'吃'”,我們可以學(xué)習(xí)這樣的關(guān)系:“在一個冠詞和一個名詞之后,往往有一個動詞”,“動物經(jīng)常吃、喝和跑”,“老鼠比貓小”,以及 "你只能吃比你小的東西"。當(dāng)然,一切都用數(shù)字表示。

這些關(guān)系很復(fù)雜,所以我們需要大量的文本來訓(xùn)練模型。它們被表示為一個方程式:設(shè)想 y=a?x1+b?x2+c,但有更多的輸入 (不同的x1) 和參數(shù)(a、b和c)。

現(xiàn)在,不是按照概率從一個詞到另一個詞,而是每個軸(如男性/女性)都有一個方程式。這個模型總共有幾千億,甚至幾萬億的參數(shù)。這使得它能夠考慮到一個非常復(fù)雜的問題。這使它能夠考慮到更大的背景:

20個字可以讓它建立具有正確結(jié)構(gòu)的簡單句子。

100個字可以讓它在一個小段落中發(fā)展一個簡單的想法。

有了千言萬語,它可以進(jìn)行對話而不至于失去方向。

最大的模型有20000字左右,這使它們能夠閱讀整篇文章、一個短篇故事或進(jìn)行長時間的對話,同時在生成下一個字之前仍然考慮整個背景。

歸根結(jié)底,一切都是一個規(guī)模問題:一個更大的模型可以學(xué)習(xí)更多的關(guān)系,并考慮到更多的背景。

GPT的優(yōu)勢和劣勢是什么?

GPT能夠熟練地生成看起來像人類所寫的文本。它能夠有邏輯地連接各種想法,為它們辯護(hù),適應(yīng)環(huán)境,進(jìn)行角色扮演,并且(尤其是最新的GPT-4)避免自相矛盾。

不幸的是,它很可能會撒謊,或者說在沒有數(shù)據(jù)的情況下,讓它的想象力肆意發(fā)揮。詢問一個數(shù)學(xué)問題的結(jié)果,有可能得到一個近似的甚至是完全錯誤的答案。

鑒于訓(xùn)練數(shù)據(jù)在2021年9月停止,當(dāng)被問及當(dāng)前事務(wù)時,它將編造一些東西。為了避免這種情況,Bing Chat和Google Bard將模型連接到搜索引擎(Bing或Google),讓它請求最新的信息。

為了有效地使用GPT,必須將其應(yīng)用于模糊和容錯的任務(wù)(生成營銷電子郵件),或容易驗(yàn)證的任務(wù),無論是由(非AI)程序還是由循環(huán)中的人類。

這個模型能思考嗎?

現(xiàn)在我們知道了它的工作原理,第一個答案是否定的:該模型是一個美化的數(shù)學(xué)方程,可以生成下一個單詞的概率。

然而,這值得考慮我們自己的大腦:我們有一個相互連接的神經(jīng)元網(wǎng)絡(luò)(1000億)(每個神經(jīng)元有10 000個連接),對環(huán)境作出反應(yīng),從經(jīng)驗(yàn)中學(xué)習(xí),并產(chǎn)生一個適當(dāng)?shù)模ǖ茈y準(zhǔn)確預(yù)測)答案。

換句話說,除了我們的算法是化學(xué)的而不是數(shù)字的之外,結(jié)構(gòu)是相似的。

What are the differences then? 那么有什么不同呢?

3個數(shù)量級的復(fù)雜性:人類大腦的連接比GPT-4的參數(shù)多1000倍。因此,它可以處理更復(fù)雜的情況。

持續(xù)的學(xué)習(xí):大腦一直在學(xué)習(xí),包括在對話期間,而GPT在對話開始之前就已經(jīng)完成了訓(xùn)練。

限于字?jǐn)?shù):GPT接口僅限于單詞。然而,正如我們所看到的,里面有一個語義系統(tǒng),只是在最后一步才被轉(zhuǎn)化為單詞。可以想象,訓(xùn)練這樣一個模型來控制機(jī)器人(給定足夠的訓(xùn)練數(shù)據(jù))是可行的。

有限的輸入:GPT知道的關(guān)于對話的唯一事情是文本。高達(dá)60%的人類交流是非語言的:語氣、聲音的節(jié)奏、面部表情,甚至一些潛意識的因素,如氣味,都起著一定的作用。GPT錯過了所有這些。

我們可以提到的其他差異是在行為層面:

GPT很難一致地應(yīng)用邏輯規(guī)則,它更像是一種盡力而為的情況。具有諷刺意味的是,它不知道如何進(jìn)行數(shù)學(xué)運(yùn)算。但這與一個小孩子相當(dāng)。

GPT沒有情緒:人類的情緒涉及大量的腺體和荷爾蒙,與大腦有復(fù)雜的相互作用。然而,GPT從人類之間的對話中學(xué)到了與情感狀態(tài)相關(guān)的行為。

它能夠表現(xiàn)得像有情緒一樣,這算不算是什么?一些對話記錄顯示,GPT的行為就像它意識到自己是一個程序一樣,有時會問一些存在性問題。

你可以說GPT不是有意識的。意識的定義經(jīng)常發(fā)生變化,取決于人,但它經(jīng)常被定義為只有人類才有資格獲得意識。如果一個程序的行為方式與人類無異,我們會同意它是有意識的嗎?

中國房間論證 3 持相反意見:如果有可能在自己不懂中文的情況下,通過遵循指令來冒充講中文的人,那就意味著只是 "遵循程序 "的計(jì)算機(jī)并不懂中文,因此也就沒有意識。


對社會有什么影響?

我無法預(yù)測未來,尤其是在一個革命性技術(shù)的黎明,但要知道:這是一個革命性的技術(shù)。對于許多知識工作者來說,從市場營銷到工程師,從招聘人員到社會工作者,GPT將改變一切。

就像裝配線改變了手工業(yè)者的工作,計(jì)算器和計(jì)算機(jī)改變了會計(jì),大眾傳媒改變了政治一樣,GPT將改變知識工作者的世界。

誠然,所有這些工作不會在一夜之間消失:我們?nèi)匀挥泄そ澈蜁?jì)師,但在你的營銷部門曾經(jīng)需要一個由10個人組成的團(tuán)隊(duì),也許一兩個配備GPT的員工就可以填補(bǔ)這個角色。

就像很多科學(xué)或工業(yè)進(jìn)步一樣,這種變化會影響到很多人:有些人將不得不改變職業(yè)或?qū)W習(xí)將GPT融入他們的職業(yè);有些人將失去他們的工作。

新的職位將由GPT直接創(chuàng)造(如Prompt工程師,可以 “與機(jī)器對話 ”的人)或間接地使產(chǎn)品公司更容易創(chuàng)建。

很難知道確切的后果,但我們正處于一個新階段的開始,許多事情將發(fā)生變化,擁有技術(shù)技能的人處于優(yōu)勢地位,企業(yè)家有一個全新的機(jī)會領(lǐng)域。

另一方面,許多沒有準(zhǔn)備好改變的人、沒有技能的人或沒有能力再教育的人受到了威脅。

GPT會破壞社會嗎?

有些人因?yàn)槿斯ぶ悄芏鴵?dān)心世界末日:從《黑客帝國》到《終結(jié)者》,這是在反烏托邦科幻小說中常見的特例。一般來說,這兩種情況是:

終結(jié)者的情景:人工智能是為了贏得一場戰(zhàn)爭而制造的,并獲得了軍事資源,也許是由一個獨(dú)裁者制造的,并被賦予了生存本能。人類試圖阻止它,并將其視為一種威脅,人工智能做出了激烈的反應(yīng)。

回形針優(yōu)化器:在這個寓言中,人工智能的任務(wù)是創(chuàng)造盡可能多的回形針。在耗盡了地球上的可用資源后,它轉(zhuǎn)向了下一個最可用的碳源:人類。

另一個版本是人類試圖阻止機(jī)器;人工智能意識到,要想和平地制造回形針,它必須擺脫人類。它就像邪惡的精靈,扭曲了你的愿望,給了你所要求的東西,而不是你真正想要的東西。

需要認(rèn)識到的一點(diǎn)是,(目前)GPT只能產(chǎn)生文本。當(dāng)然,單純的文本在錯誤的手中可能是危險的(畢竟,一個獨(dú)裁者 “只是說話”),但就其本身而言,GPT不能做任何事情。

然而,它可以成為邁向更有能力的系統(tǒng)的第一步:將GPT的衍生物用于控制機(jī)器人、軍事決策助手等。

我們將需要謹(jǐn)慎行事,如果進(jìn)展證明是不可控制的,或者至少是無法控制的,我們就會介入。

從積極的方面看,一些人工智能專家積極研究防范這些情況的方法,因此可能有一些安全的前進(jìn)方式。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1799

    文章

    48047

    瀏覽量

    241946
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3406

    瀏覽量

    49457
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1578

    瀏覽量

    8262

原文標(biāo)題:從詞語意義到關(guān)系推斷,ChatGPT是如何理解人類語言的?

文章出處:【微信號:alpworks,微信公眾號:阿爾法工場研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    語言模型:原理與工程實(shí)踐+初識2

    的一系列變革。 大語言模型是深度學(xué)習(xí)的應(yīng)用之一,可以認(rèn)為,這些模型的目標(biāo)是模擬人類交流,為了理解和生成人類語言。為此,模型需要在大量文本數(shù)據(jù)
    發(fā)表于 05-13 00:09

    NLPIR語義分析是對自然語言處理的完美理解

    幫助理解句子的意思,通過分析找出詞義、結(jié)構(gòu)意義及其結(jié)合意義,從而確定句子所表達(dá)的真正含義,而語義信息的標(biāo)記需要包含概念完全集與關(guān)系圖的支持,需要對句法成分做出細(xì)致的語義分類,它一般應(yīng)包
    發(fā)表于 10-19 11:34

    不到1分鐘開發(fā)一個GPT應(yīng)用!各路大神瘋狂整活,網(wǎng)友:ChatGPT就是新iPhone

    這個說法并不準(zhǔn)確。盡管ChatGPT語言模型已經(jīng)在一定程度上改變了我們獲取信息、學(xué)習(xí)知識的方式,但它們并不能替代人類進(jìn)行創(chuàng)造性思考和創(chuàng)造性活動。 雖然一些人可能會利用ChatGPT
    發(fā)表于 11-19 12:06

    利用機(jī)器視覺技術(shù)處理語意理解將會有效提高指令周期

    機(jī)器存在的目的無非是協(xié)助人類進(jìn)行各式工作,將人類從無聊繁瑣的事物中解放。 由于沒有一個行業(yè)不需要語言,每一個行業(yè)也都有特殊的文字與行話,因此,語意
    發(fā)表于 01-29 12:58 ?574次閱讀

    Google推出新的搜索算法,可以更好地理解人類語言

    谷歌將該技術(shù)稱為BERT(雙向神經(jīng)網(wǎng)絡(luò)編碼器)。之前,搜索引擎將每次搜索理解為一組詞語,得出相關(guān)的詞語結(jié)果。那么利用新技術(shù),它不僅可以分析搜索中的主要詞語,還可以分析輔助
    的頭像 發(fā)表于 10-31 17:21 ?2287次閱讀

    如何使用計(jì)算機(jī)讓機(jī)器人理解人類語言以及含義

    和文化背景的復(fù)雜性,讓機(jī)器很難理解和解釋客戶提供的觀點(diǎn)性數(shù)據(jù),因此提取見解極具挑戰(zhàn)性。自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML)等工具使計(jì)算機(jī)能夠理解人類語言以及含義。 此外,情感分析是
    的頭像 發(fā)表于 05-17 16:19 ?3356次閱讀

    手勢識別幫助計(jì)算機(jī)理解人語言

    電子發(fā)燒友網(wǎng)站提供《手勢識別幫助計(jì)算機(jī)理解人語言.zip》資料免費(fèi)下載
    發(fā)表于 10-28 10:16 ?0次下載
    手勢識別幫助計(jì)算機(jī)<b class='flag-5'>理解人</b>體<b class='flag-5'>語言</b>

    chatgpt是什么

    chatgpt是什么 ChatGPT,美國OpenAI 。ChatGPT是人工智能技術(shù)驅(qū)動的自然語言處理工具,它能夠通過學(xué)習(xí)和理解人類
    發(fā)表于 02-10 14:05 ?4w次閱讀

    chatgpt怎么用

    chatgpt怎么用 chatgpt怎么用?chatgpt 簡介 ChatGPT是一種語言模型,它被訓(xùn)練來對對話進(jìn)行建模。它能夠通過學(xué)習(xí)和
    發(fā)表于 02-10 14:22 ?5.8w次閱讀

    三張圖告訴你的ChatGPT是什么

    最近火熱的ChatGPT,是美國人工智能研究實(shí)驗(yàn)室OpenAI開發(fā)的一種全新聊天機(jī)器人模型,它能夠通過學(xué)習(xí)和理解人類語言來進(jìn)行對話,還能根據(jù)聊天的上下文進(jìn)行互動,并協(xié)助人類完成一系列
    的頭像 發(fā)表于 02-13 16:15 ?9.1w次閱讀

    ChatGPT研究框架:生成式AI拐點(diǎn)來臨,商用落地前景分析

    市場概況看,ChatGPT已能覆蓋較多能力域,被視為AI平民化的里程碑,將帶動新一輪AI發(fā)展浪潮;技術(shù)路徑層面看,ChatGPT核心技術(shù)優(yōu)勢在于,其提升了
    的頭像 發(fā)表于 02-15 13:49 ?4321次閱讀

    ChatGPT聊聊SiC

    ChatGPT是由OpenAI開發(fā)的一種全新聊天機(jī)器人,它能夠通過學(xué)習(xí)和理解人類語言跟人對話,還能根據(jù)聊天的上下文跟人互動,并協(xié)助人類完成一系列任務(wù)。
    的頭像 發(fā)表于 02-26 09:26 ?1499次閱讀

    對話未來 | ChatGPT火了,我的工作要沒了~

    最近火熱的ChatGPT,是美國人工智能研究實(shí)驗(yàn)室OpenAI開發(fā)的一種全新聊天機(jī)器人模型,它能夠通過學(xué)習(xí)和理解人類語言來進(jìn)行對話,還能根據(jù)聊天的上下文進(jìn)行互動,并協(xié)助人類完成一系列
    的頭像 發(fā)表于 02-23 14:24 ?529次閱讀
    對話未來 | <b class='flag-5'>ChatGPT</b>火了,我的工作要沒了~

    ChatGPT 是什么

    應(yīng)用。 ChatGPT基于自然語言處理技術(shù)和神經(jīng)網(wǎng)絡(luò)模型,可以學(xué)習(xí)和理解人類語言的語法和語義,并能夠生成具有連貫性和邏輯性的自然語言文本,從
    發(fā)表于 06-27 13:55 ?2682次閱讀

    chatgpt是什么意思 ChatGPT背后的技術(shù)原理

      今天我們?yōu)榇蠹規(guī)淼奈恼?,深入淺出地闡釋了ChatGPT背后的技術(shù)原理,沒有NLP或算法經(jīng)驗(yàn)的小伙伴,也可以輕松理解ChatGPT是如何工作的?! ?b class='flag-5'>ChatGPT是一種機(jī)器學(xué)習(xí)自然
    發(fā)表于 07-18 17:12 ?0次下載