0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言處理或?qū)⒂瓉硇碌姆妒阶冞w

深度學習自然語言處理 ? 來源:李rumor ? 作者:車萬翔 ? 2022-12-08 16:59 ? 次閱讀

最近幾天被OpenAI推出的ChatGPT[1]刷屏了,其影響已經(jīng)不僅局限于自然語言處理(NLP)圈,就連投資圈也開始蠢蠢欲動了,短短幾天ChatGPT的用戶數(shù)就超過了一百萬。通過眾多網(wǎng)友以及我個人對其測試的結(jié)果看,ChatGPT的效果可以用驚艷來形容,具體結(jié)果我在此就不贅述了。不同于GPT-3剛推出時人們的反應,對ChatGPT大家發(fā)出更多的是贊嘆之詞。聊天、問答、寫作、編程等等,樣樣精通。因此也有人驚呼,“通用人工智能(AGI)即將到來”、“Google等傳統(tǒng)搜索引擎即將被取代”,所以也對傳說中即將發(fā)布的GPT-4更加期待。

從技術角度講,ChatGPT還是基于大規(guī)模預訓練語言模型(GPT-3.5)強大的語言理解和生成的能力,并通過在人工標注和反饋的大規(guī)模數(shù)據(jù)上進行學習,從而讓預訓練語言模型能夠更好地理解人類的問題并給出更好的回復。這一點上和OpenAI于今年3月份推出的InstructGPT[2]是一致的,即通過引入人工標注和反饋,解決了自然語言生成結(jié)果不易評價的問題,從而就可以像玩兒游戲一樣,利用強化學習技術,通過嘗試生成不同的結(jié)果并對結(jié)果進行評分,然后鼓勵評分高的策略、懲罰評分低的策略,最終獲得更好的模型。

不過說實話,我當時并不看好這一技術路線,因為這仍然需要大量的人工勞動,本質(zhì)上還是一種“人工”智能。不過ChatGPT通過持續(xù)投入大量的人力,把這條路走通了,從而更進一步驗證了那句話,“有多少人工,就有多少智能”。

不過,需要注意的是,ChatGPT以及一系列超大規(guī)模預訓練語言模型的成功將為自然語言處理帶來新的范式變遷,即從以BERT為代表的預訓練+精調(diào)(Fine-tuning)范式,轉(zhuǎn)換為以GPT-3為代表的預訓練+提示(Prompting)的范式[3]。所謂提示,指的是通過構(gòu)造自然語言提示符(Prompt),將下游任務轉(zhuǎn)化為預訓練階段的語言模型任務。例如,若想識別句子“我喜歡這部電影?!钡那楦袃A向性,可以在其后拼接提示符“它很 ”。如果預訓練模型預測空格處為“精彩”,則句子大概率為褒義。這樣做的好處是無需精調(diào)整個預訓練模型,就可以調(diào)動模型內(nèi)部的知識,完成“任意”的自然語言處理任務。當然,在ChatGPT出現(xiàn)之前,這種范式轉(zhuǎn)變的趨勢并不明顯,主要有兩個原因:

第一,GPT-3級別的大模型基本都掌握在大公司手里,因此學術界在進行預訓練+提示的研究時基本都使用規(guī)模相對比較小的預訓練模型。由于規(guī)模規(guī)模不夠大,因此預訓練+提示的效果并不比預訓練+精調(diào)的效果好。而只有當模型的規(guī)模足夠大后,才會涌現(xiàn)(Emerge)出“智能”[4]。最終,導致之前很多在小規(guī)模模型上得出的結(jié)論,在大規(guī)模模型下都未必適用了。

第二,如果僅利用預訓練+提示的方法,由于預訓練的語言模型任務和下游任務之間差異較大,導致這種方法除了擅長續(xù)寫文本這種預訓練任務外,對其他任務完成得并不好。因此,為了應對更多的任務,需要在下游任務上繼續(xù)預訓練(也可以叫預精調(diào)),而且現(xiàn)在的趨勢是在眾多的下游任務上預精調(diào)大模型,以應對多種、甚至未曾見過的新任務[5]。所以更準確地說,預訓練+預精調(diào)+提示將成為自然語言處理的新范式。

不同于傳統(tǒng)預訓練+精調(diào)范式,預訓練+預精調(diào)+提示范式將過去一個自然語言處理模型擅長處理一個具體任務的方式,轉(zhuǎn)換為了用一個模型處理多個任務,甚至未曾見過的通用任務的方式。所以從這個角度來講,通用人工智能也許真的即將到來了。這似乎也和我?guī)啄昵暗念A測相吻合,我當時曾預測,“結(jié)合自然語言處理歷次范式變遷的規(guī)律(圖1),2018年預訓練+精調(diào)的范式出現(xiàn)之后5年,即2023年自然語言處理也許將迎來新的范式變遷”。

30d6543e-76c4-11ed-8abf-dac502259ad0.jpg

那么,接下來如何進一步提升預訓練+預精調(diào)+提示新范式的能力,并在實際應用中將其落地呢?

首先,顯式地利用人工標注和反饋仍然費時費力,我們應該設法更自然地獲取并利用人類的反饋。也就是在實際應用場景中,獲取真實用戶的自然反饋,如其回復的語句、所做的行為等,并利用這些反饋信息提升系統(tǒng)的性能,我們將這種方式稱為交互式自然語言處理。不過用戶的交互式反饋相對稀疏,并且有些用戶會做出惡意的反饋,如何克服稀疏性以及避免惡意性反饋都將是亟待解決的問題。

其次,目前該范式生成的自然語言文本具有非常好的流暢性,但是經(jīng)常會出現(xiàn)事實性錯誤,也就是會一本正經(jīng)地胡說八道。當然,使用上面的交互式自然語言處理方法可以一定程度上解決此類問題,不過對于用戶都不知道答案的問題,他們是無法對結(jié)果進行反饋的。此時又回到了可解釋性差,這一深度學習模型的老問題上。如果能夠像寫論文時插入?yún)⒖嘉墨I一樣,在生成的結(jié)果中插入相關信息的出處,則會大大提高結(jié)果的可解釋性。

最后,該范式依賴超大規(guī)模預訓練語言模型,然而這些模型目前只掌握在少數(shù)的大公司手中,即便有個別開源的大模型,由于其過于龐大,小型公司或研究組也無法下載并使用它們。所以,在線調(diào)用是目前使用這些模型最主要的模式。在該模式下,如何針對不同用戶面對的不同任務,使用用戶私有的數(shù)據(jù)對模型進行進一步預精調(diào),并且不對公有的大模型造成影響,成為該范式實際應用落地所迫切需要解決的問題。此外,為了提高系統(tǒng)的運行速度,如何通過在線的大模型獲得離線的小模型,并且讓離線小模型保持大模型在某些任務上的能力,也成為模型能實際應用的一種解決方案。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1791

    文章

    47282

    瀏覽量

    238534
  • nlp
    nlp
    +關注

    關注

    1

    文章

    488

    瀏覽量

    22038

原文標題:哈工大車萬翔:自然語言處理范式正在變遷

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領域,它使計算機能夠從數(shù)據(jù)中學習并做出預測決策。自然語言處理與機器學習之間有著密切的關系,因為機器學習提供了一種強大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識,從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?485次閱讀

    語音識別與自然語言處理的關系

    在人工智能的快速發(fā)展中,語音識別和自然語言處理(NLP)成為了兩個重要的技術支柱。語音識別技術使得機器能夠理解人類的語音,而自然語言處理則讓機器能夠理解、解釋和生成人類
    的頭像 發(fā)表于 11-26 09:21 ?391次閱讀

    什么是LLM?LLM在自然語言處理中的應用

    隨著人工智能技術的飛速發(fā)展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型(LLM)的出現(xiàn),標志著我們對語言理解能力的一次
    的頭像 發(fā)表于 11-19 15:32 ?585次閱讀

    ASR與自然語言處理的結(jié)合

    。以下是對ASR與自然語言處理結(jié)合的分析: 一、ASR與NLP的基本概念 ASR(自動語音識別) : 專注于人類的語音轉(zhuǎn)換為文字。 涉及從聲音信號中提取特征,并將這些特征映射到文本。 NLP(
    的頭像 發(fā)表于 11-18 15:19 ?413次閱讀

    自然語言處理與機器學習的區(qū)別

    是計算機科學、人工智能和語言學領域的分支,它致力于使計算機能夠理解、解釋和生成人類語言。NLP的目標是縮小人類語言和計算機之間的差距,使計算機能夠處理和生成
    的頭像 發(fā)表于 11-11 10:35 ?589次閱讀

    圖像識別技術包括自然語言處理

    圖像識別技術與自然語言處理是人工智能領域的兩個重要分支,它們在很多方面有著密切的聯(lián)系,但也存在一些區(qū)別。 一、圖像識別技術與自然語言處理的關系 1.1 圖像識別技術的定義 圖像識別技術
    的頭像 發(fā)表于 07-16 10:54 ?839次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。自然語言
    的頭像 發(fā)表于 07-03 14:30 ?1157次閱讀

    自然語言處理模式的優(yōu)點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、生成和處理人類語言。隨著技術的發(fā)展,
    的頭像 發(fā)表于 07-03 14:24 ?790次閱讀

    自然語言處理技術的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,其核心目標是使計算機能夠理解、生成和處理人類語言。NLP技術的發(fā)展已經(jīng)取
    的頭像 發(fā)表于 07-03 14:20 ?760次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它涉及到使用計算機技術來處理、分析和生成
    的頭像 發(fā)表于 07-03 14:18 ?915次閱讀

    自然語言處理包括哪些內(nèi)容

    ,從而實現(xiàn)人機之間的自然交流。本文詳細介紹NLP的主要內(nèi)容,包括基本概念、關鍵技術、應用領域等。 一、自然語言處理的基本概念 自然語言
    的頭像 發(fā)表于 07-03 14:15 ?884次閱讀

    自然語言處理屬于人工智能的哪個領域

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能(Artificial Intelligence,簡稱AI)領域的一個重要分支。它涉及到計算機與人類語言
    的頭像 發(fā)表于 07-03 14:09 ?1343次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領域中的一個重要分支,它專注于構(gòu)建能夠理解和生成人類語言的計算機系統(tǒng)。NLP的目標是使計算機能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?1188次閱讀

    自然語言處理技術的原理的應用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領域的一個重要分支,旨在使計算機能夠理解和處理人類自然語言。隨著互聯(lián)網(wǎng)的普及和大數(shù)據(jù)
    的頭像 發(fā)表于 07-02 12:50 ?531次閱讀

    神經(jīng)網(wǎng)絡在自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的一個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發(fā)展,神經(jīng)網(wǎng)絡在自然語言
    的頭像 發(fā)表于 07-01 14:09 ?516次閱讀