0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌深度學習如何處理人類語言?

如意 ? 來源:學術頭條 ? 作者:學術頭條 ? 2021-03-01 15:31 ? 次閱讀

具有語言能力的深度學習系統(tǒng)已經(jīng)廣泛應用于人們的生活當中。其中一些系統(tǒng)使用了 Google 發(fā)布的特定深度學習模型 —— 多語言 BERT(Multilingual BERT,簡稱 mBERT)。mBERT 模型可以同時接受大約 100 種語言的訓練,這種多語言的訓練使模型可以完成各種語言任務,例如,將文本內容從一種語言翻譯成另一種語言。

雖然已經(jīng)發(fā)現(xiàn) mBERT 模型在許多語言任務中表現(xiàn)良好,但是

人們對 mBERT 模型 “如何創(chuàng)建文本并如何做出預測” 的相關信息并不清楚。

為此,來自斯坦福大學、加州大學歐文分校和加州大學圣巴巴拉分校的研究人員聯(lián)合開展了一項新的研究,研究目的是為了更好地理解基于 mBERT 模型的技術是如何運行的,以及它是如何創(chuàng)建語法特征的。

相關研究結果以 “Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT” 為題,已發(fā)表在論文預印本網(wǎng)站 arXiv 上。該論文為這些常用模型的基礎以及它們在完成各種任務時如何分析語言提供了寶貴的線索。

神秘莫測的 mBERT 模型

在過去的幾十年中,研究人員開發(fā)了基于深度神經(jīng)網(wǎng)絡的模型,它們可以完成各種各樣的任務。其中一些技術專門設計用于處理和生成多種語言的連貫文本、翻譯文本,并可以回答有關文本的問題,以及創(chuàng)建新聞文章或其他在線內容的摘要。

比較典型的代表是 Siri、Alexa、Bixby、Google Assistant 和 Cortana 等應用程序,這些程序為實時翻譯、分析文本提供了極大的便利。

而這些應用程序大部分采用了 Google 發(fā)布的 mBERT 模型,用戶可以使用多種語言(比如英語、西班牙語、法語、巴斯克語和印尼語等)與基于 mBERT 的系統(tǒng)進行交互。

雖然像 mBERT 這樣的模型非常強大,但是與經(jīng)過預先訓練的深度學習模型不同,它們實際上包含的信息并不明顯,甚至對它們的創(chuàng)造者來說也是如此。

這是由于這些模型是經(jīng)過訓練的,而不是經(jīng)過編程得到的。因此,探究 mBERT 模型的工作原理,成為了許多使用者關心的問題 。理解 mBERT 模型如何對語言進行編碼與嘗試理解人類如何處理語言并沒有太大不同。

此次研究的主要目的是,確定 mBERT 矢量模型是否包含關于人類語言及其結構的一些更深層次的信息。更具體地說,他們想確定這些模型,是否能夠自動地揭示幾十年來語言學研究已經(jīng)確定的概括,這些概括信息對語言分析來講是十分有用的。

致力于理解 mBERT 模型

本質上,mBERT 模型將文本表示為一系列矢量,每個矢量包含數(shù)千個數(shù)字。每個矢量都對應一個單詞,而單詞之間的關系則被編碼為高維空間的幾何關系。

加州大學圣巴巴拉分校的語言學家、指導這項研究的高級研究員之一 Kyle Mahowald 表示:“由于這些模型在處理人類語言方面做得很好,因此我們知道這些數(shù)字向量一定代表了語言知識。但是它們是如何編碼這些信息的,這與人類大腦中知識的表達方式有什么相似之處?我們的工作是努力理解語言的深層神經(jīng)模型表示和使用語言信息的方式的一部分?!?/p>

加州大學歐文分校的語言科學家、該項目的另一位高級顧問 Richard Futrell 說:“這是研究計算語言學特別令人興奮的時刻。多年來,語言學家一直在談論諸如‘語義空間(semantic space)’之類的概念,認為單詞和短語的意義是某個空間中的點,但這都顯得有點模糊和印象主義。如今,這些理論已經(jīng)變得非常精確:我們實際上有一個模型,其中一個單詞的含義是空間中的某一個點,并且這個模型確實以一種暗示其理解某些人類語言的方式表現(xiàn)。”

為了處理人類語言,在深入分析人類語言之后,mBERT 模型和其他基于深度學習的語言分析框架,實際上可能已經(jīng)重新發(fā)現(xiàn)了語言學研究者在深入分析人類語言之后所設計的理論?;蛘?,它們可能基于全新的語言理論或規(guī)則進行預測。

對此,Mahowald 和他的同事們希望進一步探索這兩種可能性,因為理解這些計算技術如何對語言進行編碼可能對計算機科學和語言學的研究具有重要的意義。

Futrell 說:“了解這些模型的工作原理,即它們學到了什么信息以及如何使用這些信息,不僅在科學上很有趣,而且也對于我們想要開發(fā)可以使用和信任的 AI 系統(tǒng)至關重要。如果我們不知道語言模型知道什么,那么我們就不能相信它會做正確的事。也就是說,我們不相信它的翻譯是正確的或者它的總結是準確的,我們也不能相信它沒有學到種族或性別偏見等不良信息?!?/p>

由于 mBERT 模型通常是在人類編譯的數(shù)據(jù)集中進行訓練的,因此它們可能會發(fā)現(xiàn)一些人類在處理與語言相關的問題時常犯的一些錯誤。這項由多學科團隊進行的研究可能有助于發(fā)現(xiàn) AI 工具在分析語言時所犯的一些錯誤和其他錯誤。

識別不同語言的主語和賓語

為了更加深入地理解 mBERT 模型,研究人員著手研究 mBERT 模型如何代表不同語言中主語和賓語之間的差異。

Mahowald 說:“當在 mBERT 中輸入一個句子時,每個單詞都會得到一個矢量表示。我們建立了一個新模型,這個模型比 mBERT 要小得多,然后我們問:如果我們從 mBERT 得到一個單詞矢量,這個模型能告訴我們它是一個主語還是賓語嗎?也就是說,該模型能否告訴我們,‘狗’這個字用法是不是句子的主語,就像‘狗追貓’中那樣,或句子的賓語,如‘貓追狗’?!?/p>

人們可能會假設所有語言都描述了主語和賓語的關系,并且它們以相似的方式表示。但是,在不同的語言中,主語和賓語的構成實際上存在巨大的差異。

該論文的作者之一、斯坦福大學計算機科學專業(yè)的研究生 Isabel Papadimitriou 和她的同事們試圖利用這些差異來更好地理解 mBERT 模型是如何處理句子。

Papadimitriou 說:“如果人們使用英語,那么‘狗追貓’中的‘狗’字似乎與‘狗跑了’中的‘狗’字扮演相同的成分。在第一種情況下,動詞有賓語‘貓’,在第二種情況下,它沒有賓語。但在兩種情況下,‘狗’是主語、主體、行為者,而在第一句中,‘貓’是賓語,是正在做的事情。但是,并非所有語言都如此?!?/p>

圖 | 研究過程說明

英語和歐洲人所說的大多數(shù)語言,都有一種被稱為主格對齊的結構,這種結構清楚地描述了句子中的主語和賓語。

但是,包括巴斯克語,北印度語和格魯吉亞語在內的語言,使用的是一種代名詞對齊。在代名詞對齊中,在沒有賓語的句子中,主語在某種意義上被視為賓語,因為它遵循用于賓語的語法結構。例如,句子 “狗在奔跑” 中的 “狗” 字某種程度上即是主語也是賓語。

Papadimitriou 說:“我們工作的主要目標是測試 mBERT 是否理解這種對齊、代名詞或主語的概念。換句話說,我們問:mBERT 能否深入理解動詞的主語和賓語是什么構成的,以及不同的語言如何將空間分割成主語和賓語?事實證明,同時接受大約 100 種語言培訓的 mBERT 會以有趣的語言方式意識到這些區(qū)別?!?/p>

機器可以理解人類語言

這些發(fā)現(xiàn)為 mBERT 模型以及其他用于語言分析的計算模型如何表示語法信息提供了新的有趣見解。有趣的是,研究人員研究的基于 mBERT 向量表示的檢驗模型也發(fā)現(xiàn)會產(chǎn)生一致的錯誤,這些錯誤可能與處理語言的人類所犯的錯誤一致。

Papadimitriou 說:“在不同的語言中,當一個主語是一個無生命的名詞時,我們的模型更有可能錯誤地將該主體稱為主語,這意味著該名詞不是人類或動物。這是因為句子中的大多數(shù)行為者往往是有生命的名詞:人類或動物。實際上,一些語言學家認為主觀性實際上是一個范圍。與人類相比,作為人類的受試者比作為動物的受試者更‘主觀’,作為動物的受試者比既不是人類也不是動物的受試者更‘主觀’,這正是我們在 mBERT 模型中發(fā)現(xiàn)的?!?/p>

總體而言,研究表明 mBERT 模型可以識別句子中的主語和賓語,并以與現(xiàn)有語言學文獻一致的方式表示兩者之間的關系。

在未來,這一重要發(fā)現(xiàn)可以幫助計算機科學家更好地理解深度學習技術是如何處理人類語言的,從而幫助他們進一步提高性能。

Mahowald 表示:“我們現(xiàn)在希望繼續(xù)探索語言的深層神經(jīng)模型,在它們的連續(xù)向量空間中表示語言類別(如主語和賓語)的方式。具體來說,我們認為語言學的工作可以告訴我們如何看待這些模型以及它們在做什么,語言學的工作試圖將主語和賓語等角色描述為一組特征,而不是離散的類別?!?/p>

參考資料:https://arxiv.org/abs/2101.11043v1
責編AJX

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6178

    瀏覽量

    105697
  • 模型
    +關注

    關注

    1

    文章

    3279

    瀏覽量

    48978
  • 深度學習
    +關注

    關注

    73

    文章

    5510

    瀏覽量

    121349
收藏 人收藏

    評論

    相關推薦

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類
    的頭像 發(fā)表于 12-05 15:21 ?586次閱讀

    NPU在深度學習中的應用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心驅動力之一,已經(jīng)在眾多領域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?730次閱讀

    自然語言處理的未來發(fā)展趨勢

    隨著技術的進步,自然語言處理(NLP)已經(jīng)成為人工智能領域的一個重要分支。NLP的目標是使計算機能夠理解、解釋和生成人類語言,這不僅涉及到語言
    的頭像 發(fā)表于 11-11 10:37 ?877次閱讀

    自然語言處理與機器學習的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機器學習(ML)成為了兩個核心的研究領域。它們都致力于解決復雜的問題,但側重點和應用場景有所不同。 1. 自然語言
    的頭像 發(fā)表于 11-11 10:35 ?670次閱讀

    使用LLM進行自然語言處理的優(yōu)缺點

    自然語言處理(NLP)是人工智能和語言學領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。大型
    的頭像 發(fā)表于 11-08 09:27 ?556次閱讀

    GPU深度學習應用案例

    能力,可以顯著提高圖像識別模型的訓練速度和準確性。例如,在人臉識別、自動駕駛等領域,GPU被廣泛應用于加速深度學習模型的訓練和推理過程。 二、自然語言處理 自然
    的頭像 發(fā)表于 10-27 11:13 ?440次閱讀

    利用Matlab函數(shù)實現(xiàn)深度學習算法

    在Matlab中實現(xiàn)深度學習算法是一個復雜但強大的過程,可以應用于各種領域,如圖像識別、自然語言處理、時間序列預測等。這里,我將概述一個基本的流程,包括環(huán)境設置、數(shù)據(jù)準備、模型設計、訓
    的頭像 發(fā)表于 07-14 14:21 ?2383次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    深度學習作為機器學習領域的一個重要分支,近年來在多個領域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領域。然而,
    的頭像 發(fā)表于 07-09 10:50 ?853次閱讀

    深度學習在視覺檢測中的應用

    能力,還使得機器能夠模仿人類的某些智能行為,如識別文字、圖像和聲音等。深度學習的引入,極大地推動了人工智能技術的發(fā)展,特別是在圖像識別、自然語言處理
    的頭像 發(fā)表于 07-08 10:27 ?800次閱讀

    深度學習與nlp的區(qū)別在哪

    深度學習和自然語言處理(NLP)是計算機科學領域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度
    的頭像 發(fā)表于 07-05 09:47 ?1002次閱讀

    深度學習常用的Python庫

    深度學習作為人工智能的一個重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡來解決復雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的庫支持,成為了
    的頭像 發(fā)表于 07-03 16:04 ?678次閱讀

    深度學習與卷積神經(jīng)網(wǎng)絡的應用

    到自然語言處理深度學習和CNN正逐步改變著我們的生活方式。本文將深入探討深度學習與卷積神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-02 18:19 ?968次閱讀

    語言模型:原理與工程實踐+初識2

    前言 深度學習是機器學習的分支,而大語言模型是深度學習的分支。機器
    發(fā)表于 05-13 00:09

    為什么深度學習的效果更好?

    導讀深度學習是機器學習的一個子集,已成為人工智能領域的一項變革性技術,在從計算機視覺、自然語言處理到自動駕駛汽車等廣泛的應用中取得了顯著的成
    的頭像 發(fā)表于 03-09 08:26 ?653次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的效果更好?

    語言模型(LLMs)如何處理語言輸入問題

    研究者們提出了一個框架來描述LLMs在處理語言輸入時的內部處理過程,并探討了模型中是否存在特定于語言的神經(jīng)元。
    發(fā)表于 03-07 14:44 ?663次閱讀
    大<b class='flag-5'>語言</b>模型(LLMs)如<b class='flag-5'>何處理</b>多<b class='flag-5'>語言</b>輸入問題