0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言推理數(shù)據(jù)集“人工痕跡”嚴重,模型性能被高估

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-03-14 18:11 ? 次閱讀

編者按:自然語言推理所用的數(shù)據(jù)集再近年得到了研究和發(fā)展,但是在本文中,來自華盛頓大學、卡內(nèi)基梅隆大學和紐約大學等機構(gòu)的研究人員發(fā)現(xiàn),這些數(shù)據(jù)集中不可避免出現(xiàn)了明顯的“人工痕跡”,使得模型的表現(xiàn)被高估了,評估自然語言推理模型的問題仍然存在。以下是論智的編譯。

自然語言推理是NLP領(lǐng)域被廣泛研究的領(lǐng)域之一,有了這一技術(shù),許多復雜的語義任務如問題回答和文本總結(jié)都能得到解決。而用于自然語言推理的大規(guī)模數(shù)據(jù)集是通過向眾包工作者提供一個句子(前提)p,然后讓他們創(chuàng)作出三個新的與之相關(guān)的句子(假設(shè))h創(chuàng)造出來的。自然語言推理的目的就是判斷是否能根據(jù)p的語義推斷出h。我們證明,利用這種方法,使得數(shù)據(jù)中的很大一部分只需查看新生成的句子,無需看“前提”,就能了解到數(shù)據(jù)的標簽。具體來說,一個簡單的文本分類模型在SNLI數(shù)據(jù)集上對句子分類的正確率達到了67%,在MultiNLI上的正確率為53%。分析表明,特定的語言現(xiàn)象,比如否定和模糊與某些推理類別非常相關(guān)。所以這一研究表示,目前的自然語言推理模型的成功被高估了,這一問題仍然難以解決。

2015年,Bowman等人通過眾包標記的方法創(chuàng)造了大規(guī)模推斷數(shù)據(jù)集SNLI;2018年,Williams等人又推出了MultiNLI數(shù)據(jù)集。在這一過程中,研究人員從一些語料中抽取某個前提句子p,讓眾包標注者基于p創(chuàng)作三個新句子,創(chuàng)作的句子與p有三種關(guān)系標準:

包含(Entailment):h與p非常相關(guān);

中立(Neutral):h與p可能相關(guān);

矛盾(Contradiction):h與p絕對不相關(guān)。

下面是SNLI數(shù)據(jù)集中具體的例子:

在這篇論文中,我們發(fā)現(xiàn),通過眾包生成的句子人工痕跡太過明顯,以至于分類器無需查看條件句子p就能將其正確分類。下面我們將詳細講解分析過程。

注釋中的“人工痕跡”其實很明顯

我們猜想,注釋任務的框架對眾包人員編寫句子時會產(chǎn)生顯著的影響,這一影響會反映在數(shù)據(jù)中,我們稱之為“人工注釋(annotation artifacts)”。

為了確定這種人為行為對數(shù)據(jù)的影響程度,我們訓練一個模型來預測生成句子的標簽,無需查看前提句子。具體來說,我們使用現(xiàn)成的文本分類器fastText,它可以將文本模型化為許多單詞和二元語法(bigrams),以預測句子的標簽。

下表顯示,每個測試集中大部分數(shù)據(jù)都能在不看前提句子的情況下被正確分類,這也證明了即使不用對自然語言推理建模,分類器也能表現(xiàn)得很好。

人工注釋的特點

之前我們說到,超過一半的MultiNLI數(shù)據(jù)和三分之二的SNLI數(shù)據(jù)都有明顯的人工痕跡,為了從中總結(jié)出它們的特點,我們將對數(shù)據(jù)進行大致分析,重點關(guān)注詞匯的選擇和句子的長度。

詞匯選擇

為了了解特定詞匯的選擇是否會影響句子的分類,我們計算了訓練集中每個單詞和類別之間的點互信息(PMI):

下表顯示了每個分類中與類別最相關(guān)的幾個單詞,以及訓練語句中包含這些單詞的比例。

相關(guān)句子(Entailment)

與前提句子完全相關(guān)的生成句子都含有通用詞匯,如動物、樂器和戶外等,這些詞語還有可能衍生出更具體的詞語例如小狗、吉他、沙灘等等。另外,這些據(jù)此都會用確切的數(shù)字代替近似值(一些、至少、各種等等),并且會移除明確的性別。有些還會帶有具體的環(huán)境,例如室內(nèi)或室外,這些都是SNLI數(shù)據(jù)集中圖片的個性特征。

中立句子

中立關(guān)系的句子中,最常見的就是修飾詞(高、悲傷、受歡迎)和最高級詞語(第一、最愛、最多)。除此之外,中立句子比較常見的是原因和目的從句,例如因為。

不相關(guān)句子

否定詞例如“沒有人”、“不”、“從不”、“沒有”等都是不相關(guān)句子的常見詞語。

句子長度

我們發(fā)現(xiàn),生成句子中tokens的數(shù)量在不同的推理類別中并不是平均分配的。下圖顯示,中性的句子中token往往較長,而相關(guān)句子往往較短。句子長度的差異可能表明,眾包工作者在生成相關(guān)句子時只是簡單地從前提句子p中刪除了幾個單詞。而事實上,當每個句子都用bag of words表示時,SNLI中有8.8%的相關(guān)生成句子完全包含在前提句子之中,而只有0.2%的中性和矛盾句子包含前提。

結(jié)論

通過觀察結(jié)果,并對比其他人工注釋分析,我們得到了三個主要結(jié)論。

很多數(shù)據(jù)集都包含有“人工痕跡”

監(jiān)督模型需要利用人工注釋。Levy等人證明了監(jiān)督詞匯推理模型在很大程度上以來數(shù)據(jù)集中人工生成的詞匯。

人工注釋會高估模型性能。大多數(shù)測試集都能單獨依靠人工注釋解決問題,所以我們鼓勵開發(fā)額外的標準,能夠給讓人了解NLI模型的真實性能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    288

    瀏覽量

    13350

原文標題:自然語言推理數(shù)據(jù)集“人工痕跡”嚴重,模型性能被高估

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    PyTorch教程-16.7。自然語言推理:微調(diào) BERT

    實驗室在 SageMaker Studio Lab 中打開筆記本 在本章前面的部分中,我們?yōu)?SNLI 數(shù)據(jù)上的自然語言推理任務(如第 16.4 節(jié)所述)設(shè)計了一個基于注意力的架
    的頭像 發(fā)表于 06-05 15:44 ?1259次閱讀
    PyTorch教程-16.7。<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:微調(diào) BERT

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學習,利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然語
    發(fā)表于 05-04 23:55

    python自然語言

    學和人工智能,但同樣受到諸如機器學習,計算統(tǒng)計學和認知科學這些相對新興的學科影響。python下面只要安裝自然語言工具包nltk,下面版主開始正式進入學習。Natural Language
    發(fā)表于 05-02 13:50

    自然語言處理的語言模型

    自然語言處理——53 語言模型數(shù)據(jù)平滑)
    發(fā)表于 04-16 11:11

    什么是自然語言處理

    什么是自然語言處理?自然語言處理任務有哪些?自然語言處理的方法是什么?
    發(fā)表于 09-08 06:51

    什么是人工智能、機器學習、深度學習和自然語言處理?

    領(lǐng)域,包括機器學習、深度學習、數(shù)據(jù)挖掘、計算機視覺、自然語言處理和其他幾個學科。首先,人工智能涉及使計算機具有自我意識,利用計算機視覺、自然語言理解和模仿其他感官。其次,
    發(fā)表于 03-22 11:19

    自然語言處理常用模型解析

    自然語言處理常用模型使用方法一、N元模型二、馬爾可夫模型以及隱馬爾可夫模型及目前常用的自然語言
    發(fā)表于 12-28 15:42 ?5886次閱讀
    <b class='flag-5'>自然語言</b>處理常用<b class='flag-5'>模型</b>解析

    一種注意力增強的自然語言推理模型aESIM

    自然語言處理任務中使用注意力機制可準確衡量單詞重要度。為此,提出一種注意力增強的自然語言推理模型aESM。將詞注意力層以及自適應方向權(quán)重層添加到ESIM模型的雙向LSTM網(wǎng)絡(luò)中,從而
    發(fā)表于 03-25 11:34 ?9次下載
    一種注意力增強的<b class='flag-5'>自然語言</b><b class='flag-5'>推理模型</b>aESIM

    PyTorch教程16.4之自然語言推理數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程16.4之自然語言推理數(shù)據(jù).pdf》資料免費下載
    發(fā)表于 06-05 10:57 ?0次下載
    PyTorch教程16.4之<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>和<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    PyTorch教程16.5之自然語言推理:使用注意力

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程16.5之自然語言推理:使用注意力.pdf》資料免費下載
    發(fā)表于 06-05 10:49 ?0次下載
    PyTorch教程16.5之<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:使用注意力

    PyTorch教程16.7之自然語言推理:微調(diào)BERT

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程16.7之自然語言推理:微調(diào)BERT.pdf》資料免費下載
    發(fā)表于 06-05 10:52 ?0次下載
    PyTorch教程16.7之<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:微調(diào)BERT

    PyTorch教程-16.4。自然語言推理數(shù)據(jù)

    16.4。自然語言推理數(shù)據(jù)? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Open the notebook in Colab Col
    的頭像 發(fā)表于 06-05 15:44 ?548次閱讀

    PyTorch教程-16.5。自然語言推理:使用注意力

    實驗室在 SageMaker Studio Lab 中打開筆記本 我們在16.4 節(jié)介紹了自然語言推理任務和 SNLI 數(shù)據(jù)。鑒于許多基于復雜和深層架構(gòu)的
    的頭像 發(fā)表于 06-05 15:44 ?569次閱讀
    PyTorch教程-16.5。<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:使用注意力

    自然語言處理的概念和應用 自然語言處理屬于人工智能嗎

      自然語言處理(Natural Language Processing)是一種人工智能技術(shù),它是研究自然語言與計算機之間的交互和通信的一門學科。自然語言處理旨在研究機器如何理解人類
    發(fā)表于 08-23 17:31 ?1625次閱讀

    自然語言處理與機器學習的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領(lǐng)域,它使計算機能夠從數(shù)據(jù)中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關(guān)系,因為機器學習提供了一種強大的工具,用于從大量文本數(shù)
    的頭像 發(fā)表于 12-05 15:21 ?483次閱讀