0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用輔助任務(wù)來提升情感分類領(lǐng)域適應(yīng)?

深度學(xué)習(xí)自然語言處理 ? 來源:SimpleAI ? 作者:SimpleAI ? 2021-06-16 17:30 ? 次閱讀

論文標題:Learning Sentence Embeddings with Auxiliary Tasks for Cross-Domain Sentiment Classification

會議/期刊:EMNLP-2016

團隊:Singapore Management University

主要思想: 通過構(gòu)造兩個輔助任務(wù)(auxiliary tasks)來從學(xué)習(xí)句子表示,預(yù)測一個句子是否包含有通用情感詞。這些句子表示可以增強原本情感分類模型中的句子表示,從而提升模型的總體領(lǐng)域適應(yīng)能力。

論文要點一覽:

1. 借鑒了2006年EMNLP的Structural Correspondence Learning的思想

SCL是2016EMNLP的一篇解決領(lǐng)域適應(yīng)的論文,想法很新穎。核心想法是,不同領(lǐng)域的文本,通常會有一些通用的“指示詞”(稱為pivot words/features),比方在詞性標注任務(wù)中,雖然同一個詞性的詞可能在不同領(lǐng)域文本中千差萬別,但是提示詞性的特征往往是類似的,這些共同的特征就稱為pivot features。然后,那些隨著領(lǐng)域變化的,但跟這些pivot features高度相關(guān)的詞,就被稱為“聯(lián)系詞/對應(yīng)詞”(correspondences),比方在詞性標注任務(wù)中那些關(guān)注的詞性對應(yīng)的詞。

領(lǐng)域適應(yīng)中,麻煩的就是這些隨著領(lǐng)域變化的correspondences,它們往往潛藏著類別的信息,但是從表面上看是很領(lǐng)域性的,所以如果有辦法把這些詞中潛藏著的通用的類別信息給提取出來,或者把它們給轉(zhuǎn)化成通用的信息,那這些領(lǐng)域性的詞就變得通用了,就可以適應(yīng)不同領(lǐng)域了。

這個想法,確實很有意思,值得我們學(xué)習(xí)。所以這個SCL要解決的關(guān)鍵問題就是,如何讓模型看到這些領(lǐng)域詞,能轉(zhuǎn)化成通用詞。比如在情感分類中,看到評論“這個電腦運行很快!”就能反應(yīng)出來這個就是“這個電腦好!”。SCL的方法就是,我有一個通用詞的list,把這些詞從句子中挖去,然后讓剩下的部分來預(yù)測出是否包含這個詞。構(gòu)造這樣的任務(wù),就相當于學(xué)習(xí)一個“通用語言轉(zhuǎn)化器”,把個性化的語言,轉(zhuǎn)化成通用的語言。

當然,由于是2006年的論文,所以是采用傳統(tǒng)的機器學(xué)習(xí)方法來做,得到句子表示也是通過矩陣分解這樣的方法。這個16年的新論文,則是使用的深度學(xué)習(xí)的方法進行改良和簡化,讓它變得更強大。

2. 跟傳統(tǒng)經(jīng)典方法的的主要不同

本文提到的主要傳統(tǒng)方法有兩個,一個就是著名的06年的SCL,一個是大名鼎鼎的Bengio團隊在11年ICML的使用auto-encoder的工作。

這兩個工作的一個共同點是,是分兩步進行的,即是一個序列化的方法(learn sequentially),先得到一個特征表示,改善原來的文本特征,然后再使用經(jīng)典的模型進行預(yù)測。

本論文提出的方法,既可以是兩步走的序列化方法,也可以是joint learning,讓輔助任務(wù)跟主任務(wù)共同學(xué)習(xí)。

另外,之前的auto-encoder的做法,在數(shù)據(jù)預(yù)處理的步驟,沒有考慮情感分類任務(wù),也就是跟最終要做的任務(wù)無關(guān),這當然也不夠好。

3. 本文是一個transductive方法,即訓(xùn)練的時候要利用到全局數(shù)據(jù)

訓(xùn)練可用的數(shù)據(jù)包括:

標簽的訓(xùn)練集(source domain)

無標簽的測試集(target domain)

4. 輔助任務(wù)的設(shè)計&對原句子表示的加強

作者設(shè)計了兩個輔助任務(wù):預(yù)測一句話中是否有正/負的通用情感詞。

當然,預(yù)測前,需要把句子中的通用情感詞給挖掉,用剩下的詞來預(yù)測。這樣設(shè)計的依據(jù)是什么呢?如果一句話中包含來通用情感詞,比如“好”,那么這句話多半就是正面的情感,那么這句話剩下的其他的部分,應(yīng)該也大概率會包含一些領(lǐng)域特定的反應(yīng)情感的詞,比如“(電腦)很快”。那么我們訓(xùn)練一個能夠使用這些領(lǐng)域特定的詞預(yù)測通用情感詞的模型,就可以得到一個“通用情感轉(zhuǎn)化器”,把各種不同領(lǐng)域的句子,轉(zhuǎn)化成通用的表示。

輔助任務(wù)的損失函數(shù)如下:

fbd05280-cab2-11eb-9e57-12bb97331649.png

就是二分類交叉熵損失之和。

如下圖所示,左半邊就是一個傳統(tǒng)的分類模型。右邊的就是輔助任務(wù)對應(yīng)的模型。

fbf026fa-cab2-11eb-9e57-12bb97331649.png

通過把原句子的通用情感詞替換成[UNK],然后使用輔助任務(wù)訓(xùn)練一個新的模型,就可以得到一個通用的句子表示向量,也就是圖中的藍色的向量。

最后,把這個向量,跟原句子向量拼接起來,就得到來加強版的句子表示,最終使用這個句子表示來做情感分類任務(wù)。

5. 聯(lián)合訓(xùn)練joint learning

上面講的方法,依然是分兩步做的,這樣會有些麻煩。其實整個框架可以同時訓(xùn)練,也就是把兩部分的損失函數(shù)合在一起進行優(yōu)化:

fc460a5c-cab2-11eb-9e57-12bb97331649.png

注意,兩部分的loss,分別來自不同的數(shù)據(jù)集,但是在輔助模型分布,是兩部分數(shù)據(jù)都會使用的,見圖中畫藍線的地方。

就是代碼實現(xiàn)上,我一開始想不通如何讓兩個不同的數(shù)據(jù)集(labeled source data和unlabeled target data)放在一起同時訓(xùn)練,看了看作者的代碼也沒看明白(基于Lua的torch寫的),直到我看到了作者readme最后寫了一個提示:

fc7c9b30-cab2-11eb-9e57-12bb97331649.png

就是說,所謂的joint learning,并不是真正的joint,相當于一種incremental learning(增量學(xué)習(xí))。每個epoch,先把source部分的數(shù)據(jù)給訓(xùn)練了,然后再輸入target部分來優(yōu)化auxiliary部分的模型。

6. 如何選擇pivot words

本文使用了一種叫weighted log-likelihood ratio(WLLR)的指標來選擇最通用的情感詞作為pivot words。這個WLLR的公式如下:

fcc2855a-cab2-11eb-9e57-12bb97331649.png

公式里的y就是標簽,而y一杠是相反的標簽。w則代表某個詞。從公式可以看出,當一個詞在一個標簽的文本中經(jīng)常出現(xiàn),而在相反標簽的文本中出現(xiàn)很少,那么這個詞的WLLR值就高。

在SCL論文中,使用的是互信息,但是作者發(fā)現(xiàn)互信息偏愛那些低頻詞,相比之下WLLR則公平一些,因此作者選擇WLLR。

7. 數(shù)據(jù)集和實驗結(jié)果

實驗結(jié)果主要表明,Joint Learning確實可以。但Sequential則效果不敢恭維。。。這一點是我覺得容易讓人詬病的地方,畢竟按照前文中介紹的,即使是Sequential,也因為學(xué)習(xí)到了很好的句子表示,應(yīng)該效果也很不錯才對。

另外實驗結(jié)果中,對比一下機器學(xué)習(xí)方法和深度學(xué)習(xí)方法可以看出,只是用離散特征,效果完全比不是深度學(xué)習(xí)使用連續(xù)特征的方法。注意,這里的NN是指CNN,使用了詞向量,而詞向量相當于已經(jīng)擁有了很多外部知識了,所以一個單純的CNN,不進行任何的domain adaptation的設(shè)計,都比傳統(tǒng)的SCL等方法都好。

作者還做了一些“使用部分target標注數(shù)據(jù)來訓(xùn)練”的實驗:發(fā)現(xiàn),也有微弱的提升(0.6%實在不算多哈)。并且,隨著標注數(shù)據(jù)量的提升,差距還在縮?。?/p>

8. Case Study

這里的case study值得學(xué)習(xí),分析的很細致,邏輯清晰,還印證了論文的理論假設(shè)。即,作者對比了單純的CNN和使用了輔助任務(wù)來訓(xùn)練的CNN,在分類時的重要詞匯是哪些,發(fā)現(xiàn)了一些有趣的現(xiàn)象。

我們這里稱單純的CNN為NaiveNN,使用輔助任務(wù)的序列化方法為Sequential,聯(lián)合訓(xùn)練的則為Joint。其中,Sequential和Joint又可以把模型分成兩個部分,分別為-original和-auxiliary。

總結(jié)一下:

NaiveNN抽取出來的,多半都是“通用情感詞”;

Sequential-original提取出來的跟NaiveNN類似;

Sequential-auxiliary提取出的,多半是“領(lǐng)域詞”,包括“領(lǐng)域情感詞”和“領(lǐng)域類型詞”,后者是該領(lǐng)域的一些特征詞,但并不是情感詞,所以是個噪音,可能會對情感模型產(chǎn)生負面影響;

Joint-auxiliary則提取出的基本都是“領(lǐng)域情感詞”,即相比于sequential少了噪音;

Joint-original則可提取出“通用情感詞”和“領(lǐng)域情感詞”,因為它跟aux部分共享了sentence embedding。

雖然case study一般都是精挑細選過的,但至少作者分析總結(jié)的還是很到位,也就姑且信了。

最后:

總的來說,這是一個想法較為新穎,方法較為實用,思路也make sense的工作。巧妙地借用了SCL的思想,并做了合理的簡化和升級,取得了還不錯的效果。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24749
  • SCL
    SCL
    +關(guān)注

    關(guān)注

    1

    文章

    239

    瀏覽量

    17115
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22265

原文標題:使用輔助任務(wù)來提升情感分類領(lǐng)域適應(yīng)

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    內(nèi)為企業(yè)帶來效益。在選擇模型時,需要評估其性能表現(xiàn)。這包括模型的準確性、響應(yīng)速度、對話流暢性、情感理解能力等方面??梢酝ㄟ^對比不同模型的測試結(jié)果、查看用戶反饋和評分等方式評估模型性能。選擇性能表現(xiàn)優(yōu)秀
    發(fā)表于 12-17 16:53

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    情感分析是自然語言處理(NLP)領(lǐng)域的一項重要任務(wù),旨在識別和提取文本中的主觀信息,如情感傾向、情感強度等。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于LS
    的頭像 發(fā)表于 11-13 10:15 ?587次閱讀

    什么是EPS?通過馬達輔助轉(zhuǎn)向操作的系統(tǒng)

    背景 ? EPS是一種通過馬達減輕和輔助駕駛員在轉(zhuǎn)向操作時所需力量的設(shè)備。此外,通過采用EPS,可望提高燃效,降低車輛重量。我們將在本消息中就EPS的功能和系統(tǒng)構(gòu)成進行解說,同時對構(gòu)成的電子零部件
    的頭像 發(fā)表于 11-03 14:23 ?396次閱讀
    什么是EPS?通過馬達<b class='flag-5'>來</b><b class='flag-5'>輔助</b>轉(zhuǎn)向操作的系統(tǒng)

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實現(xiàn)Yolov5分類檢測

    NPU。 應(yīng)用領(lǐng)域 圖像識別: NPU能夠迅速對圖像進行分類、檢測和分割等操作,大大提升了處理效率。 語音識別: NPU實現(xiàn)了實時語音轉(zhuǎn)換和語音合成功能,為語音交互提供了更自然的體驗。 自然語言處理
    發(fā)表于 10-24 10:13

    FPGA在圖像處理領(lǐng)域的優(yōu)勢有哪些?

    時,F(xiàn)PGA可以輕松地適應(yīng)新的算法,而無需重新設(shè)計硬件。這種靈活性使得FPGA在圖像處理領(lǐng)域具有更快的開發(fā)速度,有助于縮短產(chǎn)品的上市時間。同時,F(xiàn)PGA還可以根據(jù)不同的圖像內(nèi)容,實時地調(diào)整處理策略,使得在
    發(fā)表于 10-09 14:36

    激光傳感器的分類及應(yīng)用領(lǐng)域

    激光傳感器是一種能夠利用激光束測量物體特性的儀器,具有高精度、高速度、長壽命、不受環(huán)境干擾等優(yōu)點,在工業(yè)、醫(yī)療、航空航天等領(lǐng)域得到廣泛應(yīng)用。以下是對激光傳感器的分類及應(yīng)用領(lǐng)域的介紹: 一、激光傳感器
    的頭像 發(fā)表于 09-04 15:35 ?862次閱讀

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實現(xiàn)Yolov5分類檢測

    NPU。 應(yīng)用領(lǐng)域 圖像識別: NPU能夠迅速對圖像進行分類、檢測和分割等操作,大大提升了處理效率。 語音識別: NPU實現(xiàn)了實時語音轉(zhuǎn)換和語音合成功能,為語音交互提供了更自然的體驗。 自然語言處理
    發(fā)表于 08-20 11:13

    linux定時任務(wù)的用法總結(jié)

    習(xí)慣了使用 windows 的計劃任務(wù),使用 linux 中的 crontab 管理定時任務(wù)時很不適應(yīng)。
    的頭像 發(fā)表于 08-14 18:16 ?880次閱讀
    linux定時<b class='flag-5'>任務(wù)</b>的用法總結(jié)

    松下課堂 什么是EPS?通過馬達輔助轉(zhuǎn)向操作的系統(tǒng)

    背景 ? EPS是一種通過馬達減輕和輔助駕駛員在轉(zhuǎn)向操作時所需力量的設(shè)備。此外,通過采用EPS,可望提高燃效,降低車輛重量。我們將在本消息中就EPS的功能和系統(tǒng)構(gòu)成進行解說,同時對構(gòu)成的電子零部件
    的頭像 發(fā)表于 07-15 09:44 ?426次閱讀
    松下課堂 什么是EPS?通過馬達<b class='flag-5'>來</b><b class='flag-5'>輔助</b>轉(zhuǎn)向操作的系統(tǒng)

    nlp自然語言處理的主要任務(wù)及技術(shù)方法

    的應(yīng)用,如搜索引擎、機器翻譯、語音識別、情感分析等。 NLP的主要任務(wù) NLP的主要任務(wù)可以分為以下幾個方面: 1.1 詞法分析(Lexical Analysis) 詞法分析是NLP的基礎(chǔ),它包括分詞
    的頭像 發(fā)表于 07-09 10:26 ?1250次閱讀

    計算機視覺怎么給圖像分類

    圖像分類是計算機視覺領(lǐng)域中的一項核心任務(wù),其目標是將輸入的圖像自動分配到預(yù)定義的類別集合中。這一過程涉及圖像的特征提取、特征表示以及分類器的設(shè)計與訓(xùn)練。隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,圖像
    的頭像 發(fā)表于 07-08 17:06 ?809次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在文本分類領(lǐng)域的應(yīng)用

    顯著成就后,也逐漸被引入到文本分類任務(wù)中。卷積神經(jīng)網(wǎng)絡(luò)通過模擬人類視覺系統(tǒng)的信息處理方式,能夠有效地提取文本中的局部特征,進而實現(xiàn)高精度的文本分類。本文將對卷積神經(jīng)網(wǎng)絡(luò)在文本分類
    的頭像 發(fā)表于 07-01 16:25 ?770次閱讀

    機器學(xué)習(xí)多分類任務(wù)深度解析

    一對其余其實更加好理解,每次將一個類別作為正類,其余類別作為負類。此時共有(N個分類器)。在測試的時候若僅有一個分類器預(yù)測為正類,則對應(yīng)的類別標記為最終的分類結(jié)果。
    發(fā)表于 03-18 10:58 ?1905次閱讀
    機器學(xué)習(xí)多<b class='flag-5'>分類</b><b class='flag-5'>任務(wù)</b>深度解析

    濾波器:工作原理和分類及應(yīng)用領(lǐng)域?|深圳比創(chuàng)達電子EMC a

    濾波器:工作原理和分類及應(yīng)用領(lǐng)域?|深圳比創(chuàng)達電子EMC濾波器在電子領(lǐng)域中扮演著重要的角色,用于處理信號、抑制噪聲以及濾除干擾。本文將詳細介紹濾波器的工作原理、分類以及在各個應(yīng)用
    發(fā)表于 03-08 09:59

    濾波器:工作原理和分類及應(yīng)用領(lǐng)域?

    濾波器:工作原理和分類及應(yīng)用領(lǐng)域?|深圳比創(chuàng)達電子EMC
    的頭像 發(fā)表于 03-08 09:56 ?1911次閱讀
    濾波器:工作原理和<b class='flag-5'>分類</b>及應(yīng)用<b class='flag-5'>領(lǐng)域</b>?