0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖模型在方面級情感分析任務(wù)中的應(yīng)用

深度學(xué)習(xí)自然語言處理 ? 來源:復(fù)旦DISC ? 作者:吳焜 ? 2022-11-24 10:20 ? 次閱讀

引言

方面級情感分析(Aspect-based Sentiment Analysis, ABSA)是一項(xiàng)細(xì)粒度的情感分析任務(wù),主要針對句子級別的文本,分析文本中相關(guān)的方面項(xiàng)(Aspect Term)、觀點(diǎn)項(xiàng)(Opinion Term)、方面類別(Aspect Category)和情感極性(Sentiment Polarity),在不同的場景下對應(yīng)著不同的子任務(wù)。

本次Fudan DISC實(shí)驗(yàn)室將分享ACL 2022中關(guān)于方面級情感分析的三篇論文,其中兩篇介紹基于圖模型的方面級情感分析研究,一篇介紹用生成的方法進(jìn)行ABSA的相關(guān)研究。

文章概覽

BiSyn-GAT+: 用于方面級情感分析的雙重語法感知圖注意網(wǎng)絡(luò)(BiSyn-GAT+: Bi-Syntax Aware Graph Attention Network for Aspect-based Sentiment Analysis)

論文地址:https://aclanthology.org/2022.findings-acl.144.pdf

該篇文章提出了一種雙語法感知圖注意網(wǎng)絡(luò)(BiSyn-GAT+),利用句子的短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹來建模每個(gè)方面詞的情感感知上下文(稱為上下文內(nèi))和跨方面的情感關(guān)系(稱為上下文間) 信息,首次在ABSA任務(wù)中引入了句子的短語結(jié)構(gòu)樹的語法信息,四個(gè)基準(zhǔn)數(shù)據(jù)集的實(shí)驗(yàn)表明,BiSyn-GAT+ 始終優(yōu)于最先進(jìn)的方法。

用于方面情感三元組提取的增強(qiáng)多通道圖卷積網(wǎng)絡(luò)(Enhanced Multi-Channel Graph Convolutional Network for Aspect Sentiment Triplet Extraction)

論文地址:https://aclanthology.org/2022.acl-long.212.pdf

該篇文章旨在抽取句子中的情感三元組,提出了一個(gè)增強(qiáng)多通道圖卷積網(wǎng)絡(luò)模型來充分利用單詞之間的關(guān)系。該模型為 ASTE 任務(wù)定義了 10 種類型的關(guān)系,通過將單詞和關(guān)系鄰接張量分別視為節(jié)點(diǎn)和邊,將句子轉(zhuǎn)換為多通道圖,從而學(xué)習(xí)關(guān)系感知節(jié)點(diǎn)表示,同時(shí)設(shè)計(jì)了一種有效的詞對表示細(xì)化策略,顯著提高了模型的有效性和魯棒性。

Seq2Path:生成情感元組作為樹的路徑(Seq2Path: Generating Sentiment Tuples as Paths of a Tree)

該篇文章提出了 Seq2Path 來生成情感元組作為樹的路徑,通過生成的方法來解決ABSA中的多種子任務(wù)。樹結(jié)構(gòu)可以用于表示“1對n”的關(guān)系,并且樹的路徑是獨(dú)立的并且沒有順序。通過引入額外的判別標(biāo)記并應(yīng)用數(shù)據(jù)增強(qiáng)技術(shù),可以自動(dòng)選擇有效路徑,從而解決ABSA中常見的五類子任務(wù)。

論文細(xì)節(jié)

5b415d3c-3d84-11ed-9e49-dac502259ad0.png

動(dòng)機(jī)

該篇文章中的ABSA旨在識別句子中給定方面的情感極性。之前的許多工作主要是用有注意力機(jī)制的RNN、CNN提取序列特征,這些模型通常假設(shè)更接近目標(biāo)方面詞的單詞更可能與其情緒相關(guān)。但這種假設(shè)很可能并不成立,在圖1中可以看到,“service”更接近“great”而不是“dreadful”,所以這些方法可能會(huì)錯(cuò)誤地將不相關(guān)的意見詞“great”分配給“service”,導(dǎo)致情感判斷錯(cuò)誤。

5cca11c6-3d84-11ed-9e49-dac502259ad0.png

近期的工作主要研究如何通過GNN利用依存結(jié)構(gòu)樹等非序列信息來建模方面詞,然而依存結(jié)構(gòu)樹的固有性質(zhì)可能會(huì)引入噪聲,如圖 2中“great”和“dreadful”之間的“conj”關(guān)系,conjunct表示連接兩個(gè)并列的詞,這可能會(huì)影響到對great和dreadful的建模,即上下文內(nèi)建模,此外,依存結(jié)構(gòu)樹僅僅揭示了單詞之間的關(guān)系,因此在大多數(shù)情況下無法模擬句子間的復(fù)雜關(guān)系,例如條件、協(xié)同、反義等關(guān)系,也就無法捕捉方面詞之間的情感關(guān)系,即上下文間建模。

5cfda2fc-3d84-11ed-9e49-dac502259ad0.png

基于以上的兩個(gè)發(fā)現(xiàn),在本文中,作者考慮利用短語結(jié)構(gòu)樹的句法信息來解決這兩個(gè)問題。短語結(jié)構(gòu)樹中通常包含短語分割和分層組合結(jié)構(gòu),有助于正確對齊方面和表示方面情感的單詞。前者可以自然地將一個(gè)復(fù)雜的句子分成多個(gè)子句,后者可以區(qū)分方面詞之間的不同關(guān)系來推斷不同方面之間的情感關(guān)系。

如圖 3 所示,“but”等短語分割詞可以很自然地將原句切分為兩個(gè)子句,同時(shí),在Layer-1中,“and”可以體現(xiàn)出“service”和“environment”的協(xié)同關(guān)系,而Layer-3中的“but”可以體現(xiàn)出“food”和“service”或“environment”之間的反義關(guān)系。

5d60c436-3d84-11ed-9e49-dac502259ad0.png

任務(wù)定義

在給定方面詞,判斷情感極性的設(shè)定中,表示長度為的句子,表示預(yù)定義的方面詞集合。對于每個(gè)句子,表示句子中包含的方面詞,任務(wù)目標(biāo)就是輸入句子和句子中的若干方面詞,得到每一個(gè)對應(yīng)的情感極性。

模型

本文提出的模型如圖4所示:

5d96c5f4-3d84-11ed-9e49-dac502259ad0.png

該模型以句子和文本中出現(xiàn)的所有方面詞作為輸入,輸出方面詞的預(yù)測情感。其中一共包含三個(gè)組件:

一是上下文內(nèi)模塊(Intra-Context Module),對輸入文本進(jìn)行編碼以獲得針對目標(biāo)方面詞的方面特定表示,其中包含兩個(gè)編碼器,分別是上下文編碼器和利用短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹中句法信息的句法編碼器。

二是上下文間模塊(Inter-Context Module),其中包含一個(gè)關(guān)系編碼器,用于從構(gòu)建的方面-上下文圖中得到關(guān)系增強(qiáng)的表示,方面-上下文圖是由給定句子的所有方面詞以及短語分割項(xiàng)組成,短語分割項(xiàng)是通過規(guī)則方法從短語構(gòu)成樹中得到的。

三是情感分類器,綜合利用上述兩個(gè)模塊的輸出表示預(yù)測情感。

1. 上下文內(nèi)模塊

上下文內(nèi)模塊利用上下文編碼器和句法編碼器對每個(gè)方面詞的情感感知上下文進(jìn)行建模,并為每個(gè)目標(biāo)方面詞生成方面特定表示。對于多方面詞的句子將多次使用此模塊,每次處理一個(gè)目標(biāo)方面詞。

上下文編碼器利用BERT進(jìn)行編碼,輸入序列如式1所示,經(jīng)過BERT可以得到如式2所示的文本表示,由于BERT分詞后每個(gè)單詞可能被拆分為多個(gè)子詞,因此通過式3對多個(gè)子詞的表示取平均,得到每個(gè)單詞對應(yīng)的文本表示。句法編碼器由幾個(gè)分層圖注意力塊堆疊而成,每個(gè)塊中由多個(gè)圖注意力層組成,這些層在短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹上對句法信息進(jìn)行分層編碼,關(guān)鍵在于圖的構(gòu)建。

5df2a9c8-3d84-11ed-9e49-dac502259ad0.png

5e32b5fe-3d84-11ed-9e49-dac502259ad0.png

5ea6504a-3d84-11ed-9e49-dac502259ad0.png

根據(jù)短語結(jié)構(gòu)樹的句法結(jié)構(gòu),本文以自底向上的方式進(jìn)行編碼,短語結(jié)構(gòu)樹的每一層由組成輸入文本的幾個(gè)短語組成,每個(gè)短語代表一個(gè)獨(dú)立的語義單元。

例如,圖3中的就是{The food is great, but, the service and the environment are dreadful},根據(jù)這些短語,可以通過式4構(gòu)造顯示單詞連接的鄰接矩陣CA,如果兩個(gè)單詞在該層的同一短語中,則矩陣對應(yīng)位置為1,否則為0。具體的模塊圖如圖5所示,左邊這一列就是得到的鄰接矩陣CA。

5ebe83cc-3d84-11ed-9e49-dac502259ad0.png

5ee0b5c8-3d84-11ed-9e49-dac502259ad0.png

接著介紹 HGAT 塊,一個(gè) HGAT 塊由幾個(gè) GAT 層堆疊,這些 GAT 層利用掩碼自注意力機(jī)制聚合來自鄰居的信息,并使用全連接層將表示映射到相同的語義空間。注意力機(jī)制可以分配給具有更多相關(guān)詞的鄰居更高的權(quán)重。其表示如式 5,6,7 所示,其中表示第層中的鄰居集合,是衡量兩個(gè)詞相關(guān)性的評分函數(shù),式 7 就是將層中兩個(gè)詞之間的相關(guān)性進(jìn)行歸一化得到第 l 層中使用的權(quán)重,式 6 中的是經(jīng)過掩碼自注意機(jī)制后的表示。

||表示向量連接。是注意力頭的數(shù)量。是第層中的最終表示,式 5 就是將層中的最終表示和層中經(jīng)過掩碼自注意機(jī)制后的表示拼接起來再過一個(gè)全連接層。堆疊的 HGAT 塊將前一層塊的輸出作為輸入,第一個(gè) HGAT 塊的輸入是式 3 中得到的。

5f1bb4a2-3d84-11ed-9e49-dac502259ad0.png

本文還探索了結(jié)構(gòu)和依存兩種句法信息的融合,可以將依存結(jié)構(gòu)樹視為無向圖并構(gòu)造鄰接矩陣 DA,如果兩個(gè)詞在依存結(jié)構(gòu)樹中直接連接,那矩陣中的元素為1,否則為0。通過逐位點(diǎn)乘、逐位相加和條件逐位相加三種方式拼接兩個(gè)矩陣信息。最終上下文內(nèi)模塊的輸出如式12所示,包含了上下文信息和句法信息。

5f5517a6-3d84-11ed-9e49-dac502259ad0.png

2. 上下文間模塊

上下文內(nèi)模塊中沒有考慮方面詞之間的相互影響。因此,在上下文間模塊中,本文構(gòu)建了一個(gè)方面-上下文圖來對各方面詞之間的關(guān)系建模。該模塊僅適用于多方面詞句子,將來自上下文內(nèi)模塊的所有方面詞的方面特定表示作為輸入,并輸出每個(gè)方面詞的關(guān)系增強(qiáng)表示。

方面詞之間的關(guān)系可以通過一些短語分割詞來表示,比如連詞。因此,本文設(shè)計(jì)了一個(gè)基于規(guī)則的映射函數(shù) PS,可以返回兩個(gè)方面詞的短語分割詞。具體來說,給定兩個(gè)方面詞,PS函數(shù)首先在短語結(jié)構(gòu)樹中找到它們的最近共同祖先(LCA),它包含兩個(gè)方面詞的信息并且具有最少的無關(guān)的上下文。我們將來自 LCA 的,在兩個(gè)方面分開的子樹之間的分支,稱為“Inner branches”。PS函數(shù)就會(huì)返回“Inner branches”中的所有文本詞。否則將返回輸入文本中兩個(gè)方面詞之間的單詞。在圖3中,給定方面詞food和service,LCA節(jié)點(diǎn)是第四層中的S,具有三個(gè)分支,此時(shí)的inner branch就是中間的but,反映兩個(gè)方面詞之間的情感關(guān)系。

5f83db72-3d84-11ed-9e49-dac502259ad0.png

在方面上下文圖構(gòu)建中,本文認(rèn)為一個(gè)方面詞的影響范圍應(yīng)該是連續(xù)的,方面詞之間的相互影響會(huì)隨著距離增加而衰減,考慮所有方面對會(huì)引入由長距離引起的噪聲并增加計(jì)算開銷,所以本文只對相鄰的方面詞之間的關(guān)系進(jìn)行建模。在通過 PS 函數(shù)得到相鄰方面詞之間的短語分割詞后,本文通過將方面詞與相應(yīng)的短語分割詞相連接以構(gòu)建方面上下文圖。為區(qū)分方面上下文之間的雙向關(guān)系,本文構(gòu)建了兩個(gè)對應(yīng)的鄰接矩陣。第一個(gè)處理句子中所有奇數(shù)索引方面詞到相鄰的偶數(shù)索引方面詞的影響,第二個(gè)反之。用之前從上下文內(nèi)模塊中學(xué)到的和經(jīng)過BERT編碼的短語分割詞為輸入,將上述介紹的HGAT塊作為關(guān)系編碼器,輸出為每個(gè)方面詞對應(yīng)的關(guān)系增強(qiáng)表示。

5fa2b362-3d84-11ed-9e49-dac502259ad0.png

將上下文內(nèi)模塊和上下文間模塊的輸出組合起來形成最終表示,然后將其送入全連接層,即情感分類器中,得到三種情感極性的概率。損失函數(shù)就是情感標(biāo)簽和預(yù)測結(jié)果之間的交叉熵?fù)p失。

5fcbe23c-3d84-11ed-9e49-dac502259ad0.png

5ffb01b6-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

本文的實(shí)驗(yàn)在四個(gè)英文數(shù)據(jù)集上進(jìn)行,分別是SemEval2014的laptop、restaurant和MAMS、Twitter數(shù)據(jù)集。其中l(wèi)aptop和restaurant數(shù)據(jù)集中的句子有包含多方面詞的,也有包含單方面詞的。MAMS 中的每個(gè)句子至少包含兩個(gè)不同情感的方面詞。Twitter中的句子只包含一個(gè)方面詞。數(shù)據(jù)集統(tǒng)計(jì)數(shù)據(jù)如表 1 所示。

601a34d2-3d84-11ed-9e49-dac502259ad0.png

解析器使用SuPar,利用CRF constituency parser (Zhang et al., 2020)得到短語結(jié)構(gòu)樹,利用deep Biaffine Parser (Dozat and Manning, 2017)得到依存結(jié)構(gòu)樹。

Baseline一共分為三組,分別是無句法信息的基線模型,有句法信息的基線模型和建模了方面詞之間關(guān)系的基線模型。

606197a0-3d84-11ed-9e49-dac502259ad0.png

最終的實(shí)驗(yàn)結(jié)果如表2所示,本文的完整模型有一個(gè)加號,沒有加號的是去掉上下文間模塊后的模型。本文提出的模型要優(yōu)于所有基線模型。具有句法信息的模型要優(yōu)于沒有句法信息的模型,本文的模型優(yōu)于僅使用依賴信息的模型,說明組成樹可以提供有用的信息。從最后兩行的比較中可以看出,建模方面詞之間的關(guān)系可以顯著提高性能。

60b36e04-3d84-11ed-9e49-dac502259ad0.png

此外,作者還做了許多消融實(shí)驗(yàn),探索了模型中各個(gè)模塊的作用,比較了不同解析器帶來的影響和不同的方面上下文圖構(gòu)建方式帶來的影響,最終的結(jié)果就是每個(gè)模塊都有其用處,把各類模塊都加上得到的結(jié)果才是最優(yōu)的。

2

60fcb2e4-3d84-11ed-9e49-dac502259ad0.png

動(dòng)機(jī)

情感三元組抽取任務(wù)旨在從句子中提取方面情感三元組,每個(gè)三元組包含三個(gè)元素,即方面詞、觀點(diǎn)詞以及對應(yīng)情感。如圖1所示,藍(lán)色代表方面詞,黃色代表觀點(diǎn)詞,紅色和綠色表示情感,輸入為句子,期待的輸出為下面的三元組。先前的方法主要為Pipeline方法,或者將其建模為多輪閱讀理解任務(wù),再或者通過新的標(biāo)注方案進(jìn)行聯(lián)合抽取來解決。盡管之前的工作取得了顯著成果,但仍然存在一些挑戰(zhàn)。

在ASTE任務(wù)中,很自然地會(huì)面臨兩個(gè)問題,一是如何利用單詞之間的各種關(guān)系來幫助 ASTE 任務(wù),詞對(“food”,“delicious”),“food”是“delicious”的觀點(diǎn)目標(biāo),被賦予了積極的情感極性,需要基于單詞之間的關(guān)系來學(xué)習(xí)任務(wù)相關(guān)的單詞表示。二是如何利用語言特征來幫助 ASTE 任務(wù),可以觀察到方面詞通常是名詞,觀點(diǎn)詞通常是形容詞,因此名詞和形容詞組成的詞對往往形成方面-觀點(diǎn)對,從句法依存樹的角度觀察,food是delicious的名詞性主語,依存類型為nsubj,說明不同的依存類型可以幫助方面詞、觀點(diǎn)詞的抽取和匹配。基于以上兩點(diǎn)觀察,本文提出了一種增強(qiáng)多通道圖卷積網(wǎng)絡(luò)模型來解決上述問題,設(shè)計(jì)了十種單詞關(guān)系來建模單詞之間的關(guān)系概率分布,充分利用了四種語言特征并細(xì)化詞對表示。

61441616-3d84-11ed-9e49-dac502259ad0.png

任務(wù)定義

給定一個(gè)輸入句子,包含個(gè)單詞,目標(biāo)是從中抽取出一批三元組,其中和分別表示方面項(xiàng)和意見項(xiàng),表示情感極性。

除了任務(wù)形式定義,本文為 ASTE 定義了句子中單詞之間的十種關(guān)系,如表1所示。

61896acc-3d84-11ed-9e49-dac502259ad0.png

與前人的工作相比,本文定義的關(guān)系引入了更準(zhǔn)確的邊界信息,其中的四個(gè)關(guān)系或標(biāo)簽 {B-A, I-A, B-O, I-O} 旨在提取方面詞和意見詞,B 和 I 分別表示術(shù)語的開頭和內(nèi)部。A 和 O 子標(biāo)簽旨在確定詞語的作用,即為方面詞或意見詞。表 1 中的 A 和 O 關(guān)系用于檢測由兩個(gè)不同的詞組成的詞對是否分別屬于同一個(gè)方面或意見詞。三個(gè)情感關(guān)系檢測詞對是否匹配,同時(shí)判斷了詞對的情感極性,可以使用表格填充的方法構(gòu)建關(guān)系表,圖3就是一個(gè)例子,每個(gè)單元格對應(yīng)一個(gè)具有關(guān)系的詞對。

61f3a932-3d84-11ed-9e49-dac502259ad0.png

在得到表格后需要對其進(jìn)行解碼,ASTE 任務(wù)的解碼細(xì)節(jié)如算法1所示。為簡單起見,此處使用上三角表來解碼三元組,因?yàn)槭菢?biāo)準(zhǔn)情況下關(guān)系是對稱的。首先僅使用基于主對角線的所有詞對之間的預(yù)測關(guān)系來提取方面詞和觀點(diǎn)詞。其次,需要判斷提取的方面詞和觀點(diǎn)詞是否匹配。具體來說,對于方面項(xiàng)和意見項(xiàng),我們計(jì)算所有單詞對的預(yù)測關(guān)系,其中和。如果預(yù)測關(guān)系中存在任何情感關(guān)系,則認(rèn)為方面詞和觀點(diǎn)詞是配對的,否則這兩個(gè)不配對。最后,為了判斷方面-觀點(diǎn)對的情感極性,將預(yù)測最多的情感關(guān)系視為情感極性。經(jīng)過這樣的流程,可以收集到一個(gè)三元組。

62381ad6-3d84-11ed-9e49-dac502259ad0.png

模型

接著介紹一下本文提出的模型架構(gòu)。首先利用BERT編碼輸入,接著利用一個(gè)biaffine attention模塊來對句子中單詞之間的關(guān)系概率分布進(jìn)行建模,并使用一個(gè)向量來表示它。接著每種關(guān)系對應(yīng)一個(gè)通道,形成一個(gè)多通道的GCN模型,同時(shí),為增強(qiáng)模型,為每個(gè)詞對引入了四種類型的語言特征,并對biaffine 模塊中獲得的鄰接張量添加約束,最后利用方面和意見提取的隱含結(jié)果精煉詞對表示并進(jìn)行分類。

6261919a-3d84-11ed-9e49-dac502259ad0.png

1.輸入與編碼層 & 雙仿射注意模塊

在輸入與編碼層,利用BERT 作為句子編碼器來提取隱藏上下文表示。接著利用Biaffine Attention模塊來捕獲句子中每個(gè)詞對的關(guān)系概率分布,其過程如式1234所示。經(jīng)過BERT后的隱藏上下文表示經(jīng)過兩個(gè)MLP層分別得到和,通過式3得到表示,其中的、和是可訓(xùn)練的權(quán)重和偏差,中間的加號表示連接。表示詞對的第個(gè)關(guān)系類型的分?jǐn)?shù),這里就是做了一個(gè)歸一化。鄰接張量就是上面這個(gè)過程的矩陣化表示,其形狀為,為關(guān)系類型的數(shù)量,每個(gè)通道就對應(yīng)著一個(gè)關(guān)系類型。

62a159b0-3d84-11ed-9e49-dac502259ad0.png

2. 多通道GCN

多通道的GCN模型則是沿著每個(gè)通道為Biaffine Attention 模塊得到的中的每個(gè)節(jié)點(diǎn)聚合信息。表示的第個(gè)通道切片,和是可學(xué)習(xí)的權(quán)重和偏差。是激活函數(shù)。是平均池化函數(shù),可以將所有通道的隱藏節(jié)點(diǎn)表示聚合起來。

62cf9d0c-3d84-11ed-9e49-dac502259ad0.png

3. 語言特征

為增強(qiáng)EMC-GCN 模型,本文為每個(gè)詞對引入了四種類型的語言特征,如圖 4 所示,包括詞性組合、句法依賴類型、基于樹的距離和相對位置距離。對于句法依賴類型,需要為每個(gè)詞對添加一個(gè)自依賴類型。一開始隨機(jī)初始化這四個(gè)鄰接張量,以以句法依賴類型特征為例,如果和之間存在依賴弧,并且依賴類型為 nsubj,則通過一個(gè)可訓(xùn)練的嵌入查找表,將初始化為 nsubj 的嵌入,否則用維零向量進(jìn)行初始化。隨后,使用這些鄰接張量重復(fù)圖卷積操作以獲得節(jié)點(diǎn)表示、、和,最后分別將平均池化函數(shù)和連接操作應(yīng)用于所有節(jié)點(diǎn)表示和所有邊。

62eb64ba-3d84-11ed-9e49-dac502259ad0.png

632bbd9e-3d84-11ed-9e49-dac502259ad0.png

4.關(guān)系損失 & 細(xì)化策略

為了精確捕捉單詞之間的關(guān)系,我們對從 biaffine 模塊獲得的鄰接張量添加了一個(gè)損失,同樣,對語言特征產(chǎn)生的四個(gè)其他鄰接張量也添加了約束損失。

637823dc-3d84-11ed-9e49-dac502259ad0.png

為了獲得用于標(biāo)簽預(yù)測的詞對的表示,我們將它們的節(jié)點(diǎn)表示、和它們的邊表示連接起來。受多標(biāo)簽分類任務(wù)中的分類器鏈方法啟發(fā),在判斷詞對是否匹配時(shí)又引入了方面和意見提取的隱含結(jié)果,具體來說,假設(shè)是方面詞,是意見詞,那么詞對更有可能被預(yù)測為情感關(guān)系,因此引入了和來細(xì)化詞對的表示。最后將詞對表示輸入線性層,然后使用 softmax 函數(shù)生成標(biāo)簽概率分布。

63b5b3be-3d84-11ed-9e49-dac502259ad0.png

63d56b28-3d84-11ed-9e49-dac502259ad0.png

訓(xùn)練時(shí)的損失函數(shù)如式13所示,其中的是用于ASTE任務(wù)的標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù),如式14所示,系數(shù)和用于調(diào)整對應(yīng)關(guān)系約束損失的影響。

6401ec0c-3d84-11ed-9e49-dac502259ad0.png

642a1510-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

本文實(shí)驗(yàn)的數(shù)據(jù)集也是在SemEval挑戰(zhàn)賽的數(shù)據(jù)集基礎(chǔ)上,D1由[Wu et al. (2020a)],D2由[Xu et al. (2020)]做了進(jìn)一步的標(biāo)注,這兩組數(shù)據(jù)集的統(tǒng)計(jì)數(shù)據(jù)如表2所示。

644f853e-3d84-11ed-9e49-dac502259ad0.png

本文實(shí)驗(yàn)比較的基線模型主要流水線模型、一些端到端方法的模型和基于機(jī)器閱讀理解的模型。

649b054a-3d84-11ed-9e49-dac502259ad0.png

在 F1 指標(biāo)下,EMC-GCN 模型在兩組數(shù)據(jù)集上優(yōu)于所有其他方法。端到端和基于 MRC 的方法比流水線方法取得了更顯著的改進(jìn),因?yàn)樗鼈兘⒘诉@些子任務(wù)之間的相關(guān)性,并通過聯(lián)合訓(xùn)練多個(gè)子任務(wù)來緩解錯(cuò)誤傳播的問題。

64c448ba-3d84-11ed-9e49-dac502259ad0.png

650ffc6a-3d84-11ed-9e49-dac502259ad0.png

此外,文章還進(jìn)行了一些消融實(shí)驗(yàn)分析,實(shí)驗(yàn)發(fā)現(xiàn)提出的十種關(guān)系和細(xì)化策略都對性能提升有幫助。作者通過可視化通道信息和語言特征信息,發(fā)現(xiàn)這些模塊都如預(yù)期一樣有效,有助于傳遞詞之間的信息,通過樣例分析對比其他模型,發(fā)現(xiàn)EMC-GCN模型可以更好地提取句子中的情感三元組。

3

6543d238-3d84-11ed-9e49-dac502259ad0.png

動(dòng)機(jī)

在本文中,作者以 ASTE 為默認(rèn)任務(wù)來說明想法。ABSA任務(wù)方面最近的趨勢是設(shè)計(jì)一個(gè)統(tǒng)一的框架來同時(shí)處理多個(gè) ABSA 任務(wù),而不是為每個(gè) ABSA 任務(wù)使用單獨(dú)的模型,如Seq2Seq 模型已被充分應(yīng)用到其中。輸入文本后,輸出是一系列情感元組,但這種設(shè)計(jì)仍存在兩種問題,一是順序,元組之間的順序并不自然存在,二是依賴關(guān)系,的生成不應(yīng)該以為條件。也就是說,為什么必須是第一個(gè)元組而不是?為什么后面必須跟而不是或結(jié)束符?

基于以上發(fā)現(xiàn),作者認(rèn)為樹結(jié)構(gòu)是表示輸出的更好選擇。樹可以表示一對多的關(guān)系,其中一個(gè)token在生成期間其后可以跟隨多個(gè)有效token,而在序列中只能表示一對一的關(guān)系,一個(gè)token在生成期間其后緊跟一個(gè)token,也就是貪心的策略。如圖 1 中的示例,兩個(gè)情感元組(“rolls”、“big”、“positive”)和(“rolls”、“not good”、“negative”)共享相同的方面詞“rolls”,體現(xiàn)了一對多的關(guān)系。

660c2b52-3d84-11ed-9e49-dac502259ad0.png

在本文中,作者將 ABSA 任務(wù)形式化為樹的路徑序列問題,提出了Seq2Path方法,其中的每個(gè)情感元組都是樹的路徑,可以獨(dú)立生成。只要給定輸入文本,就可以獨(dú)立確定任何有效的情感元組。例如,可以在不知道是一個(gè)有效的情感元組的情況下,確定是一個(gè)有效的情感元組。具體來說,在訓(xùn)練時(shí),將每個(gè)情感元組視為一個(gè)獨(dú)立的目標(biāo),使用普通的 Seq2Seq 模型來學(xué)習(xí)每個(gè)目標(biāo)并計(jì)算平均損失。在推理時(shí),使用Beam Search來生成多條路徑及其概率。此外,本文還引入了一個(gè)判別標(biāo)記來自動(dòng)從Beam Search中選擇正確的路徑,為數(shù)據(jù)集擴(kuò)充了判別標(biāo)記的負(fù)樣本數(shù)據(jù)。

任務(wù)定義

方面級情感分析的輸入為文本,在五個(gè)子任務(wù)上輸出的目標(biāo)序列為:

66c02684-3d84-11ed-9e49-dac502259ad0.png

其中,a表示方面項(xiàng),o表示觀點(diǎn)項(xiàng),s表示情感極性。

模型

Seq2Path的框架如圖2所示。里面的編碼器-解碼器架構(gòu)就是普通的 Seq2Seq 架構(gòu),主要有以下幾點(diǎn)區(qū)別:一是每個(gè)情感元組將被視為一個(gè)獨(dú)立的目標(biāo),會(huì)訓(xùn)練一個(gè)普通的 Seq2Seq 模型并計(jì)算平均損失。二是token的生成過程會(huì)形成一棵樹,將Beam Search用于并行和獨(dú)立地生成路徑。三是輸入是文本,輸出是帶有判別標(biāo)記v的情感元組。由于判別標(biāo)記沒有負(fù)樣本,因此還必須構(gòu)建一個(gè)增強(qiáng)數(shù)據(jù)集進(jìn)行訓(xùn)練。

66e4e622-3d84-11ed-9e49-dac502259ad0.png

對于輸入句子,期望輸出一組元組,如前面所述,集合可以表示為一棵樹,其中的每個(gè)對應(yīng)樹的一條路徑,就是路徑的總數(shù)。訓(xùn)練的損失函數(shù)定義為這條路徑上的平均損失。就是普通的 Seq2Seq 損失,是每個(gè)時(shí)間步的損失。

6735d08c-3d84-11ed-9e49-dac502259ad0.png

6759e0bc-3d84-11ed-9e49-dac502259ad0.png

在推理階段,我們應(yīng)用帶有約束解碼的束搜索方法。束搜索算法根據(jù)條件概率在每一步為輸入序列選擇多個(gè)備選方案。通過束搜索,我們輸出概率遞減的 top-k 路徑,這些路徑表示路徑有效的可能性。在解碼期間也使用約束解碼,不去搜索整個(gè)詞匯表,而是在輸入文本和任務(wù)特定標(biāo)記中選擇token進(jìn)行輸出。首先,我們刪除了一些重疊的預(yù)測,如果束搜索同時(shí)返回了“”和“”,選擇序列概率較高的那個(gè)。如果同時(shí)返回“”和““,其中和重疊,也選擇序列概率較高的那個(gè)。然后輸出判別標(biāo)記為true的,過濾其他無效路徑。

由于判別標(biāo)記沒有負(fù)樣本,因此數(shù)據(jù)增強(qiáng)步驟是必要的。為了自動(dòng)選擇有效路徑,在每個(gè)負(fù)樣本的末尾附加一個(gè)判別標(biāo)記 v = “false”。本文用以下兩種方式生成負(fù)樣本,D1數(shù)據(jù)集是為了提高模型匹配元組元素的能力,隨機(jī)替換元組中的元素,生成“rolls, was not fresh, positive, false”, “sashimi, big,negative, false”等。D2數(shù)據(jù)集是為提高模型過濾大部分不良泛化情況的能力,首先用幾個(gè)小epoch訓(xùn)練模型,然后使用束搜索生成負(fù)樣本。增廣數(shù)據(jù)集就是正負(fù)樣本的并集。

67862b4a-3d84-11ed-9e49-dac502259ad0.png

67aabea6-3d84-11ed-9e49-dac502259ad0.png

我們希望判別標(biāo)記 v 能夠過濾無效路徑,又不希望模型的生成模仿負(fù)樣本,因此這里應(yīng)用了一個(gè)技巧性的損失掩碼。假設(shè),如果 y 是負(fù)樣本,即 y 的驗(yàn)證標(biāo)記為“false”,則損失掩碼為如式7所示,如果 y 是正樣本,即 y 的驗(yàn)證標(biāo)記為“true”,則損失掩碼如式8所示。損失掩碼意味著在損失計(jì)算中跳過了一些token,如下圖所示。除了判別令牌和“”令牌之外的所有令牌都被屏蔽。為帶有損失掩碼的損失,其中只有的標(biāo)記參與損失計(jì)算,可以得到如式9所示的損失函數(shù),最終數(shù)據(jù)集的總體損失如式10所示。

67c41f18-3d84-11ed-9e49-dac502259ad0.png

67d96f6c-3d84-11ed-9e49-dac502259ad0.png

68206ac0-3d84-11ed-9e49-dac502259ad0.png

6838e258-3d84-11ed-9e49-dac502259ad0.png

Seq2Path 的流程總結(jié)為算法1,首先生成負(fù)樣本數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)。其次用普通的Seq2Seq方法訓(xùn)練模型,使用損失掩碼。在推理時(shí)使用束搜索,生成前k條路徑并剪枝。

684b681a-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

該篇文章在四個(gè)廣泛使用的基準(zhǔn)數(shù)據(jù)集上進(jìn)行,分別為SemEval2014 Restaurant, Laptop,SemEval2015 Restaurant和SemEval2016 Restaurant,根據(jù)ABSA的不同子任務(wù),采取了以下的基線方法進(jìn)行比較。

692273dc-3d84-11ed-9e49-dac502259ad0.png

整體的實(shí)驗(yàn)結(jié)果如表2、3、4、5、6所示,總體而言,本文提出的方法幾乎所有子任務(wù)上的F1 分?jǐn)?shù)都達(dá)到了SOTA。

69455604-3d84-11ed-9e49-dac502259ad0.png

6975ef3a-3d84-11ed-9e49-dac502259ad0.png

69a0b184-3d84-11ed-9e49-dac502259ad0.png

69d85562-3d84-11ed-9e49-dac502259ad0.png

6a2b4c2c-3d84-11ed-9e49-dac502259ad0.png

最后作者也進(jìn)行了一些實(shí)驗(yàn)分析。首先分析束尺寸對性能的影響,總體而言,較小的束尺寸會(huì)導(dǎo)致更差的召回率,較大的束尺寸會(huì)導(dǎo)致更差的精度。然而,通過剪枝過程,無論 k 的選擇如何,在前面幾張實(shí)驗(yàn)表中得到的性能相比其他方法都是最優(yōu)的,而最佳k的選擇則取決于任務(wù)和數(shù)據(jù)集。盡管束搜索需要更大的 GPU 內(nèi)存,但 Seq2Path 可以使用更短的最大輸出序列長度,從而減少內(nèi)存消耗。其次是數(shù)據(jù)增強(qiáng)的消融研究,數(shù)據(jù)集 D1 對 F1 分?jǐn)?shù)的影響較小,數(shù)據(jù)集 D2 對 F1 分?jǐn)?shù)有重大影響,說明利用少量epoch訓(xùn)練得到的模型得到負(fù)樣本可以有效提高模型性能。

總結(jié)

此次 Fudan DISC 解讀的三篇論文圍繞方面級情感分析展開,介紹了圖模型在方面級情感分析任務(wù)中的應(yīng)用,利用依存解析圖和句子結(jié)構(gòu)圖,可以為建模方面表示提供更精細(xì)的信息。最后,本文還介紹了一種Seq2Path的模型,改善了先前Seq2Seq方法解決ABSA任務(wù)時(shí)面臨的順序、依賴等問題。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3648

    瀏覽量

    134742
  • ACL
    ACL
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    11986
  • GAT
    GAT
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6350
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22246

原文標(biāo)題:ACL'22 | 基于圖模型的方面級情感分析研究

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實(shí)現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機(jī)制,使模型能夠根據(jù)當(dāng)前場景動(dòng)態(tài)調(diào)整行為策略。預(yù)訓(xùn)練-微調(diào)范式
    發(fā)表于 12-24 15:03

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    內(nèi)為企業(yè)帶來效益。選擇模型時(shí),需要評估其性能表現(xiàn)。這包括模型的準(zhǔn)確性、響應(yīng)速度、對話流暢性、情感理解能力等方面。可以通過對比不同
    發(fā)表于 12-17 16:53

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    情感分析是自然語言處理(NLP)領(lǐng)域的一項(xiàng)重要任務(wù),旨在識別和提取文本的主觀信息,如情感傾向、情感
    的頭像 發(fā)表于 11-13 10:15 ?561次閱讀

    soc人工智能的創(chuàng)新應(yīng)用

    的應(yīng)用變得越來越廣泛和深入。 1. 社交媒體分析 社交媒體平臺已經(jīng)成為人們交流和分享信息的主要渠道。AI技術(shù),特別是自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML),分析社交媒體數(shù)據(jù)方面發(fā)揮
    的頭像 發(fā)表于 11-10 09:30 ?418次閱讀

    使用AI大模型進(jìn)行數(shù)據(jù)分析的技巧

    使用AI大模型進(jìn)行數(shù)據(jù)分析的技巧涉及多個(gè)方面,以下是一些關(guān)鍵的步驟和注意事項(xiàng): 一、明確任務(wù)目標(biāo)和需求 使用AI大
    的頭像 發(fā)表于 10-23 15:14 ?864次閱讀

    AI大模型自然語言處理的應(yīng)用

    AI大模型自然語言處理(NLP)的應(yīng)用廣泛且深入,其強(qiáng)大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對AI大模型
    的頭像 發(fā)表于 10-23 14:38 ?511次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    信息有助于模型更深入地理解文本的含義和意圖。 3. 推理與判斷 問答任務(wù),大語言模型不僅需要理解問題的字面意義,還需要進(jìn)行推理和判斷以得
    發(fā)表于 08-02 11:03

    AI模型MCU的應(yīng)用

    機(jī)遇。將AI模型集成到MCU,不僅提升了設(shè)備的智能化水平,還使得設(shè)備能夠執(zhí)行更復(fù)雜的任務(wù),實(shí)現(xiàn)自主決策和實(shí)時(shí)響應(yīng)。本文將從AI模型MCU
    的頭像 發(fā)表于 07-12 10:24 ?956次閱讀

    nlp自然語言處理的主要任務(wù)及技術(shù)方法

    的應(yīng)用,如搜索引擎、機(jī)器翻譯、語音識別、情感分析等。 NLP的主要任務(wù) NLP的主要任務(wù)可以分為以下幾個(gè)方面: 1.1 詞法
    的頭像 發(fā)表于 07-09 10:26 ?1196次閱讀

    Al大模型機(jī)器人

    理解能力強(qiáng)大: AI大模型機(jī)器人可以理解和生成自然語言,能夠進(jìn)行復(fù)雜的對話和語言任務(wù)。它們能夠識別語言中的語義、語境和情感,并據(jù)此作出適當(dāng)?shù)幕貞?yīng)。廣泛的知識儲備: 這些模型基于大規(guī)模的
    發(fā)表于 07-05 08:52

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    操作。所謂零樣本提示(Zero-Shot Prompt),指的是提示詞不包含與指令任務(wù)相似的任何示例。 當(dāng)大語言模型訓(xùn)練完成后,它便具備了分析
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型的評測

    知識獲取、邏輯推理、代碼生成等方面的能力。這些評測基準(zhǔn)包括語言建模能力、綜合知識能力、數(shù)學(xué)計(jì)算能力、代碼能力和垂直領(lǐng)域等多個(gè)維度。對于微調(diào)模型,對話能力的評測關(guān)注模型在對話
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    數(shù)據(jù)格式的轉(zhuǎn)換、數(shù)據(jù)字段的匹配和整合等。通過數(shù)據(jù)凈化,可以進(jìn)一步提高數(shù)據(jù)的質(zhì)量和可用性,為后續(xù)的數(shù)據(jù)分析和建模提供更有價(jià)值的數(shù)據(jù)支持。 得到了大語言模型的數(shù)據(jù)之后,就是對其進(jìn)行預(yù)
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    超出預(yù)期的能力和表現(xiàn)。這種能力主要體現(xiàn)在學(xué)習(xí)能力提升、語言理解和生成能力,以及創(chuàng)新和探索等方面。大語言模型擁有更大的參數(shù)空間和表征能力,能學(xué)習(xí)更復(fù)雜、更抽象的模式和特征,從而在各種任務(wù)
    發(fā)表于 05-04 23:55

    模型戰(zhàn)略評估系統(tǒng)的應(yīng)用有哪些

    體現(xiàn)在以下幾個(gè)方面: 數(shù)據(jù)整合與分析:大模型具有處理大規(guī)模數(shù)據(jù)的能力,可以整合來自不同來源、不同格式的戰(zhàn)略數(shù)據(jù),如市場趨勢、競爭情報(bào)、用戶行為等。 戰(zhàn)略預(yù)測與模擬:大模型通過學(xué)習(xí)和理解
    的頭像 發(fā)表于 04-24 13:48 ?293次閱讀