在本文中,我們探索了一種簡單的方法,為每個方面自動生成離散意見樹結(jié)構(gòu)。用到了RL。
首先為每個方面生成離散意見樹,設(shè)方面詞的位置為[b,e],則首先將方面跨度[b, e]作為根節(jié)點(diǎn),然后分別從跨度[1,b?1]和[e+1, n]構(gòu)建它的左子節(jié)點(diǎn)和右子節(jié)點(diǎn)。為了構(gòu)建左子樹或右子樹,我們首先選擇span中「得分最大的元素」作為子樹的根節(jié)點(diǎn),然后遞歸地對相應(yīng)的span分區(qū)使用build_tree調(diào)用。(除了方面詞外其他node都是單個詞)。
關(guān)于得分分?jǐn)?shù)的計(jì)算,選擇將""作為BERT的輸入得到特殊于方面詞的句子表達(dá)H,然后按照如下計(jì)算得分:
其中h是H中方面詞部分的平均池化,構(gòu)建樹的這部分包含的參數(shù)有三個以及BERT參數(shù)部分。
構(gòu)建樹的這一部分稱為,輸入為x和a(用于打分),輸出為一棵樹,參數(shù) ? 包括上述參數(shù)。這一部分參數(shù)使用RL進(jìn)行更新而不是最終損失函數(shù)的反向傳播。
生成樹以后開始正式執(zhí)行預(yù)測任務(wù),模型非常簡單。
將上面得到的樹生成鄰接矩陣,經(jīng)過GCN(可能多層),取最后一層GCN的輸出結(jié)果的方面詞部分以及[CLS]這個token的表達(dá)之和作為query,與GCN的輸入的初始向量特征(也就是原句子經(jīng)過句子編碼器得到的)做注意力機(jī)制,用輸入去表達(dá)最終的方面級分類特征。
最后輸出分類結(jié)果
損失函數(shù):
注意這個論文分為兩個模塊,第一個是生成樹,利用得到t;第二部分是預(yù)測, ,這里的 θ 包括GCN模塊的參數(shù)和輸出(等式5)的部分,PS注意力模塊沒有引進(jìn)參數(shù)哦。
第二部分使用上述損失函數(shù)進(jìn)行優(yōu)化,由于樹的采樣過程是一個離散的決策過程,因此它是不可微的,第一部分使用的是RL進(jìn)行優(yōu)化。
強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)訓(xùn)練部分還沒看。
實(shí)驗(yàn)效果和分析
MAMS 開發(fā)集效果
在MAMS數(shù)據(jù)上和多語言評論數(shù)據(jù)的結(jié)果
SemEval數(shù)據(jù)集上的效果
和span-based RL作對比
圖3a和圖3b分別顯示了方面術(shù)語“scallops”的induced tree和dependency parse:
圖4a和圖4b顯示了兩個情緒極性不同的方面術(shù)語的induced tree:
aspect 和 opinion word的距離分析:
基于MAMS的測試集分類精度與訓(xùn)練集中各方面頻率的關(guān)系:
審核編輯:郭婷
-
編碼器
+關(guān)注
關(guān)注
45文章
3663瀏覽量
135036
原文標(biāo)題:ACL'22 | 西湖大學(xué)提出:面向Aspect情感分析的離散意見樹歸納方法
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論