主要貢獻(xiàn)
論文詳細(xì)分析了意大利關(guān)于GBV的新聞報(bào)道中人類的責(zé)任觀念,證明了特定語法結(jié)構(gòu)和語義框架的會(huì)引發(fā)不同的責(zé)任認(rèn)知,并且可以被自動(dòng)建模。
-01-
摘要
不同的語言表達(dá)可以通過強(qiáng)調(diào)某些部分從不同的角度來概念化同一事件。該論文調(diào)查了一個(gè)具有社會(huì)后果的案例:基于性別的暴力(GBV)的語言表達(dá)如何影響責(zé)任認(rèn)知。文章建立在這一領(lǐng)域先前的心理語言學(xué)研究的基礎(chǔ)上,并對(duì)從意大利報(bào)紙的語料庫中自動(dòng)提取的GBV描述進(jìn)行了大規(guī)模的感知調(diào)查。
然后,訓(xùn)練回歸模型,預(yù)測(cè)GBV參與者對(duì)不同的感知責(zé)任維度的顯著性。文章最好的模型(微調(diào)后的BERT)顯示了穩(wěn)健的整體表現(xiàn),在維度和參與者之間有很大的差異:顯著的關(guān)注比顯著的指責(zé)更可預(yù)測(cè),犯罪者的顯著性比受害者的顯著性更可預(yù)測(cè)。
使用不同表示的嶺回歸模型的實(shí)驗(yàn)表明,基于語言學(xué)理論的特征與基于單詞的特征相似。文章表明不同的語言選擇確實(shí)會(huì)引發(fā)不同的責(zé)任認(rèn)知,而且這種感知可以自動(dòng)建模。這項(xiàng)工作可以成為提高公眾和新聞制作人對(duì)不同視角所產(chǎn)生的后果認(rèn)識(shí)的核心工具。
-02-
簡(jiǎn)介及背景
同樣的事件可以用許多不同的方式來描述,這取決于報(bào)告者和他們所做的選擇。通過選擇一些特定的詞,可以為讀者提供一個(gè)關(guān)于發(fā)生了什么的具體視角。
一篇新聞的寫作方式,嚴(yán)重影響了讀者感知所描述事件中責(zé)任歸因的方式。
圖1:“騎自行車的人撞上車門”
圖1:“汽車司機(jī)打開車門撞到騎自行車的人”
圖1:“騎自行車的人在第五街的交通事故中受傷”
圖1:“自行車和汽車的碰撞”
使用不同的標(biāo)題來說明當(dāng)相同的事件從不同的角度的描述時(shí),可以導(dǎo)致不同的對(duì)參與者責(zé)任歸屬的看法。
圖1說明了如何從不同的角度報(bào)告同一事件其方式確實(shí)會(huì)影響對(duì)參與者責(zé)任的感知。文章研究在基于性別的暴力(GBV)這一社會(huì)相關(guān)現(xiàn)象的背景下,使用NLP工具來解開責(zé)任歸因。針對(duì)婦女的暴力行為是令人擔(dān)憂的普遍現(xiàn)象,因此經(jīng)常在新聞中被報(bào)道。
Pinelli和Zanchi在意大利新聞中觀察到,在對(duì)殺害女性的描述中,具有不同及物性水平的句法結(jié)構(gòu)——也就是及物主動(dòng)結(jié)構(gòu),到被動(dòng)和反使役結(jié)構(gòu),對(duì)應(yīng)于歸因于(男性)犯罪者的不同程度的響應(yīng)性。
例如,當(dāng)“he killed her(他殺了她)”(主動(dòng)/及物)完全明確表達(dá)了主動(dòng)行為者的參與,但“she was killed (by him)她是(被他)殺死的”(被動(dòng)),這種表達(dá)方式就將注意力從主動(dòng)行為者上轉(zhuǎn)移開來;再比如“themurder(謀殺)”或者是“the event(事件)”的表達(dá)方式,就將重點(diǎn)從兩個(gè)參與者轉(zhuǎn)移到事件的背景中。
在一篇相關(guān)的文章中,Meluzzi等人通過對(duì)意大利語中人工構(gòu)建的GBV報(bào)告的調(diào)查,研究了論證結(jié)構(gòu)構(gòu)建對(duì)責(zé)任歸因的影響。他們的研究結(jié)果進(jìn)一步證實(shí)了Pinelli和Zanchi關(guān)于讀者對(duì)犯罪者和受害者的能動(dòng)性和責(zé)任影響的發(fā)現(xiàn)。這兩項(xiàng)研究的結(jié)果與之前的心理語言學(xué)研究結(jié)果一致,表明在任何層面上涉及暴力的事件中,行為人的語言背景阻礙了他們的責(zé)任,并促進(jìn)了對(duì)受害者的指責(zé)。
基于這樣的框架選擇,普通讀者將如何看待所描述的事件?我們能自動(dòng)模擬這種感知嗎?
本文回答上述問題,仍然基于意大利新聞中對(duì)殺害女性的描述,并利用框架語義作為一種理論和實(shí)踐工具,以及最新的NLP方法。
使用特定的預(yù)先選擇的語義框架,使用最先進(jìn)的語義解析器自動(dòng)提取,文章從意大利報(bào)紙中識(shí)別出對(duì)GBV事件的描述,通過大規(guī)模的調(diào)查來收集人類的判斷,要求參與者閱讀文本,并將一定程度的責(zé)任歸屬于犯罪者、受害者,或一些更抽象的概念(例如,“嫉妒”、“憤怒”)。更多細(xì)節(jié)見2。
文章開發(fā)一系列回歸模型(從頭開始以及預(yù)先訓(xùn)練的transformer模型),利用從表面到框架的各種語言線索來自動(dòng)建模責(zé)任感知。模型的訓(xùn)練目標(biāo)是預(yù)測(cè)人類的感知分?jǐn)?shù)。文章實(shí)現(xiàn)了與基于Transformer model的模型的強(qiáng)相關(guān)性。調(diào)查和結(jié)果分析的細(xì)粒度特征也允許各個(gè)方面的預(yù)測(cè)復(fù)雜性的差異。第3節(jié)中討論建模和評(píng)價(jià)。
結(jié)果表明,不同的語言選擇確實(shí)觸發(fā)了不同的責(zé)任感知,而且這種感知可以自動(dòng)建模。這一發(fā)現(xiàn)不僅證實(shí)了以前(人工)在小規(guī)模上進(jìn)行的研究,而且也為文本進(jìn)行大規(guī)模分析及其效果提供了可能。
-03-
構(gòu)建【謀害女性感知數(shù)據(jù)集】
為了構(gòu)建這個(gè)數(shù)據(jù)集,作者采用眾包的方式,設(shè)計(jì)了一個(gè)在線的問卷調(diào)研。具體來說,作者收集了關(guān)于2015至2017年間,意大利發(fā)生的937起殺害女性案件的新聞報(bào)道,從中抽取句子展示給眾包人員并要求其對(duì)句子所表達(dá)的責(zé)任程度進(jìn)行打分。問卷結(jié)果表明,語義信息和句法結(jié)構(gòu)明顯影響讀者對(duì)“謀害女性事件”的看法。下面將詳細(xì)說明作者如何設(shè)計(jì)調(diào)研問題。
3.1問題設(shè)定
對(duì)案件采取不同的描述方式,會(huì)導(dǎo)致讀者對(duì)“案件參與者應(yīng)承擔(dān)多大責(zé)任?”這一問題產(chǎn)生不同的看法。作者首先將“責(zé)任”這一復(fù)雜的概念拆解成三個(gè)維度:
- FOCUS:句子關(guān)注的是否是加害人?
- CAUSE:句子所描述的事件是否主要由人引起?
- BLAME:句子是否將責(zé)任歸咎于加害人?
表1用人工構(gòu)造的句子展示了這三個(gè)維度的區(qū)別。針對(duì)上述三個(gè)問題,表中+、-、±代表句子可能如何被讀者解讀。例如,第一、第二個(gè)句子都更加關(guān)注兇手(FOCUS +)并且強(qiáng)調(diào)他的行為致使案件發(fā)生(CAUSE +),但是第二句話將兇手描述為“被嫉妒蒙蔽了雙眼”,暗示兇手不必為其行為承擔(dān)全部責(zé)任(BLAME ±)。注意讀者的看法本質(zhì)上是主觀的,因此這些例子不該被視為任何形式的“黃金準(zhǔn)則”。
為了正確判斷讀者認(rèn)為兇手應(yīng)承擔(dān)責(zé)任的程度,作者還分別針對(duì)victim(受害人)、object(如武器)、concept(抽象概念)、emotion(如嫉妒)或nothing(不追究)設(shè)計(jì)了上述三個(gè)維度的問題。作者要求眾包人員按照五分制對(duì)每一類問題進(jìn)行打分,參與者也可以認(rèn)為句子與謀殺案無關(guān)直接跳過它。根據(jù)試點(diǎn)實(shí)驗(yàn)的初步結(jié)果,作者對(duì)每個(gè)類別的問題做了些輕微的調(diào)整:例如因?yàn)榫渥涌偸顷P(guān)注某事(FOCUS),所以省略了FOCUS中的none類別,等等。表2展示了完整的調(diào)研問題。
3.2句子選擇
交給眾包人員進(jìn)行評(píng)分的句子分兩步選出:首先使用LOME解析器自動(dòng)抽取語義信息,這些信息與SpaCy自動(dòng)依賴解析工具結(jié)合,對(duì)句法結(jié)構(gòu)進(jìn)行分類。例如,“he murdered her”將被分類為“KILLING/active”,代表“殺人”的語義和主動(dòng)的句法表達(dá);“she died”被分類為“DEATH/intransitive”;“the tragedy”被分類為“CATASTROPHE/nonverbal”。
第二步,作者設(shè)計(jì)了在不同程度上強(qiáng)調(diào)謀殺案件的典型語義集合,并在至少包含一個(gè)典型語義的句子中進(jìn)行隨機(jī)采樣。具體來講,作者使用FrameNet框架手動(dòng)注釋Pinelli和Zanchi中的例句,并選擇那些表述“受害者死亡事件”詞語(如killed、died、dead、incident等)的語義來構(gòu)造典型語義集。
最終得到的語義集合為{KILLING,DEATH,DEAD_OR_ALIVE,EVENT,CATASTROPHE},所有語義都可以用來描述完全相同的事件,只是具有不同的動(dòng)態(tài)性(已經(jīng)死亡或者將要死亡)、能動(dòng)性(兇手殺人或者受害人死亡)和普遍性(某人死亡或者某事發(fā)生)。作者使用這種方法為每一個(gè)“語義信息/句法結(jié)構(gòu)”類別采樣了相同數(shù)目的句子。
3.3眾包實(shí)現(xiàn)細(xì)節(jié)
作者考慮到眾包人員分析復(fù)雜句子的認(rèn)知負(fù)荷,以及閱讀一個(gè)主題沉重且痛苦的文本的情感負(fù)荷,每個(gè)參與人員只需在一組句子(50句)的三個(gè)維度之一上打分。為了平衡“每句話注釋的數(shù)量”和“注釋的總句子數(shù)”,作者為每句話每個(gè)維度安排10個(gè)眾包人員。這意味著完整的注釋一組句子需要30個(gè)眾包人員。
為了在事先不知道反饋率(眾包人員質(zhì)量)的情況下,將眾包人員均勻的分配在每組句子和每個(gè)維度之間,作者創(chuàng)建了60個(gè)眾包小組(注釋20組句子,每組50句,因此共1000個(gè)句子且每個(gè)句子三個(gè)維度)并將參與者分配到滾動(dòng)的小組中:每次開放一個(gè)組,一旦達(dá)到要求的參與者數(shù)量小組就會(huì)自動(dòng)關(guān)閉,然后打開下一個(gè)組。一旦一個(gè)組被填滿就手動(dòng)檢查響應(yīng)的完整性和質(zhì)量。
由于標(biāo)注任務(wù)的主觀性,注釋沒有錯(cuò)誤的回答,作者設(shè)定如果注釋至少滿足以下三個(gè)標(biāo)準(zhǔn)中的一個(gè),則認(rèn)為其質(zhì)量較低:(i)參與者完成問卷的速度快得令人難以置信;(ii)參與者連續(xù)將句子標(biāo)記為不相關(guān)并跳過;(iii)參與者總是給每句話同樣的評(píng)分;作者在意大利幾所大學(xué)不同專業(yè)的本科和碩士學(xué)生中分發(fā)調(diào)查平臺(tái)的鏈接,并匿名收集回答,僅要求參與者說明他們的性別、年齡和職業(yè)。
3.4結(jié)果
作者最終的數(shù)據(jù)集涵蓋了400個(gè)句子,共有240名參與者對(duì)其進(jìn)行了評(píng)級(jí)(153名女性,86名男性,1名非二元性別;平均年齡23.4)。表3給出了跨句子的評(píng)價(jià)得分匯總。作者給出了所有參與者和所有句子的平均分(綠色部分,在0~5的范圍內(nèi)),以及句子間平均分的標(biāo)準(zhǔn)差。總的來說,對(duì)應(yīng)于行兇者的屬性往往有更高的平均分,但方差也比其他屬性更高。由于任務(wù)固有的主觀性,并且結(jié)果與之前關(guān)于感知規(guī)范的研究一致,作者沒有計(jì)算注釋者之間的一致性分?jǐn)?shù)。
表4按語義信息和句法結(jié)構(gòu)劃分,顯示了FOCUS問題的平均得分。這顯示出了顯著的效果:包含KILLING語義的句子傾向于將更高的FOCUS放在兇手身上,當(dāng)使用主動(dòng)結(jié)構(gòu)時(shí)更是如此。同時(shí),在主動(dòng)或被動(dòng)結(jié)構(gòu)中包含CATASTROPHE, DEAD_OR_ALIVE、DEATH和KILLING語義,會(huì)增加受害者的FOCUS。
另一方面,object的FOCUS得分上沒有顯著差異,concept或emotion的FOCUS得分上有顯著但較小的差異。在每一種情況下,研究結(jié)果都符合作者基于語言學(xué)理論的預(yù)期:如果一個(gè)事件參與者在謂詞中進(jìn)行了詞匯編碼,并且需要在語法上進(jìn)行表達(dá),那么這個(gè)參與者更有可能被認(rèn)為處于關(guān)注狀態(tài)?;诰渥拥膬?nèi)容,以及在詞匯上編碼了受害者或殺手的幾個(gè)典型語義(如KILLING),人們會(huì)更多地關(guān)注兇手和受害者,而無生命的concept或emotion是非必要的。
-04-
感知分?jǐn)?shù)預(yù)測(cè)
在本文中,作者將該任務(wù)建模為一個(gè)多輸出回歸任務(wù):給定一個(gè)句子,作者希望預(yù)測(cè)一個(gè)感知向量,其中該向量每一維代表問卷中一個(gè)特定的Likert維的值。
4.1 參與者聚合
作者首先對(duì)每句話和每個(gè)參與者的感知值計(jì)算z-score(也叫標(biāo)準(zhǔn)分?jǐn)?shù),是一個(gè)數(shù)與平均數(shù)的差再除以標(biāo)準(zhǔn)差的過程。在統(tǒng)計(jì)學(xué)中,標(biāo)準(zhǔn)分?jǐn)?shù)是一個(gè)觀測(cè)或數(shù)據(jù)點(diǎn)的值高于被觀測(cè)值或測(cè)量值的平均值的標(biāo)準(zhǔn)偏差的符號(hào)數(shù)。),然后取參與者的平均值。分別計(jì)算每個(gè)Likert維度和參與者的z-score,以考慮兩種類型的變異性:
1)維度內(nèi)偏好,指的是不同的參與者對(duì)分?jǐn)?shù)范圍的不同使用:根據(jù)自信程度和其他因素,參與者可能會(huì)選擇大量使用范圍的端點(diǎn)(例如,經(jīng)常分配“0”或“5”)或集中在范圍的特定部分(例如,在中心附近或靠近高點(diǎn)或低點(diǎn))。
2)維度間偏好,指的是參與者總是傾向于給特定維度分配更高或更低的分?jǐn)?shù)的可能性。例如,一些參與者可能總是給“blame on the murderer”和“blame on the victim”更高的分?jǐn)?shù)。
通過對(duì)z-score的感知值進(jìn)行回歸,作者希望模型預(yù)測(cè)出句子中是否存在明顯偏見(例如,這個(gè)句子是否將高于平均水平的責(zé)任推給了受害者?對(duì)兇手的關(guān)注低于平均水平?)
4.2 評(píng)價(jià)方法
作者從多個(gè)角度對(duì)此多輸出回歸問題進(jìn)行評(píng)價(jià)。
1)Root Mean Squared Error (均方根誤差,RMSE)和{R^2}(均方誤差),它估計(jì)了由回歸模型解釋的感知分?jǐn)?shù)變化的比例。作者分別計(jì)算了每一個(gè)維度和維度平均值的{R^2}。
2)Cosine (余弦相似度,COS),它度量了答案和預(yù)測(cè)結(jié)果之間的余弦相似度,并提供在映射中保存維度之間關(guān)系的程度的估計(jì)。
3)Most Salient Attribute (MSA),作者將回歸評(píng)估為預(yù)測(cè)哪個(gè)Likert維度對(duì)每個(gè)問題具有最高(z-score)感知值的分類任務(wù)的準(zhǔn)確性(實(shí)現(xiàn)為簡(jiǎn)單地計(jì)算argmax對(duì)每個(gè)問題對(duì)應(yīng)的輸出維度)。例如,對(duì)于一個(gè)特定的句子,“concept”是責(zé)備問題得分最高的維度,這意味著“blame on a concept”在這個(gè)句子中比其他句子更突出。
注意,每個(gè)維度的z-score是獨(dú)立計(jì)算的,因此,具有最高z-score的維度不一定也具有最高的絕對(duì)值。類似于給特定維度分配更高或更低分?jǐn)?shù)的風(fēng)險(xiǎn),在這種情況下,參與者在指責(zé)問題上給“殺人犯”的分可能比“concept”多,即使在“concept”非常突出的句子中也是如此。在這種情況下,“concept”的絕對(duì)值總是比“murderer”低,但在“concept”得分相對(duì)較高、“murderer”得分相對(duì)較低的句子中,“concept”的z-score可能會(huì)更高。
4.3 模型
作者比較了兩種模型,分別是嶺回歸模型(一種使用L2正則的線性回歸模型)和預(yù)訓(xùn)練transformer模型。前者在不同類型的輸入特征上面進(jìn)行訓(xùn)練,后者則經(jīng)過微調(diào)后回歸預(yù)測(cè)多輸出。
特征(用作嶺回歸模型的輸入)
特征分為三類:
1)表面特征:代表輸入句子的詞法級(jí)別的特征,分別使用bag-of-words (bow)模型和FastText (ft)模型的輸出特征。
2)框架語義特征:通過frame semantic parser配合bow模型得到的在語義級(jí)別上略高于表面特征的表示,包括f1、f2、f1+、f2+。
3)句子特征:transformer模型產(chǎn)生的句子級(jí)別的表示,分別使用了SentenceBERT (sb)、XLM-R、BERT-IT Mean (bm) 和 XLM-R Mean (xm)提取特征。
預(yù)訓(xùn)練transformer模型
作者在預(yù)訓(xùn)練transformer編碼器的后面接上了有一個(gè)簡(jiǎn)單的線性層構(gòu)成的神經(jīng)回歸模型。作者分別實(shí)驗(yàn)了不同的BERT變體。包括Italian BERT XXL Base (BERT-IT)、BERTino、Multilingual BERT Base、Multilingual DistilBERT、XLM-RoBERTa Base。
4.4結(jié)果
表5顯示了RMSE、COS和{R^2}指標(biāo)測(cè)試集的主要結(jié)果。作者列出如下觀察結(jié)論:
經(jīng)過微調(diào)的單語BERT模型在所有測(cè)試中表現(xiàn)最好,其總體{R^2}分?jǐn)?shù)約為0.45,這意味著模型成功預(yù)測(cè)了感知分?jǐn)?shù)中近一半的方差。
多語言BERT模型(mBERT和XLM-R)的表現(xiàn)均較差,平均{R^2}為0.38或更低。
有趣的是,普通的蒸餾版BERT對(duì)比原始BERT性能有所下降,但意大利語版蒸餾的BERT(BERTino)的性能沒有下降,甚至比原始模型略好。
{R^2}的下降并不總是與余弦分?jǐn)?shù)的下降一致:例如,XLM-R分?jǐn)?shù)比BERT-IT/base低0.06 {R^2}分,但余弦分?jǐn)?shù)只下降0.01,而mBERT/dist在{R^2}上損失0.10分,在COS上損失0.09分。因此,似乎有些模型(如XLM-R)在預(yù)測(cè)每個(gè)異常得分的確切大小方面不太準(zhǔn)確,但在捕捉跨維度的總體得分模式方面相對(duì)較好。
另外,雖然嶺回歸模型的表現(xiàn)比transformer差很多,但比較不同特征之間的結(jié)果對(duì)于理解預(yù)測(cè)感知需要什么信息是有幫助的:
基于表面和框架特征的回歸模型表現(xiàn)相似,{R^2}分?jǐn)?shù)在0.20左右(f2為負(fù)離群值),而具有神經(jīng)特征的模型更好({R^2} 0.28-0.33)。
對(duì)于那些基于transformer提取得到的特征訓(xùn)練的脊模型,作者發(fā)現(xiàn)意大利語版本的BERT (bm)的平均最后一層表示的結(jié)果最好,而基于XLM-R (sb和xm)的兩種模型得分略低。
通過比較不同問題和屬性的{R^2}分?jǐn)?shù),還可以發(fā)現(xiàn)預(yù)測(cè)難度的巨大差異:
例如,在各個(gè)模型中,blame on murderer得到了很好的分?jǐn)?shù),而blame on victim的分?jǐn)?shù)相對(duì)較低,即使是最強(qiáng)的模型(例如BERTino的0.24),而在基線(或更低)分?jǐn)?shù)較弱的模型——特別是蒸餾mBERT,它在其他屬性上表現(xiàn)不錯(cuò)。
Caused by no-one 是最難預(yù)測(cè)的,沒有模型得分在0.10以上。
Focus問題具有總體上最好和最一致的性能,特別是對(duì)于意大利語版本的BERT模型,對(duì)于四個(gè)屬性中的每一個(gè)都實(shí)現(xiàn)了不錯(cuò)的性能(0.46- 0.66 {R^2})。
這種模式也反映在MSA中(表6):對(duì)于focus類別,它基本上更容易預(yù)測(cè)的維度與最高的得分比Blame和Cause。然而,對(duì)于每個(gè)問題,所有模型的表現(xiàn)都好于概率水平,其中BERTino的綜合得分最高(56-72%)。
在嶺回歸模型中,相對(duì)于基于表面特征的模型,基于BERT特征的模型的性能增益(BERT特征比表面特征的增益)在屬性之間有很大差異。例如,bow模型有一個(gè)令人驚訝的高得分的指責(zé)殺人犯({R^2} 0.49),只有適度的收益從BERT-IT 和 BERTino模型(resp.+0.06和+0.12分)。相比之下,bow在專注概念上得分較低({R^2} 0.13),而BERT-IT和BERTino得分較高({R^2} 0.63/0.64)。
為了進(jìn)一步了解模型之間的差異,作者進(jìn)行了特征歸因分析。blame on murderer 和 focus on concept的結(jié)果如表7所示。對(duì)于殺人犯的責(zé)任,三種模型似乎都聚焦于相似的詞匯項(xiàng):例如,“uccide”(“(he) kills”)在脊回歸和微調(diào)BERTino模型中都有很高的正歸因值,在f1+中作者發(fā)現(xiàn)KILLING框架的正歸因值,這是對(duì)殺人相關(guān)詞匯的抽象。
作者還發(fā)現(xiàn),個(gè)人關(guān)系(‘wife’, ‘ex’, PER-SONAL_RELATIONSHIP )在所有三種模型中都得到了積極的歸因。相比之下,作者發(fā)現(xiàn)了“accaduto”(“happened”)的負(fù)歸因值以及bow和f1中相應(yīng)的EVENT框架,這與§2.4中討論的觀察結(jié)果完全吻合。由于對(duì)概念的關(guān)注,三種模型之間沒有明顯的深刻區(qū)別。
作者確實(shí)在每個(gè)模型中發(fā)現(xiàn)了幾個(gè)直觀的相關(guān)特征:"passionale"("out of passion")和"femminicidio"("femicide")可以測(cè)試句子可以聚焦的概念的集合,而"omicida"("murderer/murderous’")和"killer"可以被視為強(qiáng)調(diào)人類主體的作用,而不是一個(gè)抽象的概念。
-05-
結(jié)論與未來工作
論文詳細(xì)分析了意大利關(guān)于GBV的新聞報(bào)道中人類的責(zé)任觀念。文章收集的判斷證實(shí)了之前關(guān)于特定語法結(jié)構(gòu)和語義框架的影響以及它們?cè)谧x者中引發(fā)的感知。
文章研究了不同的NLP架構(gòu)在多大程度上可以預(yù)測(cè)人類的感知判斷。微調(diào)單語transformer獲得在多個(gè)評(píng)估措施的最佳結(jié)果,為集成能夠識(shí)別潛在感知效應(yīng)的系統(tǒng)作為媒體專業(yè)人員的支持工具提供了可能性。
未來,文章也計(jì)劃對(duì)數(shù)據(jù)進(jìn)行更詳細(xì)的分析,考慮受訪者在個(gè)人和人口統(tǒng)計(jì)方面的差異。除此之外,后續(xù)實(shí)驗(yàn)將側(cè)重于將該方法應(yīng)用于其他語言和文化背景,既針對(duì)基于性別的暴力,也針對(duì)其他社會(huì)相關(guān)主題,如車禍等。
審核編輯:劉清
-
編碼器
+關(guān)注
關(guān)注
45文章
3655瀏覽量
134874 -
MSA
+關(guān)注
關(guān)注
0文章
31瀏覽量
8856 -
nlp
+關(guān)注
關(guān)注
1文章
489瀏覽量
22064
原文標(biāo)題:AACL'22 Best Paper | 不同的表達(dá)可能會(huì)引發(fā)讀者不同的想法,可以通過模型自動(dòng)模擬這種語言“偏見”
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論