據(jù)國外媒體報道,當(dāng)無人駕駛汽車在繁忙的街道上發(fā)生碰撞的時候,它該優(yōu)先避免讓誰受傷呢?它該殺死誰,而不殺死誰呢?麻省理工學(xué)院的一項研究表明,你的回答將取決于你來自哪里。
2016年,麻省理工學(xué)院媒體實驗室的研究人員啟動了一項實驗。他們想了解人們希望無人駕駛汽車有怎樣的行動模式,所以他們建立了一個網(wǎng)站,在上面任何人都可以體驗到13種不同的無人駕駛汽車場景:處于撞車事故中的自動駕駛汽車是否應(yīng)該優(yōu)先避免讓年輕人而不是老年人受傷?還是優(yōu)先避免讓女人而不是男人受傷?它應(yīng)該優(yōu)先避免讓身體健康的人而不是超重的人受傷?它是否應(yīng)該根本不做任何決定,而只是選擇不作為呢?
兩年后,研究人員已經(jīng)分析了來自233個國家的230萬參與者的3961萬項決策。在發(fā)表在《自然》雜志上的一項新研究中,它們表明,在機器如何對待我們的問題上,我們的對錯感是由我們居住的地方的經(jīng)濟和文化規(guī)范決定的。
他們發(fā)現(xiàn),對于自動駕駛汽車該有怎樣的行為模式,三大地理區(qū)域有著不同的倫理觀念:西部(包括北美和歐洲基督教國家)、東部(包括遠(yuǎn)東國家和伊斯蘭國家)和南部(包括南美大部分地區(qū)和與法國有淵源的國家)。這些大群體也有自己的子群,比如西方的斯堪的那維亞半島和南方的拉丁美洲國家。正如該研究的交互式圖表所顯示的那樣,巴西人傾向于選擇保護乘客而不是行人;伊朗人更有可能優(yōu)先保護行人;與平均水平相比,澳大利亞人更傾向于保護身體健康的人,而不是超重的人。
但該研究還發(fā)現(xiàn),世界各地的人趨向于在三個方面達成一致:許多人希望自動駕駛汽車優(yōu)先保護人類而非動物,優(yōu)先保護年輕人而非老人,保護盡可能多的人。這些見解可以為機器倫理的國際準(zhǔn)則提供基礎(chǔ)——研究人員寫道,當(dāng)這些“危及生命的兩難困境出現(xiàn)時”,必須要有相關(guān)的國際準(zhǔn)則。那些討論不應(yīng)該局限于工程師和政策制定者,畢竟那些問題會影響到每一個人。
從這個角度來看,“道德機器”研究讓我們首次能夠一窺數(shù)百萬人對機器倫理的看法。
01
不同文化之間存在分歧
雖然大多數(shù)文化有著一些普遍的趨勢,但研究人員發(fā)現(xiàn),在偏重個人主義文化的國家(主要在西方)和偏重集體主義文化的國家之間存在著巨大的差異。
西方國家往往更傾向于讓無人駕駛汽車保護孩子而非老人,而東方國家則更重視老人的生命——例如,在優(yōu)先保護兒童而非老年人的傾向度上,柬埔寨遠(yuǎn)低于世界平均水平。同樣的,西方國家的人也更傾向于保護盡可能多的人,不管群體的構(gòu)成如何。
研究人員認(rèn)為,這種分歧可能是制定有關(guān)自動駕駛汽車應(yīng)如何行動的全球指導(dǎo)方針的最大挑戰(zhàn)。他們寫道:“對于政策制定者來說,保護更多的人和年輕人的偏好可能是最重要的考慮因素,因此不同文化之間的差異可能會成為制定通用機器倫理的一個重要障礙?!?/p>
02
一個國家經(jīng)濟也影響自動駕駛倫理判斷
除了文化差異以外,研究還發(fā)現(xiàn),經(jīng)濟學(xué)在該問題上也發(fā)揮著重要作用。例如,透過一個國家的經(jīng)濟不平等程度,可以預(yù)測人們有多愿意優(yōu)先保護社會地位較高的人而不是社會地位較低的人。這意味著,來自經(jīng)濟不平等程度高(依據(jù)世界銀行對不平等程度的衡量指標(biāo)基尼系數(shù))的國家的人更有可能希望無人駕駛汽車優(yōu)先保護企業(yè)高管而不是無家可歸者。
通過比較瑞典和安哥拉,你可以在‘道德機器’的交互式圖表中看到這一點。基尼系數(shù)越低,國家越接近平等。相較于全球平均水平,更平等的瑞典(基尼系數(shù)非常低,為29.2)不太可能希望無人駕駛汽車優(yōu)先保護地位高的人,而安哥拉(基尼系數(shù)高,為42.7)則認(rèn)為地位高的人比任何其它的群體都應(yīng)受到優(yōu)先保護。
“在‘道德機器’研究中,那些來自經(jīng)濟上沒那么平等的國家的人也不平等地對待富人和窮人?!毖芯咳藛T寫道,“這種關(guān)系或許可以解釋為,人們的道德偏好經(jīng)常受到不平等的影響,也許更廣泛的平等主義準(zhǔn)則影響著一個國家愿意在社會層面容忍多大程度的不平等,影響者參與者在‘道德機器’判斷中支持多大程度的不平等?!?/p>
同樣地,對于亂穿馬路的問題,國家的人均國內(nèi)生產(chǎn)總值和制度的力量與保護遵守交通規(guī)則的人的偏好程度相關(guān)。另一方面,來自較貧窮國家的人往往對橫穿馬路的行人更加寬容。
03
理解文化群體之間細(xì)微的差異尤為重要
在年齡、人口數(shù)量和人類生活上,人們對于機器倫理有著一些基本的共識,但理解文化群體之間細(xì)微的差異尤為重要——它們往往沒有個體與集體的差異那么明顯。例如,南部地區(qū)的國家非常偏向于保護女性而不是男性,也非常偏向于保護身體健康的人而不是不健康的人。
研究人員認(rèn)為,在制定決策系統(tǒng)和法規(guī)時,自動駕駛汽車制造商和政治家需要考慮到所有的這些差異。這一點很重要:“盡管公眾的道德偏好不一定是道德政策的主要決定因素,但人們多大程度上愿意購買自動駕駛汽車以及容忍它們上路行駛,將取決于所采用的道德規(guī)則的適合性?!毖芯咳藛T寫道。
盡管不同文化之間存在這些差異,但‘道德機器’團隊仍然認(rèn)為,我們需要進行一次全球性的、包容性的對話,討論我們在機器決策的問題上有什么樣的倫理道德——尤其是考慮到自動化機器時代正在快速逼近我們。
“在人類歷史上,我們從未允許過機器在沒有實時監(jiān)控的情況下,在一瞬間自主決定誰該活誰該死?!毖芯咳藛T寫道,“我們隨時都將面臨這個問題,它不會發(fā)生在軍事行動的遙遠(yuǎn)戰(zhàn)場上;它將發(fā)生在我們生活中最平凡的層面:每天的交通。在我們允許我們的汽車做出道德決定之前,我們需要進行一次全球?qū)υ?,向設(shè)計道德算法的公司和監(jiān)管它們的政策制定者表達我們的偏好?!?/p>
-
無人駕駛
+關(guān)注
關(guān)注
98文章
4072瀏覽量
120613 -
自動駕駛汽車
+關(guān)注
關(guān)注
4文章
376瀏覽量
40840
原文標(biāo)題:當(dāng)自動駕駛汽車撞過來的時候,你希望它如何判斷?
文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論