隨著科技發(fā)展,機器人已經(jīng)逐漸進入了我們的生活。它們出現(xiàn)在很多地方:工廠里、家庭里,不僅可以在荒無人煙的地方工作,也可以在人流洶涌的公共場所為人類服務(wù)。
但人類將如何看待機器人、如何對待機器人,這類問題時常為人所忽視。
近日,北卡羅來納州立大學(xué)的一項研究發(fā)現(xiàn),人們可能會把工作場所的事故歸咎于機器人,但前提是他們相信機器人是自主的。
該文章的作者、心理學(xué)教授道格·吉蘭(Doug Gillan)表示,重要的是當(dāng)工作中發(fā)生事故時,人們?nèi)绾慰创龣C器人。
為了探究這個問題,研究人員進行了一項研究,向164位受訪者展示了幾個工作場所的場景,在這些場景中,一個人類員工與一個機器人同時發(fā)生了事故。當(dāng)被告知是人類在操作機器人時,受訪者通常會將事故歸咎于人類。當(dāng)被告知機器人是自主的,而人類只是在監(jiān)控它時,受訪者通常會責(zé)怪機器人。
“這一發(fā)現(xiàn)多少有點直觀,但它指出了一個基本問題:我們什么時候把犯錯的責(zé)任從人類轉(zhuǎn)移到機器人身上?”該研究中的北卡羅來納大學(xué)(NC State)的心理學(xué)教授道格·吉蘭(Doug Gillan)表示。
這項研究提出的這個問題發(fā)人深省。當(dāng)人們“甩鍋”給機器人的時候,他們內(nèi)心深處是否認為機器人是一個能獨立做出決定、有著自我意識的個體,與我們有著同樣的智慧水平?
畢竟,人們在砸歪鐵釘時并不會去責(zé)怪錘子,在切到手指時不會責(zé)怪水果刀,大多數(shù)人也不會責(zé)怪自家寵物貓狗打翻水杯、撕碎沙發(fā)。
人們確實會對機器人產(chǎn)生同情心
此前亦有另一項研究表明,人類其實可以與機器人“共情”。
荷蘭內(nèi)梅亨大學(xué)的Sari Nijssen和德國慕尼黑大學(xué)發(fā)展心理學(xué)教授Markus Paulus領(lǐng)導(dǎo)的研究小組開展了一項研究,以確定人們對機器人的關(guān)注程度,并如何根據(jù)道德原則對待它們。他們的發(fā)現(xiàn)發(fā)表在《社會認知》(Social Cognition)雜志上。
根據(jù)Sari Nijssen的說法,這項研究是為了回答以下問題:“在什么情況下,以及在何種程度上,成年人愿意犧牲機器人來拯救人類的生命?”
參與者面臨著一個假設(shè)的道德困境:他們會為了拯救一群受傷的人而讓一個人處于危險之中嗎?在呈現(xiàn)的場景中,預(yù)期的犧牲受害者可能是一個人,或一個具有不同程度擬人化面貌的人形機器人,或是一個可以清晰識別為機器的機器人。
研究表明,機器人越人性化,參與者犧牲它的可能性就越小。在有些場景中,機器人被描繪成一個富有同情心的生物,或者是一個有自己感知、經(jīng)歷和想法的生物,這更有可能阻止受試者為了不知名人類的利益而犧牲它。
事實上,當(dāng)被告知機器人所表現(xiàn)出的情感品質(zhì)時,許多實驗對象表示愿意犧牲受傷的人類來保護機器人免受傷害。
Paulus說:“機器人越像人類,尤其是越擁有人類的情感,我們的實驗對象就越不愿意犧牲它?!?/p>
“這一結(jié)果表明,我們的研究小組賦予了機器人一定的道德地位。這一發(fā)現(xiàn)的一個可能含義是,試圖使機器人人性化的嘗試不應(yīng)該走得太遠。這樣的努力可能會與它們的預(yù)期功能——幫助我們——發(fā)生沖突?!?/p>
就在不久之前,網(wǎng)上流傳過一個波士頓動力公司發(fā)布的機器人被人類踢打的視頻。該視頻最后被發(fā)現(xiàn)是由CG合成的假視頻,制作方也是Bosstown Dynamics而非真正的Boston Dynamics,但的確有不少觀眾看后表示為機器人感到難過,對折磨它的人感到憤怒。
“他們?yōu)槭裁匆獋δ桥_可憐的機器?”許多人問道,“當(dāng)然,它感覺不到任何東西,但這并不意味著他們可以那樣對待它?!?/p>
這是完全可以理解的反應(yīng),盡管機器人沒有意識,也感覺不到疼痛。
大量研究表明,讓人類像對待人類一樣對待機器人是一件容易得可笑的事情。如果他們要求我們不要拒絕,我們會覺得不好受;如果他們作為權(quán)威人物出現(xiàn),我們會服從他們的命令;我們會對接觸他們的敏感部位感到不舒服。
這并不奇怪。人類會對任何事物產(chǎn)生同理心,只要你把一張臉放在上面。正如麻省理工學(xué)院(MIT)研究員、機器人倫理學(xué)家凱特?達林(Kate Darling)所言:“從生物學(xué)角度來說,我們天生就會將意圖和生命投射到我們物理空間中任何我們認為是自主的運動上。所以人們會像對待活人一樣對待各種機器人?!?/p>
這在一方面可能是好處,比如能幫助老年人的護理機器人、作為伴侶的玩具機器狗等。但是有些公司卻可能會利用我們的同理心,比如利用機器人吸引小孩子的注意,然后進行營銷。
機器人的“道德準則”
但問題也就隨之而來了:機器人值得同情嗎?我們需要擔(dān)心人們呼吁尊重機器人權(quán)利嗎?
關(guān)于機器人可能的道德倫理問題,有些人只簡單地把他們看作是人類的工具,只關(guān)注人類在使用機器人技術(shù)時對人類社會和環(huán)境的責(zé)任;有些人卻把它們看作是潛在的人,或者人類的代理。
但務(wù)實地講,機器人可能很快就會在工廠、公共場所和家庭中大量出現(xiàn),它們可能會占據(jù)人類的角色,并做出各種決定。我們將不僅需要對機器人的動作進行外部控制,還需要開發(fā)機器人內(nèi)部(自)導(dǎo)向系統(tǒng)。
我們不妨稱這些系統(tǒng)為“道德準則”,并將機器人視為負有道德責(zé)任的動物。如果是這樣,那么將“道德責(zé)任”植入機器人將不僅是可取的,而且是勢在必行的。
此外,可以認為,人工智能的復(fù)雜性將不可避免地迅速增長。我們可能會越來越多地看到他們有自己的需求、興趣和偏好,這樣我們就會對他們有道德責(zé)任,就像機器人對我們有道德責(zé)任一樣。
有些人認為,在可預(yù)見的技術(shù)范圍內(nèi),機器人表現(xiàn)出的任何心智能力都是假的——機器人只是在模擬思維、智能、意識、自主決策或其他任何東西。
這里有兩種觀點:一種是保守的,認為機器人倫理是一種理論幻想;一種是激進,認為這是一種務(wù)實的需要。
至少在可預(yù)見的未來,機器人還不會離人類社會如此之近。盡管如此,我們?nèi)杂幸豁椌o迫的技術(shù)和道德責(zé)任,必須設(shè)法確保機器人的行為充分接近道德上可接受的人類行為——也就是說,我們將需要為人工智能發(fā)展出一種特殊的道德準則,即關(guān)于它們?nèi)绾螌Υ覀兒退鼈冏约?,以及我們?nèi)绾螌Υ鼈儭?/p>
責(zé)任編輯:ct
評論
查看更多