就像硬幣的兩面,技術(shù)進步在便利人們生產(chǎn)生活的同時,也帶來一個嚴(yán)峻的現(xiàn)實問題——當(dāng)機器足夠智能之后,其對人類造成的不可挽回的傷害該由誰負(fù)責(zé)?
雖然如科幻片中那樣機器人“背叛”人類、攻擊人類的場景短期內(nèi)還不會到來,但機器的類型是多種多樣的?,F(xiàn)階段,人類的生命安全最受智能機器威脅的場景恐怕就是交通出行上。
2018年,全球首例自動駕駛撞擊行人致死事故發(fā)生。美國時間3月18日晚22點,一輛Uber自動駕駛汽車在美國亞利桑那州坦佩市碰撞到一個橫穿馬路的行人——49九歲的女性流浪者Elaine Herzberg,Elaine Herzberg在被送往醫(yī)院后不治身亡。
坦佩市警方發(fā)言人稱,初步調(diào)查發(fā)現(xiàn),事件發(fā)生時,這輛Uber自動駕駛汽車處于L4級別的自動駕駛模式,并在最高時速35英里的道路上以時速38英里行駛,且沒有及時剎車的動作。與此同時,駕駛位上的安全駕駛員沒有收到任何信號,直到碰撞發(fā)生后才意識到發(fā)生了事故。
今年9月,馬里科帕縣大陪審團作出裁決,Uber自動駕駛汽車的安全駕駛員被指控犯有過失殺人罪。而這起案件也因此對后世類似判決帶來了里程碑式的借鑒意義。
事實上,當(dāng)人工智能造成一個人受傷或死亡時,確定過錯責(zé)任并不是一件容易的事情。如果人工智能有時失控有時正常,那么什么時候是可以把錯歸責(zé)于人類,什么時候可以歸咎于人工智能?
今年10月2日,發(fā)表在《波士頓大學(xué)法律評論》上的一篇論文《疏忽與人工智能的人類使用者》(Negligence and AI‘s Human Users)就重點討論了這個問題。在論文中,加州大學(xué)洛杉磯分校助理教授Andrew Selbst發(fā)現(xiàn),人工智能與現(xiàn)有的人類過失行為法律產(chǎn)生了矛盾沖突,需要監(jiān)管機構(gòu)介入干預(yù)。
Selbst表示,Uber案件可能會有兩種情況。其一,法官或陪審團可能會發(fā)現(xiàn),讓一個與半自動車輛打交道的人承擔(dān)責(zé)任是不合理的;其二,可以將責(zé)任歸給一個對自動或自主系統(tǒng)控制有限的人類行為者。這也就是文化人類學(xué)家Madeleine Elish所說的“道德碰撞區(qū)”——當(dāng)機器和人類被同步考慮,但法律沒有考慮到機器的智能時,人類就會承擔(dān)責(zé)任。
“如果過失法要求的謹(jǐn)慎標(biāo)準(zhǔn)高于人類所能管理的標(biāo)準(zhǔn),那么它將把責(zé)任推給人類操作者,即使在普通人無法防止危險的情況下也是如此,”Selbst寫道?!半m然Uber案件似乎指向了‘道德碰撞區(qū)”的方向,但也很容易想象到相反的情況——發(fā)現(xiàn)因為普通人無法及時做出反應(yīng)或永遠保持警惕,所以不這樣做是合理的。歸根結(jié)底,人工智能帶來的是不確定性?!?/p>
Selbst表示,法律學(xué)者傾向于區(qū)分完全自主的車輛和與人類合作的半自主機器,比如Uber車禍中的車輛。雖然完全自主車輛或通用人工智能(AGI)可能會將責(zé)任轉(zhuǎn)移到硬件制造商或人工智能系統(tǒng)上,但當(dāng)人類使用人工智能根據(jù)預(yù)測、分類或評估做出決定時,答案就不那么明確了。Selbst預(yù)計,這將給企業(yè)、政府和社會帶來新的挑戰(zhàn)。
如今絕大多數(shù)的人工智能都是為了增強人類的決策能力而出現(xiàn)的。例如,從法官用來評估多次犯罪的算法,到醫(yī)療專業(yè)人員用來制定醫(yī)療計劃或診斷的AI驅(qū)動工具。這些系統(tǒng)包括檢測醫(yī)學(xué)圖像中的模式,以幫助專業(yè)人士診斷乳腺癌、肺癌和腦癌等疾病。
Selbst表示,雖然技術(shù)是推動過失法律變革的關(guān)鍵因素,但人類和人工智能相互依賴決策的方式讓人工智能與眾不同。使問題更加復(fù)雜的是,人類可能會不加審視地接受自動決策,如果他們因太多通知而遭受警報疲勞,就會忽略AI,或者依靠AI來識別太復(fù)雜的數(shù)據(jù)中的模式。
Selbst表示,在一個充滿人類和AI系統(tǒng)共同決策的世界里,政府需要考慮改革,讓過失法律有機會趕上快速崛起的技術(shù)。
“如果社會認(rèn)為人工智能過于有利而不能擱置,那么我們可能需要一個新的監(jiān)管模式,以補償使用人工智能的受害者,而且這種模式應(yīng)該是一種脫離了尋找過失的需求的模式。這可能是嚴(yán)格責(zé)任,可能是廣義保險,也可能是事前監(jiān)管?!闭撐闹袑懙?。
為了解決這個問題,人們開發(fā)了各種模式,比如安德魯·塔特(Andrew Tutt)提出的“算法 FDA”(FDA for algorithm),這是一個機構(gòu),其運作方式與 FDA 在調(diào)查藥品方面的運作方式非常相似。還有一種想法是,類似于環(huán)境影響評估的算法評估,以此來加強監(jiān)督和公開披露。
“最終,由于人工智能在決策和結(jié)果之間插入了一層難以捉摸的、不直觀的、統(tǒng)計學(xué)上衍生的、通常是專有的代碼,人類的選擇、行動和結(jié)果之間的聯(lián)系受到了考驗,”論文中寫道?!半m然可能有一種方法可以利用解釋和透明度要求將一些決定與其結(jié)果聯(lián)系起來,但疏忽需要一系列外部干預(yù)措施,才能真正有機會為使用人工智能造成的傷害提供補救?!?/p>
這樣做可能會給過失法律標(biāo)準(zhǔn)一些時間,以便在未來范式轉(zhuǎn)變發(fā)生和標(biāo)準(zhǔn)進一步落后之前趕上人工智能的進步。
這篇論文還探討了當(dāng)算法偏差在傷害中發(fā)揮作用時會發(fā)生什么的問題?;氐阶灾鬈囕v問題,研究表明,計算機視覺系統(tǒng)在檢測白人行人方面比黑人行人做得更好。接受這種系統(tǒng)的使用,可以從整體上減少交通事故的數(shù)量,但同時對黑人行人就不怎么友好了。
Selbst表示,如果沒有監(jiān)管部門的干預(yù),人工智能有可能會將某些群體的不良結(jié)果正常化,同時拒絕他們?nèi)魏吻笾?。這有可能會放大人們在網(wǎng)上遇到算法偏見或遭遇傷害時已經(jīng)感受到的無助感。
“令人擔(dān)憂的是,雖然人工智能可能會成功地減少傷害的總體數(shù)量,但它不會消除這些傷害,甚至剝奪了受害者的求助能力。”該論文寫道。
在問責(zé)制方面,人工智能行業(yè)的保密性是一個主要障礙。過失法律通常會隨著時間的推移而演變,以反映關(guān)于什么構(gòu)成合理行為的共同定義。但企業(yè)的保密性很可能使導(dǎo)致傷害的人工智能缺陷不為公眾所知。而人工智能的快速發(fā)展有可能會壓倒過失法或侵權(quán)法的修改步伐,進一步加劇這種情況。
“由于保密,我們對各個AI公司產(chǎn)品中的錯誤和漏洞知之甚少。在這種情況下,公眾不可能對什么樣的故障是合理的或不合理的作出任何結(jié)論?!闭撐闹赋?。
責(zé)編AJX
-
算法
+關(guān)注
關(guān)注
23文章
4627瀏覽量
93168 -
AI
+關(guān)注
關(guān)注
87文章
31429瀏覽量
269827 -
人工智能
+關(guān)注
關(guān)注
1793文章
47604瀏覽量
239530
發(fā)布評論請先 登錄
相關(guān)推薦
評論