技術(shù)領(lǐng)域發(fā)展日新月異。人工智能(下稱AI)是具有智能行為模仿能力的機(jī)器,它是在電腦中,模擬人類的行為和認(rèn)知程序,自然地學(xué)習(xí)所有知識的智能大腦。它正在越來越多地取代人類的活動(dòng),同時(shí)也給人類帶來危險(xiǎn),對此,AI所產(chǎn)生的現(xiàn)代性問題是:要將這些越發(fā)智能的AI實(shí)體和其他法律主體一樣納入法律社會(huì)控制體系中來嗎?
在20世紀(jì)50年代,美國科幻學(xué)家阿西莫夫?yàn)榱祟A(yù)防AI可能產(chǎn)生的威脅,設(shè)定了著名的機(jī)器人三條原則:
第一條:機(jī)器人不能對人類產(chǎn)生危害。且不能因?yàn)楹雎赃@種危險(xiǎn),而導(dǎo)致危及人類安全。
第二條:機(jī)器人必須要服從人類所發(fā)出的命令。但是,所發(fā)出的命令如果違反第一條的話,不在此限。
第三條:機(jī)器人只要在不違反前兩條規(guī)定的前提下,必須保護(hù)自己。
但是,這顯然并不能消除人類對于AI的恐懼。為了防止未來AI對人類法益產(chǎn)生侵害,國內(nèi)外很多學(xué)者提出“人工智能獨(dú)立承擔(dān)刑事責(zé)任”的觀點(diǎn)(下稱“獨(dú)立責(zé)任承擔(dān)說”)。這種觀點(diǎn)認(rèn)為AI的運(yùn)算法則可能擁有很多的特質(zhì),且這些特質(zhì)遠(yuǎn)超于一個(gè)普通的人。但是這些特質(zhì)并不是施加刑事責(zé)任所必備的。當(dāng)一個(gè)人或者企業(yè)同時(shí)滿足外部(危害行為)和內(nèi)部(自由意志)要素,就可以被追究刑事責(zé)任。如果AI也可以滿足這些要素,且事實(shí)上滿足的話,則毫無疑問也要追究AI的刑事責(zé)任?!蔼?dú)立責(zé)任承擔(dān)說”的核心依據(jù)是AI符合施加刑事責(zé)任的內(nèi)部要素,即獨(dú)立的“控制能力與可培養(yǎng)的辨認(rèn)能力”。而外部要素的滿足并不成為“獨(dú)立責(zé)任承擔(dān)說”的阻礙,他們認(rèn)為,隨著技術(shù)的發(fā)展,讓“危害行為”脫離“生命體要素”“突破傳統(tǒng)理論顯然不足為奇且無可厚非”。只要AI能夠機(jī)械地控制其肢體動(dòng)作,則任何動(dòng)作都可以被認(rèn)為是AI的行為。
在此基礎(chǔ)上,“獨(dú)立責(zé)任承擔(dān)說”為AI設(shè)定了有針對性的刑罰措施。這包括對AI懲處罰金刑;對AI施以自由刑;對AI施加死刑,包括對軀體的永久銷毀和對AI的數(shù)據(jù)予以刪除。
但筆者認(rèn)為,人工智能獨(dú)立承擔(dān)刑事責(zé)任不具有理論自洽性,理由是:
第一,AI的行為與自由意思密切關(guān)聯(lián)。刑法上的行為被理解為通過意思而被控制的舉止,所以,AI的舉止在外觀上看起來像是自己進(jìn)行的行為。確實(shí),AI會(huì)通過四肢做出動(dòng)作、通過系統(tǒng)發(fā)出語音、通過中央控制系統(tǒng)對周邊環(huán)境施加影響等等,但是不能因此肯定地說這些舉止是基于自由意思進(jìn)行的控制。這其中的“意思”更可能是對AI進(jìn)行程序設(shè)計(jì)的人或者使用AI的人的意思。這樣的話,就會(huì)將AI的舉止歸屬于機(jī)器背后的人,而不是AI本身。要承認(rèn)AI的“行為”滿足刑法上的行為的要素,就必須要在AI自身當(dāng)中找到和人類意思完全相當(dāng)?shù)囊馑肌?/p>
第二,AI不具備與人類等同評價(jià)的自由意思。自由意思這一概念是為實(shí)現(xiàn)一定社會(huì)目的而設(shè)計(jì)的歸責(zé)產(chǎn)物。但是,責(zé)任并不是沒有限制地任意地予以歸責(zé)。對于自身當(dāng)前以及過去的自我決定,無法通過倫理的評價(jià)基準(zhǔn)體系進(jìn)行評價(jià)的人,也即,沒有善惡判斷的人是無法進(jìn)行倫理上的對話的,因?yàn)樗荒軐惱淼姆请y進(jìn)行回應(yīng),也即其不具有作為責(zé)任必要條件的自我反省能力。因此,將AI作和人類倫理的自我控制同樣的評價(jià),還為時(shí)過早。
而且,即便AI具備了和人類同樣的倫理控制系統(tǒng),也未必就具有了自由意思。德國聯(lián)邦最高法院曾就刑事責(zé)任作過如下經(jīng)典表述:“責(zé)任非難的內(nèi)在根據(jù)在于人道德上的成熟,與此同時(shí),只要自由且道德地自我決定的能力沒有因?yàn)椴±矶虝r(shí)間受到麻痹,抑或長時(shí)間受到阻礙,那么就是有自由、答責(zé)且道德地自我決定的能力。因此,其就能夠決定遵循合法行為,抵抗不法行為,使得自己的態(tài)度符合法律的當(dāng)為性規(guī)范,回避法律所禁止的行為?!?/p>
那么何為道德上的成熟?道德的成熟需要社會(huì)認(rèn)同。我們在認(rèn)定刑法上的責(zé)任的時(shí)候,現(xiàn)實(shí)的社會(huì)關(guān)系中的期待和歸責(zé)被認(rèn)為非常重要。今后隨著AI技術(shù)的進(jìn)化,存在給人類認(rèn)為AI完全可以自由進(jìn)行決定的印象之可能性。但是,AI是否實(shí)際能夠通過自由意思進(jìn)行行為并不重要。即便是人類的自由意思當(dāng)中,實(shí)際上我們也不知道自己是否真的處于自由意思當(dāng)中,我們不過是透過周圍第三者的評價(jià),來判斷一個(gè)人是否有自由意思。因此,對于機(jī)器人來說,從第三者的觀點(diǎn)來看,該如何評價(jià)才是最重要的問題。因此,在AI達(dá)到能夠被人類社會(huì)所接納,進(jìn)行同等交流,被評價(jià)為和人類完全無差異的狀態(tài)之前,盡管AI具備“控制和辨認(rèn)”能力,也無法被人類評價(jià)為具有自由意思。
第三,對AI施加刑罰不具備可行性。首先,關(guān)于對AI的罰金刑,有學(xué)者提出,對AI施以罰金可通過強(qiáng)制讓AI的制造者和使用者履行諸如購買保險(xiǎn)等法律義務(wù)來最終實(shí)現(xiàn)。這實(shí)際上是將對AI的處罰轉(zhuǎn)嫁給了制造者、使用者,違背了刑法的責(zé)任原則。其次,關(guān)于對AI的自由刑,對AI處以自由刑并不會(huì)獲致與人類同樣的效果。人類雖然能夠理解自由的意義,但是AI自身卻無法理解該處分的意義。最后,關(guān)于對AI的“死刑”,如果將AI視其為與人類一樣的主體,則對AI施加“死刑”是有違人道主義的。我們尊重人的生命權(quán),主張廢除死刑,就同樣不能對與人類具備同等地位的AI施加死刑。
“未來已來,但不是說來就來”,對于AI時(shí)代的法律檢討應(yīng)立足于當(dāng)下,對于AI可能產(chǎn)生的威脅所做的刑法對策,應(yīng)當(dāng)根源于刑法的基本理論。當(dāng)然,AI時(shí)代給我們帶來福利的同時(shí),我們需要關(guān)注其可能出現(xiàn)的潛在危險(xiǎn)。而預(yù)防這種技術(shù)風(fēng)險(xiǎn),更應(yīng)從倫理的角度高瞻遠(yuǎn)矚,盡早確立嚴(yán)格的AI研發(fā)、生產(chǎn)技術(shù)倫理規(guī)則和法律標(biāo)準(zhǔn),保障AI技術(shù)和產(chǎn)品的人類可控性,或許是當(dāng)下更急需的時(shí)代的需要
-
智能
+關(guān)注
關(guān)注
8文章
1711瀏覽量
117518 -
AI
+關(guān)注
關(guān)注
87文章
30898瀏覽量
269128 -
人工智能
+關(guān)注
關(guān)注
1791文章
47282瀏覽量
238534
原文標(biāo)題:機(jī)器人除了“搶飯碗”還會(huì)“犯罪”,能否判刑?
文章出處:【微信號:jingzhenglizixun,微信公眾號:機(jī)器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論