日前,《特定常規(guī)武器公約》締約國專家會議在瑞士日內瓦開幕,參加者包括聯(lián)合國裁軍研究所、國際紅十字委員會、非政府組織以及相關領域的專家和學者。中國外交部、國防部也派代表出席了會議。會議圍繞自主武器系統(tǒng)所引發(fā)的法律、倫理和社會問題展開探討。
想必大家對電影中描繪的高度智能的機器人并不陌生,例如《終結者》、《變形金剛》、《機械公敵》等電影就展示了未來機器人戰(zhàn)爭的場景。在電影里,它們似乎具備了人類的某種判斷能力,被用來執(zhí)行特殊任務或者某種可怕的殺戮或襲擊,甚至參與戰(zhàn)爭。其實,這就是廣義上的“自主武器系統(tǒng)”,也就是俗稱的“殺人機器人”。
目前,許多國家都在研發(fā)自主武器系統(tǒng)。毫無疑問,使用此類武器可以增強軍事實力,同時降低己方士兵的風險。因此,各國對自主武器開發(fā)研究和投入有增無減。如今,很多武器系統(tǒng)已經具備一定的自主功能。武器技術的不斷進步可能意味著,未來戰(zhàn)場上的致命決定可能完全由機器作出而無需人類干預。
盡管有許多專業(yè)文獻討論了自主武器,但對于自主武器尚無統(tǒng)一的定義。“自主武器”可以看作是根據自身所部署的環(huán)境的變化,隨時識別特殊情況并作出相應調整或運轉的武器。真正的自主武器能夠在無人干預或操控的情況下,搜索、識別并攻擊包括人類在內的目標(敵軍戰(zhàn)斗員)。這一定義意味著,自主武器是具有人工智能的移動系統(tǒng),能夠在無人控制的情況下在動態(tài)環(huán)境中運行。
應該強調的是,此類“完全”自主的武器目前仍處于研究階段,尚未得到完全開發(fā),也尚未部署在戰(zhàn)場上。然而,隨著武器系統(tǒng)自主性日益增強,它的發(fā)展會變得愈發(fā)難以預測。
目前,支持和反對自主武器的意見均不少見。支持者認為,這類系統(tǒng)采用先進的傳感器和人工智能,意味著它們將比士兵更能準確識別和攻擊軍事目標,從而避免平民意外傷亡。反對的聲音則呼吁暫?;蚪棺灾魑淦鞯难邪l(fā)、生產和使用。去年4月,就曾發(fā)起過一項“阻止殺人機器人”的國際運動。去年5月,***有關自主殺人機器人的報告稱,此類武器系統(tǒng)增加了各方對“在戰(zhàn)爭與和平年代保護生命的普遍憂慮”。公眾亦擔心,沒有人類控制的自主武器會任意行動,作出違反開發(fā)者意圖的行為,甚至會造成反噬。
因此,兩個關鍵的問題值得深究。第一,如何保證在法律允許范圍內使用自主武器系統(tǒng)。國際人道法規(guī)定,任何新武器、作戰(zhàn)手段或方法在使用過程中必須能夠符合國際人道法有關作戰(zhàn)行為的規(guī)則,特別是攻擊中的區(qū)分、比例和預防原則,從而達到保護平民的目的。在激戰(zhàn)中,自主武器是否能夠區(qū)分平民和戰(zhàn)斗員?如果攻擊所造成的平民和民用物體附帶傷亡或損害與預期的實際直接軍事利益相比可能過大,自主武器能否取消攻擊?從技術角度來說,有朝一日或許可以設計出一種高度智能的自主武器系統(tǒng),能夠執(zhí)行上述規(guī)則。但是,目前對此類規(guī)則實施的評估似乎更倚重人類所獨有的判斷力。同時,這也引出第二個問題,即誰應該對自主武器系統(tǒng)實施的違反國際人道法的行為負責。確定個人刑事責任將更具挑戰(zhàn)性。將責任歸咎于一臺機器或電腦似乎不太合理,那么誰將對自主武器系統(tǒng)所作的決定負責?程序員?制造商?還是部署該武器系統(tǒng)的指揮官?許多問題仍然沒有答案。
至此,我們的討論將超出法律和技術層面,開始對人類在武裝沖突中作出生死抉擇的角色本身提出根本性的質疑。最終問題不在于我們應該如何開發(fā)或操縱自主武器,而在于人類的良知是否會允許機器在無人控制的情況下作出生死決定并使用致命武力。
-
機器人
+關注
關注
211文章
28476瀏覽量
207397 -
人工智能
+關注
關注
1792文章
47373瀏覽量
238860
發(fā)布評論請先 登錄
相關推薦
評論