未來(lái),人工智能的發(fā)展將充滿各種不確定性。算法歧視、數(shù)據(jù)濫用和人類失業(yè)等問(wèn)題或?qū)⒔吁喽?,給人類社會(huì)帶來(lái)前所未有的挑戰(zhàn)。如何避免人工智能發(fā)展帶來(lái)的重大風(fēng)險(xiǎn),更好地利用人工智能技術(shù)造福社會(huì)?只有讓倫理先行,給“無(wú)所不能”的人工智能加以“緊箍咒”,才能使人工智能前往正確的方向,成為幫助人類探索未來(lái)的得力助手。
“人工智能倫理”緣何重要?
科學(xué)技術(shù)是中性的,可以用于造福人類,也可以用于為害人類。隨著科學(xué)技術(shù)的迅猛發(fā)展,其威力越大,可能帶來(lái)的惡果也越嚴(yán)重,這種影響是全球性的和全人類的。歷史上每一項(xiàng)重大技術(shù)發(fā)明,如電力、蒸汽機(jī)、互聯(lián)網(wǎng)等,都會(huì)給社會(huì)帶來(lái)新的風(fēng)險(xiǎn)和挑戰(zhàn),諸如失業(yè)、隱私、安全等問(wèn)題。科技進(jìn)步不止一次地帶來(lái)了倫理的難題,科技究竟會(huì)帶給人類什么?是進(jìn)步?是毀滅?這是一個(gè)永遠(yuǎn)都爭(zhēng)論不清的問(wèn)題。
馬克思在第二次工業(yè)革命之開端曾指出,機(jī)器體系不同于一般工具,是“人手創(chuàng)造出來(lái)的人腦器官”,既是一種異己的強(qiáng)大的機(jī)體,也受控于全社會(huì)所共同積累和分享的“普遍智能”。在弱人工智能時(shí)代,人類對(duì)于機(jī)器的喜明顯大于憂,機(jī)器可以搬運(yùn)重物,機(jī)器可以無(wú)人駕駛,機(jī)器可以快速計(jì)算……隨著技術(shù)的高歌猛進(jìn),人工智能逐步可以實(shí)現(xiàn)某種可計(jì)算的感知、認(rèn)知和行為,在功能上模擬人的智能和行動(dòng),表現(xiàn)出對(duì)人類思維這一區(qū)別人類和其他生物的核心器官的替代。人工智能不再是單純的工具,開始不斷模糊物理世界和個(gè)人的界限,刷新人的認(rèn)知和社會(huì)關(guān)系,延伸出復(fù)雜的倫理、法律和安全問(wèn)題。
早在70多年前,阿西莫夫在短篇小說(shuō)《環(huán)舞》(1942年)中提出通過(guò)內(nèi)置的“機(jī)器倫理調(diào)節(jié)器”使機(jī)器人服從道德律令,他構(gòu)想出機(jī)器人三定律:
● 第一定律,機(jī)器人不得傷害人類或坐視人類受到傷害;
● 第二定律,在與第一定律不相沖突的情況下,機(jī)器人必須服從人類的命令;
● 第三定律,在不違背第一與第二定律的前提下,機(jī)器人有自我保護(hù)的義務(wù)。
后來(lái),為了克服第一定律的局限性,他還提出了優(yōu)先級(jí)更高的機(jī)器人第零定律:機(jī)器人不得危害人類整體或坐視人類整體受到危害。
回到人工智能的現(xiàn)實(shí)發(fā)展,隨著無(wú)人機(jī)、自動(dòng)駕駛、工業(yè)機(jī)器人、致命性自主武器等應(yīng)用的發(fā)展,涌現(xiàn)出大量新的社會(huì)問(wèn)題。然而,人工智能的未來(lái)發(fā)展還有著很多可能性和不確定性,法律規(guī)制因具有一定的滯后性和保守性,難以實(shí)現(xiàn)對(duì)人工智能的有效監(jiān)管。只有建立完善的人工智能倫理規(guī)范,超前給人工智能加以倫理道德的“緊箍咒”,才能更多地獲得人工智能紅利,讓技術(shù)造福人類。當(dāng)下科學(xué)界的主流觀點(diǎn)是機(jī)器不能不講道德,否則,這個(gè)世界將無(wú)法想象。按麻省理工學(xué)院情感計(jì)算研究組主任羅薩琳德·皮卡德教授的說(shuō)法是,“機(jī)器越自由,就越需要道德準(zhǔn)則。”
世界各國(guó)正積極推出人工智能倫理規(guī)則
英國(guó)哲學(xué)家大衛(wèi)·科林格里奇(David Collingridge)在《技術(shù)的社會(huì)控制》一書中提到:一項(xiàng)技術(shù)的社會(huì)后果不能在技術(shù)生命的早期被預(yù)料到。然而,當(dāng)不希望的后果被發(fā)現(xiàn)時(shí),技術(shù)卻往往已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,以至于對(duì)它的控制十分困難。這就是控制的困境,也被稱為“科林格里奇困境”。
要避免人工智能技術(shù)創(chuàng)新治理陷入“科林格里奇困境”,就必須預(yù)先研判,提前布局。盡管人們對(duì)于人工智能未來(lái)將走向何方眾說(shuō)紛紜,但對(duì)人工智能加以倫理規(guī)制,已經(jīng)成為一個(gè)基本共識(shí)。
2016年6月6日,日本人工智能學(xué)會(huì)倫理委員起草了面向研究人員的倫理綱要草案。草案中提出了AI給人類社會(huì)帶來(lái)危害的可能性,要求采取措施消除威脅和防止惡意利用”。草案指出:人工智能具有廣泛性和潛在的獨(dú)立性,可能在研發(fā)人員未預(yù)知的領(lǐng)域給人類帶來(lái)影響,對(duì)人類社會(huì)和公共利益來(lái)說(shuō)可能是有害的。草案提出警戒:“決不能使人類創(chuàng)造出來(lái)的東西,毀掉人類自己的幸?!薄4送猓莅钢羞€指出,應(yīng)消除AI對(duì)人類安全的威脅,針對(duì)其潛在的危險(xiǎn)向社會(huì)敲響警鐘,并就防止惡意利用制定了相關(guān)條款。
2016年9月,英國(guó)標(biāo)準(zhǔn)行業(yè)協(xié)會(huì)發(fā)布業(yè)界首個(gè)關(guān)于機(jī)器人倫理設(shè)計(jì)的公開指標(biāo)——《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》,旨在保證人類生產(chǎn)出來(lái)的智能機(jī)器人能夠融入人類社會(huì)的道德規(guī)范。
2016年9月,亞馬遜、谷歌、Facebook、微軟和IBM等五大科技巨頭宣布成立一家非盈利組織:人工智能合作組織(Partnership on AI, 全稱為:Partnership on Artificial Intelligence to Benefit People and Society),目標(biāo)包括:一、為人工智能的研究提供示范,涉及的領(lǐng)域包括倫理、公平、和包容性;透明性、隱私性和共同使用性;人和AI系統(tǒng)之間的合作;以及相關(guān)技術(shù)的可靠性與魯棒性。二、從專業(yè)的角度促進(jìn)公眾對(duì)人工智能的理解與科普,并定期分享人工智能領(lǐng)域的進(jìn)展。三、為人工智能領(lǐng)域的研究人員提供一個(gè)可供討論和參與的開放式平臺(tái),讓研究者們之間的溝通更簡(jiǎn)單無(wú)阻。
2016年11月,美國(guó)電氣和電子工程師協(xié)會(huì)(IEEE)發(fā)布世界首個(gè)《人工智能道德準(zhǔn)則設(shè)計(jì)草案(Ethically Aligned Design)》。希望借助該文件幫助科技行業(yè)打造能夠造福人類的AI自動(dòng)化系統(tǒng),改變道德倫理無(wú)需擔(dān)慮等想法。
2017 年 1 月,在加利福尼亞州阿西洛馬舉行的 Beneficial Al 會(huì)議上,近千名人工智能相關(guān)領(lǐng)域的專家,聯(lián)合簽署了著名的《阿西洛馬人工智能23條原則》。使未來(lái)人工智能的研究人員、科學(xué)家和立法者遵循,確保安全、倫理和有益。
2017年11月,為確保人工智能發(fā)展的未來(lái)仍然具有倫理和社會(huì)意識(shí),美國(guó)電氣和電子工程師協(xié)會(huì)(IEEE)宣布了三項(xiàng)新的人工智能倫理標(biāo)準(zhǔn):機(jī)器化系統(tǒng)、智能系統(tǒng)和自動(dòng)系統(tǒng)的倫理推動(dòng)標(biāo)準(zhǔn)、自動(dòng)和半自動(dòng)系統(tǒng)的故障安全設(shè)計(jì)標(biāo)準(zhǔn)、道德化的人工智能和自動(dòng)系統(tǒng)的福祉衡量標(biāo)準(zhǔn)。
2018年4月25日,歐盟委員會(huì)發(fā)布《歐盟人工智能》文件,提出人工智能的歐盟道路。文件表示歐盟要竭力確保在人工智能領(lǐng)域有國(guó)際競(jìng)爭(zhēng)力,讓所有歐盟國(guó)家都能跟上這場(chǎng)數(shù)字變革并以歐盟價(jià)值觀作為新技術(shù)的基礎(chǔ)。在歐洲價(jià)值觀的基礎(chǔ)上,歐盟委員會(huì)提出了發(fā)展人工智能的一種三管齊下的方法:增加公共和私人投資,為人工智能帶來(lái)的社會(huì)經(jīng)濟(jì)變革做好準(zhǔn)備,并建立起適當(dāng)?shù)牡赖潞头煽蚣堋?/p>
2018年4月,英國(guó)上議院人工智能特別委員會(huì)發(fā)布報(bào)告說(shuō),在發(fā)展和應(yīng)用人工智能過(guò)程中,有必要把倫理道德放在核心位置,以確保這項(xiàng)技術(shù)更好地造福人類。報(bào)告提出,應(yīng)確立一個(gè)適用于不同領(lǐng)域的“人工智能準(zhǔn)則”,其中主要包括5個(gè)方面:人工智能應(yīng)為人類共同利益服務(wù);人工智能應(yīng)遵循可理解性和公平性原則;人工智能不應(yīng)用于削弱個(gè)人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私;所有公民都應(yīng)有權(quán)利接受相關(guān)教育,以便能在精神、情感和經(jīng)濟(jì)上適應(yīng)人工智能發(fā)展;人工智能絕不應(yīng)被賦予任何傷害、毀滅或欺騙人類的自主能力。
2019年4月,歐盟委員會(huì)發(fā)布正式版的《可信賴AI的倫理準(zhǔn)則(Ethics Guidelines for Trustworthy AI)》,提出了實(shí)現(xiàn)可信賴人工智能全生命周期的框架。根據(jù)官方解釋,“可信賴的人工智能”有兩個(gè)必要的組成部分:一是應(yīng)尊重基本人權(quán)、規(guī)章制度、核心原則及價(jià)值觀;二是應(yīng)在技術(shù)上安全可靠,避免因技術(shù)不足而造成無(wú)意的傷害。
人工智能倫理建設(shè),中國(guó)應(yīng)如何發(fā)力?
近年來(lái),中國(guó)人工智能產(chǎn)業(yè)發(fā)展之迅猛,世界已經(jīng)有目共睹。但中國(guó)境內(nèi)關(guān)于人工智能倫理的討論,卻遠(yuǎn)未形成氣候,與歐美甚至日韓都有明顯的差距。從長(zhǎng)遠(yuǎn)來(lái)看,人工智能倫理規(guī)則的缺失,必然會(huì)導(dǎo)致人工智能產(chǎn)品競(jìng)爭(zhēng)力的下降,導(dǎo)致人工智能標(biāo)準(zhǔn)話語(yǔ)權(quán)的喪失。建設(shè)基于全球價(jià)值觀、符合中國(guó)特色的人工智能倫理規(guī)范,已經(jīng)刻不容緩。中國(guó)社會(huì)的現(xiàn)代化、智能化轉(zhuǎn)型,除了要經(jīng)歷人工智能等先進(jìn)技術(shù)的洗禮之外,更需要經(jīng)受現(xiàn)代倫理的心靈熏陶。
一是要從戰(zhàn)略上高度重視前沿科技的倫理監(jiān)管。與人工智能類似,機(jī)器人、基因編輯、大數(shù)據(jù)、3D打印和“納米技術(shù)”等前沿科技都可能會(huì)引發(fā)倫理道德危機(jī),其中涉及的數(shù)據(jù)濫用、個(gè)人隱私和歧視問(wèn)題,都具有一定的相似性。這些倫理危機(jī)如不能提前預(yù)防、有效化解,對(duì)前沿技術(shù)的發(fā)展將造成嚴(yán)重阻礙。對(duì)此,我應(yīng)從戰(zhàn)略上高度重視前沿技術(shù)的倫理監(jiān)管,統(tǒng)籌相關(guān)部門資源,積極探索契合前沿科技發(fā)展的倫理準(zhǔn)則。
二是促進(jìn)社會(huì)各界人士共同參與人工智能倫理規(guī)則制定。為避免人工智能發(fā)展過(guò)程中的倫理風(fēng)險(xiǎn),人工智能學(xué)術(shù)界和產(chǎn)業(yè)界,以及倫理、哲學(xué)、法律等社會(huì)學(xué)科各界應(yīng)參與原則制定并緊密合作。現(xiàn)有人工智能倫理的研究,常常缺少產(chǎn)業(yè)界資深研發(fā)人員的參與,或?qū)е氯斯ぶ悄軅惱硪?guī)則難以落地。只有社會(huì)各界人士的廣泛參與,人工智能倫理規(guī)則才能更具普適性、可操作性,才能發(fā)揮更大的社會(huì)價(jià)值。
三是積極開展對(duì)外交流,凝聚全球共識(shí)。隨著全球文化和倫理價(jià)值的日益多元化,人工智能技術(shù)的倫理標(biāo)準(zhǔn)和價(jià)值需要達(dá)成國(guó)際性共識(shí)。目前,人工智能倫理研究多由美歐來(lái)主導(dǎo),缺少來(lái)自發(fā)展中國(guó)家的聲音,也缺乏來(lái)自東方文化的聲音。對(duì)此,我應(yīng)積極開展對(duì)外交流,凝聚全球共識(shí),增強(qiáng)我國(guó)在人工智能標(biāo)準(zhǔn)制定上的話語(yǔ)權(quán),搶占未來(lái)發(fā)展先機(jī)。
-
人工智能
+關(guān)注
關(guān)注
1792文章
47440瀏覽量
238989
原文標(biāo)題:技經(jīng)觀察 |?給人工智能加以“緊箍咒”:世界各國(guó)積極推出人工智能倫理規(guī)則
文章出處:【微信號(hào):drc_iite,微信公眾號(hào):全球技術(shù)地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論