要引導(dǎo)AI變得有道德,須讓科技公司變成道德主體,科技向善應(yīng)成為恪守與貫徹的道德底線,為人類創(chuàng)造福祉并驅(qū)動社會發(fā)生積極變革應(yīng)成為科技公司存在與發(fā)展的圭臬。出臺AI使用者的道德與法律規(guī)則同樣時不我待。
包括臉書、微軟、谷歌等公司高層代表以及科學(xué)家、學(xué)術(shù)界人士稍早時候聚集日內(nèi)瓦,在首屆瑞士全球數(shù)字峰會上商討與人工智能(AI)有關(guān)的全球道德標(biāo)準(zhǔn),與會代表約定會就這個主題在明年1月的達(dá)沃斯世界經(jīng)濟論壇上展開更為廣泛與深入的切磋。
誰也不會懷疑人工智能將成為引發(fā)創(chuàng)新與激發(fā)變革的最強大科技力量,正是如此,公眾正以極大的寬容甚至狂熱的姿態(tài)擁抱人工智能的最新成果,而對于AI所衍生出的道德問題往往因“暈輪效應(yīng)”的作用而未能有清晰的認(rèn)知與足夠的重視。就以不久前世界人工智能大會上ZAO推出的“AI換臉App”為例,用戶只需一張正臉照,就可替換為影視作品的人物,生成以自己為主角的視頻片段,這款A(yù)pp一夜火爆全網(wǎng)??墒?,在贏得了片刻的刺激與興奮之后,相信所有的用戶都會因綁在身上的ZAO協(xié)議而惴惴不安。
看看ZAO的用戶協(xié)議吧:用戶上傳發(fā)布內(nèi)容后,意味著“同意或確保肖像權(quán)利人授予‘ZAO’及其關(guān)聯(lián)公司全球范圍內(nèi)完全免費、不可撤銷、永久、可轉(zhuǎn)授權(quán)和可再許的權(quán)利”,而且“侵權(quán)了明星肖像,若對方提告,最后責(zé)任都在用戶”。就此,不妨向用戶提出以下問題:假如被換臉的明星向你提出訴訟,假如有人就此制作虛假視頻并栽贓于你,假如你的臉被別人用于刷臉支付,你會怎么辦?聽聽他們會是什么反應(yīng)。
其實,類似“換臉App”引起的AI道德拷問已不計其數(shù)。AI突破道德底線并淪為作惡工具的程度已超過了人們的想象。對此,目前的主流判斷是,技術(shù)無罪,但操控技術(shù)的人一定有過。按照墨菲定理,如果一件事情有可能出錯,那就一定會出錯。也就是說,如果做某項工作有多種方法,而其中有一種方法必然導(dǎo)致錯誤,那一定有人會按這種方法去做。依據(jù)一項針對1010名英國科技工作者的研究,90%的人認(rèn)為科技是一種正能量,但59%身處人工智能領(lǐng)域的人則表示,他們從事的項目可能對社會有害,有18%的人因倫理道德問題而辭職。盡管AI違背或踐踏道德只是少數(shù)技術(shù)操作者的行為,也就是墨菲定理所指的個別人犯錯,但這種錯誤極易被更多人模仿,而且借助網(wǎng)絡(luò)傳播的力量會無限放大,最終造成的社會危害無法估量。
可是,如何平衡AI創(chuàng)新與AI道德又是一個非常棘手的難題。今天,飛速前行的技術(shù)需要更多創(chuàng)新成果來提供貼近生產(chǎn)與生活的各種服務(wù),這就要求企業(yè)不斷尋求突破。只是,如果套上更多條條框框,又勢必抑制與捆綁AI 探索的腳步與空間。拿AI的基礎(chǔ)數(shù)據(jù)來說,用戶的身份、職業(yè)、年齡及閱讀、購物等行為偏好,都是優(yōu)化推薦算法的關(guān)鍵依據(jù),科技公司獲取的這些隱私數(shù)據(jù)越多,就越能讓AI的服務(wù)更精確地貼合公眾需求,利于商業(yè)主體精準(zhǔn)發(fā)力。如果注入了道德元素,數(shù)據(jù)的限制與缺失不僅會使AI的服務(wù)功能大打折扣,會面臨著資本的反制。
然而,任何創(chuàng)新的閘門都不是不能把控的,人類既然能讓機器變得非常智慧,同樣也可讓它行走在指定的路徑與劃定的邊界之內(nèi),比如一件AI可在哪些場景下使用,使用越界時的自動糾正功能等。這樣,無論機器具有怎樣的學(xué)習(xí)天賦,我們都可讓它在決策時像人一樣在感知是非善惡的前提下行事。
要引導(dǎo)AI變得有道德,首先須讓科技公司變成道德主體,科技向善應(yīng)成為恪守與貫徹的道德底線,為人類創(chuàng)造福祉并驅(qū)動社會發(fā)生積極變革應(yīng)成為科技公司存在與發(fā)展的圭臬。對此,所有的AI 企業(yè)都有必要像微軟成立人工智能倫理道德委員會那樣,創(chuàng)建由工程師、科學(xué)家、律師和公司領(lǐng)導(dǎo)組成的監(jiān)管機構(gòu),負(fù)責(zé)對每款A(yù)I產(chǎn)品的道德倫理風(fēng)險評估及運行內(nèi)外部審查和實施相應(yīng)的改進(jìn)機制。
相比于企業(yè)對AI的自我審查,行業(yè)協(xié)會是把控人工智能的第一道外部道德關(guān)口。目前,除了世界電氣電子工程師學(xué)會(IEEE)在《人工智能設(shè)計的倫理準(zhǔn)則》中提出了人權(quán)、福祉、問責(zé)與透明的倫理標(biāo)準(zhǔn)外,亞馬遜、微軟、谷歌及蘋果等全球百余家科技巨頭還創(chuàng)建了非營利性的人工智能合作組織Partnership on AI,提出了公平、沒有傷害、公開透明及問責(zé)等倫理道德框架。各國各行業(yè)可以此為參照建立各自的AI道德評價矩陣與評估流程。相對于企業(yè)自我道德評價,作為第三方的行業(yè)道德評價能有效克服前者在商業(yè)訴求與道德訴求上的角色沖突,過濾掉企業(yè)道德評價中的不合理因素,確保AI倫理道德評估結(jié)論的公正與可信。為了更廣泛地反映社會不同群體的基本訴求,行業(yè)道德監(jiān)督機構(gòu)應(yīng)最大限度吸收更多利益相關(guān)者加入。
制定AI倫理道德準(zhǔn)則更是各國政府義不容辭的職責(zé),衡量一國人工智能水平的高低不能只有技術(shù)指標(biāo),道德維度也已成了各國AI競爭的新高地。從倫理角度切入,歐盟就已率先推出了涵蓋人的能動性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉以及問責(zé)機制等七項內(nèi)容的AI倫理道德準(zhǔn)則。我國已有《網(wǎng)絡(luò)安全法》和《信息安全技術(shù)個人信息安全規(guī)范》,相關(guān)組織還發(fā)布了《人工智能北京共識》,但在AI的道德界限以及道德標(biāo)準(zhǔn)細(xì)化方面仍有待提煉與加工。
AI使用者同樣不應(yīng)成為道德盲區(qū),出臺AI使用者的道德與法律規(guī)則同樣時不我待。應(yīng)建立起可監(jiān)控的人工智能平臺,以此倒逼科技公司調(diào)整與校準(zhǔn)研發(fā)行為,讓AI道德演變成民眾信任的基礎(chǔ)。
-
網(wǎng)絡(luò)安全
+關(guān)注
關(guān)注
10文章
3188瀏覽量
60060 -
AI
+關(guān)注
關(guān)注
87文章
31429瀏覽量
269826 -
人工智能
+關(guān)注
關(guān)注
1793文章
47604瀏覽量
239528
發(fā)布評論請先 登錄
相關(guān)推薦
評論