廣被詬病的用戶協(xié)議、合成視頻存在的安全問題……ZAO從爆紅到質(zhì)疑纏身,只用了不到24小時。從人臉合成技術(shù)誕生的那一天開始,人們就沒有停止過對技術(shù)被人利用作惡的憂慮。
此次對ZAO的擔(dān)憂,也折射出潛藏在每個人內(nèi)心的那個疑問:如果人工智能越來越無所不能,人類該如何自處?在新一輪的產(chǎn)業(yè)變革中,人類的隱私和其他權(quán)益究竟如何保護?
從一鍵換臉到深裸,科技倫理屢受沖擊
曾經(jīng)刷屏的類似應(yīng)用軟件不止ZAO一款,還有臉萌、足記、天天P圖……與ZAO一樣,這些應(yīng)用大多與圖像相關(guān),許多也需要用戶上傳個人照片,但是從未引起如此大規(guī)模的爭議。
據(jù)了解,能夠合成視頻是ZAO引爆公眾討論的關(guān)鍵。在此之前,圖像App的玩法都是基于靜態(tài)的照片,ZAO則第一次將視頻換臉技術(shù)帶到了普通大眾的手機里。
中國科學(xué)院神經(jīng)科學(xué)博士劉耀文向《法制日報》記者介紹說,人工智能相關(guān)應(yīng)用在過去幾年迅猛增長,其中人臉識別是應(yīng)用范圍比較廣的技術(shù)之一。如今在金融、安防、考勤等領(lǐng)域,人臉識別已被大量應(yīng)用。比如,當(dāng)用戶向互聯(lián)網(wǎng)金融公司借貸時,平臺首先需要做的是“驗證你是你”,由于與錢財直接相關(guān),攔截偽造的人臉攻擊就變得至為重要。
因此,這次刷屏的合成視頻便觸到了許多人的心理底線:當(dāng)視頻也可以被偽造,還有什么可以確保真實?
其實,換臉技術(shù)本身并不新奇。2016年上映的《星球大戰(zhàn)外傳:俠盜一號》還原了1977年《星球大戰(zhàn)4》中總督塔金的角色,但其扮演者彼得·庫欣早在22年前就已去世,特效團隊為此找來一位長相酷似彼得的演員進行面部表情捕捉,然后用計算機動畫技術(shù)將塔金復(fù)活。不過,出品方盧克斯影業(yè)和迪士尼均表示,在制作《星球大戰(zhàn)外傳》時已經(jīng)取得了彼得家人和產(chǎn)權(quán)繼承人的同意。
將換臉推到風(fēng)口浪尖的是一系列融合了AI技術(shù)的“假視頻”。
2017年12月,一個名為“深度偽造”的用戶在美國某論壇上發(fā)布了多段***。他讓電腦軟件學(xué)習(xí)好萊塢女星的圖像資料,然后把女星的面部移植到色情片女主角臉上,引發(fā)大量討論和抨擊,最后以賬號被封告終。
不過,AI換臉并未消失。用戶“深度偽造”隨后直接開源了項目代碼,更多效仿者隨之而來,為了紀念他,便用他的名字代稱“AI換臉”技術(shù)。
據(jù)媒體報道,今年6月13日,美國眾議院情報委員會召開關(guān)于人工智能深度偽造的聽證會,公開談?wù)摿松疃葌卧旒夹g(shù)對國家、社會和個人的風(fēng)險及防范和應(yīng)對措施。美國外交政策研究所研究員克林特·瓦茨認為,深度偽造技術(shù)對美國2020年大選具有潛在威脅,若放任偽造視頻擴散,則會對美國民主選舉產(chǎn)生不良影響,挫傷選民的積極性。
就在聽證會結(jié)束后不久,一款名為DeepNude(深裸)的App再次把AI技術(shù)應(yīng)用中的法律倫理問題推到臺前:只要給它一張人像照片,等待30秒,就能得到一張裸照。由于風(fēng)險超出可控范圍,研發(fā)團隊在產(chǎn)品上線幾天后便匆忙將這款產(chǎn)品下架。
美國斯坦福大學(xué)計算機科學(xué)教授、“百度大腦”原負責(zé)人吳恩達也公開批判,稱“DeepNude是AI技術(shù)最糟糕的應(yīng)用之一”,AI技術(shù)的超級力量應(yīng)該被用到推動世界發(fā)展的項目中。
在業(yè)內(nèi)人士看來,AI換臉技術(shù)是成熟的,之所以沒有被推廣,就是因為還有很多法律、倫理問題沒有討論清楚。
各方合作共同治理,健全法律防止失范
上個月,央行科技司司長李偉就曾警示AI人臉識別技術(shù)可能帶來的新風(fēng)險,他說,“人臉支付的時候,一刷臉錢就沒了,很可怕。銀行卡可以揣在兜里,臉是平常露在外面,識別出來非常容易,現(xiàn)在有的技術(shù)可以在3公里之外識別你的人臉?!边@句話道出了AI應(yīng)用對公共安全帶來的隱憂。
此次,換臉軟件ZAO將人工智能時代的隱私問題暴露得更加徹底,甚至有評論直言,當(dāng)人類制造的技術(shù)越來越強大,甚至無所不能,人類本身的領(lǐng)地和獨特性如何維護便成為值得思考的問題。如今,人工智能的發(fā)展?jié)u成加速之勢,這個情況甚至超出了不少人最樂觀的估計。
“對于打開了潘多拉魔盒的看法我是認可的,諸如ZAO此類的換臉軟件,國外幾年前就出現(xiàn)了,之后便被禁止。這個實際就是機器學(xué)習(xí)算法,對運行系統(tǒng)等各方面要求都挺高的。類似換臉應(yīng)用出現(xiàn)是將技術(shù)平民化,使用門檻降低,讓普通人都能使用,但可能會出現(xiàn)很嚴重的侵權(quán)行為。”劉耀文說。
因此,在受訪的業(yè)內(nèi)人士看來,對于AI應(yīng)用場景安全的討論,不能只局限于民事侵權(quán)。
在技術(shù)至上派的人看來,如果人工智能技術(shù)能夠持續(xù)進步并廣泛應(yīng)用,特別是人類可以制造出真正能推理和解決問題、有知覺甚至自我意識的強人工智能機器的話,將給人類社會帶來巨大的好處。
從現(xiàn)實情況看,人工智能技術(shù)的發(fā)展確實也已經(jīng)為人類帶來實際回報。但得到這些好處并非沒有代價,ZAO引發(fā)的爭論只是人工智能技術(shù)B面的一小部分,面對這股強大且未知的力量,圍繞人工智能倫理的探討從未停歇。
“更積極的討論還得基于AI技術(shù)的倫理,對其研究開發(fā)與應(yīng)用行為進行規(guī)范,通過健全法律法規(guī)、健全必要的監(jiān)管,實行前置的管理,防止失范失控。”采訪中,中國傳媒大學(xué)政法學(xué)院法律系副主任鄭寧說,比如,AI應(yīng)用技術(shù)應(yīng)當(dāng)符合正當(dāng)有益的原則,應(yīng)用則需要滿足起碼的安全保護、隱私保護等條件,形成健全清晰的規(guī)則。對于AI換臉來說,如果有前置規(guī)則的約束,就可能屬于禁止應(yīng)用之列。由此可見,對于AI技術(shù)的發(fā)展,法規(guī)、規(guī)則的研究也應(yīng)跟上步伐,不斷扎密制度的籠子。
“目前ZAO所展現(xiàn)出來的問題,以及類似軟件可能產(chǎn)生的潛在危險和不安全性,也是人們必然要面臨的挑戰(zhàn)。人工智能為社會提供產(chǎn)品和便利的同時,如何監(jiān)管才是最現(xiàn)實和最嚴峻的問題?!编崒幷f,我們身處風(fēng)險社會,任何新技術(shù)都是雙刃劍,在給人們帶來便利的同時,也會產(chǎn)生一定的風(fēng)險,因此需要加強政府監(jiān)管、企業(yè)自律、行業(yè)自治等,實現(xiàn)各方合作治理,“AI技術(shù)的監(jiān)管難點包括監(jiān)管技術(shù)較為滯后、監(jiān)管法律缺位,同時還要注意到,AI涉及研發(fā)者、使用者等多個主體,因此法律責(zé)任主體的界定比較困難”。
不過,也有專家認為,對于各種AI軟件,一種處理方法是,如果預(yù)感和預(yù)測到將對社會有重大威脅,就應(yīng)全面禁止。還有一種方法是,現(xiàn)在還沒出問題就可以放行,但絕非放任,等出了問題再來解決。
“兩種方式做起來的難度是比較大的,主要的難度就是怎樣平衡監(jiān)管的需求和新技術(shù)、新應(yīng)用發(fā)展的需求?!蓖跛男抡f,監(jiān)管得太嚴,肯定會傷害這種新技術(shù)、新應(yīng)用,也會增加企業(yè)的成本負擔(dān);如果不監(jiān)管,那一旦有了不可預(yù)測的情況發(fā)生,政府就會很被動,對個體造成的傷害可能也無法挽回。
對此,鄭寧的看法是,對于新技術(shù)要保持一定的寬容度,不能出現(xiàn)問題就一棍子打死,“全面禁止不是市場經(jīng)濟的做法,有些問題要讓市場和社會去解決,必要時有關(guān)部門再干預(yù)”。
-
人工智能
+關(guān)注
關(guān)注
1792文章
47525瀏覽量
239257 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8428瀏覽量
132850 -
ai技術(shù)
+關(guān)注
關(guān)注
1文章
1286瀏覽量
24378
發(fā)布評論請先 登錄
相關(guān)推薦
評論