最近,DeepFake 技術(shù)又一次站在了風(fēng)口浪尖上。不只是因為它能在小電影上移花接木,而是立法者終于意識到它的可怕之處。
6 月初,一份有關(guān)馬克·扎克伯格的假視頻在國外社交媒體 Instagram 和 Facebook 上廣為流傳。
視頻中的人,無論從相貌聲音,還是穿著打扮,都跟真的扎克伯格幾無二致。他能眨眼,會用手勢,嘴/臉部動作和畫外音音軌高度吻合。乍看之下,幾乎找不到破綻,只是聲音有些奇怪。
更早之前,美國眾議院議長南?!づ迓逦饕步?jīng)歷了類似的事件。有人通過剪輯、拼接和慢放等手段制作了一段她的演講視頻,雖然沒有用到 AI 技術(shù),但視頻中的她看起來有些神志不清,說話結(jié)結(jié)巴巴,語速緩慢,像是醉酒一樣。
這段視頻甚至引來了美國總統(tǒng)特朗普的嘲諷(兩人素來不合)。
令人不解的是,這些社交平臺并沒有選擇第一時間屏蔽虛假視頻。事實上,正是因為 Facebook 拒絕撤下佩洛西的假視頻,才導(dǎo)致有人做出了其 CEO 扎克伯格的假視頻,來考驗 Facebook 對虛假信息的衡量標(biāo)準(zhǔn),看它會不會做出“自己打臉”的事情。
按照 Facebook 的官方回應(yīng),佩洛西的視頻“沒有違反平臺的政策,因為所有人都可以自由表達(dá)自己(的想法),如果有第三方事實檢測工具認(rèn)定視頻是假的,視頻就會被打上標(biāo)簽,提醒用戶注意其真實性,而且還會在推送中降低權(quán)重?!?/p>
換句話說,F(xiàn)acebook 的態(tài)度就是:我們不會移除編輯過的假視頻,但會讓用戶知道它不是真的。
其他社交巨頭也都紛紛表態(tài),Twitter 選擇了跟 Facebook 和 Instagram 站在一隊,不會刪除這些假視頻,而谷歌旗下的 YouTube 則為了保險起見,選擇了刪除視頻。
科技圈內(nèi)部兩極分化的情況也引發(fā)了輿論熱議。有的人認(rèn)為,縱容虛假信息流傳會造成更大的混亂,尤其在政治和外交問題上,因此必須嚴(yán)格管控。
也有人認(rèn)為,這些視頻不會對某個個體造成實質(zhì)性危害,貼上虛假標(biāo)簽即可。如果今天刪除了它們,就會開創(chuàng)一個糟糕的先例,明天可能導(dǎo)致更嚴(yán)格的管控政策。
美國國會出手
美國國會也盯上了假視頻和它背后的 AI 技術(shù),因為不僅是佩洛西,就連總統(tǒng)特朗普都曾受到假視頻的困擾。
與此同時,領(lǐng)英(LinkedIn)上還出現(xiàn)了一個疑似間諜的賬號。她的名字是 Katie Jones,頭像是一個典型的白人女性,畢業(yè)于密歇根大學(xué),在美國國際戰(zhàn)略研究中心(CSIS)工作。她的職場網(wǎng)絡(luò)雖然只有 50 多人,但里面有美國參議員助理、副助理國務(wù)卿,以及美聯(lián)儲席位候選人兼經(jīng)濟(jì)學(xué)家 Paul Windfree。
根據(jù)調(diào)查,CSIS 根本沒有這樣一個員工,密歇根大學(xué)也沒有她的學(xué)位記錄,而且她聯(lián)系網(wǎng)內(nèi)的人都不認(rèn)識她。肖像審查專家判斷,她的頭像很可能是用 AI 技術(shù)生成的假臉,很多特征與 AI 假頭像高度吻合。
再結(jié)合她添加的人都是政府重要人物,專家普遍認(rèn)為,其目的很可能是隱藏自己,從他們身上獲取信息,甚至添加更多位高權(quán)重的人物,將領(lǐng)英作為從事隱秘間諜活動的渠道。
多名議員認(rèn)為,如果對此類事件放任不管,不僅會影響到政治人物,還會傷害弱勢群體和少數(shù)族裔,甚至波及 2020 年的美國總統(tǒng)大選。
因此,美國國會召開了有史以來第一場有關(guān) DeepFake 類技術(shù)的聽證會,會議已于 6 月 13 號結(jié)束,相關(guān)法案也已經(jīng)醞釀了數(shù)月之久,出臺對該技術(shù)和社交平臺的約束政策只是時間問題。
縱觀歷史,能受到如此待遇的技術(shù)并不多見,立法者如此大張旗鼓地針對它,足以看出它潛在的破壞力。
AI 換臉術(shù)如何走紅
如果放在 10 年前,恐怕很少有人會質(zhì)疑一段視頻的真實性,尤其是人臉清晰可見的視頻。只不過隨著 AI 技術(shù)的進(jìn)步,憑空造出一個以假亂真的人臉,替換視頻中的人臉,或者替換視頻中的整個人物,都早已不是遙不可及的事情,甚至可能有些過于容易了。
2017 年底橫空出世的 DeepFake 技術(shù),雖然不是第一個實現(xiàn)換臉的技術(shù),但卻是將 AI 假視頻帶入大眾視野的先驅(qū)。這是一種基于深度學(xué)習(xí)的偽造技術(shù),適用于修改圖片和影像,可以實現(xiàn)人臉的移花接木。哪怕是動圖或視頻中的人物,也可以被替換成毫不相干的另一個人。
DeepFake 的走紅要歸功于腦洞大開的網(wǎng)友,他們在***中引入了 DeepFake 技術(shù),將其中女主角的臉,替換成了一些當(dāng)紅女明星的臉,蓋爾·加朵、艾瑪·沃特森、斯嘉麗·約翰遜和泰勒·斯威夫特等大牌女星都難逃一劫,紛紛被替換到了不可描述的場景中。
由于視頻中角色的臉部動作和視角變化較少,因此除了個別幀數(shù)出現(xiàn)渲染模糊和混亂的問題,DeepFake 的替換效果足以以假亂真。
不過,出于惡搞精神也好,獵奇心態(tài)也罷,這些人無疑是濫用了 DeepFake 技術(shù),對當(dāng)事人造成了傷害,而且維權(quán)無門。飽受其害的“黑寡婦”斯嘉麗就曾在公開場合表達(dá)了自己的憤怒和無奈。
鑒于其造成的惡劣影響,很多社交平臺都開始封殺 DeepFake 視頻。該技術(shù)的開發(fā)者也在 GitHub 上呼吁,“不要將 DeepFake 的換臉技術(shù)用于***,它的價值并不在此?!?/p>
實際上,能夠制造假圖片和假視頻的 AI 技術(shù)不僅僅只有 DeepFake,相關(guān)技術(shù)在過去五年里層出不窮。這都要歸功于另一項大名鼎鼎的深度學(xué)習(xí)技術(shù):生成式對抗網(wǎng)絡(luò)(GAN)。
這是一種讓兩個神經(jīng)網(wǎng)絡(luò)“左右互搏”的技術(shù),其中一個網(wǎng)絡(luò)負(fù)責(zé)生成物體,一個網(wǎng)絡(luò)負(fù)責(zé)判別物體,兩者通過不斷對抗來創(chuàng)造非常真實的虛構(gòu)圖像、聲音或視頻。
自 2014 年 Ian Goodfellow 發(fā)明 GAN 以來,世界范圍內(nèi)的很多深度學(xué)習(xí)團(tuán)隊和企業(yè)都開始在上面添磚加瓦,各種 GAN 框架漫天飛舞。
在 DeepFake 出現(xiàn)之前,就已經(jīng)有了基于 GAN 的 Face2Face 技術(shù)和 CycleGAN 模型。前者可以通過攝像頭捕捉人的臉部動作,然后實時轉(zhuǎn)移到現(xiàn)有視頻中的另一張人臉上,后者則可以改變圖片和視頻中物體或場景的樣貌,實現(xiàn)馬與斑馬之間的轉(zhuǎn)換。
類似的技術(shù)還有很多。UC 伯克利大學(xué)團(tuán)隊的 Everybody Dance Now,融合吸收了很多種 GAN 框架的精髓,可以分分鐘讓舞蹈小白看起來像是舞王附身,堪稱是“舞蹈界的 DeepFake”。
英偉達(dá)的 StyleGAN,可以自動生成惟妙惟肖的圖片,適用于人臉、汽車、風(fēng)景和動物等。對于人臉來說,StyleGAN 用來混合的特征包括性別、膚色、臉型、姿勢、表情、胡須、是否戴眼鏡、頭發(fā)長度和顏色等等。它雖然不是一個完美的模型,生成的圖片經(jīng)常出現(xiàn)瑕疵,但總體上效果出眾。
有人用 StyleGAN 制作了一個網(wǎng)站 thispersondoesnotexist.com,每次刷新都會生成一張人臉圖片,偶爾還真會刷出現(xiàn)高顏值的人。唯一的問題是,這人不是真正存在于這個世界上的。上文提到的那個虛假的領(lǐng)英女性頭像,專家懷疑就是 StyleGAN 或者其他 GAN 框架的杰作。
AI 造假技術(shù)觸手可及,是福是禍?
除了主流的 DeepFake 和 GAN,還有很多 AI 技術(shù)可以用來生成視頻,像香港科技大學(xué)陳啟峰教授團(tuán)隊的級聯(lián)優(yōu)化網(wǎng)絡(luò)(CRN),僅憑一張簡單的場景布局圖片,就可以生成無數(shù)個高分辨率的圖像和視頻,還有三星 AI 實驗室讓靜態(tài)蒙娜麗莎和愛因斯坦圖片動起來的元數(shù)據(jù)框架。
然而,我們在感受 AI 技術(shù)帶來的驚喜的同時,也必須意識到一個問題:借著開源的東風(fēng)和技術(shù)無罪的精神,AI 造假的門檻越來越低了。
隨便在網(wǎng)上一搜“AI 換臉”,就會找到很多神經(jīng)網(wǎng)絡(luò)訓(xùn)練教程,如果有編程功底,從開源社區(qū)拿到代碼和數(shù)據(jù)就可以自行搭建框架和訓(xùn)練。
即使不懂得如何構(gòu)建神經(jīng)網(wǎng)絡(luò),看不懂晦澀的論文,甚至是不懂編程也沒問題,網(wǎng)上早就有 fakeapp 和 faceswap 等現(xiàn)成的換臉軟件,只要電腦硬件足夠強大,跟著教程走,自制簡單的換臉短視頻并不困難。
往好的方向看,這種趨勢降低了視頻制作的門檻,方便了大眾進(jìn)行藝術(shù)創(chuàng)作,尤其是以惡搞為主要目的的視頻。在 B 站上就能找到很多高質(zhì)量“AI 換臉”視頻,譬如把《復(fù)仇者聯(lián)盟》中的美國隊長改成“象牙山隊長趙四”,把雷神改成徐錦江,把《武林外傳》中的佟湘玉改成“黑寡婦”斯嘉麗。
拋開法律層面存在的爭議不提(涉嫌侵犯肖像權(quán)),如果我們用最大的善意去看待這些惡搞,制作者的初衷可能并沒有惡意,只是單純地想讓看客一笑,用 AI 技術(shù)滿足大家最豐富的腦洞和想象力,畢竟里面沒有涉及到形象侮辱和名譽詆毀。
而且用的好了,我們還能看到“AI 復(fù)活張國榮”這樣的致敬作品。或許等技術(shù)更加成熟,越來越多逝去的名人會以“復(fù)活的”形式重新回到熒幕上。《速度與激情 7》中最后出現(xiàn)的保羅沃克就使用了類似的技術(shù)。
但如果往壞了想,AI 技術(shù)被居心叵測的人利用,就會出現(xiàn)上文說到的濫用情況。比如把女明星的臉放在色情或暴力視頻中,用來偽裝成一個不存在的人,偽造一個從沒發(fā)生過的事,或者把一個人做的事放在另一個人身上,從而誤導(dǎo)不明真相的人,混淆視聽。
如何破解 AI 操縱信息的困境?
AI 技術(shù)的進(jìn)步無疑是一件利大于弊的事情,技術(shù)本身不存在原罪。只不過我們必須制定配套的規(guī)則、規(guī)范和保護(hù)措施,才能有效避免技術(shù)濫用的情況發(fā)生,并且將發(fā)生時的損失降到最低。
美國議員正在起草的法案指出,整個 AI 產(chǎn)業(yè),從上到下都必須參與其中。
首先,企業(yè)和研究機(jī)構(gòu)需要開發(fā)對應(yīng)的技術(shù),用來有效識別虛假 AI 信息。網(wǎng)絡(luò)上的信息載體可以大致分為文字、圖片、音頻和視頻。不幸的是,每一種都被 AI 攻陷了。
OpenAI 的 GPT-2 模型可以生成流暢連貫的假文章,GAN 和 DeepFake 可以制造逼真的圖片和視頻,至于模擬聲音,可以用 RNN 等深度學(xué)習(xí)模型完成,搜狗就剛剛展示過即時變聲的酷炫功能。
不過我們可以用技術(shù)來對抗技術(shù),用 AI 來對抗 AI。從本質(zhì)上看,虛假信息的傳播問題可以有兩種控制方法:一是從源頭入手,尋找證據(jù),查驗信息的真實性;二是從數(shù)字信息本身入手,檢查是否存在修改痕跡。
Adobe 就發(fā)明了檢測圖像是否經(jīng)過 PS 的工具,可以用卷積神經(jīng)網(wǎng)絡(luò)識別圖片有沒有被修過的痕跡。
美國國防部高級研究計劃局(DARPA)也早就注意到了 DeepFake,并且開發(fā)了一種 AI 工具,可以在 GAN 生成的視頻和圖像中捕捉微妙的生理信號線索,比如不自然的眼睛運動和呼吸頻率,從而識別假視頻。在 SytleGAN 和 BigGAN 還沒有誕生的時候,準(zhǔn)確率甚至高達(dá) 99%,只是現(xiàn)在應(yīng)該達(dá)不到這個水平了。
也有研究團(tuán)隊發(fā)明了新的神經(jīng)網(wǎng)絡(luò)模型 XceptionNet,用假視頻數(shù)據(jù)集訓(xùn)練 AI,教它如何識別假視頻。在清晰度比較高的情況下,準(zhǔn)確率高達(dá) 95% 以上。
然而“造謠動動嘴,辟謠跑斷腿”,打假不如造假吃香,學(xué)術(shù)界在對抗 GAN 方面做出的努力,仍然遠(yuǎn)不及研究 GAN 的努力。據(jù) DeepTrace 平臺統(tǒng)計,2018 年,全球涉及到 GAN 生成圖像和視頻的論文多達(dá) 902 篇,而研究如何識別合成圖像和視頻的論文只有 25 篇,僅為前者的 1/36。
其次,社交平臺必須承擔(dān)其監(jiān)督和管理的責(zé)任,建立更完善的虛假信息檢測機(jī)制。
這就要求 Facebook 和 Twitter 這樣的社交平臺拿出更積極的態(tài)度,而不是像現(xiàn)在這樣,遇到難以控制的虛假信息就貼上個標(biāo)簽放任自流,甚至于連標(biāo)簽都懶得貼,直到有媒體報道才后知后覺。
所謂的 AI 算法和大數(shù)據(jù)加持下的事實檢查工具,也遲遲沒有大規(guī)模使用,偶爾使用還會鬧出啼笑皆非的笑話,比如巴黎圣母院著火的視頻被 YouTube 識別為 911 事件,只好依賴效率低下的人力篩查。這次扎克伯格和佩洛西的假視頻,到本文發(fā)稿時,也沒有在醒目的地方打上虛假信息的標(biāo)簽。
美國議員 Adam Schiff 認(rèn)為,歸根結(jié)底,是因為現(xiàn)有法律沒有要求社交平臺對平臺上用戶發(fā)表的內(nèi)容負(fù)責(zé),他們沒有足夠的動力去改進(jìn)。
因此,最后需要配合的就是立法和監(jiān)管機(jī)構(gòu)。相比近幾年 AI 技術(shù)的突飛猛進(jìn),配套的法律法規(guī)顯得有些落伍了。針對 AI 合成內(nèi)容,如何監(jiān)管,如何收集證據(jù),如何判罰和量刑等問題都沒有確切的、詳細(xì)的、可操作的法律條款作為依據(jù)。
專家建議,應(yīng)當(dāng)讓社交平臺采取合理的措施,保證內(nèi)容的節(jié)制性,從而更有動力打擊 DeepFake 等技術(shù)制造的虛假信息。
不過,當(dāng)這些條件都尚未成熟的時候,上網(wǎng)沖浪的我們都應(yīng)該牢記一件事情:文字、圖片、音頻和視頻都有可能是偽造的,不能輕易地相信網(wǎng)絡(luò)上的信息。
或許這很可悲,但我們就跟斯嘉麗一樣無奈。
-
圖像處理
+關(guān)注
關(guān)注
27文章
1295瀏覽量
56803 -
AI
+關(guān)注
關(guān)注
87文章
31123瀏覽量
269447 -
GaN
+關(guān)注
關(guān)注
19文章
1946瀏覽量
73677
原文標(biāo)題:DeepFake 換臉術(shù)混淆視聽,攪亂美國政壇
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論