2月17日新媒體專電 《俄羅斯報》近日發(fā)表文章稱,美國斯坦福大學學者邁克爾科辛斯基教授研發(fā)出了一種可根據(jù)人臉表情判斷其信仰傾向的人工智能技術。
報道稱,科辛斯基首先使用人臉照片庫來訓練神經(jīng)網(wǎng)絡,庫中包括大量信仰明確的人物。然后,他將這一神經(jīng)網(wǎng)絡投入使用,讓其根據(jù)數(shù)百萬人的照片來將他們區(qū)分為自由派和保守分子。人工智能的識別正確率達到了72%。這一結果似乎并不太出色,但人的判斷力更糟糕,正確率只有55%,幾乎和拋硬幣差不多。
有趣的是,科辛斯基還試圖搞清楚神經(jīng)網(wǎng)絡的工作原理。他檢查了照片中的多項特征和因素,如面部汗毛的顏色、目光是否直視鏡頭以及各種表情,但發(fā)現(xiàn)這些因素都不起作用。這也就是說,神經(jīng)網(wǎng)絡找到了目前尚不為人知的其他某些特征。
值得指出的是,科辛斯基的神經(jīng)網(wǎng)絡幾年前已能通過人臉照片來確定人的性取向。在僅有一張照片可供識別的情況下,它對男性性取向的判斷正確率達到81%,對女性的判斷正確率為74%。如果有5張照片可供識別,它對男女性取向的判斷正確率將分別提高到91%和83%。如果由人根據(jù)單張照片來進行判斷的話,他對男女性取向的判斷正確率分別只有61%和54%,這與過去的研究結果是一致的。
當時,科辛斯基的研究受到了同行們的嚴厲批評,他們認為這項技術可能危及他人的安全和隱私。但這項技術的研發(fā)者反駁說,自己沒有創(chuàng)造侵犯個人隱私的工具,而是展示了“基本和廣泛使用的方法可能以何種方式威脅私人生活”。也就是說,他們對人工智能中包含的危險發(fā)出了警告。
科辛斯基已向我們展示了其中一個危險。神經(jīng)網(wǎng)絡把人變得透明化了:它能在人身上發(fā)現(xiàn)對方自己可能都不知道的東西。
許多學者表示,必須制定有關人工智能使用的法律規(guī)范。但要把已被放出來的精靈重新裝回瓶子里是難以想象的。
責任編輯:YYX
-
人工智能
+關注
關注
1791文章
47282瀏覽量
238534
發(fā)布評論請先 登錄
相關推薦
評論