根據(jù)美國(guó)政府測(cè)試發(fā)現(xiàn)的結(jié)果,即使是表現(xiàn)最佳的人臉識(shí)別系統(tǒng),黑人的錯(cuò)誤識(shí)別率比白人高5至10倍。那么到底是什么原因?qū)е虏煌朔N之間人臉識(shí)別效果差距如此之大呢?又該如何應(yīng)對(duì)呢?
法國(guó)有一家名叫Idemia的公司,它的人臉識(shí)別軟件已經(jīng)在為美國(guó)、澳大利亞和法國(guó)的警方提供服務(wù)。
例如,這個(gè)軟件會(huì)根據(jù)海關(guān)或者邊境保護(hù)局的記錄,檢查一些在美國(guó)著陸乘客的面部特征。
2017年,F(xiàn)BI一名高級(jí)官員向國(guó)會(huì)報(bào)告稱:“面部識(shí)別系統(tǒng)使用Idemia技術(shù)掃描3000萬張照片,有助于‘保護(hù)美國(guó)公民’?!?/p>
但即便如此,Idemia的算法并不能對(duì)所有面孔都做到精準(zhǔn)識(shí)別。
美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所(National Institute of Standards and Technology,NIST) 7月份的測(cè)試結(jié)果顯示,比起白人和黑人男性,系統(tǒng)更容易混淆黑人女性。
NIST用兩張相同的面部照片去測(cè)試算法,結(jié)果表明,Idemia的算法錯(cuò)誤匹配白人女性面孔的概率約為萬分之一,而錯(cuò)誤匹配黑人女性面孔的概率卻為千分之一,概率增長(zhǎng)了10倍之多。
而在人臉識(shí)別系統(tǒng)中,錯(cuò)誤識(shí)別概率超過萬分之一是一個(gè)評(píng)判標(biāo)準(zhǔn)。
Idemia美國(guó)公共安全部門主管Donnie Scott表示:
“NIST測(cè)試的算法尚未在商業(yè)上發(fā)布,該公司在產(chǎn)品開發(fā)過程中會(huì)檢查人口統(tǒng)計(jì)學(xué)差異。人與人之間存在身體差異,算法將以不同的速度對(duì)不同的人進(jìn)行改進(jìn)?!?/p>
最先進(jìn)的人臉識(shí)別算法依舊無法應(yīng)對(duì)深色皮膚面孔
目前,計(jì)算機(jī)視覺算法在人臉識(shí)別任務(wù)中可以說是達(dá)到了巔峰。
NIST去年表示,在2010年到2018年期間,算法在大型數(shù)據(jù)庫精準(zhǔn)識(shí)別人臉的能力提升了25倍,只有0.2%的概率會(huì)出現(xiàn)無法匹配人臉的情況。這將有助于推動(dòng)在政府、商業(yè)或者手機(jī)等電子產(chǎn)品中的廣泛使用。
但NIST的測(cè)試以及其它研究反復(fù)發(fā)現(xiàn),算法在識(shí)別深色皮膚人臉方面的能力是較差的。該機(jī)構(gòu)7月份的報(bào)告涵蓋了50多家公司的代碼測(cè)試。
自2017年初以來,NIST已經(jīng)公布了人臉識(shí)別算法的人口統(tǒng)計(jì)學(xué)測(cè)試結(jié)果。研究還一致發(fā)現(xiàn),識(shí)別女性的結(jié)果比識(shí)別男性的結(jié)果差一些,造成這種差距的一部分原因是由化妝造成的。
報(bào)告指出,白人男性的錯(cuò)誤匹配率通常比較低,而黑人女性的錯(cuò)誤匹配率通常會(huì)比較高。NIST計(jì)劃在今年秋季詳細(xì)報(bào)告該技術(shù)如何在不同的人口群體中發(fā)揮作用。
NIST的研究被認(rèn)為是評(píng)估人臉識(shí)別算法的黃金標(biāo)準(zhǔn)。那些在人臉識(shí)別做的較好的公司將其成果在市場(chǎng)上進(jìn)行營(yíng)銷。
許多人臉識(shí)別算法更容易混淆黑人面孔。每個(gè)圖表都代表了NIST測(cè)試的不同算法。
國(guó)土安全部還發(fā)現(xiàn),深色皮膚對(duì)商業(yè)化的人臉識(shí)別任務(wù)也具有挑戰(zhàn)。今年2月,國(guó)土安全部的工作人員公布了11個(gè)商用系統(tǒng)的測(cè)試結(jié)果。結(jié)果表明,接受測(cè)試的系統(tǒng)需要更長(zhǎng)的時(shí)間來處理膚色較深的人,而且準(zhǔn)確率也相應(yīng)較低。
政府報(bào)告也稱:亞馬遜、微軟和IBM的算法在深色皮膚上的識(shí)別并不太準(zhǔn)確。
人臉識(shí)別技術(shù)引發(fā)隱私、種族歧視等輿論
這些發(fā)現(xiàn)引發(fā)了一場(chǎng)關(guān)于正確和不正確使用面部識(shí)別的全國(guó)性辯論。
一些公民自由倡導(dǎo)者、立法者和政策專家希望政府限制或禁止使用該技術(shù),就像最近在舊金山和其他兩個(gè)城市所做的那樣。
他們擔(dān)心的問題包括隱私風(fēng)險(xiǎn)、公民與州之間的權(quán)力平衡以及結(jié)果中的種族差異。一些批評(píng)人士說,即使人臉識(shí)別對(duì)所有面孔都同樣有效,仍然有理由限制這項(xiàng)技術(shù)。
盡管爭(zhēng)論日益激烈,但人臉識(shí)別已經(jīng)深入到許多聯(lián)邦、州和地方政府機(jī)構(gòu)中,并且正在傳播。美國(guó)政府在邊境檢查和尋找非法移民等任務(wù)中使用人臉識(shí)別技術(shù)。
今年早些時(shí)候,洛杉磯警察局對(duì)一起入室盜竊案做出回應(yīng),這起案件后來升級(jí)為致命的槍擊事件。一名嫌疑犯被逮捕,但另一名逃跑了。警方通過一張?jiān)诰€照片在人臉識(shí)別系統(tǒng)中搜索到了逃犯。
這起案件顯示了人臉識(shí)別系統(tǒng)的價(jià)值,該系統(tǒng)被50多個(gè)縣級(jí)機(jī)構(gòu)使用,并在一個(gè)包含1200多萬張面部照片的數(shù)據(jù)庫中進(jìn)行搜索。警長(zhǎng)辦公室的中尉Derek Sabatini說:“如果沒有面部識(shí)別,警察們可能不會(huì)那么快找到嫌疑人?!?/p>
LA County系統(tǒng)是根據(jù)Cognitec公司的人臉匹配算法建立起來的。Cognitec是一家德國(guó)公司,和Idemia一樣,為世界各國(guó)政府提供人臉識(shí)別服務(wù)。
NIST同樣也對(duì)Cognitec算法做了測(cè)試,結(jié)果表明,對(duì)于女性和有色人種,這些算法的準(zhǔn)確率可能會(huì)更低。在敏感閾值下,NIST測(cè)試的兩種Cognitec算法誤判黑人女性的概率大約是前者的五倍。
Cognitec算法開發(fā)總監(jiān)Thorsten Thies承認(rèn)兩者存在差異,但表示很難解釋。他說,其中一個(gè)因素可能是,“與白人相比,給深色皮膚的人拍一張好照片更困難?!?/p>
Sabatini對(duì)這種擔(dān)憂進(jìn)行了反駁,即不管潛在的原因是什么,有偏差的算法都可能導(dǎo)致警務(wù)工作中的種族差異。并且表示警方在采取行動(dòng)前會(huì)仔細(xì)檢查建議的匹配項(xiàng),并尋找確鑿的證據(jù)。他說:“我們從2009年開始就在這里使用它,沒有任何問題:沒有訴訟,沒有案例,沒有投訴?!?/p>
其實(shí),對(duì)于人臉識(shí)別和種族相關(guān)的新聞并不新鮮。
2012年,美國(guó)聯(lián)邦調(diào)查局(FBI)首席面部識(shí)別專家合著了一篇研究論文,發(fā)現(xiàn)商業(yè)面部識(shí)別系統(tǒng)對(duì)黑人和女性的準(zhǔn)確率較低。喬治敦大學(xué)的研究人員在2016年一份有影響力的報(bào)告中警告了這個(gè)問題,報(bào)告稱FBI可以搜索大約一半美國(guó)人的臉。
隨著人臉識(shí)別變得越來越普遍,政策專家和決策者對(duì)技術(shù)的局限性越發(fā)感興趣,這個(gè)問題獲得了新的關(guān)注。MIT研究員、活動(dòng)家Joy Buolamwini的工作尤其具有影響力。
2018年初,Buolamwini和他的人工智能研究員Timnit Gebru指出,微軟和IBM試圖檢測(cè)照片中人臉性別的服務(wù),對(duì)于膚色白皙的男性來說近乎完美,但對(duì)于膚色黝黑的女性來說,失敗的幾率超過20%。
隨后的一項(xiàng)研究發(fā)現(xiàn)亞馬遜服務(wù)也有類似的模式。這些研究沒有測(cè)試試圖識(shí)別人類的算法(亞馬遜在一篇激進(jìn)的博客文章中稱其為“誤導(dǎo)”)。
今年5月,在眾議院監(jiān)督和改革委員會(huì)(House Oversight and Reform Committee)舉行的聽證會(huì)上,Buolamwini是一位明星證人。馬里蘭州民主黨主席Elijah Cummings表示,測(cè)試結(jié)果中的種族差異加劇了他對(duì)警察在2015年巴爾的摩抗議黑人男子Freddie Gray在警察拘留期間死亡時(shí)使用面部識(shí)別技術(shù)的擔(dān)憂。
后來,Jim Jordan(俄亥俄州共和黨人)宣布,國(guó)會(huì)需要對(duì)政府使用這項(xiàng)技術(shù)“做點(diǎn)什么”。他說:
“如果一個(gè)面部識(shí)別系統(tǒng)犯了錯(cuò)誤,而這些錯(cuò)誤對(duì)非洲裔美國(guó)人和有色人種的影響更大,那么在我看來,這就直接違反了美國(guó)憲法第一修正案和第四修正案賦予的自由。”
為什么面部識(shí)別系統(tǒng)對(duì)深色皮膚的識(shí)別效果不同?
Buolamwini告訴國(guó)會(huì),許多公司用于測(cè)試或訓(xùn)練面部分析系統(tǒng)的數(shù)據(jù)集并不具有代表性。最容易收集大量面孔的地方是網(wǎng)絡(luò),那里的內(nèi)容偏向白人、男性和西方人。
根據(jù)IBM的一份評(píng)論,在學(xué)術(shù)研究中引用最多的三種面部圖像收集中,81%或更多的人膚色較淺。
領(lǐng)導(dǎo)NIST測(cè)試的Patrick Grother是人臉識(shí)別領(lǐng)域廣受尊敬的人物,他表示,可能還有其他原因?qū)е掠猩つw的識(shí)別效果較差。
一個(gè)是照片質(zhì)量。從彩色膠片開始到數(shù)字時(shí)代,攝影技術(shù)和技術(shù)已經(jīng)針對(duì)較淺顏色的皮膚進(jìn)行了優(yōu)化。
在11月的一次會(huì)議上,他還提出了一個(gè)更具挑釁性的假設(shè):從統(tǒng)計(jì)數(shù)據(jù)上看,黑人的臉比白人的臉更相似。他說:“你可能會(huì)猜測(cè),這與人性有關(guān)。不同的人口群體可能在我們基因的表型表達(dá)上存在差異。”
佛羅里達(dá)理工學(xué)院(Florida Institute of Technology)副教授Michael King則不那么肯定。King此前曾為美國(guó)情報(bào)機(jī)構(gòu)管理包括人臉識(shí)別在內(nèi)的研究項(xiàng)目。“這是我目前不準(zhǔn)備討論的問題。我們的研究還遠(yuǎn)遠(yuǎn)不夠,”他說。
King與FIT和圣母大學(xué)的同事們的最新研究結(jié)果表明,解釋人臉識(shí)別算法中人口統(tǒng)計(jì)學(xué)上的不一致性,以及如何解決這一問題,是一項(xiàng)挑戰(zhàn)。
他們的研究測(cè)試了4種面部識(shí)別算法(兩種商業(yè)的和兩種開源的),共計(jì)53000張臉部照片。
在黑人面孔中,錯(cuò)誤地匹配兩個(gè)人的情況更為常見,而在白人面孔中,沒有發(fā)現(xiàn)匹配面孔的情況更為常見。黑人的大頭照中有很大一部分不符合身份證照片的標(biāo)準(zhǔn),但僅憑這一點(diǎn)無法解釋這種扭曲的表現(xiàn)。
研究人員確實(shí)發(fā)現(xiàn),他們可以讓算法對(duì)黑人和白人“一視同仁”,但前提是對(duì)兩組人使用不同的敏感度設(shè)置。
這在實(shí)驗(yàn)室之外是不太可能實(shí)現(xiàn)的,因?yàn)橐髠商交蜻吘程毓椴煌娜巳哼x擇不同的環(huán)境會(huì)帶來歧視風(fēng)險(xiǎn),并可能引發(fā)指控種族定性的訴訟。
當(dāng)King和其他人在實(shí)驗(yàn)室里仔細(xì)研究算法時(shí),圍繞人臉識(shí)別的政治斗爭(zhēng)正在迅速展開。兩黨國(guó)會(huì)議員都承諾采取行動(dòng)控制這項(xiàng)技術(shù),理由是擔(dān)心少數(shù)族裔的準(zhǔn)確性。周二,奧克蘭成為繼馬薩諸塞州薩默維爾和舊金山之后,自5月以來第三個(gè)禁止其機(jī)構(gòu)使用該技術(shù)的美國(guó)城市。
King表示:
“讓這些系統(tǒng)對(duì)不同的人口統(tǒng)計(jì)數(shù)據(jù)同樣有效,甚至理解這是否可能實(shí)現(xiàn),或?yàn)槭裁纯赡軐?shí)現(xiàn),這確實(shí)是一個(gè)長(zhǎng)期目標(biāo)。”
-
AI
+關(guān)注
關(guān)注
87文章
31443瀏覽量
269836 -
人臉識(shí)別
+關(guān)注
關(guān)注
76文章
4015瀏覽量
82146
原文標(biāo)題:AI也臉盲 |黑人遭人臉識(shí)別技術(shù)“誤判”概率竟高出白人5至10倍!
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論