(文章來源:SHData)
近日,谷歌發(fā)布了一則道歉聲明。起因竟然是Google Vision Cloud將手持測溫計(jì)的深膚色人員的圖像標(biāo)記為“槍支”,而將淺膚色人員的類似圖像標(biāo)記為“電子設(shè)備”。目前,谷歌已更新了算法,不再返回“槍支”標(biāo)簽。聲明在表達(dá)歉意的同時(shí),也稱谷歌發(fā)現(xiàn)“沒有表明與膚色有關(guān)的系統(tǒng)性偏見的證據(jù)。”
“計(jì)算機(jī)視覺”無法正確標(biāo)記手持溫度計(jì)是由于系統(tǒng)尚未使用大量手持溫度計(jì)圖像的數(shù)據(jù)集加以訓(xùn)練。著重研究自動化系統(tǒng)中的偏見的Agathe Balayn博士在谷歌服務(wù)中測試大量圖像后表示該示例可能是“不存在統(tǒng)計(jì)偏見的不準(zhǔn)確例子”,在缺乏更嚴(yán)格測試的情況下,確實(shí)不能說這個(gè)系統(tǒng)存在偏見。
但計(jì)算機(jī)視覺的確會基于膚色生成不同的結(jié)果,這它依賴訓(xùn)練數(shù)據(jù)中相關(guān)的模式有關(guān),畢竟是計(jì)算機(jī)視覺無法識別人類意義上的任何物體。研究表明,一旦在白雪皚皚的背景下拍照,計(jì)算機(jī)視覺會將狗標(biāo)記為狼。如果母牛站在海灘上,它們會被標(biāo)記為狗。由于膚色深的人在訓(xùn)練數(shù)據(jù)集中描繪暴力的場景中出現(xiàn)的頻率可能高得多,因此對深膚色手的圖像進(jìn)行自動推斷的計(jì)算機(jī)用暴力方面的詞匯加以標(biāo)記的可能性要大得多。
計(jì)算機(jī)可能是“無心之失”,但這種“偏見”已開始影響人們的生活。
FrauenLoop的創(chuàng)始人兼首席執(zhí)行官稱計(jì)算機(jī)視覺軟件中的偏見會“絕對”影響深膚色人群的生活。她補(bǔ)充說,由于女性和深膚色人群的誤識別率一直偏高,因此用于監(jiān)視的計(jì)算機(jī)視覺的普及會對他們造成過大的影響。雖然有外部問責(zé)的提醒,但偏見的模型已產(chǎn)生的影響是無法抹去的。在研發(fā)階段更慎重的考量或許效果更佳。
(責(zé)任編輯:fqj)
-
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7525瀏覽量
88319 -
計(jì)算機(jī)視覺
+關(guān)注
關(guān)注
8文章
1699瀏覽量
46051
發(fā)布評論請先 登錄
相關(guān)推薦
評論