在這個人工智能無處不在的時代,這可能會帶來持續(xù)的系統(tǒng)性歧視。這也是為什么麻省理工電腦科學AI實驗室的研究者們創(chuàng)立能減少人工智能偏見但不會降低預(yù)測結(jié)果準確率的方法的原因。
“我們把這看成是一個幫助人工智能工程師診斷出系統(tǒng)做出不公正預(yù)測的原因的工具箱,”麻省理工教授David Sontag說。相關(guān)論文由David Sontag,博士生Irene Chen和Fredrik D. Johansson共同完成。
Sontag表示研究者們發(fā)現(xiàn)人工智能模型更傾向于將女性識別為低收入,將男性識別為高收入。通過將數(shù)據(jù)源中的女性代表數(shù)量翻了十倍,不準確的結(jié)果數(shù)量下降了40%。傳統(tǒng)方法可能會提出通過將大多數(shù)種群的數(shù)據(jù)源隨機化來解決不同種群的結(jié)果不平等問題。論文中寫道:“在這個項目中,我們認為預(yù)測的公正性評估應(yīng)在數(shù)據(jù)背景中進行,由不恰當?shù)臉颖敬笮』蛘呶礈y量的預(yù)測變量導致的不公正應(yīng)當通過數(shù)據(jù)匯集而不是約束模型來解決?!?/p>
預(yù)測準確率的不同有時可以歸咎于缺失數(shù)據(jù)或者結(jié)果無法預(yù)測。研究者們建議人工智能在接受公平性標準的檢驗前,應(yīng)先分析其模型傾向,模型變化幅度等元素。研究者在論文中指出:“這暴露和區(qū)分了不恰當?shù)臄?shù)據(jù)采集所帶來的負面影響以及模型在公平性方面的自主選擇。提高公平性并不總會帶來預(yù)測準確率的降低,但肯定需要數(shù)據(jù)采集方面的投資和模型的發(fā)展。在高風險應(yīng)用中,其產(chǎn)生的收益往往大于前期投入?!?/p>
一旦評估已經(jīng)開始,研究者建議預(yù)計收集附加訓練樣本的影響,然后匯集數(shù)據(jù)來識別得到不公正結(jié)果的亞種群進而引導附加變量集合。這種方法曾被用于從基于統(tǒng)計數(shù)字,課本評價和病人死亡率的輸入項目中獲取平等的結(jié)果。
在過去幾年里人們對人工智能因偏見產(chǎn)生不準確結(jié)果進而帶來嚴重后果的擔憂持續(xù)增加。一些工具和方法試圖解決這一問題,例如今初創(chuàng)公司Pymetrics開源了其偏見探測工具Audit AI,九月IBM發(fā)布了基于算法的偏見探測云服務(wù),谷歌也借助What-If工具和TensorBoard將人工智能偏見視覺化。
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7081瀏覽量
89177 -
算法
+關(guān)注
關(guān)注
23文章
4620瀏覽量
93051 -
人工智能
+關(guān)注
關(guān)注
1792文章
47421瀏覽量
238933
原文標題:GGAI 前沿 | 減少AI偏見 麻省理工通過技術(shù)實現(xiàn)中立
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論