上個(gè)月,《哈佛商業(yè)評(píng)論》發(fā)表了一篇名為Want Less-Biased Decisions? Use Algorithms的文章,作者為Alex P. Miller。文中表示,雖然目前AI算法存在偏見(jiàn),但是技術(shù)的進(jìn)步如果有助于提高系統(tǒng)性能,這也是很重要的。即使有了偏見(jiàn),也比人類(lèi)的偏見(jiàn)小得多。
針對(duì)這篇文章,fast.ai的創(chuàng)始人之一Rachel Thomas有不同的看法。她認(rèn)為算法偏見(jiàn)的影響實(shí)際上深遠(yuǎn)得多,我們關(guān)注的重點(diǎn)應(yīng)該是如何解決這一問(wèn)題。以下是論智對(duì)原文的編譯:
最近,《哈佛商業(yè)評(píng)論》刊登了一篇文章,講的是人類(lèi)總是作出有偏見(jiàn)的決定(這確實(shí)沒(méi)錯(cuò)),但文章忽視了許多相關(guān)問(wèn)題,包括:
算法的實(shí)現(xiàn)通常沒(méi)有適當(dāng)?shù)姆椒ǎㄒ驗(yàn)楹芏嗳苏`解算法是客觀、精準(zhǔn)并且不會(huì)犯錯(cuò)的)
在很多情況下,算法的使用比人類(lèi)決策規(guī)模大得多,所以也會(huì)產(chǎn)生和人類(lèi)相同的偏見(jiàn)(通常是由于算法使用成本低)
算法的使用者也許不了解概率或置信區(qū)間(即使這些都已經(jīng)標(biāo)明了),而且如果讓他們重寫(xiě)算法也會(huì)很困難
與其關(guān)注微不足道的選擇,更重要的是思考怎樣才能創(chuàng)造偏見(jiàn)更少的決策工具。
在《哈佛商業(yè)評(píng)論》的文章中,作者M(jìn)iller認(rèn)為,“算法革命”的批評(píng)者們擔(dān)心“算法在運(yùn)用時(shí)會(huì)不透明、帶有偏見(jiàn),成為無(wú)法解釋的工具”,但是在文章中,他只針對(duì)“偏見(jiàn)”展開(kāi)解釋?zhuān)瑢?duì)“不透明”和“無(wú)法解釋”的特征沒(méi)有解釋。
人機(jī)結(jié)合才能真正進(jìn)步
媒體總是通過(guò)人類(lèi)和機(jī)器的對(duì)比來(lái)顯示AI的進(jìn)步,我們總是看到這樣的標(biāo)題:“在XX比賽中,機(jī)器戰(zhàn)勝了人類(lèi)”。如果考慮到大多數(shù)算法的使用方法,這種對(duì)比也是不準(zhǔn)確的,這樣評(píng)價(jià)AI也是非常狹隘的。在所有案例中,算法都有人類(lèi)因素存在,尤其是數(shù)據(jù)的收集、決策的制定、實(shí)現(xiàn)方式、對(duì)結(jié)果的解讀以及不同參與者的不同理解等方面,都會(huì)受人類(lèi)的影響。
很多致力于研究醫(yī)學(xué)領(lǐng)域AI產(chǎn)品的人并不打算用AI替代人類(lèi),他們只是在創(chuàng)造能夠幫助醫(yī)生做出更精確更高效的決策,從而提高醫(yī)療質(zhì)量。能做到最佳水平的不是人類(lèi)也不是電腦,而是二者的結(jié)合。
Miller在他的文章中指出,人類(lèi)帶有非常多的偏見(jiàn),然后對(duì)比了目前的幾種方法,來(lái)比較哪種更加糟糕。但是文章并未提出有什么方法可以讓偏見(jiàn)更少,從而做出決策呢(也許用人類(lèi)和算法的結(jié)合)?總之這才是更值得考慮的、重要的問(wèn)題。
算法的使用通常和人類(lèi)決策方式不同
算法在實(shí)際中運(yùn)用范圍很廣,也因此會(huì)出現(xiàn)很多相同的偏見(jiàn),甚至被認(rèn)為是正確或客觀的結(jié)果。Miller在文章中分享的研究將它們進(jìn)行比較時(shí),并沒(méi)有發(fā)現(xiàn)實(shí)際使用中的區(qū)別。
Cathy O’Neil在Weapons of Math Destruction一書(shū)中寫(xiě)道,她所批評(píng)的那類(lèi)算法對(duì)窮人更不友好。
這些算法專(zhuān)注于處理大型任務(wù),并且使用成本低,這也是吸引人的部分原因。相反,富裕的人通常會(huì)選擇個(gè)人定制的輸入。大型公司或者貴族預(yù)科學(xué)校通常更傾向于內(nèi)部推薦或者面對(duì)面的面試。有特權(quán)的人通常會(huì)由人來(lái)選拔,而普通人才靠機(jī)器選拔。
O’Neil書(shū)中的一個(gè)例子是有一位患有雙向情感障礙的大學(xué)生想在暑假時(shí)在便利店打工。他應(yīng)聘的每家店都用相同的心理測(cè)量軟件來(lái)對(duì)面試者打分,所以每家店都拒絕了他。這表明了算法的另一個(gè)危險(xiǎn)之處,雖然人類(lèi)通常會(huì)有相似的偏見(jiàn),但并不是每個(gè)人都會(huì)做出同樣的決定。雖然他有精神障礙,但這位大學(xué)生也許最終會(huì)找到一個(gè)愿意雇用他的店。
很多人更愿意相信算法做出的決策,而不愿意相信人類(lèi)的決定。而設(shè)計(jì)算法的研究者們可能對(duì)概率和置信區(qū)間有更好的了解,而一般人不會(huì)注意到這一點(diǎn)。
算法需要被解釋
很多關(guān)于算法偏見(jiàn)的案例都沒(méi)有有意義的解釋或者有意義的處理過(guò)程。這看起來(lái)似乎是算法決策過(guò)程中的特殊趨勢(shì),也許是因?yàn)槿藗冨e(cuò)誤地認(rèn)為算法就是客觀的,所以沒(méi)有必要進(jìn)行客觀分析。同時(shí),如上面所解釋的,算法決策系統(tǒng)通常是為了削減成本,重復(fù)檢查就會(huì)增加成本。
Cathy O’Neil還寫(xiě)道一位老師非常受學(xué)生和家長(zhǎng)的愛(ài)戴,但是莫名其妙就被算法開(kāi)除了。她永遠(yuǎn)不會(huì)知道為什么會(huì)有這樣的結(jié)果。如果我們能重新對(duì)算法進(jìn)行檢查或者了解其中的因素,就不會(huì)令人如此費(fèi)解。
The Verge曾調(diào)查美國(guó)超過(guò)一半的州所使用的軟件,統(tǒng)計(jì)人們接收到的醫(yī)療健康服務(wù)。當(dāng)這種軟件在阿肯色州使用后,很多有嚴(yán)重殘疾的人們發(fā)現(xiàn)他們的醫(yī)療補(bǔ)助突然被大幅減少。例如,一位腦癱患者Tammy Dobbs原本需要每天有人幫助她下床、去衛(wèi)生間、吃飯等等,突然算法將醫(yī)療救助時(shí)間減少到了每周20個(gè)小時(shí)。她無(wú)法解釋為什么會(huì)這樣。最終,法院調(diào)查后發(fā)現(xiàn)是軟件的算法出現(xiàn)了錯(cuò)誤,影響了患有糖尿病或腦癱的患者。然而,像Dobbs這樣的很多人還是會(huì)擔(dān)心某一天他們的醫(yī)療補(bǔ)助是否會(huì)再次被削減。
算法的創(chuàng)建者被問(wèn)到能否有交流決策的方法,他說(shuō):“也許這是我們的責(zé)任。”但之后又稱(chēng),這可能是其他人的原因。我們不能認(rèn)為自己造出來(lái)的成果是別人的責(zé)任。
另一個(gè)在科羅拉多州使用的系統(tǒng)發(fā)現(xiàn)了系統(tǒng)中有超過(guò)900個(gè)錯(cuò)誤規(guī)則,結(jié)果導(dǎo)致了很多問(wèn)題,例如將懷孕的女性不算入需要醫(yī)療補(bǔ)助的計(jì)劃之內(nèi)。律師們很難發(fā)現(xiàn)算法中的錯(cuò)誤,因?yàn)檫@些內(nèi)部工作機(jī)制就像商業(yè)秘密一樣受保護(hù)。所以,重要的是要?jiǎng)?chuàng)建一個(gè)能輕松發(fā)現(xiàn)錯(cuò)誤的機(jī)制。
復(fù)雜的真實(shí)系統(tǒng)
當(dāng)我們談到AI,就需要想想現(xiàn)實(shí)世界中復(fù)雜的系統(tǒng)?!豆鹕虡I(yè)評(píng)論》中所提到的研究將決策看成孤立的行為,并沒(méi)有考慮所處的環(huán)境。判斷一個(gè)人是否會(huì)坦白其他罪行,這種決定并不是單獨(dú)做出的,它還要結(jié)合復(fù)雜的法律系統(tǒng)。我們有必要了解研究領(lǐng)域所處的真實(shí)環(huán)境是如何運(yùn)作的,同時(shí)不要忽略了可能受到影響的人們。
美國(guó)法庭中所用到的COMPAS算法是用在預(yù)審前保釋、判刑和假釋中的決策系統(tǒng)。ProPublica調(diào)查后發(fā)現(xiàn),白人被告者的結(jié)果誤報(bào)率是24%,而黑人被告的誤報(bào)率高達(dá)45%(即被告被系統(tǒng)認(rèn)定為“高風(fēng)險(xiǎn)”但結(jié)果卻并未再次入獄)。之后的研究發(fā)現(xiàn),COMPAS還不如一個(gè)簡(jiǎn)單的線性方程精確。
通過(guò)這些案例可以看出,算法也許會(huì)加劇潛在的社會(huì)問(wèn)題。所以我們有責(zé)任了解系統(tǒng)以及它們可能帶來(lái)的問(wèn)題。
反偏見(jiàn)不等于反算法
大多數(shù)對(duì)算法偏見(jiàn)持反對(duì)意見(jiàn)的人,都會(huì)反對(duì)不公平的偏見(jiàn),但他們不是討厭算法的人。Miller表示,這些批評(píng)者“很少會(huì)問(wèn)這些系統(tǒng)在沒(méi)有算法的情況下運(yùn)行得怎樣”,這表明那些反對(duì)偏見(jiàn)算法的人可能并不知道人類(lèi)有多少偏見(jiàn),或者可能只是不喜歡算法。在我開(kāi)始撰寫(xiě)有關(guān)機(jī)器學(xué)習(xí)偏見(jiàn)的文章之前,我花了大量時(shí)間研究和撰寫(xiě)有關(guān)人類(lèi)的偏見(jiàn)。
當(dāng)我發(fā)布或分享有關(guān)偏見(jiàn)的算法時(shí),總有人認(rèn)為我是反算法或者反科技的。而且我不是唯一受到質(zhì)疑的人。所以我希望有關(guān)偏見(jiàn)算法的討論重點(diǎn)不要僅僅局限于這種微不足道的地方,我們需要深入解決這個(gè)問(wèn)題。
-
算法
+關(guān)注
關(guān)注
23文章
4646瀏覽量
93732 -
AI
+關(guān)注
關(guān)注
87文章
32456瀏覽量
271662 -
機(jī)器
+關(guān)注
關(guān)注
0文章
787瀏覽量
40911
原文標(biāo)題:fast.ai創(chuàng)始人質(zhì)疑《哈佛商業(yè)評(píng)論》文章:算法偏見(jiàn)的影響很?chē)?yán)重!
文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
高效的物聯(lián)網(wǎng)——人類(lèi)進(jìn)步的動(dòng)力
粒子群算法對(duì)決策變量和適應(yīng)度函數(shù)的約束問(wèn)題
機(jī)器能超越真正的人類(lèi)嗎?人工智能未來(lái)發(fā)展如何?
自動(dòng)駕駛的目標(biāo):比最好的人類(lèi)司機(jī)更快更及時(shí)地作出決策
掌握逆變電源的原理和運(yùn)行方式
一種新型的決策樹(shù)剪枝優(yōu)化算法

基于粗決策樹(shù)的動(dòng)態(tài)規(guī)則提取算法
AI+教育究竟該如何落地才能真正促進(jìn)教育行業(yè)的進(jìn)步?
真正的自動(dòng)駕駛何時(shí)才能到來(lái)
人工智能技術(shù)使智能機(jī)器能夠“思考”只有人類(lèi)才能做到的方式行動(dòng)
決策樹(shù)的構(gòu)成要素及算法
ADAS是否能取代人類(lèi)決策?
什么是“算法”?如何識(shí)別算法?
基于智能決策理論的無(wú)人機(jī)集群認(rèn)知干擾算法

評(píng)論