“計算機(jī)領(lǐng)域其實(shí)沒有歧視,只是存在性別比例的差異罷了……”如果這種事件不放在臺面上說,可能大家就這么想當(dāng)然的認(rèn)為了。
或許當(dāng)你津津有味閱讀某篇論文時,你可能很少會關(guān)注論文背后是否潛藏著的種族、女性歧視等話題,甚至?xí)龀觥昂尾皇橙饷印钡囊蓡枴?/p>
近日,當(dāng)美國多數(shù)商業(yè)公司員工開始盡情享受難得的圣誕節(jié)假休息日時,Twitter 上卻迎來了人工智能界的“扛把子”Anima Anandkumar 的連篇炮轟。她在其最新的推文中指出 Yann LeCun 存在性別歧視,Moshe Vardi 取關(guān)她并且涉嫌種族主義。
編譯:@Yan LeCun 自從你對我惡語相向后,它直接致使很多人在Twitter上甚至是發(fā)郵件罵我。對你鼓勵性別歧視、性騷擾的做法表示非常失望。
@Moshe Vardi 在 Facebook上表現(xiàn)地對我很不友好,我在一條帖子上對他發(fā)表的種族主義言論做出評論,認(rèn)為非??蓯u。相反,他非但刪除了我的評論,還繼續(xù)為其他人進(jìn)行辯護(hù)?!癇lack in AI”組織為此做出了很多努力,她們不為種族主義做辯護(hù)。
要知道,Yann LeCun 不僅是 Facebook 人工智能研究院院長兼紐約大學(xué)教授,他同樣還被譽(yù)為“卷積神經(jīng)網(wǎng)絡(luò)之父”、深度學(xué)習(xí)運(yùn)動的領(lǐng)軍人物;而作為 Netta 首席科學(xué)家的 Moshe Vardi,同時還是美國科學(xué)院院士、美國工程院、歐洲科學(xué)院等五院院士。
除了怒懟兩位計算機(jī)領(lǐng)域赫赫有名的教授外,我們再來看看Anima Anandkumar之前的一些戰(zhàn)績:
人工智能領(lǐng)域的年度活動——神經(jīng)信息處理系統(tǒng)會議的英文縮寫 NIPS 于今年改名為 NeurlPS,而這次更名的改變恰恰源自于她。資料顯示,多年以來原先的英文縮寫名稱引發(fā)了許多有關(guān)性別歧視和冒犯的爭議:“NIPS 既是對日本人的貶低性誹謗,也是對女性乳頭的性俚語?!?/p>
2017 年 NIPS 大會剛剛閉幕,就有人爆出明尼蘇達(dá)州大學(xué)生物統(tǒng)計系主任 Brad Carlin 公然談?wù)撔则}擾話題的不當(dāng)言論。受此影響,一位學(xué)術(shù)圈的女性勇敢地站出來指出了該大牛對其進(jìn)行進(jìn)行性騷擾的事件,并呼吁女性科研工作者拒絕沉默。
甚至 Google AI 負(fù)責(zé)人 Jeff Dean 也發(fā)推文說,“現(xiàn)在這個名字讓人感到不舒服。”當(dāng)他們發(fā)布了一項針對 2000 多名與會者(大多數(shù)是男性)的調(diào)查,結(jié)果發(fā)現(xiàn)大多數(shù)人都對此有所了解。
于是當(dāng) Anandkumar 看到該會議的名稱作為性別歧視笑料的話題愈演愈烈時,便開始了 ProtestNIPS 活動希望更改大會名稱,并起草了一份有超過 200 個簽名的請愿書。最終,會議組委會做出了退步。
盡管從目前來看只是包容性的小舉措,但足以證明在很長一段時間內(nèi)女性在計算機(jī)尤其是人工智能學(xué)術(shù)圈的地位正逐步得到提升。
也或許正因如此,2018 NeurlPS 會議現(xiàn)場,不少參會者特意提到:“機(jī)器學(xué)習(xí)領(lǐng)域的女性從業(yè)者開始逐漸增多。”
2018 年 9 月,在辭去亞馬遜 AWS 首席科學(xué)家的職位之后,Anandkumar 以 NVIDIA 機(jī)器學(xué)習(xí)主任的身份公開亮相,與此同時她還是加州理工學(xué)院的教授。
性別歧視的物化——算法
人工智能無疑將成為未來幾年計算機(jī)科學(xué)最重要的研究領(lǐng)域之一。但上述挑戰(zhàn)反映出來的是科技行業(yè)更加缺乏多元化。
在主要的科技公司,女性占工程和計算機(jī)崗位的 20% 甚至不到。而這種性別失衡的現(xiàn)象放在人工智能領(lǐng)域則更為嚴(yán)重,據(jù)創(chuàng)業(yè)孵化器 Element AI 的一項估計顯示,在美國的人工智能領(lǐng)域,僅有 13%為女性研究人員,而且該領(lǐng)域的黑人和拉丁裔的高管數(shù)量正在逐漸減少。
當(dāng)然,這種問題可能不只是在人類本身,算法作為智能學(xué)習(xí)的一種“物化”,將性別歧視的問題以技術(shù)的方式進(jìn)行了放大。
今年 10 月,亞馬遜 AI 招聘工具被曝出性別歧視,檢測到女性就打低分的問題。盡管后來工程師發(fā)現(xiàn)了算法在數(shù)據(jù)源上存在的漏洞問題并修改了算法,不再通過檢索關(guān)鍵詞來推斷應(yīng)聘者的性別。但這還是沒能解決實(shí)際問題,AI 算法已經(jīng)形成了這樣的認(rèn)知,而且更確切的來講,男多女少,是目前整個科技行業(yè)的現(xiàn)實(shí)情況。
據(jù)了解,麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究員 Joy Buolamwini,同樣也是 Algorithmic Justice League 的發(fā)起人,該組織致力于抗?fàn)幘邆渌惴ㄆ姷摹熬幋a注釋”(coded gaze)。她和谷歌研究員、Black in AI 組織聯(lián)合發(fā)起人 Timnit Gebru,共同發(fā)布了一項研究,該研究顯示:三種領(lǐng)先的面部識別算法在識別較暗的面部時要比較亮的面部準(zhǔn)確率要差得多,同時,在識別女性與男性面部特征時,前者的準(zhǔn)確率也更差些。
該項研究敲響了試圖構(gòu)建算法模型的頂尖科技公司的警鐘,這也被認(rèn)為是人工智能領(lǐng)域需要具備多樣化元素的證據(jù)。
為 AI 與責(zé)任作出貢獻(xiàn)的百位女性
“盲目相信算法的一個主要問題是,我們可以在不承認(rèn)具備任何意圖的情況下傳播這種帶有歧視性的模型。”
在這樣一個充滿挑戰(zhàn)性的人工智能時代,AI 算法和殺手機(jī)器人的偏見普遍存在,所有這些問題都需要公開討論并立即采取行動進(jìn)行解決。這也同時誕生了一門叫做“AI 倫理與責(zé)任”的學(xué)科,涉及了當(dāng)今人類面臨的從種族/性別不平等的算法到機(jī)器人是否應(yīng)該擁有權(quán)利的關(guān)鍵問題。學(xué)術(shù)研究人員、倫理學(xué)家、政策制定者、法律專家、數(shù)據(jù)科學(xué)家、隱私倡導(dǎo)者、遺傳學(xué)家以及非技術(shù)學(xué)科人員都為此提供了有意義的見解。
人工智能領(lǐng)域的女性研究員本來就稀缺,專門推出“AI 倫理與責(zé)任”的女性更是寥寥無幾。因此,我們也專門找到了 Lighthouse 創(chuàng)始人 Mia Dand 為這個領(lǐng)域做出過杰出貢獻(xiàn)的 100 位女性。
標(biāo)準(zhǔn):
A)自我認(rèn)同為女性。
B)主要關(guān)注人工智能的倫理學(xué),特別是涉及機(jī)器人和其他人工生物/系統(tǒng)。
C)作為個人或大型組織的一部分,以個人或?qū)I(yè)身份積極推動道德/責(zé)任人工智能事業(yè)。
查看完整榜單請移步:https://becominghuman.ai/100-brilliant-women-in-ai-ethics-to-follow-in-2019-and-beyond-92f467aa6232
寫在最后
研究人工智能只需要了解算法模型嗎?是的這很重要,但并不代表你僅需要關(guān)注這一點(diǎn)。正如上學(xué)時老師會灌輸給你知識,但你畢業(yè)后才發(fā)現(xiàn)原來你更需要的是課堂之外的人文教育。不然,你不會懂得研發(fā)的這套算法是否傷害到了別人。
再需要提一句的是,目前在科技行業(yè)男多女少的現(xiàn)象或許根本無法避免,為什么理工科的女性就偏少,而從事傳媒、教育、藝術(shù)等領(lǐng)域的女性工作者會更多?這是值得我們思考的問題。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4773瀏覽量
100880 -
Facebook
+關(guān)注
關(guān)注
3文章
1429瀏覽量
54803 -
人工智能
+關(guān)注
關(guān)注
1792文章
47387瀏覽量
238900
原文標(biāo)題:AI女性界的“扛把子”,憑一己之力迫使NIPS改名
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論