隨著時間的推移,人類會產(chǎn)生偏見。我們不是天生的。但是,在世界各地的社區(qū),行業(yè)和社會環(huán)境中都存在性別,經(jīng)濟,職業(yè)和種族偏見的例子。盡管有人領(lǐng)導(dǎo)著從根本上改變物理世界中這些現(xiàn)象的倡議,但它在數(shù)字世界中以新的方式持續(xù)存在和體現(xiàn)。
在科技界,從初創(chuàng)企業(yè)文化到融資回合到技術(shù)本身的各種偏見都彌漫著。具有變化潛力的創(chuàng)新不會獲得必要的資金,或者由于其創(chuàng)始人的人口組成或性別而被完全忽略。由于背景各異,正在篩選具有非傳統(tǒng)和課外經(jīng)驗的人,使其有資格從事編碼工作,這些人正被排除在招聘流程之外。
現(xiàn)在,我擔(dān)心我們會在人工智能方面走類似的道路。市場上的AI技術(shù)開始顯示有意和無意的偏見-從按人口統(tǒng)計或背景將候選人簡歷分組的人才搜索技術(shù)到不敏感的自動填充搜索算法。它也適用于商業(yè)世界之外-從基于對某人的喜好和假設(shè)的辨別種族的社交平臺,到以性別和名字命名的AI助手都被標(biāo)記為女性。事實是,除非建立在考慮包容性的基礎(chǔ)上,否則人工智能中的偏見就會發(fā)生。創(chuàng)建包容性AI的最關(guān)鍵步驟是認(rèn)識到偏見如何影響技術(shù)的輸出以及它如何使“智能”產(chǎn)生的客觀性降低。
好消息是:建立一個平衡的數(shù)據(jù)集來克服這些偏差的AI平臺還為時不晚,AI可以在該平臺上學(xué)習(xí)并開發(fā)反映用戶多樣性的虛擬助手,這要求工程師負(fù)責(zé)任地將AI連接到各種受信任的數(shù)據(jù)源可提供相關(guān)答案,做出可負(fù)責(zé)任的決策并基于交付所需結(jié)果來獎勵A(yù)I。
從廣義上講,將性別角色添加到技術(shù)上可以永久性地體現(xiàn)性別角色。今天,我們看到女主持人(亞馬遜的Alexa,微軟的Cortana,蘋果的Siri)主要用于行政工作,購物和執(zhí)行家務(wù)。同時,男性演講助理(IBM的Watson,Salesforce的Einstein,三星的Bixby)正在被用于更宏大的業(yè)務(wù)戰(zhàn)略和復(fù)雜的,針對垂直領(lǐng)域的工作。
-
AI
+關(guān)注
關(guān)注
87文章
30947瀏覽量
269213 -
人工智能
+關(guān)注
關(guān)注
1791文章
47314瀏覽量
238648 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1208瀏覽量
24713
發(fā)布評論請先 登錄
相關(guān)推薦
評論