0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

消除人工智能模型偏見的方法

如意 ? 來源:企業(yè)網(wǎng)D1Net ? 作者:Anupam Datta ? 2021-03-04 15:20 ? 次閱讀

自動化決策工具在組織的應(yīng)用中正變得越來越普遍。然而,其背后的一些機(jī)器學(xué)習(xí)(ML)模型(從面部識別系統(tǒng)到在線廣告)都清楚地表明在種族和性別方面存在偏見。隨著機(jī)器學(xué)習(xí)模型的廣泛采用,需要專業(yè)知識來確保人工智能更加公平。

機(jī)器學(xué)習(xí)模型應(yīng)該消除偏見,而不是加劇歧視。為了構(gòu)建公平的人工智能模型,必須首先使用更好的方法來識別產(chǎn)生人工智能偏見的原因,因此必須了解人工智能模型如何學(xué)習(xí)其輸入和輸出之間的偏差關(guān)系。

研究人員已經(jīng)確定了人工智能中具有的三種偏見:算法偏見、負(fù)面影響、低估。當(dāng)受保護(hù)的特性和用于決策的信息之間存在統(tǒng)計(jì)的依賴性時(shí),就會出現(xiàn)算法偏見。負(fù)面影響是指用于訓(xùn)練人工智能模型的數(shù)據(jù)中已經(jīng)存在的偏差。當(dāng)沒有足夠的數(shù)據(jù)使人工智能模型對人口的某些部分做出可靠的結(jié)論時(shí),就會出現(xiàn)低估。

以下深入研究每一個(gè)問題:

1. 算法偏見

算法上的偏見源于受保護(hù)的特性與其他因素之間的相關(guān)性。當(dāng)發(fā)生這種情況時(shí),不能僅通過從分析中刪除受保護(hù)的特性來減少偏差,因?yàn)槠湎嚓P(guān)性可能導(dǎo)致基于非保護(hù)因素的有偏見的決策。

例如,美國早期的預(yù)測性警務(wù)算法在進(jìn)行預(yù)測時(shí)并不能直接獲取種族的數(shù)據(jù),這些模型嚴(yán)重依賴于與種族相關(guān)的地理數(shù)據(jù)(如郵政編碼)。這樣,對性別和種族等人口統(tǒng)計(jì)數(shù)據(jù)“盲目”的模型仍然可以通過與受保護(hù)屬性統(tǒng)計(jì)相關(guān)的其他特征對這些信息進(jìn)行判斷。

美國消費(fèi)者金融保護(hù)局致力于確保貸款機(jī)構(gòu)遵守其公平貸款法規(guī),該局發(fā)現(xiàn)了一些統(tǒng)計(jì)方法將地理和姓氏信息結(jié)合起來,對于種族和族裔代理的判斷提供了更高的準(zhǔn)確率。這個(gè)發(fā)現(xiàn)駁斥了一種普遍存在的誤解,即如果算法不能訪問受保護(hù)的數(shù)據(jù),將自動減少偏差。這種被稱為代理歧視的現(xiàn)象,一旦查明了根本原因,就可以緩解這種稱為代理歧視的現(xiàn)象。也就是說,可以通過在創(chuàng)建代理功能的模型中定位中間計(jì)算,并將其替換為與受保護(hù)屬性相關(guān)性較小的值來糾正違規(guī)行為。

與人們的直覺相反,在某些情況下,從模型訓(xùn)練中刪除受保護(hù)特性的解決方案實(shí)際上會傷害到已經(jīng)處于不利地位的群體。例如,在美國司法系統(tǒng)中,美國懲教機(jī)構(gòu)和假釋委員會使用風(fēng)險(xiǎn)因素清單對監(jiān)禁和釋放做出公正的決定。當(dāng)人類和人工智能模型處理具有諸如性別、年齡、當(dāng)前指控以及先前成人和青少年犯罪數(shù)量等基本信息時(shí),人類和人工智能模型的表現(xiàn)是相當(dāng)?shù)摹?/p>

然而,通過給人類和人工智能模型10個(gè)額外的與教育和物質(zhì)使用相關(guān)的風(fēng)險(xiǎn)因素,研究人員發(fā)現(xiàn)機(jī)器學(xué)習(xí)模型更準(zhǔn)確,更不容易產(chǎn)生偏見。這強(qiáng)調(diào)了需要了解人工智能模型偏差的根本原因,而不是盲目地采用補(bǔ)救策略。

2. 負(fù)面影響

人工智能算法的偏見也有可能直接來自其訓(xùn)練數(shù)據(jù)中存在的類似偏差。例如,受過訓(xùn)練以執(zhí)行語言翻譯任務(wù)的機(jī)器學(xué)習(xí)模型傾向于將女性名字與“父母”和“婚禮”等屬性相關(guān)聯(lián),而男性名字與諸如“專業(yè)”和“薪酬”之類的單詞之間的關(guān)聯(lián)性更強(qiáng)。該模型不太可能會自己建立關(guān)聯(lián)。與其相反,它是在反映這些性別取向的文本素材庫上進(jìn)行訓(xùn)練的。這是產(chǎn)生負(fù)面影響的一個(gè)例子。

在自然語言處理中,性別偏見是一個(gè)令人困擾但經(jīng)過充分研究的問題:對原因的清晰了解提供了糾正它的途徑。在英語這樣的名詞和形容詞傾向于性別的語言中,研究人員發(fā)現(xiàn)了強(qiáng)制詞嵌入以保持性別中立的方法。而在其他語言具有固有性別詞語的情況下,可以通過引入打破性別和中性詞之間因果關(guān)系的示例來增強(qiáng)語言素材庫,以防止出現(xiàn)偏見。

在其他應(yīng)用領(lǐng)域中,負(fù)面影響可能是最難緩解的偏見之一,因?yàn)槠姽逃械貎?nèi)置于機(jī)器學(xué)習(xí)模型從中學(xué)習(xí)的數(shù)據(jù)集中。因此,該模型可以將多年來對某一人群的系統(tǒng)性偏見進(jìn)行編碼。例如,或者根據(jù)人們居住的地方拒絕向他們提供貸款,可能會使貸款批準(zhǔn)數(shù)據(jù)集更側(cè)重于白人。數(shù)據(jù)中的這種偏差會導(dǎo)致人工智能模型的偏見。

盡管現(xiàn)有的緩解偏見策略可能會嘗試提高黑人申請者的信用接受率,但這可能會掩蓋該模型偏見的真正原因,并使其難以解決根本問題。FICO分?jǐn)?shù)通常用作信貸決策的輸入,已經(jīng)顯示出種族歧視。在這種情況下,事后偏差緩解策略的有效性將低于尋找與信用價(jià)值也存在因果關(guān)系的替代數(shù)據(jù)源。因此,通過尋找替代數(shù)據(jù)可以減輕負(fù)面影響。

3. 低估

正如數(shù)據(jù)可能存在偏差一樣,也可能出現(xiàn)數(shù)據(jù)不足的情況。如果沒有足夠的數(shù)據(jù),機(jī)器學(xué)習(xí)模型可能無法提供可靠的預(yù)測。這是被低估的問題。亞馬遜公司最近訓(xùn)練了一種機(jī)器學(xué)習(xí)模型,以在招聘過程中篩選求職者,但與許多其他科技公司一樣,亞馬遜的勞動力隊(duì)伍男性比例過高。這種數(shù)據(jù)失衡使得其人工智能模型在評估男性時(shí)更加側(cè)重,亞馬遜公司認(rèn)識到這種模型的推薦人選存在偏差,因此在其招聘渠道中取消了這種模型。

如果尋找更多或更好的數(shù)據(jù),亞馬遜公司或許能夠構(gòu)建出一種無偏見的招聘工具,但是如果不能正確地理解出現(xiàn)這種偏見的原因,這是不可能實(shí)現(xiàn)的。而在低估的情況下,模型的預(yù)測確定性可以跨人群的子組進(jìn)行分析,通過自動增加新實(shí)例,可以使基礎(chǔ)數(shù)據(jù)集實(shí)現(xiàn)多樣化。

衡量模型確定性和穩(wěn)定性的方法對于了解模型是否準(zhǔn)備好對所有人群做出可靠的預(yù)測至關(guān)重要。在低估的情況下,提供的數(shù)據(jù)集無法充分表現(xiàn)出數(shù)據(jù)的細(xì)微差別。但是,用于促進(jìn)公平或事后偏向緩解策略的對抗性訓(xùn)練技術(shù)可能不會像將數(shù)據(jù)集擴(kuò)展得更全面。

人工智能算法可以編碼并保持偏見,這已經(jīng)不是什么秘密,這可能會帶來不良的后果。盡管這描繪了一種嚴(yán)峻的場景,但重要的是要記住,如果處理得當(dāng),算法偏差(與人類偏見不同)最終是可以量化和固定的。與盲目減少人工智能偏見不同,準(zhǔn)確理解偏見背后的真正原因?qū)Σ渴鸢踩煽康娜斯ぶ悄苤陵P(guān)重要。

盡管這些原因很復(fù)雜,但研究人員仍在繼續(xù)開發(fā)更好的方法來衡量特定人群的不同結(jié)果,確定導(dǎo)致這些差異的特征,并為特定的偏見來源選擇合理的緩解策略。隨著越來越多的決策實(shí)現(xiàn)自動化,必須從根本上消除人工智能偏見,以創(chuàng)建公平和公正的模型。
責(zé)編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47314

    瀏覽量

    238648
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3248

    瀏覽量

    48864
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8420

    瀏覽量

    132685
收藏 人收藏

    評論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    人工智能:科學(xué)研究的加速器 第一章清晰地闡述了人工智能作為科學(xué)研究工具的強(qiáng)大功能。通過機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等先進(jìn)技術(shù),AI能夠處理和分析海量數(shù)據(jù),發(fā)現(xiàn)傳統(tǒng)方法難以捕捉的模式和規(guī)律。這不僅極大地提高了數(shù)據(jù)處理
    發(fā)表于 10-14 09:12

    人工智能是什么?

    ` 人工智能是什么?什么是人工智能人工智能是未來發(fā)展的必然趨勢嗎?以后人工智能技術(shù)真的能達(dá)到電影里機(jī)器人的智能水平嗎?如果技術(shù)成熟的那一天
    發(fā)表于 09-16 15:40

    人工智能就業(yè)前景

    據(jù)相關(guān)招聘機(jī)構(gòu)數(shù)據(jù)顯示,2018年AI領(lǐng)域仍然是大部分資深技術(shù)人才轉(zhuǎn)崗的首選目標(biāo),在人才最緊缺的前十大職位中,時(shí)下最火的大數(shù)據(jù)、人工智能、算法類崗位占據(jù)半壁江山。據(jù)調(diào)查指出,2017年技術(shù)研發(fā)類崗位
    發(fā)表于 03-29 15:46

    解讀人工智能的未來

    `已歷經(jīng)60多年的人工智能在物聯(lián)網(wǎng)以及大數(shù)據(jù)的推動下,實(shí)現(xiàn)飛躍式的發(fā)展,并且迎來了第三個(gè)黃金周期。必優(yōu)傳感今天和大家解讀一下關(guān)于人工智能的未來。自從有了人工智能,引發(fā)了人類的各種“未來論”。有人說
    發(fā)表于 11-14 10:43

    人工智能醫(yī)生未來或上線,人工智能醫(yī)療市場規(guī)模持續(xù)增長

      導(dǎo)讀:機(jī)構(gòu)預(yù)測,中國醫(yī)療人工智能的市場需求已達(dá)數(shù)百億元。專家認(rèn)為,“人工智能醫(yī)生”的應(yīng)用,有利于緩解社會老齡化帶來的醫(yī)療資源供需失衡以及地域分配不均等問題。那么,“人工智能醫(yī)生”何時(shí)能真正
    發(fā)表于 02-24 09:29

    人工智能:超越炒作

    ,英國神經(jīng)科學(xué)家和人工智能先驅(qū)大衛(wèi)馬爾說:人工智能的目標(biāo)是識別和解決有用的信息處理問題,并給出如何解決它的抽象說明,這被稱為一個(gè)方法。人工智能的一個(gè)小但具有決定性的細(xì)節(jié)是它處理的信息處
    發(fā)表于 05-29 10:46

    人工智能在哪些方面可以對IT運(yùn)營產(chǎn)生重大影響 精選資料分享

    在考慮人工智能可以在哪些方面對IT運(yùn)營產(chǎn)生直接影響時(shí),有一個(gè)應(yīng)用程序會比其他的應(yīng)用更為重要:智能的超大規(guī)模自動化。人工智能(AI)被譽(yù)為是所有IT問題的解決方案,包括消除可怕的技能差距
    發(fā)表于 07-12 06:46

    人工智能芯片是人工智能發(fā)展的

    人工智能芯片是人工智能發(fā)展的 | 特倫斯謝諾夫斯基責(zé)編 | 屠敏本文內(nèi)容經(jīng)授權(quán)摘自《深度學(xué)習(xí) 智能時(shí)代的核心驅(qū)動力量》從AlphaGo的人機(jī)對戰(zhàn),到無人駕駛汽車的上路,再到AI合成主播上崗
    發(fā)表于 07-27 07:02

    物聯(lián)網(wǎng)人工智能是什么?

    一、人工智能介紹工作以后想要拿高薪的話,人工智能是你的不二之選,那么問題來了,究竟什么是人工智能呢?又需要了解哪些才能去開發(fā)人工智能產(chǎn)品呢?接下來小編帶領(lǐng)大家進(jìn)入
    發(fā)表于 09-09 14:12

    《移動終端人工智能技術(shù)與應(yīng)用開發(fā)》人工智能的發(fā)展與AI技術(shù)的進(jìn)步

    人工智能的發(fā)展是隨著人類生活需要,產(chǎn)業(yè)需求不斷提升的,其中人工智能的發(fā)展很大程度上受到了計(jì)算機(jī)算力的影響,隨著數(shù)據(jù)處理量的增大,人工智能算法對算力的要求逐年增加,而且沒過兩年算力上升一倍,因此往往
    發(fā)表于 02-17 11:00

    人工智能遭遇的偏見 算法偏見帶來的問題

    偏見人工智能面臨一個(gè)挑戰(zhàn),主要是來自算法偏見,當(dāng)然偏見并不止這些。與人類不同,算法不能撒謊,那么產(chǎn)生結(jié)果的不同必將是數(shù)據(jù)帶來的問題。人工智能
    發(fā)表于 02-06 14:04 ?1.2w次閱讀

    你對人工智能偏見擔(dān)憂嗎?

    隨著人工智能繼續(xù)進(jìn)軍企業(yè),許多IT專業(yè)人士開始對其使用的系統(tǒng)中可能存在的AI偏見表示擔(dān)憂。一份來自DataRobot的最新報(bào)告發(fā)現(xiàn),美國和英國近一半的人工智能專業(yè)人士“非?!睋?dān)心人工智能
    的頭像 發(fā)表于 01-20 17:35 ?1351次閱讀

    人工智能偏見難以消除 如何解決人工智能系統(tǒng)的公平性問題

    !然而,這完全是萬無一失的還是不偏不倚的?這種現(xiàn)代科技能像人類一樣容易產(chǎn)生偏見嗎? 偏差風(fēng)險(xiǎn)因業(yè)務(wù)、行業(yè)和組織而異。他們可以通過多種方式進(jìn)入人工智能系統(tǒng)。例如,它可以被有意地通過隱形攻擊引入人工智能系統(tǒng),也可以
    的頭像 發(fā)表于 02-26 12:08 ?2958次閱讀

    探究人工智能偏見的識別和管理

    人工智能風(fēng)險(xiǎn)管理旨在最大限度地減少人工智能的負(fù)面影響,包括對公民自由和權(quán)利的威脅等。而在談?wù)?b class='flag-5'>人工智能風(fēng)險(xiǎn)時(shí),“偏見”是一個(gè)重要話題。
    的頭像 發(fā)表于 04-17 10:21 ?1435次閱讀

    解決人工智能偏見的最佳方法

    消除人工智能系統(tǒng)中的偏差可能需要“人機(jī)回圈(human-in-the-loop,具體來說就是設(shè)計(jì)某種機(jī)制讓機(jī)器(算法)和人互動協(xié)作來更好的處理某件事情)”解決方案。
    發(fā)表于 09-08 10:45 ?1223次閱讀