幾個(gè)月前,人工智能初創(chuàng)廠商Upstart公司宣布自成立以來(lái)籌集了1.6億美元的資金,并與奧馬哈第一國(guó)民銀行和堪薩斯城第一聯(lián)邦銀行簽署了協(xié)議。
Upstart公司因其創(chuàng)新的貸款方式而獲得用戶認(rèn)可。其推出的平臺(tái)使用所謂的“替代數(shù)據(jù)”訓(xùn)練的人工智能技術(shù)確定合格的貸款人。這樣的替代數(shù)據(jù)包括關(guān)于申請(qǐng)人的購(gòu)買習(xí)慣、電話記錄、喜歡的游戲,以及在社交媒體的平均信用評(píng)分等信息。
然而,在貸款中使用替代數(shù)據(jù)并不會(huì)使使貸款過(guò)程更快、更公平,以及完全符合GDPR標(biāo)準(zhǔn)。并且不是一個(gè)新奇事物。
早期的信貸機(jī)構(gòu)聘請(qǐng)專家來(lái)調(diào)查當(dāng)?shù)赜嘘P(guān)客戶的評(píng)價(jià)。例如,美國(guó)在1935年就對(duì)社區(qū)的集體信譽(yù)進(jìn)行了分類。在2002年的最近一個(gè)案例中,加拿大一位輪胎銷售主管分析了去年的交易數(shù)據(jù),發(fā)現(xiàn)購(gòu)買屋頂清潔工具的客戶比購(gòu)買廉價(jià)機(jī)油的客戶在財(cái)務(wù)上更可靠。
然而,過(guò)去和現(xiàn)在有著顯著的區(qū)別。早些時(shí)候,人們收集并處理了替代和傳統(tǒng)數(shù)據(jù),包括債務(wù)收入比、貸款價(jià)值比、個(gè)人信用記錄等?,F(xiàn)在,這種算法仍在發(fā)展和進(jìn)步,而許多人認(rèn)為它更客觀、更快。
然而令人擔(dān)憂的是,人工智能可能會(huì)比人類更具偏見(jiàn)。需要注意的是:如果不控制算法如何自學(xué),那么人工智能的決策可能會(huì)更加片面。
人工智能偏見(jiàn)的蔓延
一般來(lái)說(shuō),人工智能偏見(jiàn)不是偶然發(fā)生的,訓(xùn)練算法的人員會(huì)讓它變得主觀。受某些個(gè)人、文化、教育和特定位置因素的影響,即使是最佳算法訓(xùn)練人員也可能使用固有偏見(jiàn)的輸入數(shù)據(jù)。
如果沒(méi)有及時(shí)發(fā)現(xiàn),可能會(huì)導(dǎo)致產(chǎn)生具偏見(jiàn)的決定,這將隨著時(shí)間的推移而加劇。這是因?yàn)樗惴ǜ鶕?jù)以前的算法做出新的決策,其自身發(fā)展最終比其操作開始時(shí)復(fù)雜得多(雪球效應(yīng))。簡(jiǎn)而言之,人工智能在不斷地自學(xué),無(wú)論訓(xùn)練材料是否正確。
以下了解一下人工智能在做出的貸款決策中可能會(huì)產(chǎn)生什么樣的歧視。了解以下的例子,可以遵循關(guān)鍵的想法:人工智能偏見(jiàn)通常源于人類的偏見(jiàn)。
人工智能可以基于性別進(jìn)行區(qū)分
傳統(tǒng)上,男性在高收入和高職位方面的比例很高,而女性仍然面臨所謂的“玻璃天花板”職業(yè)發(fā)展和薪酬差距問(wèn)題。因此,盡管女性的儲(chǔ)蓄能力和支付能力都比男性強(qiáng),但與男性相比,女性企業(yè)家獲得的商業(yè)貸款越來(lái)越少。
人工智能的使用可能只會(huì)加劇這種趨勢(shì),因?yàn)樾詣e歧視的輸入數(shù)據(jù)可能會(huì)導(dǎo)致大量的女性貸款被拒?;阱e(cuò)誤的統(tǒng)計(jì)數(shù)據(jù),人工智能算法可能更傾向于男性申請(qǐng)者而不是女性申請(qǐng)者,即使所有其他參數(shù)都相似。
人工智能可以根據(jù)種族區(qū)分
這聽(tīng)起來(lái)不太可能,但黑人申請(qǐng)人被拒絕貸款的可能性是白人的兩倍。如果用于算法學(xué)習(xí)的輸入數(shù)據(jù)反映了這種種族差異,那么它可以很快地實(shí)施,并開始越來(lái)越多拒絕黑人貸款。
替代數(shù)據(jù)也可能成為人工智能“種族主義”的來(lái)源。算法將申請(qǐng)者之前罰款和逮捕信息輸入其中。事實(shí)是,這樣的信息并不是中立的。據(jù)《華盛頓郵報(bào)》報(bào)道,非裔美國(guó)人比美國(guó)白人更容易成為警察的目標(biāo),而且在很多情況下都是毫無(wú)根據(jù)的。
其他類型的數(shù)據(jù)也是如此。少數(shù)種族群體面臨著收入、職業(yè)和社區(qū)的不平等。所有這些指標(biāo)可能成為人工智能對(duì)非白人申請(qǐng)人說(shuō)“不”的堅(jiān)實(shí)理由。
人工智能可以根據(jù)年齡區(qū)分
信用記錄越多,人們就越了解某個(gè)人的信譽(yù)。老年人通常擁有更好的信用記錄,因?yàn)樗麄儽澈笥懈嗟慕鹑诮灰?。相反,年輕一代有關(guān)業(yè)務(wù)的數(shù)據(jù)較少,這可能成為拒絕的一個(gè)不公平原因。
人工智能可以根據(jù)教育來(lái)區(qū)分
一些人工智能借貸算法在做出信用決策時(shí)可以分析申請(qǐng)人的語(yǔ)法和拼寫習(xí)慣。一種算法可能根據(jù)學(xué)習(xí)錯(cuò)誤的拼寫習(xí)慣或錯(cuò)別字來(lái)了解申請(qǐng)人的文化程度,從而導(dǎo)致很多申請(qǐng)人信譽(yù)不良。
從長(zhǎng)遠(yuǎn)來(lái)看,該算法開始拒絕具有寫作困難或障礙的符合條件的申請(qǐng)者,即使他們與支付能力無(wú)關(guān)。
解決貸款中的偏見(jiàn)
總的來(lái)說(shuō),為了使人工智能運(yùn)行的貸款過(guò)程不受偏見(jiàn)的影響,需要讓輸入數(shù)據(jù)從任何可能的人類偏見(jiàn)中清除,從性別、種族主義到年齡歧視中清除出來(lái)。
為了使訓(xùn)練數(shù)據(jù)更加中立,組織應(yīng)該組建更多不同的人工智能開發(fā)團(tuán)隊(duì),包括貸款方和數(shù)據(jù)科學(xué)家,貸款方可以告知工程師他們工作的具體細(xì)節(jié)。更重要的是,這些金融機(jī)構(gòu)應(yīng)該培訓(xùn)參與人工智能決策的每個(gè)人,以便在他們的工作中遵守和執(zhí)行公平和非歧視性的做法。否則,如果不采取措施確保多樣性和包容性,貸款企業(yè)就有可能推出嚴(yán)重違反反歧視和公平借貸法律的人工智能算法。
實(shí)現(xiàn)更公平的人工智能的另一個(gè)步驟是審核算法做出的借貸決策;工作人員應(yīng)評(píng)估這些決策。GDPR法規(guī)第22條支持這一觀點(diǎn),聲稱人們不應(yīng)受到純粹的自動(dòng)化決策的影響,特別是這可能產(chǎn)生法律效力。
事實(shí)上,說(shuō)起來(lái)容易做起來(lái)難。然而如果不加以解決,無(wú)意識(shí)的人工智能偏見(jiàn)問(wèn)題可能會(huì)使貸款業(yè)務(wù)處于困境,并且不亞于任何故意的偏見(jiàn)行為,只有通過(guò)數(shù)據(jù)科學(xué)家和貸款專業(yè)人員的共同努力才能避免迫在眉睫的風(fēng)險(xiǎn)。
-
算法
+關(guān)注
關(guān)注
23文章
4613瀏覽量
92957 -
人工智能
+關(guān)注
關(guān)注
1791文章
47314瀏覽量
238648
原文標(biāo)題:如何克服人工智能在貸款決策中的偏見(jiàn)
文章出處:【微信號(hào):D1Net08,微信公眾號(hào):AI人工智能D1net】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論