在人才管理中,相較于依賴招聘經(jīng)理的人工篩選評(píng)估,AI模型,可以更好地幫助減輕對(duì)潛在雇員的偏見(jiàn),增加組織用人的多樣性、包容性。
人工智能已經(jīng)打亂了我們生活的各個(gè)領(lǐng)域——從亞馬遜和阿里巴巴等公司精心策劃的購(gòu)物體驗(yàn),到Y(jié)ouTube和Netflix等頻道用個(gè)性化推薦來(lái)推銷其最新內(nèi)容。但是,說(shuō)到職場(chǎng),在很多方面,人工智能還處于初級(jí)階段。尤其是當(dāng)我們考慮到它開(kāi)始改變?nèi)瞬殴芾淼姆绞綍r(shí),更是如此。用一個(gè)熟悉的比喻: 職場(chǎng)中的人工智能處于撥號(hào)模式。5G WiFi階段尚未到來(lái),但我們毫不懷疑它會(huì)到來(lái)。
誠(chéng)然,對(duì)于人工智能能做什么和不能做什么,以及如何定義它,人們有很多困惑。然而,在人才爭(zhēng)奪戰(zhàn)中,人工智能扮演著一個(gè)非常特殊的角色: 為機(jī)構(gòu)提供對(duì)候選人職業(yè)行為、表現(xiàn)潛力更精準(zhǔn)、有效的預(yù)測(cè)。與傳統(tǒng)招聘方式不同,比如員工推薦、簡(jiǎn)歷篩選、面對(duì)面面試,人工智能可以發(fā)現(xiàn)人眼捕捉不到的特征。
許多人工智能系統(tǒng)使用真實(shí)的人作為特定角色的成功模型。這類人的集合作為訓(xùn)練數(shù)據(jù)集,通常包含了被定義為“高績(jī)效”的管理者和員工。人工智能系統(tǒng)處理并比較各種求職者的個(gè)人資料和它根據(jù)訓(xùn)練集創(chuàng)建的“模范”雇員。然后,它為公司提供一個(gè)概率估計(jì),即候選人的屬性與理想員工的屬性匹配的程度。
理論上,這種方法可以更快、更有效地為合適的崗位匹配合適的人。但是,正如你可能已經(jīng)意識(shí)到的,它已經(jīng)成為一種希望和危險(xiǎn)的源泉。如果訓(xùn)練集是多樣的,如果無(wú)偏差的人口統(tǒng)計(jì)學(xué)特征用于描述其中的人,且算法是無(wú)偏的,那么這個(gè)技術(shù)確實(shí)可以比人類更好地減輕人類的偏見(jiàn)、擴(kuò)大多樣性、社會(huì)經(jīng)濟(jì)包容性。然而,如果訓(xùn)練集,實(shí)際的數(shù)據(jù),或者兩者都是偏態(tài)分布的,而且算法也沒(méi)有充分的審核,那么人工智能只會(huì)加劇招聘中的偏差和組織中的同質(zhì)性問(wèn)題。
為了快速提升人才管理以及充分利用人工智能的潛力,我們需要將重點(diǎn)從開(kāi)發(fā)更具道德的人力資源系統(tǒng)轉(zhuǎn)移到開(kāi)發(fā)更具道德的人工智能。當(dāng)然,從人工智能中消除偏見(jiàn)并不容易。事實(shí)上,這很難。 但我們的論點(diǎn)是基于我們的信念,即它遠(yuǎn)比從人類自身移除它更可行。
在識(shí)別人才或潛力方面,大多數(shù)機(jī)構(gòu)還是會(huì)盡力而為。招聘人員在決定誰(shuí)被淘汰之前只需要花費(fèi)幾秒鐘的時(shí)間看一看簡(jiǎn)歷。招聘經(jīng)理利用所謂的“直覺(jué)”或是忽視硬數(shù)據(jù),依靠文化契合度進(jìn)行招聘——由于普遍缺乏客觀、嚴(yán)格的業(yè)績(jī)衡量標(biāo)準(zhǔn),這一問(wèn)題變得更為嚴(yán)重。另外,越來(lái)越多的公司實(shí)施的無(wú)意識(shí)的偏態(tài)的數(shù)據(jù)訓(xùn)練往往被發(fā)現(xiàn)是無(wú)效的,有時(shí)甚至?xí)骨闆r更糟。通常,訓(xùn)練只關(guān)注個(gè)體的差別,而忽視了樣本量小的類別的結(jié)構(gòu)化偏態(tài)。
盡管批評(píng)者認(rèn)為人工智能并沒(méi)有更好,但他們常常忘記,這些系統(tǒng)反映了我們自己的行為。我們很快就會(huì)責(zé)怪人工智能預(yù)測(cè)白人(可能也是白人男性)經(jīng)理會(huì)獲得更高的績(jī)效評(píng)級(jí)。但這個(gè)發(fā)生的原因是我們沒(méi)有對(duì)訓(xùn)練數(shù)據(jù)中績(jī)效評(píng)級(jí)的偏態(tài)分布進(jìn)行相應(yīng)處理。因?yàn)槿斯ぶ悄艿玫降钠珣B(tài)的招聘決策,我們感到震驚,但生活在人類偏見(jiàn)主導(dǎo)的世界也可以很好??纯磥嗰R遜吧,批評(píng)他們的招聘算法有失偏頗的呼聲忽視了壓倒性的證據(jù),即目前大多數(shù)組織中人力驅(qū)動(dòng)的招聘情況是不可避免的更加糟糕。這相當(dāng)于表達(dá)了對(duì)無(wú)人駕駛汽車死亡事件的關(guān)注超過(guò)了每年120萬(wàn)人由于車輛缺陷、駕駛員注意力分散和酒駕而造成的交通死亡。
事實(shí)上,相比于影響激勵(lì)招聘者和招聘經(jīng)理,人工智能系統(tǒng)有更好的能力可以保證準(zhǔn)確性和公平性。人類擅長(zhǎng)學(xué)習(xí)但不擅長(zhǎng)忘記。使我們產(chǎn)生偏見(jiàn)的認(rèn)知機(jī)制,往往也是我們?cè)谌粘I钪杏脕?lái)生存的工具。這個(gè)世界太復(fù)雜了,我們無(wú)法一直有邏輯地、有意識(shí)地進(jìn)行處理;如果我們這樣做了,我們將被信息過(guò)載所淹沒(méi),無(wú)法做出簡(jiǎn)單的決定,比如買一杯咖啡(畢竟,如果我們不認(rèn)識(shí)咖啡師,我們?yōu)槭裁匆湃嗡??)。這就是為什么更容易確保我們的數(shù)據(jù)和訓(xùn)練集沒(méi)有偏見(jiàn),而不是改變Sam或Sally的行為,對(duì)于一個(gè)人,我們既不能消除偏見(jiàn),也不能真正何獲取影響他們決策的變量的實(shí)際輸出。從本質(zhì)上講,分析人工智能算法比理解和改變?nèi)祟愃季S更容易。
為此,在任何階段,使用人工智能進(jìn)行人才管理的組織都應(yīng)該從以下步驟開(kāi)始。
教育候選人并獲得他們的許可。 向潛在的雇員進(jìn)行詢問(wèn),向公司提供他們的個(gè)人數(shù)據(jù),這些數(shù)據(jù)將被分析、存儲(chǔ),應(yīng)用于HR決策的人工智能系統(tǒng)。準(zhǔn)備向他們解釋關(guān)于what、who、how、why的問(wèn)題。因?yàn)橐蕾嚭谙淠P偷娜斯ぶ悄芟到y(tǒng)是不道德的。如果一個(gè)候選人具備與成功相關(guān)的屬性,那么不僅需要理解為什么,還需要解釋因果關(guān)系。簡(jiǎn)單來(lái)說(shuō),人工智能系統(tǒng)應(yīng)該設(shè)計(jì)為用于預(yù)測(cè)和解釋因果關(guān)系的,而不僅是發(fā)現(xiàn)相關(guān)性。另外你應(yīng)該保證候選人的匿名性,以保護(hù)個(gè)人數(shù)據(jù)并遵守相關(guān)法律規(guī)定。
投資于優(yōu)化公平性和準(zhǔn)確性的系統(tǒng)。 歷史上,組織心理學(xué)家曾指出,當(dāng)候選人的評(píng)估模型為公平性而優(yōu)化時(shí),準(zhǔn)確性會(huì)下降。例如,大量的學(xué)術(shù)研究表明,認(rèn)知能力測(cè)試和工作表現(xiàn)一致,特別是在高復(fù)雜度的工作中。這種分布對(duì)任職人數(shù)少,尤其是社會(huì)經(jīng)濟(jì)地位低的個(gè)人產(chǎn)生不利影響。也就是說(shuō),公司如果想提升多樣性,創(chuàng)造包容文化,那么在雇傭新員工的時(shí)候需要降低對(duì)認(rèn)知測(cè)試的關(guān)注,這樣多元化的應(yīng)聘者在招聘過(guò)程中就不會(huì)處于不利地位,這就是所謂的公平性/準(zhǔn)確性權(quán)衡。
但是,這個(gè)權(quán)衡關(guān)系依賴的是半個(gè)世紀(jì)以前的技術(shù),遠(yuǎn)早于人工智能模型的出現(xiàn),而人工智能模型可以用于傳統(tǒng)方法不同的方式對(duì)待數(shù)據(jù)。越來(lái)越多的證據(jù)表明人工智能可以通過(guò)部署動(dòng)態(tài)的、個(gè)性化的打分算法,克服這個(gè)權(quán)衡關(guān)系,使其對(duì)準(zhǔn)確性和公平性同樣敏感,可以共同實(shí)現(xiàn)最優(yōu)。因此,人工智能的開(kāi)發(fā)者沒(méi)有理由不這么做。此外,由于這些新的系統(tǒng)已經(jīng)存在,我們應(yīng)該質(zhì)疑廣泛使用的傳統(tǒng)認(rèn)知評(píng)估(對(duì)少數(shù)群體產(chǎn)生不利影響),在沒(méi)有偏見(jiàn)緩解的方式下是否應(yīng)該繼續(xù)存在。
開(kāi)發(fā)開(kāi)源系統(tǒng)和第三方評(píng)審。 通過(guò)允許其他人評(píng)估這個(gè)用于分析的工具,讓公司和開(kāi)發(fā)人員負(fù)起責(zé)任。一個(gè)解決方案是開(kāi)源非專利,但關(guān)鍵部分的人工智能技術(shù)由公司所有。對(duì)于專有組件,公司可以利用由該領(lǐng)域可靠專家進(jìn)行的第三方評(píng)審向公眾展示其如何減輕偏見(jiàn)。
遵守與傳統(tǒng)招聘同樣的數(shù)據(jù)收集、應(yīng)用過(guò)程中的法律。人工智能系統(tǒng)不應(yīng)使用因法律或道德原因而不被允許收集或包含在傳統(tǒng)招聘流程中的任何數(shù)據(jù)。不得輸入有關(guān)身體、精神或情緒狀況、基因信息以及藥物使用或?yàn)E用的私人信息。
如果組織解決了這些問(wèn)題,我們相信,道德的人工智能不僅可以減少在招聘方面的偏見(jiàn),而且還可以增強(qiáng)英才管理,使人才、努力和員工成功之間的聯(lián)系遠(yuǎn)遠(yuǎn)大于過(guò)去,從而大大改善組織。此外,這將有利于全球經(jīng)濟(jì)。一旦我們減少偏見(jiàn),我們的候選人池將不限于員工推薦和常春藤聯(lián)盟畢業(yè)生。來(lái)自更廣泛社會(huì)經(jīng)濟(jì)背景的人將有更多機(jī)會(huì)獲得更好的工作——這有助于創(chuàng)造平衡,并開(kāi)始彌補(bǔ)階級(jí)分歧。
然而,要實(shí)現(xiàn)上述目標(biāo),企業(yè)需要做出正確的投資,不僅是在尖端人工智能技術(shù)方面,而且(尤其是)在人類專業(yè)知識(shí)方面——這些人懂得如何利用這些新技術(shù)提供的優(yōu)勢(shì),同時(shí)最大限度地減少潛在的風(fēng)險(xiǎn)和缺點(diǎn)。 在任何領(lǐng)域,人工智能和人類智慧的結(jié)合都有可能產(chǎn)生比沒(méi)有人工智能更好的結(jié)果。道德人工智能應(yīng)該被視為我們可以用來(lái)對(duì)抗自己偏見(jiàn)的工具之一,而不是最終的靈丹妙藥。
責(zé)任編輯:ct
評(píng)論
查看更多