隨著人工智能變得更加復(fù)雜,它將開始獨(dú)立制定或協(xié)助人們做出對(duì)個(gè)人生活產(chǎn)生更大影響的決策。隨著人們適應(yīng)自動(dòng)化決策在社會(huì)中發(fā)揮越來(lái)越大的作用,這也將引發(fā)道德層面的挑戰(zhàn)。
人工智能的未來(lái)是廣闊的--這就是為什么我們需要塑造其對(duì)人類和社會(huì)的影響。
人工智能(AI)為我們提供了巨大的機(jī)會(huì),不僅可以提高效率并降低成本,還可以幫助我們重新思考業(yè)務(wù)并解決關(guān)鍵問(wèn)題。然而,盡管人工智能擁有這些美好前景,但在各個(gè)經(jīng)濟(jì)體和社會(huì)中,人們都有著類似的焦慮。許多人認(rèn)為先進(jìn)技術(shù)會(huì)注定和不可避免地帶來(lái)深刻變化。
隨著人工智能變得更加復(fù)雜,它將開始獨(dú)立制定或協(xié)助人們做出對(duì)個(gè)人生活產(chǎn)生更大影響的決策。隨著人們適應(yīng)自動(dòng)化決策在社會(huì)中發(fā)揮越來(lái)越大的作用,這也將引發(fā)道德層面的挑戰(zhàn)。
因此,商業(yè)領(lǐng)導(dǎo)者和決策者需要認(rèn)真對(duì)待這些擔(dān)憂,并對(duì)啟用和應(yīng)用“可靠的人工智能”負(fù)責(zé)。
其可以被描述為遵循以下原則:
? 問(wèn)責(zé)制和透明度
? 安全防范機(jī)制
? 以人為本的設(shè)計(jì)
問(wèn)責(zé)制和透明度
如果人工智能用于評(píng)估新職位的應(yīng)聘申請(qǐng),那么如何確保申請(qǐng)人得到公平和公正的審核?應(yīng)聘者如何確信人工智能不會(huì)因?yàn)橛?xùn)練方式而出現(xiàn)錯(cuò)誤或內(nèi)在偏見?
存在的風(fēng)險(xiǎn)是,自動(dòng)化流程有可能通過(guò)我們不了解或無(wú)法解釋的過(guò)程來(lái)“學(xué)習(xí)”,從而學(xué)到會(huì)導(dǎo)致我們可能不想看到的結(jié)果的模式。算法可能會(huì)延續(xù)我們社會(huì)中現(xiàn)有的偏見和歧視,從而增加我們對(duì)實(shí)施人工智能的缺乏信任。
例如,弗吉尼亞大學(xué)的研究人員利用廣泛使用的照片數(shù)據(jù)集對(duì)一個(gè)人工智能程序進(jìn)行訓(xùn)練,后來(lái)發(fā)現(xiàn)該系統(tǒng)放大了傳統(tǒng)的性別偏見。在后來(lái)的訓(xùn)練中,它甚至將站在火爐旁邊的男人歸類為女人,這是人類不可能犯得錯(cuò)誤。
領(lǐng)導(dǎo)者需要透露機(jī)器決策的機(jī)制。他們使用的人工智能必須產(chǎn)生可解釋的結(jié)果,促進(jìn)算法問(wèn)責(zé)制并消除偏見。這意味著領(lǐng)導(dǎo)者需要找到一些方法,例如對(duì)算法進(jìn)行審核,并對(duì)所處理數(shù)據(jù)進(jìn)行評(píng)估,以便發(fā)現(xiàn)偏見。當(dāng)系統(tǒng)出錯(cuò)時(shí),必須清楚責(zé)任所在。
安全防范機(jī)制
建立消費(fèi)者對(duì)人工智能和自動(dòng)化系統(tǒng)的信任需要有安全防范機(jī)制。確定財(cái)務(wù)責(zé)任是做到這一點(diǎn)的一種方式,但確保物理安全防范機(jī)制是關(guān)鍵。
作為一個(gè)例子,最深入的討論是圍繞自動(dòng)駕駛汽車展開的。德國(guó)在2017年通過(guò)了一項(xiàng)新法律,該法律規(guī)定司機(jī)或車輛制造商之間的賠償責(zé)任分擔(dān)取決于司機(jī)或自動(dòng)駕駛車輛是否處于控制狀態(tài)。在這種做法的背后,汽車制造商已經(jīng)表示,如果發(fā)生事故時(shí),他們的“交通阻塞導(dǎo)航”功能正在使用中,則他們將承擔(dān)責(zé)任。
這里新增的內(nèi)容是考慮到汽車制造商對(duì)其提供服務(wù)所承擔(dān)的責(zé)任,這是基于傳統(tǒng)保險(xiǎn)架構(gòu)制定出的。通過(guò)澄清和說(shuō)明,讓人們對(duì)責(zé)任有更普遍的理解,組織機(jī)構(gòu)可以幫助解決一些問(wèn)題。然而,除了建立財(cái)務(wù)責(zé)任之外,安全組織需要處理的一些合理要求還包括確保將設(shè)計(jì)的安全性應(yīng)用于自動(dòng)駕駛系統(tǒng)中。
這包括確保人工智能被訓(xùn)練成可以“舉手示意”,要求有智慧和經(jīng)驗(yàn)的人類提供幫助,以在臨界情況下作出最終決定,而不是在只有51%把握的情況下繼續(xù)進(jìn)行操作。
以人為本的設(shè)計(jì)
人工智能應(yīng)該能夠增強(qiáng)人們的判斷力,幫助人們識(shí)別和解決偏見,而不是無(wú)形地改變其行為以反映出所期望的結(jié)果。這就超出了消除人工智能自主決策產(chǎn)生的偏見的范疇。
領(lǐng)導(dǎo)者也應(yīng)該認(rèn)識(shí)到人類和人工智能具有互補(bǔ)技能的能力。以人為本的人工智能會(huì)利用人類擅長(zhǎng)的批判性思維技能,并將其與人工智能的大量計(jì)算技能相結(jié)合。
例如,一個(gè)哈佛大學(xué)的病理學(xué)家團(tuán)隊(duì)開發(fā)了一個(gè)基于人工智能的技術(shù),可以更準(zhǔn)確地識(shí)別乳腺癌細(xì)胞。病理學(xué)家以96%的識(shí)別準(zhǔn)確率擊敗了只有92%識(shí)別準(zhǔn)確率的這些設(shè)備。但是當(dāng)人類和人工智能聯(lián)合起來(lái)時(shí),我們看到了最大的驚喜。他們聯(lián)合起來(lái)后,可準(zhǔn)確地識(shí)別99.5%的癌癥活檢標(biāo)本。
在許多情況下,人工智能更善于做出決策—但這并不一定意味著它會(huì)做出更好的決策。領(lǐng)導(dǎo)者需要確保其組織的價(jià)值觀應(yīng)融入到他們的人工智能中。部署人工智能而不依賴可靠的合規(guī)性和核心價(jià)值,這可能會(huì)使企業(yè)面臨重大風(fēng)險(xiǎn),包括就業(yè)/人力資源、數(shù)據(jù)隱私、健康和安全問(wèn)題。在某些情況下,人工智能甚至以聊天機(jī)器人、數(shù)字客服代理的形式出現(xiàn),成為組織的主要代言人。人工智能的這種面向公眾的角色意味著客戶必須看到公司的價(jià)值觀。
最近,我在Fjord公司的同事宣稱,他們目睹了道德經(jīng)濟(jì)的興起,這意味著組織無(wú)論是否有價(jià)值觀并為之辯護(hù),在商業(yè)上這些內(nèi)容從未像今天這樣至關(guān)重要--而且人工智能需要反映這些價(jià)值觀。
-
自動(dòng)化
+關(guān)注
關(guān)注
29文章
5585瀏覽量
79323 -
人工智能
+關(guān)注
關(guān)注
1791文章
47314瀏覽量
238648
原文標(biāo)題:對(duì)使用可靠的人工智能技術(shù)要負(fù)責(zé)任
文章出處:【微信號(hào):D1Net08,微信公眾號(hào):AI人工智能D1net】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論