2017年,人工智能的發(fā)展又到達(dá)了一個(gè)高峰期,首席信息官、顧問和學(xué)者們紛紛表示,這項(xiàng)技術(shù)將使得從商業(yè)、IT運(yùn)營到客戶聯(lián)系在內(nèi)的任何事情實(shí)現(xiàn)自動(dòng)化。然而,進(jìn)入2018年,越來越多的媒體開始報(bào)道人工智能的潛在威脅。
然而,Babson College 的教授Thomas Davenport在其認(rèn)知技術(shù)課上表示:“在媒體上有這么多的炒作,這只是記者試圖通過談?wù)撓麡O的一面來擴(kuò)大炒作罷了。” 即便如此,這些擔(dān)憂并不新鮮,從對(duì)種族、性別和其他因素的偏見到自動(dòng)駕駛的無人機(jī)可能會(huì)帶來致命的后果,這些問題一直都存在。
不久前,《麻省理工學(xué)院技術(shù)評(píng)論》(《MIT Technology Review》)發(fā)表了一篇題為《如果人工智能最終殺死了一個(gè)人,該誰負(fù)責(zé)?》的文章,這篇文章提出了一個(gè)問題:如果自動(dòng)駕駛汽車撞擊并殺死了一個(gè)人,應(yīng)該適用什么樣的法律呢?在這篇文章發(fā)表僅一周之后,一輛自動(dòng)駕駛的Uber汽車在亞利桑那州撞死了一名女子。
為此,CIO.com詳細(xì)列舉了一些關(guān)于采用人工智能的擔(dān)憂和隱患,以及為希望開始測(cè)試使用該技術(shù)的首席信息官們提供的建議。
對(duì)人工智能的擔(dān)憂:
1.不可控的“粗魯行為”
正如我們從微軟的Tay聊天機(jī)器人事件中了解到的,會(huì)話式消息系統(tǒng)可能是荒謬的、不禮貌的、甚至是非常令人不快的。首席信息官們必須對(duì)自己使用的東西以及使用它們的方式非常小心。要摧毀一個(gè)品牌的形象,只需要聊天機(jī)器人一次令人惱怒的爆發(fā)就足夠了。
2.感知能力很糟糕
谷歌人工智能科學(xué)家及斯坦福大學(xué)教授李飛飛在《紐約時(shí)報(bào)》的一篇專欄文章中表示,人工智能雖然是由人類開發(fā)的,但是具有諷刺意味的是,它根本不像人類。她表示,人類的視覺感知是高度背景化的,但人工智能對(duì)圖像感知的能力卻非常的狹隘。為此,人工智能程序員必須與領(lǐng)域?qū)<液献鳌貧w該領(lǐng)域的學(xué)術(shù)根源——以縮小人與機(jī)器感知之間的差距。
3.黑匣子難題
許多企業(yè)都想使用人工智能,但金融服務(wù)等行業(yè)的公司必須非常小心,因?yàn)閷?duì)于人工智能是如何得出其結(jié)論這個(gè)問題尚未能解決。Fannie Mae的運(yùn)營和技術(shù)負(fù)責(zé)人Bruce Lee表示:“企業(yè)如果不能解決好樣本數(shù)據(jù)偏見對(duì)借貸公平造成的影響,就無法提供更好的抵押貸款利率。在諸如信貸決策之類的工作里,人工智能實(shí)際上受到了很多監(jiān)管的阻礙,很多問題有待解決。所以我們所做的很多事情都必須進(jìn)行徹底的回溯測(cè)試,以確保沒有引入不恰當(dāng)?shù)钠??!?/p>
如果人們不清楚人工智能軟件如何檢測(cè)模式并觀察結(jié)果,那么對(duì)機(jī)器的信任能夠到達(dá)何種程度也有待考究。Fox Rothschild律師事務(wù)所技術(shù)實(shí)踐聯(lián)席主席Dan Farris表示:“背景、道德和數(shù)據(jù)質(zhì)量是影響人工智能價(jià)值可靠性的重要因素,特別是在受到高度監(jiān)管的行業(yè)中更是如此?!彼硎荆骸霸谌魏问艿礁叨缺O(jiān)管的行業(yè)中部署人工智能都可能會(huì)導(dǎo)致合規(guī)性問題?!?/p>
4.民族和社會(huì)經(jīng)濟(jì)方面的偏見
在進(jìn)行一個(gè)使用谷歌街景汽車圖像來確定全美國城鎮(zhèn)人口結(jié)構(gòu)的項(xiàng)目中,斯坦福大學(xué)的博士生Timnit Gebru對(duì)于她的研究中對(duì)種族、性別和社會(huì)經(jīng)濟(jì)方面的偏見感到擔(dān)憂。根據(jù)彭博社的報(bào)道,正是這種擔(dān)心促使Gebru加入微軟,她正在這里努力地挖掘人工智能的偏見。
即使是人工智能虛擬助手也會(huì)受到偏見的影響。你有沒有想過為什么虛擬助理技術(shù)——例如Alexa、Siri和Cortana都設(shè)定為女性?客戶服務(wù)軟件專家LivePerson的首席執(zhí)行官Rob LoCascio對(duì)CIO.com表示:“這源于人類自己對(duì)職場(chǎng)中女性的期望。許多人認(rèn)為,女性本質(zhì)上是‘助手’;她們更愛‘嘮叨’;她們更多地?fù)?dān)任行政職務(wù);她們更擅長接受訂單……”
5.黑客利用人工智能發(fā)動(dòng)致命的攻擊
一份由劍橋大學(xué)、牛津大學(xué)和耶魯大學(xué)25位技術(shù)和公共政策研究人員撰寫的98頁的報(bào)告指出,人工智能的快速發(fā)展意味著存在惡意用戶很快就會(huì)利用該技術(shù)進(jìn)行自動(dòng)黑客攻擊,模仿人類傳播錯(cuò)誤信息或?qū)⑸虡I(yè)無人機(jī)轉(zhuǎn)化為目標(biāo)武器。
牛津大學(xué)未來人類研究所(Future of Humanity Institute)的研究人員Miles Brundage 對(duì)路透社表示:“我們承認(rèn),人工智能有很多積極的應(yīng)用。但是,它也的確存在著一個(gè)有關(guān)惡意使用問題的缺口?!?/p>
6.奴役理論
以特斯拉和SpaceX成名的企業(yè)家Elon Musk警告說,人類冒著成為獨(dú)立“家貓”的風(fēng)險(xiǎn)創(chuàng)造具有卓越智慧和能力的人工智能。最近,以色列歷史學(xué)家Yuval Noah Harari也提出,以自動(dòng)化為核心的人工智能的出現(xiàn),可能會(huì)造成一個(gè)“全球無用階級(jí)”。 在這樣的世界里,民主會(huì)受到威脅,因?yàn)槿祟惒⒉幌駲C(jī)器那樣了解自己。
IT規(guī)劃未受影響
即便如此,仍然有人抱著樂觀的太對(duì)。Davenport表示,這些擔(dān)心在很大程度上都是被夸大了。例如,偏見長期以來也一直存在于普通的分析項(xiàng)目之中?!拔覐膩頉]見過任何一個(gè)曾經(jīng)從事過分析工作的人會(huì)說偏見不存在?!?Davenport最近完成了一本新書——《人工智能優(yōu)勢(shì):大企業(yè)使用人工智能的一切》,他表示幾家大公司正在非常負(fù)責(zé)任地測(cè)試人工智能。
“很多企業(yè)已經(jīng)在實(shí)踐中應(yīng)用人工智能技術(shù),并且沒有停止這一系列IT計(jì)劃的想法?!盌avenport補(bǔ)充說,“雖然這項(xiàng)技術(shù)仍然不成熟,但聰明的公司知道如何更好地應(yīng)用,并且盡力避免受到來自媒體的各種正面和負(fù)面看法的左右?!?/p>
事實(shí)上,根據(jù)Gartner的統(tǒng)計(jì),IT領(lǐng)導(dǎo)者似乎基本上不被炒作困擾,據(jù)統(tǒng)計(jì),有超過85%的首席信息官將在2020年前通過購買、構(gòu)建和外包的方式試點(diǎn)人工智能。
-
人工智能
+關(guān)注
關(guān)注
1796文章
47643瀏覽量
240070
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論