隨著人工智能技術(shù)日趨成熟,一些人擔(dān)心,人們對這項(xiàng)技術(shù)更廣泛的社會和道德影響未給予足夠的關(guān)注。專家對此進(jìn)行了討論,探索了他們認(rèn)為最駭人的四種人工智能發(fā)展前景。
當(dāng)提到人工智能時,人們總會聯(lián)想到機(jī)器人殺手和計(jì)算機(jī)失控的場景?!躲y翼殺手》和《終結(jié)者》系列的好萊塢電影給我們灌輸了這樣一種恐懼感:人工智能會突破編程,把矛頭指向人類。對于一個今年有望創(chuàng)造超過1萬億美元商業(yè)價值,到2022年,將創(chuàng)造近4萬億美元價值的行業(yè)來說,任何對其倫理含義的重大疑慮都會產(chǎn)生巨大的影響。
人工智能是一個熱詞,并已經(jīng)對許多行業(yè)產(chǎn)生了明顯的影響——尤其是那些依賴大量體力勞動的行業(yè)。隨著人工智能技術(shù)日趨成熟,企業(yè)繼續(xù)加大對其投資,一些人擔(dān)心,人們對這項(xiàng)技術(shù)更廣泛的社會和道德影響未給予足夠的關(guān)注。美國全國廣播公司因此專門邀請了幾位專家,對此進(jìn)行討論,探索了他們認(rèn)為最駭人的五種人工智能發(fā)展前景。
一、全球性失業(yè)
分析人員和工人普遍擔(dān)心人工智能的廣泛應(yīng)用將造成全球性的失業(yè),因?yàn)楣ぷ髟絹碓阶詣踊?,不再需要大量人工勞動力?/p>
英國愛丁堡大學(xué)信息學(xué)院教授Alan Bundy表示,“失業(yè)可能是人們最大的擔(dān)憂。人們需要精心策劃一系列非常有針對性的應(yīng)用程序,并找出這些程序無法處理的邊緣案例,但這并不能取代預(yù)期的大規(guī)模失業(yè)——至少在很長一段時間內(nèi)都不會?!?/p>
人工智能的支持者說,這項(xiàng)技術(shù)將創(chuàng)造新的就業(yè)機(jī)會。新技術(shù)的復(fù)雜性需要合適的人才來開發(fā),因此,對工程師的需求將會增加。他們還表示,為了在日常工作中發(fā)揮新的作用,人類也必須使用人工智能。
高德納咨詢公司預(yù)測,到2020年,人工智能將創(chuàng)造230萬個工作崗位,同時減少180萬個崗位——凈增加50萬個崗位。但這并不能否認(rèn)人工智能造成全球大規(guī)模裁員的可能性。
2013年,英國牛津大學(xué)一項(xiàng)研究指出,一些最可能被替代的工作包括經(jīng)濟(jì)業(yè)務(wù)人員、銀行出納員、保險(xiǎn)承銷商以及稅務(wù)籌劃員——這些工作雖然技術(shù)性不強(qiáng)但很關(guān)鍵,能維持金融行業(yè)的運(yùn)轉(zhuǎn)。
盡管可以通過提高技能和創(chuàng)造新的工作崗位——甚至可能引入一種普遍的基本收入來最大限度地減少人工智能對勞動力市場的損害,但很明顯,失業(yè)問題不會很快解決。
二、戰(zhàn)爭
隨著“殺手機(jī)器人”的出現(xiàn)以及人工智能在軍事領(lǐng)域中的運(yùn)用,專家擔(dān)憂,這項(xiàng)技術(shù)可能最終會導(dǎo)致戰(zhàn)爭。特斯拉CEO埃隆馬斯克(Elon Musk)因其對人工智能直言不諱的觀點(diǎn)而聞名。去年,他警告,人工智能可能會導(dǎo)致第三次世界大戰(zhàn)。
雖然馬斯克以夸張言論著稱,但他的評論卻傳達(dá)了專家們的真實(shí)恐懼。一些分析人員和活動家認(rèn)為,致命自主武器的研發(fā)和人工智能在軍事決策中的使用造成了大量的倫理困境,增加了爆發(fā)以人工智能為主導(dǎo)的戰(zhàn)爭的可能性。
甚至還有一些非政府組織致力于禁用此類機(jī)器。2013年成立的“禁止殺人機(jī)器人”團(tuán)體呼吁政府阻止人工智能驅(qū)動的無人機(jī)和其他工具的研發(fā)。今年年初,美國國防智庫蘭德公司在一項(xiàng)研究中警告說,在軍事領(lǐng)域中應(yīng)用人工智能可能會在2040年引發(fā)一場核戰(zhàn)爭。
阿姆斯特丹自由大學(xué)人工智能研究院Frank van Harmelen表示,“我認(rèn)為‘駭人’這個詞唯一能使用的領(lǐng)域是自主武器系統(tǒng)…那些看起來像機(jī)器人,也可能不像機(jī)器人的系統(tǒng)。任何自動決定生死的電腦系統(tǒng),不管是人工智能還是非人工智能——例如發(fā)射導(dǎo)彈——都是非??膳碌南敕??!边@種大膽預(yù)測背后的真相是,如果軍事人工智能系統(tǒng)在分析形勢時出錯,會導(dǎo)致各國做出魯莽的,甚至是災(zāi)難性的決策。
三、機(jī)器人醫(yī)生
雖然專家們大多同意人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用益處良多,例如盡早診斷疾病,加快整體醫(yī)療體驗(yàn),但一些醫(yī)生和學(xué)者擔(dān)心,我們可能會過快地朝著數(shù)據(jù)驅(qū)動的醫(yī)療實(shí)踐方向發(fā)展。學(xué)者們還擔(dān)心,人們對人工智能的期望過高,認(rèn)為它可以形成人類的智力,從而解決各種各樣的任務(wù)。
愛丁堡大學(xué)的Bundy表示,“到目前為止,所有的人工智能應(yīng)用都非常成功,但應(yīng)用范圍很窄。”Bundy還表示,這些期望可能會給醫(yī)療保健等行業(yè)帶來可怕的后果。上周,一份引用了IBM內(nèi)部文件的健康刊物發(fā)布了一份報(bào)告。該報(bào)告顯示,IBM旗下的沃森超級電腦已經(jīng)提了許多“不安全且不正確的”癌癥治療建議,但該軟件被訓(xùn)練成只處理假設(shè)場景下的少量病例。
另一個令人擔(dān)憂的問題是,計(jì)算機(jī)占用和共享的數(shù)據(jù),以及使用這些數(shù)據(jù)實(shí)現(xiàn)應(yīng)用程序自動化的數(shù)據(jù)驅(qū)動算法可能會侵犯患者隱私。事實(shí)證明,數(shù)據(jù)的存儲以及分享是令人擔(dān)憂的。以“深度思考”(DeepMind)為例,2015年,這家谷歌旗下的人工智能公司與英國國家醫(yī)療服務(wù)體系(NHS)簽署了一項(xiàng)協(xié)議,獲得了160萬英國患者的健康數(shù)據(jù)。該協(xié)議意味著患者將他們的數(shù)據(jù)交給了公司,以提高其項(xiàng)目檢測疾病的能力。這也催生了一款名為Streams的應(yīng)用程序,該程序旨在檢測腎病患者,并在患者病情惡化時提醒醫(yī)生。
然而去年,英國隱私監(jiān)督部門信息專員辦公室(ICO)裁定,NHS和DeepMind之間的協(xié)議違背了數(shù)據(jù)保護(hù)法。ICO表示,作為協(xié)議的一部分,倫敦皇家自由醫(yī)院在使用患者數(shù)據(jù)的方式上缺乏透明度。
四、歧視
有些讀者可能還會記得Tay,一款由微軟開發(fā)的人工智能聊天機(jī)器人,它在兩年前引起了轟動。
這個機(jī)器人有一個推特賬號,一些用戶用了不到一天時間訓(xùn)練它發(fā)表攻擊性的推特,來支持阿道夫希特勒和白人至上的觀念。這個錯誤迫使微軟注銷了該賬號,這一事件也引發(fā)了激烈的討論,即人工智能有存在歧視的可能性。
Walsh表示,歧視是科技帶來的一系列“意想不到的后果”之一。他說:“我們在計(jì)算程序中看到了意想不到的偏見,尤其是機(jī)器學(xué)習(xí),這種偏見有可能導(dǎo)致種族、性別歧視,而在過去的50多年里,我們一直試圖將這些偏見從我們的社會中消除?!?/p>
專家表示,這個問題涉及到把人工智能變成一個客觀、理性的思考者,不偏袒某一特定種族、性別。這是研究人員和開發(fā)人員一直在認(rèn)真考慮的問題。
IBM甚至有研究人員致力于解決人工智能領(lǐng)域的歧視問題。今年早些時候,IBM表示將發(fā)布兩個數(shù)據(jù)集,包含不同膚色的面部和其他面部特征,以減少人工智能面部識別系統(tǒng)的偏見。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28582瀏覽量
207818 -
人工智能
+關(guān)注
關(guān)注
1793文章
47539瀏覽量
239392
原文標(biāo)題:海外專家關(guān)于人工智能發(fā)展前景的四大駭人預(yù)測
文章出處:【微信號:D1Net08,微信公眾號:AI人工智能D1net】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論