“人工智能(AI)叛亂”聽起來像是科幻電影的情節(jié),但這個概念是一項(xiàng)新研究課題。一個國際科研團(tuán)隊(duì)設(shè)計(jì)了一種理論上的“遏制算法”,通過模擬AI,確保其在任何情況都不能傷害人類,但結(jié)果發(fā)現(xiàn)無法做到。
AI多年來一直讓人類著迷,我們對控制汽車、譜寫交響樂或在自己的游戲中擊敗世界上最好棋手的機(jī)器感到敬畏。然而,巨大的力量伴隨著巨大的責(zé)任,全世界的科學(xué)家都在擔(dān)心超級智能系統(tǒng)可能帶來的危險。
據(jù)報(bào)道,包括馬克斯·普朗克人類發(fā)展研究所人類與機(jī)器中心的科學(xué)家在內(nèi)的一個國際團(tuán)隊(duì)研究表明,控制一個超級人工智能是不可能的。
該團(tuán)隊(duì)在分析過程中使用了阿蘭·圖靈(Alan Turning)于1936年提出的“停止”問題,該問題的重點(diǎn)在于計(jì)算機(jī)程序是否會得出結(jié)論并做出“停頓”的反應(yīng)。
據(jù)悉,在研究中,該團(tuán)隊(duì)設(shè)計(jì)了一種理論上的“遏制算法”,通過先模擬人工智能的行為,如果認(rèn)為有害,則停止人工智能的行為,從而確保超級人工智能在任何情況下都不能傷害人類。
但仔細(xì)分析后發(fā)現(xiàn),在目前的計(jì)算模式下,這樣的算法是無法建立的。
也就是說,目前的算法并不具備阻止人工智能的能力,因?yàn)槊預(yù)I不要?dú)缡澜?,會在無意中阻止“遏制算法”自身的運(yùn)行。
人類與機(jī)器中心主任伊亞德·拉赫萬表示,如果發(fā)生這種情況,將不知道“遏制算法”是否還在分析威脅,或者它是否已經(jīng)停止遏制有害的AI。
基于這些計(jì)算結(jié)果,“遏制問題”是無法計(jì)算的,沒有一種算法可以找到判斷人工智能是否會對世界產(chǎn)生危害的解決方案。
研究結(jié)果還證明,我們甚至可能不知道超級智能機(jī)器何時到來,因?yàn)闆Q定一臺機(jī)器是否表現(xiàn)出優(yōu)于人類的智能與“遏制問題”屬于同一領(lǐng)域。
國際科研團(tuán)隊(duì)的論文警告說,如果一臺超級智能機(jī)器想要控制世界,傷害人類,拔掉插頭也無濟(jì)于事。
責(zé)編AJX
-
算法
+關(guān)注
關(guān)注
23文章
4624瀏覽量
93110 -
超級計(jì)算機(jī)
+關(guān)注
關(guān)注
2文章
464瀏覽量
41972 -
AI
+關(guān)注
關(guān)注
87文章
31279瀏覽量
269641
發(fā)布評論請先 登錄
相關(guān)推薦
評論