揚·塔林(Jaan Tallinn)在2007年的一篇網(wǎng)絡(luò)文章《凝視奇點》中偶然發(fā)現(xiàn)了這些詞?!八本褪侨祟愇拿鳎@篇文章的作者預(yù)測,隨著人工智能的出現(xiàn),人類將不復(fù)存在。
塔林出生在愛沙尼亞,是一名計算機程序員,擁有物理學(xué)背景,喜歡把生活當(dāng)做一個大的編程問題來處理。2003年,他與人共同創(chuàng)建了Skype,開發(fā)了這款應(yīng)用的后端。兩年后,eBay收購了他的股票,他將其變現(xiàn),現(xiàn)在他正在考慮做點什么。盯著奇點亂成一團的計算機代碼,量子物理學(xué)以及卡爾文和霍布斯的名言。他入迷了。
塔林很快發(fā)現(xiàn),該書的作者、自學(xué)成才的理論家以利澤爾·尤德科斯基(Eliezer Yudkowsky)已經(jīng)撰寫了1000多篇論文和博客文章,其中許多都是關(guān)于超智能的。他編寫了一個程序,從互聯(lián)網(wǎng)上搜集尤德科斯基的作品,按時間順序排列,并為他的iPhone設(shè)定格式,然后他花了一年的大部分時間讀這些書。
“人工智能”一詞最早出現(xiàn)在1956年,也就是第一臺電子數(shù)字計算機問世僅10年后。該領(lǐng)域最初的希望很高,但到了20世紀70年代,當(dāng)早期的預(yù)測沒有成功時,“人工智能冬天”來臨了。當(dāng)塔林發(fā)現(xiàn)尤德科斯基的隨筆時,人工智能正在經(jīng)歷一場復(fù)興??茖W(xué)家們正在開發(fā)在特定領(lǐng)域表現(xiàn)出色的人工智能,比如下棋獲勝、清理廚房地板和識別人類語言。這種被稱為“狹義”的人工智能具有超人的能力,但僅限于其特定的主導(dǎo)領(lǐng)域。一個下棋的人工智能不能掃地,也不能把你從一個地方帶到另一個地方。更糟糕的是,它可能還會利用隨身攜帶智能手機的人類生成的數(shù)據(jù),在社交操控方面表現(xiàn)出色。
讀了尤德科斯基的文章后,塔林相信人工智能可能導(dǎo)致人工智能的爆發(fā)或突破,從而威脅到人類的生存,人工智能將取代我們在進化階梯上的位置,像我們現(xiàn)在支配猿類那樣支配我們?;蛘?,更糟的是,有可能直接消滅我們。
寫完最后一篇文章后,塔林給尤德科斯基發(fā)了一封電子郵件,全都是小寫字母,這是他的風(fēng)格。“我是揚,skype的創(chuàng)始人之一,”他寫道。最后他終于說到了點子上:“我同意為人工智能全面超越人類智能做好準備,是人類面臨的首要任務(wù)之一?!笨雌饋硭娴南霂兔?。
一周后,當(dāng)塔林飛往舊金山灣區(qū)參加其他會議時,他在加州米爾布雷的一家咖啡館見到了住在附近的尤德科斯基。他們的聚會持續(xù)了四個小時。尤德科斯基最近對我說:“實際上,他真正理解基本概念和細節(jié)?!薄斑@非常罕見。之后,塔林給奇點人工智能研究所開了一張5000美元的支票(2013年,該組織更名為機器智能研究所)。此后,塔林向該研究所累計共捐贈了60多萬美元。
與尤德科斯基的相遇帶來了塔林的目標,讓他肩負起一項使命,把我們從自己的創(chuàng)造物中拯救出來。他開始了他的旅行生涯,在世界各地就人工智能所帶來的威脅發(fā)表演講。不過,他主要是開始資助研究可能給人類帶來出路的方法:所謂的友好型人工智能。這并不意味著機器或代理特別擅長談?wù)撎鞖?,或者它能記住你孩子的名字,盡管人工智能的人工智能可能能夠做到這兩件事。這并不意味著它的動機是利他主義或單純的愛。一個常見的謬論是假設(shè)人工智能具有人類的沖動和價值觀?!坝押谩币馕吨镜臇|西:未來的機器不會在它們實現(xiàn)目標的過程中把我們消滅。
去年春天,我加入塔林,在劍橋大學(xué)耶穌學(xué)院的餐廳用餐。教堂般的空間裝飾著彩色玻璃窗、金色的模子和戴著假發(fā)的男人的油畫。塔林坐在一張厚重的紅木桌旁,穿著硅谷的休閑裝束:黑色牛仔褲、t恤和帆布運動鞋。一個拱形的木天花板高高地伸在他那一頭灰白的金發(fā)之上。
47歲的塔林在某種程度上是教科書上的科技企業(yè)家。他認為,由于科學(xué)的進步(只要人工智能不毀滅我們),他將生活“許多許多年”。當(dāng)他和研究人員一起出去泡吧時,他甚至比那些年輕的研究生堅持得還要持久。他對人工智能的擔(dān)憂在他的同齡人中很常見。PayPal聯(lián)合創(chuàng)始人彼得·泰爾(Peter Thiel)的基金會向Miri捐贈了160萬美元。2015年,特斯拉創(chuàng)始人埃隆·馬斯克(Elon Musk)向馬薩諸塞州劍橋市的科技安全組織未來生命研究所捐贈了1000萬美元。但塔林進入這個精英世界是在上世紀80年代的鐵幕之后,當(dāng)時一個同學(xué)的父親在政府工作,讓幾個聰明的孩子接觸到了大型計算機。愛沙尼亞獨立后,他成立了一家電子游戲公司。今天,塔林仍然和他的妻子以及六個孩子中最小的一個住在首都塔林。當(dāng)他想與研究人員見面時,他經(jīng)常只是把他們空運到波羅的海地區(qū)。
他的捐贈策略是有條理的,就像他做的其他事情一樣。他把錢分給了11家機構(gòu),每家機構(gòu)都在研究不同的人工智能安全方法,希望其中一家能夠堅持下去。2012年,他與他人共同創(chuàng)辦了劍橋生存風(fēng)險研究中心(CSER),初期投入近20萬美元。
生存風(fēng)險或者像塔林所說的x-risk,是對人類生存的威脅。除了人工智能,CSER的20多位研究人員還研究氣候變化、核戰(zhàn)爭和生物武器。但是,對塔林來說,那些其他學(xué)科“實際上只是入門藥物”。對氣候變化等更廣泛接受的威脅的擔(dān)憂,可能會吸引人們加入進來。他希望,人工智能機器統(tǒng)治世界的恐懼將說服他們留下來。他訪問劍橋是為了參加一個會議,因為他希望學(xué)術(shù)界能更嚴肅地對待人工智能的安全性。
在耶穌大學(xué),我們的用餐同伴都是隨機參加會議的人,包括一名學(xué)習(xí)機器人的香港女性和一名上世紀60年代從劍橋大學(xué)畢業(yè)的英國男性。老人問在座的每一個人他們在哪里上的大學(xué)(愛沙尼亞塔爾圖大學(xué)塔林分校的回答并沒有給他留下深刻印象)。然后他試圖把談話引向新聞。塔林茫然地看著他?!拔覍陲L(fēng)險不感興趣”他說。
塔林把話題轉(zhuǎn)到了人工智能的威脅上。當(dāng)不與其他程序員交談時,他會默認使用隱喻,然后瀏覽他的一套隱喻:高級人工智能可以像人類砍伐樹木一樣迅速地處理我們。人工智能之于我們,就像我們之于大猩猩。
一個人工智能將需要一個身體來接管。沒有某種物理外殼,它怎么可能獲得物理控制?
塔林還準備了另一個比喻:“把我關(guān)在有互聯(lián)網(wǎng)連接的地下室里,我可以造成很大的破壞,”他說完,吃了一口意大利燴飯。
每一個人工智能,無論是Roomba還是其潛在的統(tǒng)治世界的后代,都是由結(jié)果驅(qū)動的。程序員分配這些目標,以及一系列關(guān)于如何實現(xiàn)它們的規(guī)則。先進的人工智能并不一定需要被賦予統(tǒng)治世界的目標才能實現(xiàn)它,它可能只是一個偶然。計算機編程的歷史上充滿了引發(fā)災(zāi)難的小錯誤。例如,2010年,共同基金公司W(wǎng)addell & Reed的一名交易員賣出了數(shù)千份期貨合約,該公司的軟件在幫助執(zhí)行交易的算法中漏掉了一個關(guān)鍵變量。其結(jié)果是萬億美元的美國“閃電崩盤”。
塔林基金的研究人員認為,如果超級人工智能的獎勵結(jié)構(gòu)沒有得到恰當(dāng)?shù)木幊?,即使是善意的目標也可能有陰險的結(jié)局。牛津大學(xué)哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)在他的著作《超智能》中列舉了一個著名的例子,那就是一個虛構(gòu)的特工,他的任務(wù)是制造盡可能多的回形針。人工智能可能會決定,將人體中的原子更好地用作原材料。
塔林的觀點也有批評者,甚至在關(guān)注人工智能安全的社區(qū)中也是如此。有人反對說,當(dāng)我們還不了解人工智能人工智能時,擔(dān)心限制它還為時過早。還有人說,把注意力集中在流氓技術(shù)行動者身上,會分散人們對該領(lǐng)域面臨的最緊迫問題的注意力,比如大多數(shù)算法是由白人男性設(shè)計的,或者基于對他們有偏見的數(shù)據(jù)?!叭绻覀儾辉诙唐趦?nèi)應(yīng)對這些挑戰(zhàn),我們就有可能建立一個我們不想生活的世界,”專注于人工智能安全和其他問題的科技行業(yè)聯(lián)盟AI伙伴關(guān)系執(zhí)行董事塔拉·萊昂斯(Terah Lyons)說。但是,她補充說,研究人員近期面臨的一些挑戰(zhàn),比如消除算法偏見,是人類可能在人工智能人工智能中看到的一些問題的先兆。
塔林并不這么認為。他反駁說,人工智能人工智能帶來了獨特的威脅。最終,他希望人工智能社區(qū)能夠效仿上世紀40年代的反核運動。在廣島和長崎爆炸之后,科學(xué)家們聯(lián)合起來試圖限制進一步的核試驗?!奥D計劃的科學(xué)家可能會說:‘看,我們在這里進行創(chuàng)新,創(chuàng)新總是好的,所以讓我們勇往直前,’”他告訴我?!暗麄兊呢?zé)任更大。”
塔林警告說,任何有關(guān)人工智能安全的方法都將很難正確。如果人工智能足夠聰明,它可能比它的創(chuàng)造者對約束有更好的理解。想象一下,他說,“在一群五歲的盲人建造的監(jiān)獄里醒來?!皩τ谝粋€被人類限制的人工智能人工智能來說,情況可能就是這樣。
理論家尤德科斯基(Yudkowsky)發(fā)現(xiàn),有證據(jù)表明這一點可能是正確的。從2002年開始,尤德科斯基主持了幾次聊天會議,他在其中扮演一個封閉在盒子里的人工智能角色,而其他人輪流扮演看門人,負責(zé)把人工智能關(guān)在盒子里。五分之三的情況下,尤德科斯基——一個凡人——說他說服守門人釋放了他。然而,他的實驗并沒有阻止研究人員嘗試設(shè)計一個更好的盒子。
研究人員認為,塔林基金正在尋求各種各樣的策略,從實用的到看似遙不可及的方面。一些關(guān)于拳擊人工智能的理論,要么是物理上的,通過構(gòu)建一個實際的結(jié)構(gòu)來包含它,要么是通過編程來限制它所能做的事情。其他人則試圖教人工智能堅持人類價值觀。牛津大學(xué)人類未來研究所的數(shù)學(xué)家兼哲學(xué)家斯圖爾特·阿姆斯特朗(Stuart Armstrong)是一位研究這三個問題的研究員,塔林稱該研究所是“宇宙中最有趣的地方”(塔林已經(jīng)向FHI提供了31萬多美元) 。
阿姆斯特朗是世界上少數(shù)幾個全職致力于人工智能安全的研究人員之一。我在牛津與他見面喝咖啡時,他穿著一件沒有扣扣子的橄欖球衫,看上去就像一個一輩子都躲在屏幕后面的人,蒼白的臉被一團沙色的頭發(fā)框住了。他的解釋中夾雜著令人困惑的大眾文化和數(shù)學(xué)知識。當(dāng)我問他在人工智能安全領(lǐng)域取得成功是什么樣子時,他說:“你看過樂高大電影嗎?一切都太棒了?!?/p>
阿姆斯特朗的一項研究著眼于一種稱為“甲骨文”人工智能的拳擊特定方法。2012年,他與FHI的聯(lián)合創(chuàng)始人尼克·博斯特羅姆(Nick Bostrom)在一篇論文中提出,不僅要把人工智能隔離在一個儲罐中,這是一種物理結(jié)構(gòu)還要把它限制在回答問題上,比如一個非常智能的通靈板。即使有了這些界限,人工智能也將擁有巨大的力量,通過巧妙地操縱審訊者,重塑人類的命運。為了減少這種情況發(fā)生的可能性,阿姆斯特朗建議對對話進行時間限制,或者禁止提出可能顛覆當(dāng)前世界秩序的問題。他還建議,用甲骨文公司的代理指數(shù)來衡量人類的生存狀況,比如道瓊斯工業(yè)平均指數(shù)或東京的過街人數(shù),并告訴該指數(shù)保持穩(wěn)定。
阿姆斯特朗在一篇論文中稱,最終有必要創(chuàng)造一個“大紅色關(guān)閉按鈕”:要么是一個物理開關(guān),要么是一個被編程進人工智能的機制,在爆發(fā)時自動關(guān)閉自己。但設(shè)計這樣一個開關(guān)遠非易事。不僅僅是一個對自我保護感興趣的高級人工智能可以阻止按鈕被按下。它也會好奇為什么人類會發(fā)明這個按鈕,激活它來看看會發(fā)生什么,然后讓它變得無用。2013年,一位名叫湯姆墨菲七世(Tom Murphy VII)的程序員設(shè)計了一款可以自學(xué)玩任天堂娛樂系統(tǒng)游戲的人工智能。決心不輸?shù)舳砹_斯方塊,人工智能只是按下暫停鍵,讓游戲保持凍結(jié)狀態(tài)。墨菲在一篇關(guān)于自己創(chuàng)作的論文中挖苦道:“說真的,唯一的制勝招就是不玩。”
要讓這個策略成功,人工智能必須對按鈕不感興趣,或者,正如塔林所說:“它必須給不存在的世界和存在的世界賦予同等的價值?!钡词寡芯咳藛T能做到這一點,也存在其他挑戰(zhàn)。如果人工智能在互聯(lián)網(wǎng)上復(fù)制了幾千次呢?
最讓研究人員興奮的方法是找到一種讓人工智能堅持人類價值觀的方法——不是通過編程,而是通過教人工智能學(xué)習(xí)這些價值觀。在一個黨派政治占主導(dǎo)地位的世界里,人們常常細想我們的原則有哪些不同之處。但是,塔林告訴我,人類有很多共同點:“幾乎每個人都重視自己的右腿,而我們只是不去想它。“我們希望人工智能能夠被教會識別這些不可被改變的規(guī)則。
在這個過程中,人工智能需要學(xué)習(xí)并欣賞人類不合邏輯的一面:我們經(jīng)常說一套做一套,我們的一些偏好與他人發(fā)生沖突,人們在喝醉時不那么可靠。塔林認為,盡管面臨挑戰(zhàn),但值得一試,因為風(fēng)險如此之高。他說:“我們必須提前思考幾步?!皠?chuàng)造一個與我們興趣不同的人工智能將是一個可怕的錯誤?!?/p>
他在劍橋的最后一個晚上,我和塔林以及兩名研究人員一起在一家牛排館共進晚餐。一個服務(wù)員把我們這一群人安排在一個粉刷成白色的酒窖里,酒窖里有一種洞穴般的氣氛。他遞給我們一頁菜單,上面有三種不同的土豆泥。一對夫婦在我們旁邊的桌子旁坐下,幾分鐘后他們要求搬到別處去。“太幽閉恐怖了,”這位女士抱怨道。我想起了塔林的那句話,他說,如果把他鎖在一個只有互聯(lián)網(wǎng)連接的地下室里,他會造成多大的破壞。我們到了,在箱子里。這似乎是在暗示,這些人在考慮如何出去。
塔林的客人包括前基因組學(xué)研究員、CSER執(zhí)行董事Sean O hEigeartaigh和哥本哈根大學(xué)的人工智能研究員Matthijs Maas。他們開玩笑說要拍一部名為《人工智能大戰(zhàn)區(qū)塊鏈》的動作電影。他還討論了一款名為《萬能回形針》的在線游戲,這款游戲重復(fù)了博斯特羅姆書中的場景。這個練習(xí)包括反復(fù)點擊鼠標來制作回形針。它并不華麗,但它確實說明了為什么一臺機器可能會尋找更方便的方法來生產(chǎn)辦公用品。
最終,話題轉(zhuǎn)向了更大的問題,正如塔林在場時經(jīng)常發(fā)生的那樣。人工智能安全研究的最終目標是創(chuàng)造出像劍橋哲學(xué)家、CSER聯(lián)合創(chuàng)始人休·普萊斯(Huw Price)曾經(jīng)說過的那樣,“在道德和認知上都是超人的”機器。其他人提出了這個問題:如果我們不想讓人工智能控制我們,我們想要控制人工智能嗎?換句話說,人工智能有權(quán)利嗎?塔林認為這是不必要的擬人化。它假定智力等于意識,這一誤解惹惱了許多人工智能研究人員。當(dāng)天早些時候,CSER的研究員Jose Hernandez-Orallo開玩笑說,當(dāng)與人工智能研究人員交談時,意識毫無用處。
塔林認為意識無關(guān)緊要:“以恒溫器為例。沒有人會說它是有意識的。但是如果你在零下30度的房間里,和那個特工對質(zhì)真的很不方便?!?/p>
O hEigeartaigh也加入了進來?!皳?dān)心意識是件好事,”他說,“但如果我們沒有首先解決技術(shù)安全方面的挑戰(zhàn),我們就沒有那么多時間擔(dān)心意識?!?/p>
塔林說,人們過于關(guān)注什么是超智能人工智能。它將采取什么形式?我們應(yīng)該擔(dān)心一個人工智能來接管,還是一支由它們組成的軍隊?“從我們的角度來看,重要的是人工智能做了什么,”他強調(diào)說。他認為,這可能仍然取決于人類,就目前來看是這樣。
評論
查看更多