我們今天熟知的通用人工智能概念,始于紐約百老匯大道上一個失敗的互聯(lián)網(wǎng)公司。 這家公司名為 Webmind。20 年前,現(xiàn)任 DeepMind 首席科學家肖恩?萊格曾在此工作,公司老板是 AI 專家本?戈策爾。后來,萊格與德米斯?哈薩比斯、穆斯塔法?蘇萊曼一起創(chuàng)立 DeepMind。四年以后,谷歌以 5 億多美元買下這家公司?,F(xiàn)在,就人工智能的未來而言,萊格與戈策爾分別代表兩個分支,但這兩個分支同宗同源。
即便當時互聯(lián)網(wǎng)公司都風頭正盛,Webmind 置身其中,依然稱得上是野心勃勃。戈策爾希望開發(fā)出相當于嬰兒認知水平的數(shù)字大腦,將其放到互聯(lián)網(wǎng)上。他相信這一數(shù)字大腦將變得完全具有自我意識,并且超出人類水平。他在 1998 年對《基督教科學箴言報》表示:“我們正處于過渡階段,從規(guī)模上講相當于新智能誕生、或新語言出現(xiàn)。” Webmind 試圖開發(fā)一個可以預測金融市場行為的工具,來為自己籌集資金,但這個夢想沒有實現(xiàn)。在花光了 2000 萬美元之后,Webmind 關閉了辦公室,停止給員工發(fā)薪,并于 2001 年申請破產(chǎn)。
不過,萊格和戈策爾一直保持著聯(lián)系。幾年后,戈策爾編撰了一本有關超級 AI 的論文集,正是萊格幫他取了書名。據(jù)萊格回憶,當時他告訴戈策爾,“如果這是關于 AI 尚不具備的普遍功能,我們應該稱其為通用人工智能(下文簡稱 AGI)?!?AGI 一詞從此誕生,并沿用至今。 后來人們經(jīng)常用 AGI 指代和人類相似的 AI 或者超級 AI。但人們最常抱怨的也是 AGI 這個詞。Facebook 的 AI 負責人杰羅姆?佩森蒂就說過:“我不喜歡這個詞,我不懂這個名字到底代表什么?!? 人們往往以為,AGI 代表著機器意識或者會思考的機器人。
雖然許多支持 AGI 的人確實抱有如此夢想,但其實 AGI 更多是關于拓寬思考維度。如果我們研究出思維水平和人類相當甚至優(yōu)于人類的機器,而且這些機器思考速度很快、從不疲倦的話,那么解決現(xiàn)有問題會更有勝算。在 1965 年,計算機科學家古德便說:“只要發(fā)明出來第一臺超智能機器,人類便能一勞永逸。” 埃隆?馬斯克早期曾投資 DeepMind。他的預測總令人瞠目結舌,但是成千上萬的人都在關注他說了什么。幾個月前,他告訴《紐約時報》,五年內(nèi),我們就能研發(fā)出超級 AI。 5 月,佩森蒂對此作出回擊。
他發(fā)推文稱:“馬斯克就是在瞎扯。沒有 AGI 這樣的東西,我們要過很久才能開發(fā)出比得上人類的智能。” 馬斯克回復:“Facebook 垃圾。” 如此針鋒相對并不罕見。百度前 AI 負責人、Google Brain 聯(lián)合創(chuàng)始人吳恩達說:“別在 AGI 上浪費口舌了,還是先處理好緊急問題吧。” 紐約大學 AI 研究人員朱利安?托格里烏斯說:“相信 AGI 就像相信魔術一樣。這是在放棄理性思考,這是在對無法理解的事物表達希望或者恐懼?!?在推特上搜索 “#noAGI” 話題,會發(fā)現(xiàn)許多 AI 權威人士都參與了討論。其中便有 Facebook 首席 AI 科學家揚?勒昆,他于 2018 年獲得了圖靈獎。
但隨著 AlphaZero 取得棋盤游戲冠軍,GPT-3 生成的文本讓人們相信它們出自人類之手,這些進步又激起有關 AGI 的熱議。即便 AlphaZero 不會編寫故事,GPT-3 不會下棋,它們更無法論證寫故事和下棋為何重要,這些工具離 “通用人工智能” 依舊差得很遠,但是研發(fā) AGI 的目標再次變得可以接受,即使它們看起來依然很瘋狂。
一些大規(guī)模 AI 實驗室非??粗剡@個目標。OpenAI 表示,希望首先開發(fā)出具有人類推理能力的機器。DeepMind 雖然沒有公開承認,但一直在重復自己的使命為 “攻克智能”。兩家公司的高層人士都愿意從 AGI 角度出發(fā)討論這些目標。 萊格說:“在 21 世紀頭幾年講 AGI,大家會覺得你瘋了。甚至在 2010 年我們創(chuàng)立 DeepMind 的時候,去開會時還特別多人一臉不屑?!?但現(xiàn)在變了,“有些人還是不喜歡它,但 AGI 勢不可擋?!? 那么,為什么 AGI 會引起爭議?為什么 AGI 如此重要?它是一個不顧后果的誤導方向?還是人工智能的最終目標? 什么是 AGI?
這個詞已經(jīng)流行了十多年了,但是它所概括的想法已經(jīng)跨越了一代人的時間。 1956 年夏天,十幾位科學家在美國新罕布什爾州的達特茅斯學院相聚,一起做了個 “小” 研究項目。人工智能先驅約翰?麥卡錫、馬文?明斯基、納特?羅切斯特和克勞德?香農(nóng)率先宣傳了這個項目,并寫道:“該研究基于下列推測:原則上,我們可以精確描述學習的各個方面或智能的任何特征,并且能夠制造一臺機器來模擬。該研究將嘗試教會機器使用語言、有抽象能力、形成概念,能解決現(xiàn)在人類所面臨的各種問題,并且機器會自我改進?!?br />
科學家們認為,如有 10 人參與,兩個月便能完成項目。 到 1970 年,明斯基又大膽表示:“在三到八年內(nèi),我們將擁有一臺與普通人類智慧相當?shù)臋C器。也就是說,這臺機器可以閱讀莎士比亞的戲劇,給汽車加油,諳熟辦公室規(guī)則,講笑話,打架。那時,機器將開始以驚人的速度進行自我改進。再過幾個月,它將達到天才的水平。再過幾個月,它的力量將不可估量?!? 在這些關于 AI 的愿景中,有三點引人注目:接近人類水平的歸納能力、超快的自我改進能力(呈指數(shù)級增長)、極強的想象能力。但半個世紀以來,我們?nèi)匀粺o法創(chuàng)造出具有人類多任務處理能力的 AI,現(xiàn)在 AI 的多任務處理能力甚至都比不上昆蟲。
但也并非沒有傲人成就?,F(xiàn)在的機器可以使用語言、有視覺、能解決許多問題,已經(jīng)實現(xiàn)了當初不少目標。但如今的 AI 并不是先驅者想象的那樣接近人類水平。深度學習推動了 AI 蓬勃發(fā)展,能訓練機器掌握寫故事、下棋等能力,但 AI 無法同時做多件事。 有時,萊格將 AGI 視為多功能工具,認為 AGI 可以解決許多不同問題,可以不必為每一項挑戰(zhàn)都設計一個新的 AI。按照這種觀點,AGI 不會比 AlphaGo 或 GPT-3 更智能,而是會掌握更多功能。AGI 將是通用 AI,而不是高度發(fā)展的智能。但是萊格還認為,人類可以與 AGI 交際,就好像它也是人類。
他所描述的機器像是玩伴:如果可以與機器互動,給機器展示新的紙牌游戲,教機器玩,機器會問問題,然后一起玩游戲,那可太美了?!拔业膲粝氤烧媪??!?他說。 當人們談論通用人工智能時,通常會想到的是這些類似于人的能力。但稱其 “類似于人類”,既含糊又過于具體。人類是我們所擁有的通用智能的最佳典范,但人類也高度專業(yè)化。想一下動物智能的領域:從螞蟻的集體認知到烏鴉或章魚解決問題的技能,到更容易識別但仍不可知的黑猩猩的智能,這些都顯示出建立通用智能的方法有很多。
即便我們的確構建了通用人工智能,可能也無法完全理解它。當今的機器學習模型通常是 “黑匣子”,這意味著它們獲取準確結果的計算方式?jīng)]人可以理解。再加上能夠自我改進的超級智能,所以這就是為什么科幻小說經(jīng)常提供最簡單的類比。 有些人也會將意識或感知帶入通用人工智能的要求中。但如果智能就很難下定義,意識就更難了。哲學家和科學家尚不清楚人類到底是什么,更不用說計算機中的內(nèi)容了。智能可能需要某種程度的自我意識,能夠反思你對于世界的看法,但這并不一定與意識是同一回事,意識是體驗世界的感覺或是反思自己對世界看法的感覺。即使 AGI 最忠實的信徒也不能了解機器意識。 如何才能研發(fā)出通用人工智能?
萊格在整個職業(yè)生涯中一直在追求智能。 在離開 Webmind 之后,他與瑞士盧加諾大學的馬庫斯?哈特合作了一篇博士學位論文 “機器超級智能”。哈特目前也在 DeepMind 工作。 兩人發(fā)布了通用智能的方程式,萊格將其描述為衡量在大多數(shù)情況下實現(xiàn)目標的能力。他們表示,他們的數(shù)學定義與心理學中發(fā)現(xiàn)的許多智能理論相似,后者也從通用的角度定義了智能。 在 DeepMind,萊格將其理論變?yōu)閷嶋H演示,從在特定環(huán)境中實現(xiàn)特定目標(從游戲到蛋白質折疊)的 AI 開始。 接下來是棘手的部分:讓 AI 同時掌握多種能力。
深度學習是我們擁有的最通用的方法,因為一種深度學習算法可用于學習多個任務。AlphaZero 使用相同的算法來學習圍棋、將棋(日本的象棋游戲)和象棋。DeepMind 的雅達利 57 系統(tǒng)使用相同的算法來掌握每個雅達利電子游戲。但人工智能一次仍然只能學習一件事。掌握了象棋之后,AlphaZero 必須擦除其記憶,并從頭開始學習將棋。 萊格將這種通用性稱為 “只學一件事算法”,它與人類具有的 “唯一大腦” 不同。
他認為,總體來說,“只學一件事算法” 非常有用,但是卻不如 “唯一大腦” 那么有趣。因為人類不需要切換大腦,我們在玩象棋的時候不需要換上負責象棋的大腦。 把 “只學一件事算法” 轉變?yōu)?“唯一大腦”,這是人工智能面臨的最大挑戰(zhàn)之一。而且,擁有 “唯一大腦” 的人工智能仍然不是真正的智能,只是一個更好的 AGI—— 萊格的多功能工具而已。但無論是否要以 AGI 為目標,研究人員都認為當今的系統(tǒng)需要變得更加通用,對于那些以 AGI 為目標的人來說,一個有著更普遍目標的人工智能是必不可少的第一步。有很多方法可能會有所幫助。從已經(jīng)出現(xiàn)的新興技術到更激進的實驗都有。按技術的成熟程度排序,它們是:
無監(jiān)督或自主監(jiān)督學習。標記數(shù)據(jù)集(例如,用 “貓” 來標記所有貓的圖片),以告訴人工智能在訓練過程中它們看的是什么,這就是所謂監(jiān)督學習的關鍵。但大部分工作仍需人工完成,這成了主要瓶頸。人工智能需要能夠在沒有人類指導的情況下進行自我學習,例如,看著貓和狗的圖片,并學會在沒有人類幫助的情況下將它們區(qū)分開,或者不借助之前案例的標簽就能發(fā)現(xiàn)金融交易中的異常情況。這就是所謂的無監(jiān)督學習,現(xiàn)在正在變得越來越常見。
轉移學習,包括少量樣本學習。如今,大多數(shù)深度學習模型訓練一次只能做一件事情。轉移學習的目的是讓人工智能將一個任務的部分訓練內(nèi)容(如下象棋)轉移到另一項任務(如下圍棋)中。這就是人類的學習方式。
常識和因果推理。如果人工智能具有常識性的基礎,那么在任務之間轉移訓練內(nèi)容會比較容易。常識的關鍵部分是理解因果關系。目前,給人工智能賦予常識是一個熱門研究課題,其方法包括將簡單規(guī)則編碼到神經(jīng)網(wǎng)絡中,以及限制人工智能可能做出的預測。但是該研究工作仍處于初期階段。
學習優(yōu)化器。這些工具可用于塑造人工智能的學習方式,指導它們更有效地進行訓練。最近的工作表明,這些工具本身可以自我訓練 —— 實際上,這意味著一個人工智能可以用于訓練其他人工智能。這可能是邁向自我完善人工智能,以及通用人工智能目標的一小步。
所有這些研究領域都建立在深度學習之上,而這仍然是目前構建人工智能的最有前途的方法。深度學習依賴于神經(jīng)網(wǎng)絡,神經(jīng)網(wǎng)絡通常被描述為類似于大腦的結構,因為它們的數(shù)字神經(jīng)元受到生物神經(jīng)元的啟發(fā)。人類的智能是我們擁有的通用智能的最好案例,因此,從人類自身尋找靈感是很有意義的。 但是,大腦不僅僅是一個龐大的神經(jīng)元鏈接網(wǎng)絡。它們擁有可以相互協(xié)作的獨立組件。 例如,哈薩比斯和萊格見面時,他正在研究處理記憶的海馬體。哈薩比斯認為,人腦的通用智能部分來自于海馬體與皮質之間的交互作用。
這個想法造就了 DeepMind 的雅達利游戲人工智能機器,它使用了海馬體啟發(fā)式算法,稱為 DNC(差分神經(jīng)計算機),該算法將神經(jīng)網(wǎng)絡與專用內(nèi)存組件結合在一起。 像 DNC 之類的人造大腦組件有時被稱為認知架構。它們也在其他 DeepMind 的人工智能中發(fā)揮作用,例如 AlphaGo 和 AlphaZero,它們將兩個獨立的專用神經(jīng)網(wǎng)絡與搜索樹(一種較老的算法形式)結合在一起,有點像決策流程圖。像 GPT-3 這樣的語言模型將神經(jīng)網(wǎng)絡與更專業(yè)的神經(jīng)網(wǎng)絡(變壓器)結合在一起,后者能處理諸如文本之類的數(shù)據(jù)序列。
最終,所有可以建立通用人工智能的方法都歸結為兩個廣泛的思想流派。一種是,如果算法正確,你可以隨意選擇喜歡的認知架構來開發(fā)它們。像 OpenAI 這樣的實驗室似乎支持這種方法,它們建立了越來越大的機器學習模型,這些模型可以通過簡單粗暴的手段實現(xiàn)通用人工智能。 另一個流派認為,對深度學習的關注在拖后腿。如果通用人工智能的關鍵是弄清楚人造大腦的各個組件應該如何協(xié)同工作,那么過多地關注組件本身(即深度學習算法)就等于見樹不見林。正確構建認知架構,會讓研究人員幾乎可以在之后再考慮插入算法。
這是戈策爾所喜歡的方法,他的 OpenCog 項目試圖構建一個開放源代碼平臺,將不同部分整合到通用人工智能整體中。DeepMind 為了 AlphaGo 結合神經(jīng)網(wǎng)絡和搜索樹時,也探索了這一方法。 “我個人的感覺介于兩者之間。” 萊格說,“我懷疑只有非常少量的精心設計的算法才可以組合在一起,使 AGI 真正強大。” 戈策爾并不同意。
他說:“谷歌和 DeepMind 對通用人工智能的深入思考給我留下了深刻的印象(兩家公司現(xiàn)在都歸 Alphabet 所有),如果有任何一家大公司會創(chuàng)造出通用人工智能,那肯定就是他們?!? 但是也不要抱太大希望。由于幾十年來低估了這一挑戰(zhàn),除了馬斯克之外,幾乎沒有其他人愿意猜測通用人工智能何時會出現(xiàn)。即使戈策爾也不會冒險為他的目標設定一個特定的時間,他只是會說快了。毫無疑問,快速發(fā)展的深度學習(尤其是 GPT-3)因為模仿了某些人類的能力而提高了大家的期望。但是模仿不是智能。AGI 未來的發(fā)展道路上仍然有很大的障礙,研究人員仍然沒有深入了解它們,更不用說解決這些問題了。 “但是,如果我們繼續(xù)快速前進,誰知道未來會發(fā)生什么呢?” 萊格認為,在未來幾十年內(nèi),可能會出現(xiàn)一些非常強大的系統(tǒng)。 為什么 AGI 備受爭議?
沒人知道如何開發(fā) AGI 的部分原因是,幾乎沒有人對它的定義能達成一致。不同的方法反映了研究人員的不同目標,有些人希望能研發(fā)出多功能工具,有些人則希望能制造出一個超人。在讓人工智能更通用的方向上,我們邁出了一小步,但一個能夠解決不同問題的通用工具,和一個能夠解決人類無法解決的問題的工具之間存在著巨大的鴻溝?!叭斯ぶ悄茴I域取得了巨大進步,但這并不意味著 AGI 領域也有進步,” 吳恩達表示。 由于所有人都沒有證據(jù)表明 AGI 是否可以實現(xiàn),這就變成了一個信仰問題。托格里烏斯說:“這些爭論毫無意義。”
戈策爾不覺得爭議是什么大問題?!皟蛇叾加袠O端的人,” 他說,“但也有很多溫和派,而溫和派往往不會喋喋不休?!? 戈策爾把像吳恩達這樣的 AGI 懷疑論者放在一端,把他自己放在另一端。從他在 Webmind 開始工作時,就以 AGI 邊緣組織的名義向媒體示好。2014 年至 2018 年,他還擔任了香港漢森機器人技術公司的首席科學家。2016 年,這家公司推出了會說話的人形機器人索菲亞。比起前沿研究,索菲亞更像是主題公園的人體模特,它為戈策爾贏得了世界各地的新聞頭條。但就連他自己也承認,索菲亞只是一個 “展示類機器人”,而不是人工智能。
戈策爾獨特的作秀風格讓許多認真的人工智能研究人員與他保持距離。 他把蒙特利爾大學的人工智能研究員約舒亞?本喬這樣的人算成溫和派。本喬與揚?勒昆和杰弗里?辛頓在 2018 年共同獲得了圖靈獎。在 2014 年 AGI 會議的一場主題演講中,本喬表示,構建一個具有人類水平的人工智能是可能的,因為人腦也是一個機器,我們只需要弄清楚關于這個機器的謎題。但是他并不相信超級智能 —— 一種超越人類思維的機器。不管怎樣,他認為,除非我們找到一種方法讓計算機有常識和因果推理能力,否則 AGI 是無法實現(xiàn)的。 然而,吳恩達堅稱他并不反對 AGI。
“我認為 AGI 非常有吸引力,我很想去探究這個領域,” 他說,“如果我有很多空閑時間,我就會自己做?!?他在 Google Brain 工作期間,深度學習也發(fā)展得越來越強大,吳恩達和 OpenAI 一樣,也想知道單憑簡單地擴大神經(jīng)網(wǎng)絡是否可以成為通往 AGI 的道路。“但這些都只是問題,不是陳述,” 他表示,“人們現(xiàn)在開始對 AGI 提出具體主張,所以 AGI 就引起了爭議?!? 比起 AGI 何時能實現(xiàn)的狂妄看法,一個更有爭議的問題是,如果我們?nèi)纹浒l(fā)展,它能做些什么?對于這個問題,人們的猜測就跟科幻小說一樣。馬斯克說 AGI 將比核武器更危險。
目前在武漢大學工作的人工智能研究員雨果?德加里斯曾在本世紀初預測,AGI 將導致一場世界大戰(zhàn),并在本世紀末導致 “數(shù)十億人死亡”。被他稱為 “artilects” 的神一樣的機器,將與人類支持者 Cosmists 結盟,對抗人類反對者 Terrans。 德加里斯的文章與哈特和尤爾根?施米德胡貝(有時被稱為 “現(xiàn)代人工智能之父”)等嚴肅研究人員的文章一起,發(fā)表在戈策爾的 AGI 書中,這對支持人工智能的陣營沒有絲毫幫助。如果說 AGI 陣營中的許多人把自己看作是人工智能的火炬手,那么在 AGI 陣營之外的許多人則把他們看作瘋子,他們把對人工智能的想法攪合在一起,其中包含了 “奇點”(當能夠自我改進的機器超越人類時,一切就無法后退了),人類意識上傳到計算機,超人類主義和世界末日。 為什么 AGI 很重要?
幾十年前,當人工智能并沒有像明斯基等人大肆宣傳的那樣發(fā)展時,這個領域曾崩潰過許多次。資金鏈斷裂,但研究人員繼續(xù)前行。他們花了許多年才讓這項技術脫離 “人工智能的冬天”,并重新得到發(fā)展。然而,炒作仍然存在。 吳恩達說:“所有的人工智能冬天都是由不切實際的期望造成的,所以我們需要在每一個轉折點上與之斗爭。” 佩森蒂對此表示贊同,“我們需要控制這些炒作”。 更大的擔憂是,這些不切實際的期望會影響決策者。柏林赫爾蒂行政學院的 AI 研究人員喬安娜?布萊森表示,她目睹了董事會和政府中許多愚蠢的想法,因為那里的人對人工智能有著科幻般的看法。
這會讓他們產(chǎn)生諸如機器人接管之類的荒誕擔憂,而忽略了尚未解決的真正問題,比如通過扭曲的訓練數(shù)據(jù)將種族偏見編碼到人工智能中,算法如何工作能夠降低透明度,或者當人工智能做出錯誤決定時誰應該承擔責任。 這種炒作也讓投資者非常感興趣。馬斯克的資金幫助了真正的創(chuàng)新,但當他表示想資助存在風險的工作時,所有的研究人員都把他們的工作比作遙遠未來的威脅。布萊森說:“有些人真的相信可以研究出 AGI,但有些人只是為了錢、聲望和其他的東西。我不知道他們是否都對自己完全誠實?!? AGI 的吸引力并不令人驚訝。自我反省和創(chuàng)造是人類最重要的兩種活動。
按照我們的形象建造一臺機器的欲望是不可抗拒的。許多現(xiàn)在對 AGI 持批評態(tài)度的人在早期職業(yè)生涯中都用過它。像戈策爾一樣,布萊森花了幾年時間試圖制造一個人造嬰兒。2005 年,吳恩達在世界主要的人工智能大會 NeurIPS(后來被稱為 NIPS)組織了一個研討會,題目是 “走向人類水平的人工智能?” 但現(xiàn)在他說:“這簡直是瘋了?!?而現(xiàn)在經(jīng)常批評 AGI 爭論的勒昆,還給 AGI 做過主題演講。
后來,這些研究人員繼續(xù)研究了更實際的問題。但由于他們和其他人取得的進展,人們對 AGI 的期望再次高漲。萊格說:“這個領域的很多人都沒有期望過我們在過去幾年能取得這么大的進步。這是一個推力,使 AGI 變得更加可信?!? 即使是 AGI 懷疑論者也承認,這場爭論至少迫使研究人員開始思考這個領域的整體方向,而不是專注于下一個神經(jīng)網(wǎng)絡攻擊。托格里烏斯表示:“認真考慮 AGI 將我們帶到了真正迷人的地方。也許這個領域最大的進步是細化我們的愿景,試圖弄清楚我們想要的到底是什么?!?/p>
責任編輯:xj
原文標題:為何除了馬斯克,沒人愿意猜通用人工智能何時出現(xiàn)?
文章出處:【微信公眾號:DeepTech深科技】歡迎添加關注!文章轉載請注明出處。
-
互聯(lián)網(wǎng)
+關注
關注
54文章
11156瀏覽量
103323 -
人工智能
+關注
關注
1791文章
47282瀏覽量
238534 -
Agi
+關注
關注
0文章
80瀏覽量
10207
原文標題:為何除了馬斯克,沒人愿意猜通用人工智能何時出現(xiàn)?
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論