最近十年,隨著算力的改進(jìn)和數(shù)據(jù)的豐富,AI取得了一些實質(zhì)性的進(jìn)展,再加上AlphaGo戰(zhàn)勝圍棋世界冠軍等吸引眼球的事件的渲染。各路對AI開始了各種夸張的預(yù)測。這些預(yù)測往往不是好上天,就是壞到底,令人無所適從。究竟什么才是預(yù)測AI的正確姿勢呢?Adrien Book提出了預(yù)測AI的十項原則。原文發(fā)表在Medium上,標(biāo)題是:10 Rules for Artificial Intelligence Predictions。
劃重點:
在短期內(nèi)我們會高估人工智能所能達(dá)到的效果
從長期看,我們又會低估人工智能所能發(fā)揮的作用
摩爾定律未必適用人工智能
討論AI的時候正確地用詞很重要
人工智能遠(yuǎn)沒有人類的智能強大
人工智能不是憑空出現(xiàn)的
不要像好萊塢那樣
我們不想要像人一樣的AI
大多數(shù)的CEO其實跟你一樣困惑
人工智能沒法解決所有問題
在對AI的未來做出預(yù)測時,必須遵守一些規(guī)則,以免被認(rèn)為是“胡說八道”。不管你想用什么樣的方式、形態(tài)或者形式預(yù)測AI未來,都需要考慮以下幾條原則。
1.在短期內(nèi)我們會高估人工智能所能達(dá)到的效果
阿瑪拉定律的第一部分(人們總是高估一項科技所帶來的短期效益)跟這個數(shù)字時代最相關(guān),因為我們總是會被那些浮夸的頭條新聞和點擊誘餌吸引,尤其是AI所引發(fā)的自動化方面的新聞。
的確,一直以來都有大量的研究項目對自動化導(dǎo)致失業(yè)問題做出了各種各樣的預(yù)測,但這些預(yù)測的差異有上千萬之巨,甚至在類似的時間框架下對比也是如此。這種預(yù)測是不負(fù)責(zé)任的,因為未來的立法可能會把其中的一個預(yù)測用作新法律的基礎(chǔ),所以預(yù)測必須采取準(zhǔn)確的計算方法。實際上,對于大多數(shù)工人來說現(xiàn)在還用不著恐慌:自動化會出現(xiàn)三波不同的浪潮,而我們現(xiàn)在還剛剛站在第一波上。由于有了通過機器學(xué)習(xí)訓(xùn)練而來的“基礎(chǔ)”AI,所以數(shù)據(jù)分析和理論上簡單的數(shù)字任務(wù)也許已經(jīng)過時了,但是在未來幾年內(nèi)這種情況不太可能有進(jìn)一步的發(fā)展。
在寫AI方面的文章時,不要被夸大其詞沖昏頭腦,以免被那些更懂行的人(顯然也是受人尊重和欽佩,你應(yīng)該努力成為的人)歸類成有一個狂熱分子。
2.從長期看,我們又會低估人工智能所能發(fā)揮的作用
這有把我們引向了硬幣的另一面??苹脨酆迷趯ξ磥?0到50年進(jìn)行分析時往往不能完全接受未來的不確定性。這一般有三方面的原因:一是有太多的不可預(yù)測性,二是缺乏足夠的想象力,以及對預(yù)測缺乏一種“我死之后”(après moi, le déluge)的態(tài)度。
1950年代那時候的人以為,一切可以發(fā)明的東西都已經(jīng)被發(fā)明出來了,對于AI我們?nèi)匀粫^續(xù)看到這種態(tài)度。是,機器學(xué)習(xí)好像只能走得那么遠(yuǎn)了:事實上,人工智能的突破已經(jīng)很少,而且似乎需要的資金、數(shù)據(jù)和計算能力也越來越多。人工智能的最新進(jìn)展主要是工程上而不是科學(xué)上的,甚至不過是些修修補補罷了。但是,通過重建超越了“反向傳播”和“深度學(xué)習(xí)”的模型來讓AI煥發(fā)新生并不是人力所不能為。
技術(shù)發(fā)揮作用的方式一貫都是這樣的:逐漸地,然后突然間。沒有人知道未來會變成什么樣,所以我說要玩就玩大的,要么就回家。這是業(yè)余的技術(shù)預(yù)測者有可能預(yù)測對的唯一方法。不管怎樣,到2040年的時候,大多數(shù)對2060年的瘋狂預(yù)測似乎都會變得古怪而過時的。
3.摩爾定律未必適用人工智能
雖然我們可能會喜歡上面提出的觀點,但通往未來的道路有可能是坎坷不平的,而且絕不是可以預(yù)測的。
我們不能指望依靠摩爾定律之類的東西去看透水晶球里面的東西。就像前面所說那樣,大多數(shù)(如果不是全部的話)對AI的現(xiàn)代應(yīng)用都是機器學(xué)習(xí)的產(chǎn)物,這跟大多數(shù)科幻電影所設(shè)想的AI都相去甚遠(yuǎn)。實際上,機器學(xué)習(xí)是件相當(dāng)乏味的事情。這項技術(shù)自1990年代以來就一直存在,而且它的理論前提自1970年代就開始了。那現(xiàn)在的AI新在哪里呢?新在大數(shù)據(jù)、存儲能力以及計算能力的進(jìn)步和結(jié)合。所以,任何爆發(fā)式和指數(shù)式的技術(shù)改進(jìn)的想法都是沒有根據(jù)的。
在出現(xiàn)一些令人興奮的新技術(shù)之前,我們可能會停滯數(shù)年。所以,請不要把所有的預(yù)測雞蛋都放進(jìn)同一個AI籃子里面。
4.討論AI的時候正確地用詞很重要
一般來說,克拉克第三定律似乎非常適用我們對AI的討論方式:任何非常先進(jìn)的技術(shù),初看都與魔法無異。但這不是事實,跟事實差得遠(yuǎn)了。這種措辭上的失敗在將來有可能會成為一個問題。
就像前幾篇文章提到過那樣,人工智能的用詞一直在彌賽亞式的夢想與對世界末日的幻象之間糾纏不清,對“超然”,“使命”,“傳道者”以及“先知”之類的詞匯都進(jìn)行了重新詮釋。馬斯克本人2014年的時候甚至說過:“人類發(fā)展一般人工智能跟召喚惡魔等同”。這些夸張的詞匯跟那些不知道該說什么好的人沒什么區(qū)別,就像愛因斯坦和霍金曾經(jīng)做過一樣,只能呢個在熟悉的形而上的詞匯里面尋求庇護。
盡管偽裝成理論學(xué)說的倡導(dǎo)項目可能仍然有用,但我擔(dān)心我們可能會因此對AI產(chǎn)生錯誤的想法,因為我們使用的語言已經(jīng)過時且不適應(yīng)現(xiàn)實。一旦涉及到魔術(shù)之后,任何渴望或害怕的結(jié)果都可以輕易推導(dǎo)出來。換句話說,也許我們需要少研究一點人工智能的“智能”部分,多思考一下“人工”那部分。
在預(yù)測AI的時候,請使用正確的詞匯,以免那群瘋子把你推舉為新的邪教領(lǐng)袖。
5.人工智能遠(yuǎn)沒有人類的智能強大
而且不會持續(xù)很長的時間。
比方說,圍繞著廣泛主題進(jìn)行的開放式對話還沒有任何進(jìn)展。據(jù)稱是人工智能能力市場領(lǐng)導(dǎo)者的Google(有著更多的研究人員,更多的數(shù)據(jù)以及更強大的計算能力),只能產(chǎn)生一種能夠按照非常特定的腳本預(yù)約餐廳或理發(fā)師的人工智能。在經(jīng)常需要仍共輸入?yún)⑴c的自動駕駛汽車方面,最近也只能得出類似的結(jié)論。
一個人可以理解A對B對C的看法是什么。就處理規(guī)模而言,這至少還需要數(shù)十年的時間機器才能實現(xiàn)。但從人類的角度來看,這不過是閑聊罷了。正是因為自身存在缺陷,人類反而變得更好,因為推斷、說謊和掩飾自己的真實意圖是沒法通過數(shù)據(jù)學(xué)到的。
對AI做出短期和中期預(yù)測時,不要把人工智能跟人類智能拿來類比。這看起來很愚蠢。
6.人工智能不是憑空出現(xiàn)的
作為AI的“造物主”,控制機器人的影響力(不管到頭來它的影響力是如何的平庸)是我們的責(zé)任,但無論如何,機器人的影響可能是事實。這主要可以通過識別出對適當(dāng)、道德、負(fù)責(zé)任的框架的需求以及哲學(xué)邊界來實現(xiàn)。尤其是,需要政府的介入,因為企業(yè)不太可能為了社會利益而放棄利潤。
那些預(yù)測AI未來狀態(tài)的作者必須停止用那種這是不可避免的方式來討論潛在的后果。這會影響那些對自己的數(shù)據(jù)的使用方式,對機器人方面的規(guī)則,以及任何足夠先進(jìn)的AI的道德規(guī)范可以也應(yīng)該有發(fā)言權(quán)的人的判斷力。
要大聲說出來。要呼吁進(jìn)行適當(dāng)?shù)墓苤啤Hネ镀?。所有這些都會以這樣或者那樣的方式對AI產(chǎn)生影響。不要讓硅谷說他們的發(fā)明是“價值中立”的。他們開發(fā)了它,可以(也應(yīng)該)在需要的時候?qū)ζ溥M(jìn)行修復(fù)。
7.不要像好萊塢那樣
這個世界不太可能在短期內(nèi)看到自己的HAL / SHODAN / Ultron / SkyNet / GLaDOS帶來末日啟示錄。但是,電影給人的感覺似乎是這件事情在我們有生之年就會出現(xiàn)。
《機械姬》(Ex Machina) ,《我,機器人》(I, Robot),《攻殼機動隊》(Ghost in the Shell),《超能查派》(Chappie) ,《她》(Her),《機器人瓦力》(Wall-E),《人工智能》(AI),《2001太空漫游》(Space Odyssey),《銀翼殺手》(Blade Runner)……這些作品都表明來好萊塢把智力和智慧給混淆了。AI沒法無視對它的編程。這根本不可能?!皺C器有靈魂”不是說沒可能,但只能以意想不到的快捷方式出現(xiàn),比方說AI可能會利用Atari游戲里面的bug來作弊。這是意外,但基本都在機器的編程之內(nèi),這一點也突出表明了需要對算法有更好的理解。
好萊塢還忽視了軟件和硬件之間的區(qū)別。是,我們有了可以在國際象棋這個項目上擊敗人類的人工智能,但是人類賽后可以回家喝茶,自己做點宜家家具,可以去踢足球。那機器人能走嗎?你知道那些笨拙的機器人要花多少錢嗎?好幾百萬!
為了跟好萊塢版AI引發(fā)的無限恐懼做斗爭,我們需要了解什么是人工智能,什么不是人工智能。人工智能成為怪物的可能性非常低。好萊塢已經(jīng)是怪物了。不要被它的騙局蒙蔽了。
8.我們不想要像人一樣的AI
我們不僅沒法做出自己的天網(wǎng)(SkyNet),而且可能永遠(yuǎn)也不想做這樣的東西。
盡管通過圖靈測試對于機器(以及做機器的工程師)來說無疑構(gòu)成了一個有趣的挑戰(zhàn),但這其實并不是AI的目標(biāo)。因為做AI的是我們。人工智能研究想要開發(fā)出可以感知環(huán)境并成功實現(xiàn)特定目標(biāo)的程序,而且在很多情況下,這個目標(biāo)都不會是冒充成人類。
實際上,冒充人類只會帶來一個邪惡的結(jié)果,這就是為什么我們應(yīng)該對任何聲稱能夠做到這一點的公司保持警惕的原因所在。做出能夠幫助人類而不是模仿人類的東西要有利可圖得多。
如果制造機器的公司沒法找到合乎道德的方式來提供可觀的投資回報的話,那制造出可以模仿人類的機器又有什么用呢?
9.大多數(shù)的CEO其實跟你一樣困惑
下面幾段引文可以完美地說明很多CEO在行業(yè)發(fā)生巨變時所遭受的損失有多大:
當(dāng)亞歷山大·格雷厄姆·貝爾(Alexander Graham Bell)給西聯(lián)匯款行長卡爾·奧頓(Carl Orton)開價10萬美元提供電話使用權(quán)時,奧頓答道:
“我們公司可以拿這個電子玩具來干什么呢?”
幾年后,(1943年)IBM總裁托馬斯·沃森(Thomas Watson)開玩笑說:
“我覺得全世界大概只需要五臺計算夠了?!?/p>
后來盡管市場的確擴大了,數(shù)字設(shè)備公司(DEC,Digital Equipment Corporation)的創(chuàng)始人Ken Olsen也緊隨沃森的后塵,他在1977年的時候說:
“任何人都沒理由想在家里有臺電腦。”
以及這條我的最愛:2008年在被問到流媒體的問題時,百視達(dá)(Blockbuster) CEO Jim Keyes大聲地宣布:
“不管是RedBox還是Netflix,在競爭方面都沒有入我們的法眼。”
人工智能會改變的不是一個行業(yè),而是會改變所有行業(yè),有時候是大規(guī)模的改變,有時只會改變一點點。如果你跟我一樣也是戰(zhàn)略顧問的話,請務(wù)必要非常注意自己的措辭。如果你的對話者問你什么是反向傳播算法的話,最好從頭開始開始你們的對話。要非常慢。
10.人工智能沒法解決所有問題
盡管人工智能會改變所有的行業(yè),但這絕不意味著它會改變一切并拯救世界。如前面所述,我們對AI的能力過于高估了,并往往會賦予它之前沒有的品質(zhì)。
全球饑餓、戰(zhàn)爭、疾病、全球變暖······所有這些仍然是我們?nèi)祟惖呢?zé)任,任何人要是推卸責(zé)任都應(yīng)該感到羞恥。在讓機器人為我們解決所有問題之前,我們需要先做出自己的努力:為我們過去所有的這些低效率開脫實在是太容易了。
歸根結(jié)底,人工智能不過是社會,社會的勝利以及不平等的一面黑鏡而已。也許,只是也許,人工智能研究為我們帶來的最好的收獲不是對技術(shù)有了更好的了解,而是對我們自己有了更好的了解。
? ? ? ?責(zé)任編輯:tzh
評論
查看更多