導(dǎo)讀:去年,一篇《AI寒冬將至》的文章在AI圈爆紅,作者觀點(diǎn)鮮明地指出AI領(lǐng)域出現(xiàn)泡沫,并預(yù)言AI寒冬將會(huì)到來,引起巨大爭議。
一年之后,這位作者又火力全開,針鋒相對。這次他將AI圈比作一個(gè)“馬戲團(tuán)”,除了調(diào)侃吳恩達(dá),吐槽OpenAI,Diss特斯拉,還通過各種隱喻、反諷評(píng)選出了他心中的2019年最大“小丑”的年度候選人之一:麻省理工學(xué)院的網(wǎng)紅研究員 Lex Fridman。
以下是正文。
介紹
自從我的文章《AI寒冬將至》發(fā)布并引起病毒式傳播之后大約一年,就像我承諾的那樣,我會(huì)定期更新AIG(通用人工智能)相關(guān)的文章。6個(gè)月前,我發(fā)布了其中一篇,現(xiàn)在是另一篇。最近有很多事情發(fā)生,但沒有什么能改變我的想法——人工智能的泡沫正在破滅。正如每一次泡沫破滅一樣,AI正處于井噴階段,那些最有可能一敗涂地的人正拿出他們最離譜的信心,上演一出讓更天真的人為他們掏腰包的最后把戲。冷靜一下,讓我們回顧過去一段時(shí)間發(fā)生了什么。
嚴(yán)肅的事情
首先讓我們回顧一下不是那么滑稽的事情。三位深度學(xué)習(xí)先驅(qū)——Geoffrey Hinton、Yoshua Bengio和 Yann Lecun 榮獲圖靈獎(jiǎng),這是計(jì)算機(jī)科學(xué)領(lǐng)域最負(fù)盛名的獎(jiǎng)項(xiàng)。如果你認(rèn)為我會(huì)以某種方式質(zhì)疑這個(gè)獎(jiǎng)項(xiàng)你就錯(cuò)了,我認(rèn)為深度學(xué)習(xí)拿下圖靈獎(jiǎng)實(shí)至名歸。在我個(gè)人看來,Jurgen Schmidthuber 被遺漏是一個(gè)遺憾。不管你對 Schmidthuber 有何看法,我覺得他有時(shí)是會(huì)讓人感到尷尬,但他對深度學(xué)習(xí)領(lǐng)域的貢獻(xiàn)毋庸置疑。
而且,所有這些家伙都很安靜,Hinton 終于開了 Twitter 賬戶,但是他一向謙虛低調(diào),并沒有發(fā)布任何我認(rèn)為不真實(shí)或過于熱情的推文。Yann LeCun 偶爾推廣他在 FAIR 的研究,但也沒什么不尋常的。同樣,Bengio 在社交媒體上并不活躍。
我關(guān)注的其他人也很安靜,李飛飛去年秋天結(jié)束了在谷歌云的工作并回到斯坦福,而吳恩達(dá)則異常安靜:也許是因?yàn)樗罱驳们Ы稹艺嬲\地祝賀他們夫妻兩個(gè),兩個(gè)月前我自己也有了一個(gè)孩子,我知道這是多么快樂的事,但也認(rèn)識(shí)到這個(gè) baby 可能會(huì)打亂他每周 90 個(gè)小時(shí)的工作安排,從而導(dǎo)致 AI 奇點(diǎn)到來的延遲。
過去幾個(gè)月,人工智能領(lǐng)域最熱鬧的一系列活動(dòng)圍繞 OpenAI 和特斯拉展開。
滑稽的事情
OpenAI——一個(gè)非營利性組織,其使命是解決通用人工智能(AGI)問題并確保所有發(fā)現(xiàn)對公眾開放,而不是由一些作惡的公司從中漁利。OpenAI 在 2 月份發(fā)布了文本生成模型 GPT-2。令所有人驚訝的是,他們沒有發(fā)布訓(xùn)練權(quán)重,理由是擔(dān)心可能發(fā)生誤用或在研究人員和 AI 群體中引起較大爭議。我不確定這些人為何聲稱“開放”,卻未發(fā)布模型的關(guān)鍵部分(順便說一下,如果他們不發(fā)布完整的模型,那我也可以懷疑 GPT-2 是使用亞馬遜的眾包平臺(tái)Mechanical Turk來實(shí)現(xiàn)的。)即使 GPT-2 生成了看似合理的文本,我也不確定如何濫用它來生成虛假新聞或垃圾郵件,或者真正將其用于娛樂之外的任何事情。
不管怎么說,最近 OpenAI顯然已經(jīng)不再開放了,開始打起了盈利的主意。是的,這個(gè)被認(rèn)為是十九世紀(jì)的普羅米修斯的組織,一群公正無私的研究員努力為整個(gè)人類點(diǎn)燃 AI 之火的修道院,從此變得不再開放,而是為了獲利。但是,他們?nèi)匀粓?jiān)持宏偉的使命,因?yàn)槠淅麧檶⒈幌拗啤總€(gè)投資者最多只能獲得成本 100 倍的回報(bào)。我能想到這背后的唯一原因,就是他們不能再作為非營利組織籌集資金了。
讓我們暫時(shí)放下這樣一個(gè)事實(shí),即到目前為止,該公司的利潤為零,并且組織形式和任何能想象到的創(chuàng)業(yè)公司不一樣(而是像一個(gè)研究實(shí)驗(yàn)室)。這也讓我們得到了一個(gè)令人驚喜的采訪,在這篇文章中,Sam Altman——一個(gè)和灣區(qū)聯(lián)系緊密的人,他曾經(jīng)營過 Y-combinator,現(xiàn)任(不再開放的)OpenAI 的首席執(zhí)行官,他為我們貢獻(xiàn)了這個(gè)炒作周期的一些金句。以下是其中的精華部分:
例如被問到,OpenAI 計(jì)劃如何賺錢(我們想知道它是否可能授權(quán)其部分工作的許可),Altman 回答道,“老實(shí)說我們不知道。我們從未有任何收入。目前也沒有盈利計(jì)劃,不知道有朝一日會(huì)如何產(chǎn)生收入?!?/p>
Altman 繼續(xù)說道,“我們向投資者做出了一個(gè)軟性承諾(soft promise),'一旦我們建立了一個(gè)通用的智能系統(tǒng),我們會(huì)基于它尋找獲得投資回報(bào)的方法?!碑?dāng)人群一陣爆笑時(shí),Altman 指出這聽起來像是影視劇《硅谷》的一幕,但他補(bǔ)充說,“你可以笑。沒關(guān)系。但它確實(shí)是我真正相信的?!?/p>
我不知道要說什么。我確定找出如何產(chǎn)生收入的方法應(yīng)該比弄清楚 AGI 要容易得多,但不是從炒作泡沫的扭曲邏輯中得出。簡而言之,這個(gè)命題是:我相信我們可以建立 AGI,雖然我真的沒有任何證據(jù),但我真的堅(jiān)信,如果你給我們數(shù)十億美元,我們就可以做到。
我也希望我能相信這一點(diǎn),但不幸的是這并不能說服我自己,我認(rèn)為 OpenAI 已經(jīng)變成了一個(gè)徹頭徹尾的騙局。OpenAI一些員工的推文進(jìn)一步證實(shí)了這一判斷:
Wojciech Zaremba,一個(gè)曾經(jīng)在紐約大學(xué)時(shí)非常理性的人(我在2015年與通過幾封電子郵件),現(xiàn)在已成為“信徒”。上面的這條推文漏洞百出,很難想象一個(gè)對數(shù)據(jù)和現(xiàn)實(shí)有理解,有信仰的科學(xué)家竟會(huì)說出這樣的話。但這就是這些看似聰明的人,他們相信灣區(qū)的回音室效應(yīng)( 回聲室效應(yīng):在一個(gè)相對封閉的環(huán)境上,一些意見相近的聲音不斷重復(fù),并以夸張或其他扭曲形式重復(fù),令處于相對封閉環(huán)境中的大多數(shù)人認(rèn)為這些扭曲的故事就是事實(shí)的全部),而且成千上萬的新人會(huì)盲目追隨。
具體來說:上述方法有數(shù)百萬種(我甚至不確定“方法”的含義)可能并不奏效(而且有大量證據(jù)表明確實(shí)不起作用)。一個(gè)潛在的原因:即使他們擁有所有這些數(shù)據(jù),也很可能存在偏見,因?yàn)槿藗兛桃獗苊饬诉吘壡闆r。另一個(gè)可能的原因是:邊緣情況是一個(gè)非常稀疏的集合,在統(tǒng)計(jì)上被“非邊緣情況”所淹沒。深度學(xué)習(xí)同時(shí)簡單地優(yōu)化所有數(shù)據(jù)點(diǎn)上的總損失,可以完全清洗掉特殊情況,并且每個(gè)特殊情況可能需要自己的數(shù)據(jù)進(jìn)行重新平衡/損失函數(shù)調(diào)整。此外,另一個(gè)原因是,即使在路上有 50 萬輛特斯拉,收集了所有的駕駛數(shù)據(jù)(實(shí)際上并沒有),如果邊緣情況是長尾且不穩(wěn)定的,它不能包含所有邊緣情況。(這類似于你可以在歷史股票市場數(shù)據(jù)上訓(xùn)練你想要的所有模型,但當(dāng)你用真錢賺錢時(shí),你可能比想象的更快破產(chǎn))。
另一個(gè)原因是道路上是人類司機(jī)的邊緣情況不同于道路上是自動(dòng)駕駛車的邊緣情況,并且確實(shí)在不斷變化。此外,也許最不明顯的原因是他們使用的特定深度網(wǎng)絡(luò)可能不具備表達(dá)它需要表達(dá)內(nèi)容的能力(即使假設(shè)其擁有訓(xùn)練需要的所有數(shù)據(jù))。感知器自80年代就已非常有名并作為通用的近似器,但它采用了非常特殊的微調(diào)架構(gòu) ConvNet,以及一系列技巧來改善收斂性,并用足夠數(shù)量的可訓(xùn)練參數(shù)來解決 ImageNet 問題。即使今天也沒有通用的全連接多層感知器能夠?qū)W習(xí)所有任務(wù)。即使擁有大量數(shù)據(jù),也需要進(jìn)行大量的調(diào)整和元參數(shù)搜索才能解決問題。
最后,即使原則上這一切都是可行的,但目前尚不清楚這是否可以在特斯拉內(nèi)置計(jì)算機(jī)上實(shí)現(xiàn)。 其他廠商的自動(dòng)駕駛車輛都使用了激光雷達(dá),雖然價(jià)格昂貴,但它解決了特斯拉試圖通過 AI 解決的大部分問題(例如避障和可穿越性),成熟的游戲 GPU 都可以提供比特斯拉最新硬件更強(qiáng)的計(jì)算能力。然而,根據(jù)我們的數(shù)據(jù),很明顯沒有產(chǎn)品接近完全自動(dòng)駕駛。所以,這就是為什么特斯拉的自動(dòng)駕駛方法不一定有效的原因,這是任何一個(gè)稱職的的數(shù)據(jù)科學(xué)家即使在喝過一瓶伏特加之后都能背出來的原因。
說到特斯拉的自動(dòng)駕駛,現(xiàn)在有一些大膽的宣言,例如特斯拉將在 2020 年將擁有 100 萬輛自動(dòng)駕駛出租車,但我認(rèn)為這種可能性為零。我已經(jīng)表達(dá)了對 Elon Musk 以及他瘋狂的承諾的看法,我不想在這篇文章中浪費(fèi)時(shí)間(坦白說我不想引起特斯拉粉絲的關(guān)注,我要讓他們活在自己的幻想世界)。
但是,我們不妨從另一個(gè)角度來看特斯拉,因?yàn)榻衲暝缧r(shí)候有了一些有趣的進(jìn)展:麻省理工學(xué)院的研究科學(xué)家 Lex Fridman 發(fā)表了一項(xiàng)研究,他聲稱(與幾位合著者一起)與大量描述人機(jī)交互的文獻(xiàn)相反,使用 autopilot 的司機(jī)依然能保持保持警惕和專心。該研究本身存在很大爭議,如Anima Anandkumar(英偉達(dá)研究主任)試圖勸他將這項(xiàng)研究在任何華而不實(shí)的炒作之前提交給同行評(píng)審,為此她在 Twitter 上被 Lex 封殺。
當(dāng)這項(xiàng)研究成為頭條新聞時(shí)(讓我們強(qiáng)調(diào)一下:一項(xiàng)未被評(píng)審的研究),F(xiàn)ridman(一個(gè)基本公開的特斯拉粉絲)發(fā)推特說,特斯拉和馬斯克都與這項(xiàng)研究無關(guān)(這對特斯拉是有利的),隨后刪除了那些推特,然后發(fā)了一些關(guān)于誠信的東西(也許是因?yàn)樗硭?dāng)然地覺得有人在質(zhì)疑),而兩周后,他被邀請和馬斯克一起上播客節(jié)目,然后他自己被邀請去見Joe Rogan。他利用這兩個(gè)場合無恥地推銷自己,這也是他一直在做的事情。
我不會(huì)在這里詳細(xì)介紹論文本身的細(xì)節(jié),有興趣的讀者可以看看 Duke Cummings 的一個(gè)很棒的播客采訪,這位杜克大學(xué)的人機(jī)交互教授詳細(xì)介紹了這篇論文的缺陷。
基于上述 AI 領(lǐng)域的發(fā)展,我正式將 Lex Fridman 列為 2019 年人工智能領(lǐng)域最大的“小丑”候選人。盡管現(xiàn)在仍是年中,但我認(rèn)為他獲勝的幾率非常大。
回到特斯拉,NTSB 發(fā)布了佛羅里達(dá)特斯拉撞人致死案的初步報(bào)告,表明(毫無意外)autopilot 確實(shí)是引起這一事件的原因。這至少是第四次有記錄在案的 autopilot 致死事件。雖然這在總體上看來不算很多,但應(yīng)該注意的是,凱迪拉克的一個(gè)類似的 ADAS 系統(tǒng)——超級(jí)巡航(Super Cruise)在寫這篇文章時(shí)的報(bào)告結(jié)果為零傷亡(甚至沒有看起來是系統(tǒng)故障引起的事故)。微妙的區(qū)別在于 Super Cruise 有一個(gè)駕駛員監(jiān)控系統(tǒng),可以確保駕駛員保持警惕,而特斯拉則沒有。
此后,又有兩家 AI /機(jī)器人公司 Jibo 和 Anki 倒閉了。Jibo 對我個(gè)人而言是一個(gè)特別有趣的案例,因?yàn)楫?dāng)我在看到他們的眾籌平臺(tái)活動(dòng)時(shí),我就知道它的結(jié)局。該項(xiàng)目由麻省理工學(xué)院的研究員 Cynthia Braezeal 創(chuàng)立,該項(xiàng)目啟動(dòng)之初便獲得了大家的信任,但他們當(dāng)時(shí)承諾的功能甚至現(xiàn)在也根本不可能實(shí)現(xiàn),盡管如此,這家公司依然獲得了約 7200 萬美元的資金。
麻省理工學(xué)院到底是怎么了?先是 Cynthia Braezeal,他聲稱是機(jī)器人技術(shù)專家,但卻沒有意識(shí)到他給 Jibo 的承諾顯然并不現(xiàn)實(shí),之后是 Lex Fridman 把自己變成了一個(gè)小丑(雖然麻省理工學(xué)院表明,他只是一名聘請的研究科學(xué)家,而不是麻省理工學(xué)院的畢業(yè)生)。
除此之外,據(jù)報(bào)道,安大略省政府決定削減對人工智能的支出,其中包括 Hinton 的 Vector Institute,這引起了人工智能界的極大憤怒。這真的只是即將到來的AI寒冬的第一次嚴(yán)重凍傷,我建議所有為此憤怒的人應(yīng)該多找些御寒的衣服,或者換份工作。
總結(jié)
這就是 2019 年中人工智能所處的狀態(tài)。正如我所料,這一領(lǐng)域變得越來越荒謬,基本上是一個(gè)小丑秀。我想,我們很快就會(huì)知道,就像我一開始就在博客里說的一樣,所有人工智能泡沫確實(shí)只是一個(gè)笑話。
-
人機(jī)交互
+關(guān)注
關(guān)注
12文章
1209瀏覽量
55432 -
人工智能
+關(guān)注
關(guān)注
1792文章
47409瀏覽量
238923 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5507瀏覽量
121272
原文標(biāo)題:調(diào)侃吳恩達(dá),Diss特斯拉,吐槽OpenAI…《AI寒冬將至》作者點(diǎn)評(píng)2019“AI小丑秀”
文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評(píng)論請先 登錄
相關(guān)推薦
評(píng)論