繼去年“AI寒冬論”一文引燃AI圈,作者再次重磅發(fā)文總結(jié)了這一年來(lái)人工智能的總體情況,并將AI圈形容為馬戲團(tuán)。吳恩達(dá)生寶寶被調(diào)侃,OpenAI和特斯遭猛懟,MIT網(wǎng)紅研究員成年度“小丑”候選人。并發(fā)出勸告:所有AI人士趕緊尋找過(guò)冬的棉衣,或者干脆換一份工作吧!
去年,一篇AI寒冬論的文章在人工智能圈內(nèi)成為爆款,文章鮮明的指出:深度學(xué)習(xí)到頂,AI寒冬將至!隨即,便在AI圈引發(fā)熱議。
而時(shí)隔一年,AI寒冬論作者Piekniewski如約而至,再次發(fā)布文章總結(jié)了這一年來(lái)關(guān)于人工智能的總體情況。
而此次作者拋出的觀點(diǎn)是——AI圈就是個(gè)馬戲團(tuán)。
Piekniewski在這篇火力全開(kāi)的文章中槽點(diǎn)如下:
AI大咖們依舊非常安靜;
AI圈內(nèi)年度兩大騙局:OpenAI、特斯拉;
AI年度“小丑”候選人:MIT網(wǎng)紅研究員 Lex Fridman。
最后,作者依舊保持“AI寒冬論”的觀點(diǎn):
這真的只是即將到來(lái)的AI寒冬的第一次凜冽寒風(fēng),我建議所有AI人士趕緊尋找過(guò)冬的棉衣,或者干脆換一份工作吧。
以下是文章全文。
“AI馬戲團(tuán)”:序
自我發(fā)布《AI寒冬將至》已經(jīng)過(guò)去一年的時(shí)間了,就像我承諾的那樣,我將定期發(fā)布一個(gè)關(guān)于人工智能的總體情況的更新?,F(xiàn)在是時(shí)候發(fā)布另一篇文章了。
最近在AI圈發(fā)生了許多事情,但都沒(méi)有改變我的想法——人工智能泡沫正在破裂。正如每一次泡沫破滅一樣,AI正處于井噴階段,那些最有可能一敗涂地的人正拿出他們最荒唐的自信,上演一出讓更天真的人為他們掏腰包的最后把戲。
且讓我們看一下這段時(shí)間都發(fā)生了什么。
“AI馬戲團(tuán)”開(kāi)場(chǎng)節(jié)目:大咖們都很安靜
首先,讓我們看看那些看似并不滑稽的事情。
深度學(xué)習(xí)三位創(chuàng)始人,Geoffrey Hinton、Yoshua Bengio 和 Yann Lecun獲得了圖靈獎(jiǎng)。如果你認(rèn)為我會(huì)以某種方式質(zhì)疑這件事情,那么不好意思,讓你失望了,我認(rèn)為深度學(xué)習(xí)獲得圖靈獎(jiǎng)是實(shí)至名歸。
但在我個(gè)人看來(lái),有一件事給人留下了不好的印象,那就是Jürgen Schmidhuber缺席了此次獎(jiǎng)項(xiàng)。我同意他有時(shí)候會(huì)讓人感到尷尬,但他對(duì)于深度學(xué)習(xí)領(lǐng)域的貢獻(xiàn)是不可否認(rèn)的。
順便說(shuō)一下,所有這些家伙都很“安靜”。Hinton最終確實(shí)有了自己Twitter賬號(hào),但是他屬于謙虛的風(fēng)格,沒(méi)有發(fā)布任何我認(rèn)為不真實(shí)或過(guò)于熱情的推文。 Yann Lecun偶爾在FAIR推廣他的研究,但這也沒(méi)什么不尋常的。 同樣,Bengio在社交媒體上也并不活躍。
而我最為欣賞和喜歡的一群人也比較安靜。李飛飛去年秋天離開(kāi)了谷歌云回到斯坦福;吳恩達(dá)異常的安靜,也許是因?yàn)樗罱辛艘粋€(gè)孩子(我真誠(chéng)祝賀他和他的妻子)。
我非常理解擁有孩子的幸福,因?yàn)槲仪皟蓚€(gè)月也有了自己的寶寶,但同時(shí)我也意識(shí)到,孩子的誕生可能或多或少的影響他每周90小時(shí)的工作時(shí)間,不可避免的延遲了人工智能奇點(diǎn)。
在過(guò)去幾個(gè)月里,人工智能領(lǐng)域中最搞笑的一系列事件是圍繞著Open AI和特斯拉展開(kāi)的。
“AI馬戲團(tuán)”精彩騙局一:OpenAI不open
OpenAI,一個(gè)非營(yíng)利性組織,其使命是解決通用人工智能(AGI)問(wèn)題并確保他們的研究成果對(duì)公眾開(kāi)放,而不是被一些心存惡意的公司利用。
OpenAI于今年2月發(fā)布的文本生成模型GPT-2。令所有人驚訝的是,他們并沒(méi)有對(duì)此開(kāi)源,理由是擔(dān)心可能存在濫用,或者在研究人員和人工智能人群中引發(fā)了明顯的爭(zhēng)議。
我不確定這些家伙怎么能聲稱他們是“open”的,但是他們確實(shí)沒(méi)有發(fā)布模型的關(guān)鍵部分。盡管GPT-2生成的文本看起來(lái)很合理,但我不確定人們?nèi)绾文軌驗(yàn)E用它來(lái)生成假新聞或垃圾郵件,或者真正地將其用于娛樂(lè)之外的任何事情。
無(wú)論如何,最近 OpenAI 顯然已經(jīng)不再開(kāi)源你了,它提出了一個(gè)盈利的想法。
沒(méi)錯(cuò),這個(gè)組織曾被認(rèn)為是十九世紀(jì)的普羅米修斯,這個(gè)由公正無(wú)私的研究人員組成的修道院正努力為整個(gè)人類提供人工智能的火焰,但現(xiàn)在它已經(jīng)不再開(kāi)放,實(shí)際上卻是為了盈利。
但是,他們?nèi)匀粓?jiān)持這個(gè)宏偉的使命,因?yàn)槔麧?rùn)將受到限制——每個(gè)投資者最多只能獲得成本 100 倍的回報(bào)。我能想到的唯一幕后原因是他們不能再以非營(yíng)利組織的身份籌集資金了。
讓我們暫時(shí)把這樣一個(gè)事實(shí)放在一邊,即該公司迄今為止的利潤(rùn)為零,而且它的結(jié)構(gòu)不像任何想象中的初創(chuàng)企業(yè)(而是像一個(gè)研究實(shí)驗(yàn)室)。在采訪 OpenAI 現(xiàn)任首席執(zhí)行官Sam Altman的一篇文章中,我們發(fā)現(xiàn)了一些有關(guān)“炒作周期”的言論。我截取了這篇采訪文章中較為精彩的部分:
例如,當(dāng)被問(wèn)及OpenAI計(jì)劃如何賺錢(我們想知道它是否可能授權(quán)其部分工作)時(shí),Altman回答說(shuō),“誠(chéng)實(shí)的答案是,我們不知道。我們從來(lái)沒(méi)有賺過(guò)錢。我們目前沒(méi)有創(chuàng)收的計(jì)劃。我們不知道有一天我們將如何產(chǎn)生收入?!?/p>
Altman繼續(xù)說(shuō)道:“我們已經(jīng)向投資者做出了一個(gè)溫和的承諾,‘一旦我們建立了一個(gè)通用智能系統(tǒng),我們基本上會(huì)要求它為你找到一種投資回報(bào)的方式?!碑?dāng)觀眾爆發(fā)出一陣笑聲(并不能馬上看出他是認(rèn)真的)時(shí),Altman自己說(shuō),這聽(tīng)起來(lái)像是《硅谷》(Silicon Valley)中的一集,但他補(bǔ)充說(shuō),“你可以笑。沒(méi)關(guān)系。但這是我真正相信的?!?/p>
是的。我不知道該補(bǔ)充些什么。我確信,計(jì)算出如何產(chǎn)生收入應(yīng)該比計(jì)算出AGI要容易得多,但不是按照炒作泡沫的扭曲邏輯。簡(jiǎn)而言之,我的主張是:我相信我們可以建立AGI,盡管我真的沒(méi)有任何證據(jù),但我確實(shí)堅(jiān)信,如果你給我們數(shù)十億美元,我們可以做到。
我希望我也能相信這一點(diǎn),但不幸的是,我不相信,我認(rèn)為 OpenAI 已經(jīng)變成了一個(gè)徹頭徹尾的騙局。
“AI馬戲團(tuán)”精彩騙局二:特斯拉依舊沒(méi)戲
通過(guò)觀察一些公開(kāi)的人工智能相關(guān)用戶的推文,這種判斷得到了進(jìn)一步的證實(shí),例如:
Wojciech Zaremba在紐約大學(xué)(NYU)讀書(shū)時(shí)是一個(gè)非常理性的人(我在2015年與他交換了幾封電子郵件),現(xiàn)在他成了一個(gè)“信徒”。
上面的這條推文有很多錯(cuò)誤,甚至很難想象一個(gè)對(duì)數(shù)據(jù)和現(xiàn)實(shí)有一定理解并且作為科學(xué)家的人都可以這樣說(shuō)。但這正是這些看似聰明的人在舊金山灣區(qū)回音室(echo chamber)里所相信的,而該領(lǐng)域成千上萬(wàn)的年輕大一新生也盲目追隨。
具體來(lái)說(shuō):上面描述的方法(我甚至不確定“方法”到底是什么意思)可能有數(shù)百萬(wàn)種方法不起作用(有大量證據(jù)表明它確實(shí)不起作用)。
一個(gè)潛在的原因是:即使他們擁有所有的數(shù)據(jù),它也很可能是有偏見(jiàn)的,因?yàn)槿藗兠鞔_地避免了邊緣情況。另一個(gè)潛在的原因是:邊緣情況是一個(gè)非常稀疏的集合,統(tǒng)計(jì)上被“非邊緣情況”淹沒(méi)。
在對(duì)所有數(shù)據(jù)點(diǎn)進(jìn)行全面損失優(yōu)化的同時(shí)進(jìn)行深度學(xué)習(xí),這可能會(huì)徹底消除極端情況,而且每個(gè)極端情況可能需要自己的數(shù)據(jù)再平衡/損失函數(shù)調(diào)優(yōu)。
第三個(gè)原因是,假設(shè)路上有50萬(wàn)臺(tái)特斯拉,即使他們收集了所有的駕駛數(shù)據(jù)(他們沒(méi)有),如果邊緣情況是長(zhǎng)尾的話,這很可能不足以覆蓋所有的邊緣情況。
第四個(gè)原因是,人類在路上的一組邊緣案例與AV在路上的一組邊緣案例不同,而且確實(shí)在不斷變化。
還有一個(gè)最不明顯的原因是,他們使用的特定深度網(wǎng)絡(luò)可能沒(méi)有表達(dá)它所需要表達(dá)的東西的能力(即使假設(shè)他們擁有訓(xùn)練它所需的所有數(shù)據(jù))。感知器從80年代開(kāi)始就為人所知,是通用的近似器,但是它需要非常特殊的微調(diào)結(jié)構(gòu),稱為convnet,以及一些技巧來(lái)提高收斂性和足夠數(shù)量的可訓(xùn)練參數(shù)來(lái)求解ImageNet。
即使在今天,你也不能隨便拿一個(gè)通用的,所有連接的多層感知器,然后期望它能學(xué)習(xí)你要求它做的任何任務(wù)。即使你有大量的數(shù)據(jù),也需要進(jìn)行大量的調(diào)優(yōu)和元參數(shù)搜索才能找到解決問(wèn)題的方法。
最后,即使在原則上這一切都是可行的,我們也不清楚在特斯拉內(nèi)置的電腦的限制下是否可行。
其他人在AV空間塞滿了汽車激光雷達(dá),它雖然貴,但是解決了大多數(shù)的特斯拉試圖通過(guò)AI解決的大部分問(wèn)題(例如避障和可穿越性),完整的游戲GPU提供了比最新的Tesla硬件更多的計(jì)算能力然而根據(jù)我們的數(shù)據(jù),很明顯沒(méi)有人接近完全自治。
這就是為什么特斯拉的自動(dòng)駕駛方法“不一定要奏效”的幾個(gè)原因。每一位稱職的數(shù)據(jù)科學(xué)家在喝完一瓶伏特加后,都應(yīng)該能夠一口氣說(shuō)出這些理由。
在特斯拉“自駕日”上,有一些非常大膽的預(yù)測(cè),比如說(shuō)特斯拉將在2020年擁有100萬(wàn)輛自動(dòng)駕駛出租車,我認(rèn)為這是不可能的。我在之前曾表達(dá)過(guò)對(duì)馬斯克以及他瘋狂的承諾和想法的觀點(diǎn),我不想在這篇文章中花太多篇幅再說(shuō)一遍(坦白講,這篇文章無(wú)意吸引特斯拉的粉絲,讓他們繼續(xù)留在自己的幻想世界里吧)。
“AI馬戲團(tuán)”壓軸節(jié)目:MIT網(wǎng)紅研究員Lex Fridman榮獲“年度小丑”封號(hào)
但我想從另一個(gè)角度關(guān)注特斯拉,因?yàn)榻衲暝缧r(shí)候發(fā)生了一些趣事:麻省理工學(xué)院的研究科學(xué)家萊克斯·弗里德曼發(fā)表了一項(xiàng)研究,稱使用自動(dòng)駕駛儀的駕駛員仍然可以保持警惕和專心度,這一結(jié)論與之前大量研究文獻(xiàn)的觀點(diǎn)相悖。
該研究的發(fā)表本身就伴隨著爭(zhēng)議:首先,弗里德曼一開(kāi)始找記者報(bào)道這個(gè)成果,作為新聞稿發(fā)布。一些科學(xué)家,如Nvidia的研究主管Anima Anandkumar建議他先把這項(xiàng)研究提交同行評(píng)審,為此,她在Twitter上被弗里德曼拉黑,而且還將每個(gè)對(duì)此研究提出批評(píng)的人都拉黑了(這個(gè)弗里德曼還真是敏感。
這個(gè)研究上了新聞后(強(qiáng)調(diào)一下:這是一個(gè)未經(jīng)同行評(píng)審的研究),弗里德曼(其特斯拉腦殘粉的身份已經(jīng)公開(kāi))立即發(fā)Twitter表示,這項(xiàng)研究與特斯拉和馬斯克本人都無(wú)關(guān),隨后他刪掉了這些Twitter,又發(fā)布了一些關(guān)于研究誠(chéng)信的內(nèi)容(也許是因?yàn)樗硭?dāng)然地認(rèn)為這項(xiàng)研究正被質(zhì)疑),而兩周后,他受邀與馬斯克一起上了播客,而后他自己受邀參加Joe Rogan播客。他在這兩次節(jié)目上無(wú)恥地推銷自己,他一直都是這么干的。
我不會(huì)在這里詳細(xì)介紹論文本身的細(xì)節(jié),但推薦各位去看看Duke Cummings的一個(gè)很棒的播客采訪,他是杜克大學(xué)的人機(jī)交互教授,他詳細(xì)介紹了麻省理工學(xué)院研究的多種方式,這項(xiàng)研究完全是有缺陷的。
盡管如此,鑒于上述所有事情,我正式將萊克斯·弗里德曼列為2019年AI領(lǐng)域最可笑的小丑的候選人。即使現(xiàn)在2019年剛剛過(guò)去不到一半,這個(gè)“小丑評(píng)選”比賽仍然開(kāi)放,我覺(jué)得他的獲勝機(jī)會(huì)非常大。
說(shuō)到特斯拉,不久前,NTSB發(fā)布了佛羅里達(dá)州致命事故的初步報(bào)告,報(bào)告表明(毫無(wú)意外)事故確實(shí)與Autopilot有關(guān)。這至少是第四次有記錄的與特斯拉自動(dòng)駕駛系統(tǒng)相關(guān)的死亡事件,與著名的約書(shū)亞·布朗事故情況驚人相似。雖然4次這個(gè)數(shù)字從宏觀角度看可能不多,但值得注意的是,凱迪拉克與特斯拉自動(dòng)駕駛系統(tǒng)類似的ADAS系統(tǒng)(超級(jí)巡航系統(tǒng))此文寫作時(shí)還是零死亡記錄(甚至沒(méi)有一起事故看起來(lái)像是自駕系統(tǒng)故障引起的)。二者微妙的區(qū)別在于“超級(jí)巡航系統(tǒng)”設(shè)有駕駛員監(jiān)控系統(tǒng),可以確保駕駛員保持警惕,而特斯拉則沒(méi)有,這一切都說(shuō)明,弗里德曼的研究就是一團(tuán)......那什么。
從其他新聞來(lái)看,自從我之前的關(guān)于AI的文章更新后,又有兩家AI /機(jī)器人公司倒閉了,分別是Jibo和Anki。對(duì)我個(gè)人而言,Jibo是一個(gè)特別有趣的案例,因?yàn)槲抑涝诳吹剿麄兊腎ndiegogo活動(dòng)時(shí),就知道這家公司最終的結(jié)局了。Jibo由MIT研究員Cynthia Breazeal創(chuàng)立,該項(xiàng)目立即獲得了追捧,當(dāng)時(shí)承諾實(shí)現(xiàn)的功能,甚至到現(xiàn)在根本不可能實(shí)現(xiàn),最終白白燒掉了約7200萬(wàn)美元。
我不知道MIT到底怎么了,先是Cynthia Breazea,一位自稱的機(jī)器人技術(shù)專家承諾Jibo公司能實(shí)現(xiàn)那些奇跡,實(shí)際上這些“奇跡”甚至在圖紙上都沒(méi)法實(shí)現(xiàn)。然后是Lex Fridman,他未經(jīng)同行評(píng)議的研究把自己變成了一個(gè)小丑(雖然他以MIT的名義發(fā)表研究,但實(shí)際上他只是一名受聘的研究科學(xué)家,而不是MIT的畢業(yè)生)。
除此之外,據(jù)報(bào)道,安大略政府決定削減對(duì)AI的支出,其中包括Hinton的矢量研究所,這引起了AI界的極大憤怒。這真的只是即將到來(lái)的AI寒冬的第一次凜冽寒風(fēng),我建議所有AI人士趕緊尋找過(guò)冬的棉衣,或者干脆換一份工作吧。
寫在最后:AI泡沫最終只是一個(gè)笑話
如我所料,2019年年中人工智能正變得越來(lái)越荒謬,基本上成了一場(chǎng)小丑秀。我想我們很快就會(huì)知道,所有的AI泡沫最終只是一個(gè)笑話,這一點(diǎn)我從一開(kāi)始就多次說(shuō)過(guò)。
-
特斯拉
+關(guān)注
關(guān)注
66文章
6318瀏覽量
126640 -
AI
+關(guān)注
關(guān)注
87文章
31133瀏覽量
269451
原文標(biāo)題:AI圈就是個(gè)馬戲團(tuán)?寒冬論作者再發(fā)文:OpenAI、特斯拉遭猛懟
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論