當下的人工智能發(fā)展到了哪一步?未來又會怎樣發(fā)展?本文作者對過去幾年的 AI 發(fā)展進行了梳理總結(jié),并對未來的 AI 發(fā)展進行了展望。
過去一年,關(guān)于人工智能的事件、發(fā)現(xiàn)和發(fā)展比比皆是。很難從這些嘈雜的環(huán)境里分辨出關(guān)于 AI 的真實信號,即便可以,很多人也不知道那些信號表達的是什么信息。因此,我將盡力提煉過去一年里人工智能大環(huán)境中的一些模式來讓你明確這一點。甚至,我們會在不久的將來見證其中的一些趨勢。
孔子曾說:「知其不可而為之?!顾媸莻€智者啊。
你從圖中發(fā)現(xiàn)貓了嗎?
別誤會,本文只是一片評論類文章。我不會全面記錄 AI 2018 年的成就,只是概括其中一些趨勢。而且我的描述是圍繞美國展開的,因為我不太了解其他國家發(fā)生的事,比如中國。本文的目標讀者包括工程師、企業(yè)家以及技術(shù)支持者。
算法篇主要由深度神經(jīng)網(wǎng)絡(luò)主導(dǎo)。當然,你也會零零落落地聽到有人部署了「經(jīng)典的」機器學(xué)習(xí)模型(如梯度提升樹或者多臂老虎機),并且聲稱這是每個人唯一需要的東西。也有一些質(zhì)疑說深度學(xué)習(xí)正在做瀕死掙扎。甚至還有頂尖的研究者也在質(zhì)疑一些深度神經(jīng)網(wǎng)絡(luò)架構(gòu)的有效性和魯棒性。但是,無論你喜不喜歡,深度神經(jīng)網(wǎng)絡(luò)無處不在:在自動駕駛中,自然語言處理系統(tǒng)中,機器人中——你可以這么說。深度神經(jīng)網(wǎng)絡(luò)中沒有能夠與自然語言處理、生成對抗網(wǎng)絡(luò)以及深度強化學(xué)習(xí)匹敵的進展。
深度 NLP:BERT等
雖然在 2018 年之前就有一些突破性研究將深度神經(jīng)網(wǎng)絡(luò)用于文本(如 word2vec,GLOVE 和基于LSTM的模型),但它們忽略了一個關(guān)鍵的概念:遷移學(xué)習(xí)。即在大規(guī)模的公開數(shù)據(jù)集上訓(xùn)練好一個模型,然后在你正在使用的數(shù)據(jù)集上對其進行「微調(diào)」。在計算機視覺中,用著名的 ImageNet 數(shù)據(jù)集上發(fā)現(xiàn)的模式來解決特定問題通常是解決方案的一部分。
問題在于,用于遷移學(xué)習(xí)的技術(shù)并不真正適用于自然語言處理問題。從某種意義上講,像 word2vec 這樣預(yù)訓(xùn)練的嵌入就起了這個作用,但是它們只在單個詞匯上起作用,并不能捕獲到語言的高級結(jié)構(gòu)。
然而,在 2018 年,情況有所改變。語境化嵌入 ELMo 成為了自然語言處理中改進遷移學(xué)習(xí)的重要第一步。ULMFiT 則更進一步:不滿意嵌入的語義捕獲能力,它的作者提出了為整個模型進行遷移學(xué)習(xí)的方法。
但是最有趣的進展肯定是 BERT 的引入。通過讓語言模型從英文維基百科的所有文章集合中學(xué)習(xí),BERT 團隊在 11 項自然語言處理任務(wù)中達到了當前最先進的結(jié)果——了不起!而且,BERT 的代碼和預(yù)訓(xùn)練模型都發(fā)布在網(wǎng)上了——所以你可以將這項突破用于自己的問題中。
GAN 的很多方面
CPU 的速度不再呈指數(shù)增長了,但是關(guān)于生成對抗網(wǎng)絡(luò)的學(xué)術(shù)論文卻在持續(xù)增加。生成對抗網(wǎng)絡(luò)一直是學(xué)術(shù)界的寵兒。盡管它的實際應(yīng)用似乎很少,并且在 2018 年也鮮有變化。但是生成對抗網(wǎng)絡(luò)還是有著待實現(xiàn)的驚人潛力。
出現(xiàn)了一種新的方法,就是逐步增加生成對抗網(wǎng)絡(luò):讓生成器在整個訓(xùn)練過程中持續(xù)增加輸出的分辨率。使用該方法的一篇更加令人印象深刻的論文是使用風(fēng)格遷移技術(shù)來生成逼真的照片。請告訴我,下面的這些照片有多逼真?
這些照片中哪張是真人?答案是一張都沒有。
GAN 是如何工作的呢?為何 GAN 會起作用?我們目前還沒有深入的了解,但是已經(jīng)有人邁出了重要的步伐:MIT 的一個團隊對這個問題做了高質(zhì)量的研究。
另一個有趣的進展就是 Adversarial Patch。雖然技術(shù)上來說它不是 GAN,但它使用黑盒(基本來說,就是不看神經(jīng)網(wǎng)絡(luò)的內(nèi)部狀態(tài))和白盒的方法來制作一個「補丁」,這個補丁能夠欺騙基于卷積神經(jīng)網(wǎng)絡(luò)的分類器。這是一個重要的結(jié)果:它能讓我們更好地理解深度神經(jīng)網(wǎng)絡(luò)的工作原理,以及認識到我們距離實現(xiàn)具有人類感知級別的 AI 還有多遠。
你很容易分清楚烤面包機和香蕉,但人工智能還不行。
我們需要強化
自從 AlphaGo 在 2016 年戰(zhàn)勝李世石之后,強化學(xué)習(xí)就成了一個熱點。人工智能已經(jīng)主宰了最后的「經(jīng)典」游戲,還有什么可讓它來征服呢?也許,剩下的其它所有游戲!
在訓(xùn)練的時候,強化學(xué)習(xí)依靠的是「激勵」信號,這是對它上一次嘗試動作的打分。與現(xiàn)實生活相反,計算機游戲提供了一個自然的環(huán)境,其中這種信號很容易獲得。因此強化學(xué)習(xí)研究者把所有的注意力都給了教人工智能如何玩雅達利游戲上。
談到 DeepMind,他們的新創(chuàng)造 AlphaStar 又制造了一個大新聞。這個新模型擊敗了一名星際爭霸 II 的頂級玩家。星際爭霸比圍棋和象棋復(fù)雜得多,與絕大多數(shù)棋類游戲不同,它有巨大的動作空間和隱藏在玩家身上的重要信息。這場勝利對整個領(lǐng)域而言都是一次巨大的飛躍。
強化學(xué)習(xí)領(lǐng)域的另一個重量級玩家OpenAI也沒閑著。他們的系統(tǒng) OpenAI Five 在 8 月?lián)魯×艘粋€領(lǐng)先 99.95% 玩家的 Dota 2 團隊,一戰(zhàn)成名,要知道 Dota 2 是一款非常復(fù)雜的電子游戲。
雖然 OpenAI 花了這么多注意力在電子游戲上,但他們并沒忽略強化學(xué)習(xí)的一個潛在的實際應(yīng)用:機器人。在現(xiàn)實世界中,人給予機器人的反饋非常稀少,并且創(chuàng)造這種反饋也很昂貴:你需要人來照看你的 R2D2,不過 OpenAI 也在嘗試著邁出第一步。你會需要上百萬的數(shù)據(jù)點。為了彌補這種差距,最新的一種趨勢是在把機器人放到真實世界之前,先學(xué)習(xí)模擬一個環(huán)境然后并行運行大量場景來教機器人學(xué)習(xí)一些基本技巧。OpenAI 和谷歌都在使用這種方法。
重大突破:Deepfakes
Deepfakes 是一些圖片或者視頻,上面顯示某公眾人物說一些從未說過的話或者做一些從未做過的事。它們是通過在大量的鏡頭數(shù)據(jù)上針對某個目標人物訓(xùn)練一個 GAN 來創(chuàng)建的,然后使用期望的動作來生成新的媒體文件。2018 年 1 月發(fā)布的一款桌面應(yīng)用 FakeApp 允許任何一個不具備計算機科學(xué)知識的人只需要一臺電腦就可以創(chuàng)建 deepfakes。盡管很容易發(fā)現(xiàn)它生成的視頻是假的,但這項技術(shù)已經(jīng)走得很遠了。
基礎(chǔ)框架
TensorFlow vs Pytorch
我們已經(jīng)有很多深度學(xué)習(xí)框架了。這個領(lǐng)域很廣闊,這種多樣性在表面看來也是說得通的。但實際上,最近大多數(shù)人不是使用 TensorFlow 就是在使用 Pytorch。如果你和 SRE 工程師(網(wǎng)站可靠性工程師)一樣,關(guān)心的是可靠性、易于部署以及模型的重載,那你很有可能會選擇 TensorFlow。如果你在寫研究論文,并且沒有在 Google 工作——你很有可能使用 PyTorch。
機器學(xué)習(xí):一種隨處可見的服務(wù)
過去一年里,我們見證了更多的人工智能解決方案被打包成 API,供沒有斯坦福大學(xué)機器學(xué)習(xí)博士學(xué)位的軟件工程師使用。Google Cloud 和 Azure 都已經(jīng)改進了舊服務(wù)并添加了新服務(wù)。AWS 機器學(xué)習(xí)服務(wù)列表也開始看起來有點嚇人了。
AWS 很快就需要 2 級層次結(jié)構(gòu)來展示它們的服務(wù)了。
盡管這種狂熱已經(jīng)冷卻了一點點,但是多家初創(chuàng)公司已經(jīng)開始放手一搏了。大家都在承諾模型訓(xùn)練的速度、調(diào)用過程的易用性以及驚人的性能。僅需要輸入你的信用卡賬號,上傳你的數(shù)據(jù),給模型一些訓(xùn)練或者微調(diào)的時間,調(diào)用一下 REST(或者,對于更具前瞻性的初創(chuàng)公司而言是 GraphQL 類型)API,你就可以在不用弄清楚到底發(fā)生了什么的情況下成為人工智能的主人。
既然已經(jīng)有這么多的選擇,為啥還會有人煞費苦心地自己去創(chuàng)建一個模型和基礎(chǔ)框架呢?事實上,貌似拿來即用的 MLaaS 產(chǎn)品在 80% 的情況中是可以很好地工作的。而剩下 20% 的情況則沒那么好運了:你非但無法實際選擇模型,甚至連超參數(shù)都不能控制?;蛘吣阈枰谠贫酥膺M行推理,通常也是做不到的。
重大突破:AutoML 和 AI Hub
2018 年推出的兩款非常有趣的服務(wù)都是由 Google 發(fā)布的。
第一個,Google Cloud 的 AutOML 是一個定制的自然語言處理和計算機視覺模型訓(xùn)練產(chǎn)品的集合。這意味著什么呢?AutoML 的設(shè)計者通過自動微調(diào)幾個預(yù)訓(xùn)練模型就能進行模型定制化,然后選擇一個性能最好的。這意味著你不再需要因為自己定制模型而煩惱。當然,如果你想做一些真的新穎和與眾不同的事情,他們的服務(wù)并不適合你。但是,作為一個附帶的好處,Google 在大量的專有數(shù)據(jù)上預(yù)訓(xùn)練了他們的模型。想一下那些貓的圖片;那些肯定要比僅僅使用 ImageNet 的泛化性能更好。
第二個是 AI Hub 和 TensorFlow Hub。在這兩個之前,重用別人的模型真的是很繁瑣的事情。GitHub 上隨機找到的代碼很少有能用的,沒有很好的文檔,通常不好處理。還有為了遷移學(xué)習(xí)而預(yù)訓(xùn)練的權(quán)重....... 可能你根本不想做這些。這正是開發(fā) TF Hub 所要解決的問題:它是一個可靠的、精選的倉庫,包含了你可以在進行微調(diào)或基于它們進行構(gòu)建的模型。僅需要包含幾行代碼和 TF Hub 客戶端,你就可以從 Google 服務(wù)器上獲取代碼和對應(yīng)的權(quán)重。AI Hub 則更進一步:它允許你分享整個機器學(xué)習(xí)流程,而不僅僅是模型!盡管它還是一個預(yù)覽版本,但是早已比某個最新文件是「三年前修改的」隨機倉庫好多了。
硬件
Nvidia 英偉達
如果 2018 年你認真學(xué)了機器學(xué)習(xí),尤其是深度神經(jīng)網(wǎng)絡(luò),那么你可能會使用一個或多個 GPU。相對來說,GPU 的領(lǐng)先生產(chǎn)商則度過了忙碌的一年。隨著數(shù)字加密狂潮的冷卻和緊接其后的股市暴跌,英偉達發(fā)布了基于圖靈架構(gòu)的全新一代消費級顯卡。與發(fā)布于 2017 年的基于 Volta 芯片的顯卡相比,新卡包含被稱之為張量核心(Tensor Cores)的新高速矩陣乘法硬件。矩陣乘法是深度神經(jīng)網(wǎng)絡(luò)運算的核心,所以加速這些運算能夠很大程度地加速神經(jīng)網(wǎng)絡(luò)在新一代 GPU 上的訓(xùn)練。
英偉達為那些不滿于「小」而「慢」的游戲級顯卡的用戶升級了他們的企業(yè)級「超級計算機」。DGX-2 是一個擁有 16 塊 Tesla V 卡的魔法盒,它支持 FP16 的 480 TFLOPs 運算。當然價格也升級了,真的是令人印象深刻,40 萬美元。
自動硬件也進行了升級。Jetson AGX Xavier 是一款英偉達希望能夠推動下一代自動駕駛技術(shù)的板級模塊。具有 8 個內(nèi)核的 CPU、視覺加速器、深度學(xué)習(xí)加速器——所有這一切都是日益增長的自動駕駛行業(yè)所需要的。
在一次有趣的發(fā)展中,英偉達發(fā)布了為他們的游戲卡設(shè)計的基于深度神經(jīng)網(wǎng)絡(luò)的功能:深度學(xué)習(xí)超采樣(Deep Learning Super Sampling)。這個思想是為了代替抗鋸齒的圖像保真功能,這一功能一般是通過將一張圖片渲染到比真正需要的分辨率(比如 4k)還要高的分辨率,然后再縮放到本機顯示器的分辨率來完成的?,F(xiàn)在英偉達允許開發(fā)者在發(fā)布游戲之前以極高的質(zhì)量在運行的游戲上訓(xùn)練圖像轉(zhuǎn)換模型。然后,將游戲與預(yù)訓(xùn)練的模型一起發(fā)送給終端用戶。在一次游戲會話中,并不存在舊式的抗鋸齒消耗,圖像幀運行在那個模型中來提高畫質(zhì)。
英特爾確實不是 2018 年人工智能硬件世界的先驅(qū)。但是它似乎想改變這一點。
令人驚訝的是,英特爾的絕大多數(shù)活動發(fā)生在軟件領(lǐng)域內(nèi)。英特爾在努力使他們現(xiàn)有的以及即將問世的硬件變得對開發(fā)者更加友好?;谶@個精神,他們發(fā)布了一對(令人驚訝而有競爭力的)工具包:OpenVINO 和 nGraph。
他們升級了神經(jīng)計算棒:這是一個小型 USB 設(shè)備,它可以用一個 USB 端口加速運行在任何設(shè)備上的深度神經(jīng)網(wǎng)絡(luò),甚至是在樹莓派上。
關(guān)于英特爾獨立 GPU 的傳言越來越多。雖然八卦愈演愈烈,但是新設(shè)備在深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練上的可用性還有待觀察。而傳聞中的專用深度學(xué)習(xí)卡是確定可用的,代號分別是 Spring Hill 和 Spring Crest,后者是基于 Nervana 的技術(shù)開發(fā)的,這是英特爾早在幾年前收購的一家初創(chuàng)公司。
尋常和不尋常的定制硬件
Google 發(fā)布了第三代 TPU:基于 ASIC 的深度神經(jīng)網(wǎng)絡(luò)專用加速器,具有 128Gb 的超大存儲空間。256 塊這種設(shè)備被組裝到一個 pod 容器中,最終達到了超過 100 petaflops 的性能。這一年,Google 不僅將這些設(shè)備的力量大秀于世界,它還讓 TPU 在 Google Cloud 上普遍公開。
Amazon 以一種類似但不是直接面向最終應(yīng)用的動作部署了 AWS Inferentia(亞馬遜推理芯片):這是一個在生產(chǎn)中更低廉、更有效的運行模型的方式。
Google 還發(fā)布了 Edge TPU:它是我們上面討論過的大卡的小兄弟。這款芯片體積很?。阂粋€ 1 美分硬幣的表面可以放 10 張 Edge TPU。同時,可以用它進行實時的視頻分析,幾乎不耗能量。
一個有趣的潛在新入者是 Graphcore。這家英國公司完成了 3.1 億美元的融資,并且在 2018 年發(fā)布了他們的第一款產(chǎn)品——GC2 芯片?;鶞蕼y試顯示,GC2 在顯著的更低功耗下?lián)魯×擞ミ_的服務(wù)器 GPU。
重大突破:AWS Deep Racer
Amazon 發(fā)布了一款小型無人駕駛汽車 DeepRacer 及其聯(lián)盟,雖然始料未及,但是也從某種程度上反映了他們之前的 DeepLens。400 美元就可以配備 Atom 處理器,4MP 的相機,WiFi,幾個 USB 借口,以及足以運行數(shù)小時的電源。自動駕駛模型可以在云端使用 3D 模擬環(huán)境進行訓(xùn)練,然后直接部署到車內(nèi)。如果你一直夢想著構(gòu)建自己的自動駕駛車汽車,這就是一次機會,你不用啟動一個有風(fēng)投支持的公司就能做這件事。
接下來是什么?
將注意力轉(zhuǎn)移到?jīng)Q策智能上
算法、基礎(chǔ)框架、硬件相關(guān)的部分已經(jīng)涉及到了——為了讓 AI 比以往任何時候更有用,業(yè)界開始意識到,讓 AI 開始應(yīng)用的最大阻礙在實用方面:你如何在生產(chǎn)中將 AI 從一個想法變成有效、安全、可靠的系統(tǒng)?應(yīng)用 AI,或者應(yīng)用機器學(xué)習(xí),也被稱作決策智能,它是在現(xiàn)實世界中創(chuàng)造 AI 解決方案的科學(xué)。盡管過去人們已經(jīng)將很多注意力放在算法背后的科學(xué)上面,但是未來很可能會將同等的注意力放在領(lǐng)域內(nèi)的端到端應(yīng)用方面。
相比被它毀掉的工作崗位,AI 似乎在創(chuàng)造更多的工作
「AI 將會替代我們所有的工作」,這是媒體老生常談的論調(diào),也是廣大白領(lǐng)和藍領(lǐng)共同的擔(dān)憂。并且,從表面來看,這似乎是有道理的。但是到目前為止,它的反面似乎才是事實。例如,很多人都在通過創(chuàng)建標記數(shù)據(jù)集而獲得報酬。
它超越了低收入國家的普通數(shù)據(jù)承包商:一些 app,例如 LevelApp,它可以讓難民在自己的手機上標記數(shù)據(jù)來掙錢。Harmoni 則更進一步,他們甚至提供了設(shè)備來讓難民營的移民工作以謀生計。
在數(shù)據(jù)標記的頂層,整個行業(yè)都是通過新的 AI 技術(shù)來創(chuàng)建的。我們可以做那些數(shù)年之前都想不到的事情,就像自動駕駛或者醫(yī)藥發(fā)現(xiàn)一樣。
與機器學(xué)習(xí)更加相關(guān)的計算將發(fā)生在邊緣
數(shù)據(jù)導(dǎo)向的系統(tǒng),其工作方式是,更多的數(shù)據(jù)通常是在系統(tǒng)中非常邊緣的地方,在輸入側(cè)。流程中靠后的階段通常都在做下采樣或者以其它方式來減少信號的保真度。另一方面,越來越復(fù)雜的 AI 模型正在借助更多的數(shù)據(jù)獲得更好的性能。讓 AI 組件更靠近數(shù)據(jù)的邊緣是不是很有意義?
一個簡單的例子:想象一下能夠產(chǎn)生 30fps 的高質(zhì)量視頻的高分辨率相機。處理這些視頻的計算機視覺模型運行在服務(wù)器上。相機將視頻流式傳輸?shù)椒?wù)器,但是上行鏈路的帶寬是有限的,所以視頻被做了高度壓縮。為什么不將視覺模型放在相機上,讓它來處理原始視頻呢?
做這件事總是面臨著多個障礙,主要是:邊緣設(shè)備上可用的計算力和管理的復(fù)雜性(例如在邊緣更新模型)。專用硬件(例如 Google 的 Edge TPU,蘋果的 Neural Engine 等等)、更高效的模型和優(yōu)化算法的出現(xiàn)讓計算力的限制不再是問題。管理的復(fù)雜性也在通過機器學(xué)習(xí)框架和工具在不斷地解決。
整合 AI 基礎(chǔ)框架的空間
前幾年滿是與 AI 基礎(chǔ)設(shè)施相關(guān)的活動:盛大的宣言、豐厚的資金回合以及高尚的承諾。在 2018 年,這個空間的競賽冷卻下來了,盡管仍然有新入場的,但是絕大多數(shù)貢獻都是由現(xiàn)有的大玩家做出的。
其中一個可能的解釋或許就是:我們對理想的人工智能系統(tǒng)是什么樣子還不夠理解。因為問題是復(fù)雜的,所以這將會需要長期、持久、專注、資源充足的努力來產(chǎn)生可行的解決方案——這是初創(chuàng)公司和小公司不擅長的事情。如果一家初創(chuàng)公司出其不意地「解決」了 AI 基礎(chǔ)設(shè)施的問題,這將會是極其驚人的事情。
另一方面,機器學(xué)習(xí)基礎(chǔ)框架工程師是特別稀缺的。一個擁有幾個這種員工的苦苦掙扎的初創(chuàng)公司會成為更大玩家的珍貴收購目標。至少有幾個玩家在參與這場競賽,開發(fā)內(nèi)部和外部的工具。例如,對 AWS 和 Google Cloud 而言,AI 基礎(chǔ)設(shè)施服務(wù)成為了一個主要的賣點。
將它們放在一起,做一個主要的整合成為了一個合理的預(yù)測。
更加定制化的硬件
摩爾定律已經(jīng)失效了,至少對 CPU 是失效了,而且已經(jīng)很多年了。GPU 很快也會面臨相似的命運。盡管我們的模型變得越來越有效,但是為了解決某些更加高級的問題,我們將會需要有更多的計算力。這個可以通過分布式訓(xùn)練來解決,但是它也會有自己的局限性和權(quán)衡。
此外,如果你想在資源有限的設(shè)備上運行更大的模型,分布式訓(xùn)練是沒有幫助的。進入到定制化 AI 加速器時代,根據(jù)你想要的或者能夠達到的定制化需求,你可以節(jié)省一個數(shù)量級的功率、成本或者延遲。
從某種程度來說,英偉達的 Tensor Core 就是這種趨勢的一個例子。以后我們會看到更多這種硬件,而不是通用硬件。
對訓(xùn)練數(shù)據(jù)更少的依賴
有標簽的數(shù)據(jù)通常都是既昂貴又不可訪問的。這條規(guī)則下很少有例外。像 MNIST、ImageNet、COCO、Netflix prize 和 IMDB reviews 這種開放的高質(zhì)量數(shù)據(jù)集并不多見。但是很多問題都沒有對應(yīng)的數(shù)據(jù)集可供使用。盡管對于研究人員而言,構(gòu)建數(shù)據(jù)集并不是偉大的職業(yè)發(fā)展方向,但是那些可以贊助或者發(fā)布數(shù)據(jù)集的大公司卻并不著急:他們正在構(gòu)建龐大的數(shù)據(jù)集,但卻讓這一切都不露聲色。
所以,像初創(chuàng)公司或者大學(xué)的研究團隊一樣比較小的獨立個體如何來解決這種難題呢?開發(fā)越來越少依賴監(jiān)督信號和越來越多依賴無標簽和非結(jié)構(gòu)化數(shù)據(jù)的系統(tǒng)——這得益于互聯(lián)網(wǎng)和廉價傳感器的普及。
這從某種程度上解釋了人們對 GAN、遷移學(xué)習(xí)和強化學(xué)習(xí)興趣的增長:所有的這些技術(shù)都是不需要或者需要較少的訓(xùn)練數(shù)據(jù)投資。
所以這一切全都是泡沫嗎?
所以那個黑屋里有沒有貓呢?我認為肯定是有的,而且不是一只,而是很多只。雖然有一些是正常的貓,具有四條腿、尾巴和胡須,而但有些則是奇怪的動物,我們才開始看到它們的基本輪廓而已。
這個行業(yè)已經(jīng)進入了第七個人工智能的「夏天」。這些年來,很多的研究精力、學(xué)術(shù)資助、風(fēng)險投資、媒體關(guān)注、代碼都涌入這個領(lǐng)域。但是人們有理由指出,大部分人工智能的承諾仍然沒有實現(xiàn)。他們上一次的 Uber 乘車背后仍然有一個人類駕駛員。仍然沒有機器人在早上幫助我們做雞蛋。我甚至不得不自己系鞋帶,暴風(fēng)哭泣!
然而,不計其數(shù)的研究生和軟件工程師的努力并非徒勞。似乎每家大公司都已經(jīng)嚴重依賴于人工智能,或者有未來的相關(guān)計劃。AI 藝術(shù)品也開始出售。雖然自動駕駛汽車尚未出現(xiàn)在這里,但他們很快就會出現(xiàn)。
-
cpu
+關(guān)注
關(guān)注
68文章
10890瀏覽量
212430 -
AI
+關(guān)注
關(guān)注
87文章
31316瀏覽量
269659 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8428瀏覽量
132850
原文標題:算法、硬件、框架,2019年AI何去何從?
文章出處:【微信號:aicapital,微信公眾號:全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論