新一代人工智能技術(shù)的發(fā)展,離不開芯片與深度學(xué)習(xí)框架兩大基礎(chǔ),隨著中國科研創(chuàng)新能力的提升,技術(shù)領(lǐng)域取得大量突破。
當(dāng)然,這也是一種技術(shù)封鎖的倒逼,今年出現(xiàn)的華為芯片供應(yīng)鏈被全面封鎖,和工科神器MATLAB被禁事件,這兩件事情加起來,迫使我國要從基礎(chǔ)架構(gòu)平臺到應(yīng)用系統(tǒng)等,全方位建設(shè)自主知識的優(yōu)秀產(chǎn)品。
01
發(fā) 展
而深度學(xué)習(xí)作為人工智能的核心技術(shù),近年來無論是學(xué)術(shù)、還是工業(yè)領(lǐng)域,均發(fā)揮著愈加重要的作用。
過去十年,深度學(xué)習(xí)領(lǐng)域涌現(xiàn)了大量算法和應(yīng)用。在這些深度學(xué)習(xí)算法和應(yīng)用涌現(xiàn)的背后,是各種各樣的深度學(xué)習(xí)工具和框架。它們是機器學(xué)習(xí)革命的腳手架:TensorFlow 和 PyTorch 等深度學(xué)習(xí)框架的廣泛使用,使得許多 ML 從業(yè)者能夠使用適合的領(lǐng)域特定的編程語言和豐富的構(gòu)建模塊更容易地組裝模型。
回顧深度學(xué)習(xí)框架的演變,我們可以清楚地看到深度學(xué)習(xí)框架和深度學(xué)習(xí)算法之間的緊密耦合關(guān)系。這種相互依賴的良性循環(huán)推動了深度學(xué)習(xí)框架和工具的快速發(fā)展。
02
趨 勢
我們正在處于一場人工智能革命的黎明,人工智能領(lǐng)域的新研究和應(yīng)用框架,正在以前所未有的速度涌現(xiàn)。
八年前的AlexNet 網(wǎng)絡(luò)僅僅包含6000 萬個參數(shù),最新的 GPT-3 網(wǎng)絡(luò)包含 1750 億參數(shù),網(wǎng)絡(luò)規(guī)模在 8 年內(nèi)增加了 3000 倍。但是人類的大腦包含100萬億個突觸,也就相當(dāng)于參數(shù)。所以,神經(jīng)網(wǎng)絡(luò)要達到人類的智能水平還有很大的差距。
這種難以接受的網(wǎng)絡(luò)規(guī)模,對現(xiàn)有的模型訓(xùn)練和推理的硬件、軟件計算效率都提出了很大的挑戰(zhàn)。未來的深度學(xué)習(xí)框架很可能是算法、高性能計算、硬件加速器和分布式系統(tǒng)的跨學(xué)科成果。
03
挑 戰(zhàn)
然而,對于深度學(xué)習(xí)相關(guān)的初學(xué)者,還是對于已經(jīng)從事相關(guān)工作的算法工程師來說,深度學(xué)習(xí)理論太難學(xué),開發(fā)過程太復(fù)雜,又將許多人拒之于深度學(xué)習(xí)的門外。
而大廠等一線企業(yè)在這方面的需求也是迫在眉睫,阿里云也正式開深,是業(yè)界首個面向NLP場景的深度遷移學(xué)習(xí)框架。人才渴求之大,人才缺口一場嚴(yán)峻。
04
機 遇
那么,作為我們學(xué)習(xí)深度學(xué)習(xí)的時候,究竟是學(xué)哪個框架呢?是學(xué)PyTorch、還是學(xué)Tensorflow、再或者是學(xué)Keras呢?其實,對于這樣的問題,基于現(xiàn)在的形勢下,你就不要把著眼點放在這些工具的使用上了,重要的是要知道它的原理。
來源:開課吧
原文標(biāo)題:聽起來難以置信,深度學(xué)習(xí)框架竟然這么簡單!
文章出處:【微信公眾號:FPGA開源工作室】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4771瀏覽量
100777 -
人工智能
+關(guān)注
關(guān)注
1791文章
47282瀏覽量
238534 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5503瀏覽量
121175 -
pytorch
+關(guān)注
關(guān)注
2文章
808瀏覽量
13229
原文標(biāo)題:聽起來難以置信,深度學(xué)習(xí)框架竟然這么簡單!
文章出處:【微信號:leezym0317,微信公眾號:FPGA開源工作室】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論