由于英特爾試圖與Nvidia共同分享正處于快速增長的服務(wù)器AI芯片市場,英特爾渴望其產(chǎn)品能夠涵蓋幾乎所有可能的類別。
Nervana Systems是英特爾2016年收購的AI芯片創(chuàng)業(yè)公司,我最近有機(jī)會(huì)拜訪其位于圣地亞哥的辦事處。Nervana Systems被收購以后,完成了大部分與AI相關(guān)的芯片和軟件研發(fā)工作。在本次會(huì)面上,我見到了英特爾人工智能軟件和研究副總裁Arjun Bansal和英特爾AI研究組高級(jí)總監(jiān)Casimir Wierzynski。
服務(wù)器AI芯片市場的市場地位
用于處理數(shù)據(jù)中心內(nèi)部深入學(xué)習(xí)工作負(fù)荷的芯片市場可分為兩組:
強(qiáng)大的計(jì)算系統(tǒng)所使用的芯片,可以訓(xùn)練人工智能模型來做一些事情,比如理解語音命令,檢測照片中的物體,或者幫助一輛汽車在城市街道上行駛。
運(yùn)行經(jīng)過培訓(xùn)的AI模型與新數(shù)據(jù)和新內(nèi)容的芯片,例如移動(dòng)應(yīng)用程序的請(qǐng)求,以幫助處理語音命令或提供個(gè)性化的新聞飼料內(nèi)容。這種活動(dòng)被稱為“推理”,其計(jì)算要求遠(yuǎn)低于培訓(xùn)要求,可以由服務(wù)器和最終用戶硬件(如電話、個(gè)人電腦和汽車)來處理。
雖然競爭開始有所增加,很大比例的AI培訓(xùn)工作是由Nvidia的Tesla服務(wù)器GPU系列來處理。但是,在以前,這項(xiàng)工作通常是由英特爾的Xeon服務(wù)器CPU來完成的。然而,越來越多的推理工作正在由Nvidia GPU來完成,可編程芯片(FPGA)則采用英特爾和Xilinx的產(chǎn)品,定制設(shè)計(jì)的芯片(ASIC)則采用,如Alphabet / Google的Tensor Processing Units(TPU - 它們也可用于培訓(xùn))和Amazon.com的新AWS Propferentia芯片。
英特爾的服務(wù)器AI芯片戰(zhàn)略
鑒于Nvidia的服務(wù)器AI芯片的工作完全圍繞GPU進(jìn)行,其特點(diǎn)是針對(duì)人工智能工作負(fù)載進(jìn)行專門的處理(它們是眾所周知的AST),英特爾計(jì)劃支持一系列廣泛的芯片。其當(dāng)前和計(jì)劃的服務(wù)器AI產(chǎn)品包括:
NNP-L1000和NNP-I,一對(duì)Nervana ASIC,分別用于訓(xùn)練和推理。兩者都承諾在今年晚些時(shí)候投入生產(chǎn)。Facebook一直是英特爾AI ASIC的開發(fā)合作伙伴。
可用于推理的FPGA。微軟和百度使用英特爾的FPGA進(jìn)行人工智能工作。
服務(wù)器GPU陣容。該公司的第一臺(tái)服務(wù)器GPU預(yù)計(jì)將在2020年推出。
DL Boost,一組旨在提高Xeon CPU推理性能的技術(shù)。英特爾最近發(fā)布的Cascade Lake Xeon CPU 引入了DL Boost的第一個(gè)版本。
當(dāng)被問及NNP-L1000相對(duì)于Nvidia的Tesla GPU等產(chǎn)品的競爭優(yōu)勢(shì)時(shí),Bansal地指出該芯片是從頭開始設(shè)計(jì)的,用于訓(xùn)練AI /深度學(xué)習(xí)模型,因此不需要關(guān)注與圖形相關(guān)的功能。他介紹道:“我們不必在與圖形相關(guān)的計(jì)算上花費(fèi)任何芯片面積?!?/p>
他還指出,由于NNP-L1000獨(dú)特的處理架構(gòu)(它依賴于稱為bfloat16的多種編碼格式),該芯片可以使用16位乘法器電路來提供與GPU所需的32位乘法器相當(dāng)?shù)男阅堋_@導(dǎo)致更小且功率更高的乘法器,并且(因?yàn)槌朔ㄆ餍枰话氲臄?shù)據(jù))使芯片的有效存儲(chǔ)器帶寬加倍。
類似地,Bansal認(rèn)為,在推理領(lǐng)域,NNP-I相對(duì)于FPGA“從功率性能角度來看”將具有很強(qiáng)的競爭力,并為機(jī)器翻譯,語音識(shí)別和推薦系統(tǒng)等工作負(fù)載提供強(qiáng)大的性能。與此同時(shí),他指出,由于能夠重新配置以處理新任務(wù),一些客戶仍然會(huì)更喜歡FPGA。
當(dāng)被問及英特爾如何看待服務(wù)器CPU被用于推斷時(shí),因?yàn)閷?duì)加速器的需求有所增長,他建議公司仍將使用空閑CPU容量進(jìn)行推理工作。他指出:“人們有時(shí)會(huì)有很多休眠(服務(wù)器)容量”
軟件的重要性
除了大量的芯片研發(fā)投資外,Nvidia在AI培訓(xùn)芯片市場的主導(dǎo)地位與其構(gòu)建的開發(fā)者生態(tài)系統(tǒng)有很大關(guān)系。該生態(tài)系統(tǒng)以公司的CUDA編程模型和相關(guān)的CUDA深度神經(jīng)網(wǎng)絡(luò)(cuDNN)軟件庫為基礎(chǔ),該軟件庫支持最流行的深度學(xué)習(xí)軟件框架(以及一些不太流行的軟件框架)。
雖然它已經(jīng)創(chuàng)建了針對(duì)其CPU優(yōu)化的深度學(xué)習(xí)軟件庫,英特爾想要削減Nvidia龐大的開發(fā)者意識(shí)共享的策略,并不是圍繞著創(chuàng)建一個(gè)直接針對(duì)Cuda和Cuda的競爭對(duì)手,而是在推動(dòng)采用一種名為nGraph的解決方案。nGraph是一個(gè)編譯器 - 一個(gè)將編程語言中的代碼轉(zhuǎn)換為可由處理器執(zhí)行的機(jī)器代碼的程序 - 旨在與各種處理器類型的各種深度學(xué)習(xí)框架(Xeon CPU,Nervana ASIC和甚至是Nvidia GPU),用于培訓(xùn)和推理工作。
英特爾認(rèn)為,由于許多AI軟件框架已針對(duì)特定類型的處理器(在許多情況下是Nvidia的GPU)進(jìn)行了優(yōu)化,所以,將依賴于一種類型的處理器的AI模型移植到另一種類型的處理器上來說,這通常太困難了,而且要讓一個(gè)模型在不同的框架上運(yùn)行也太難了。英特爾稱,nGraph消除了這些挑戰(zhàn)。
在公司僅依賴于一種處理架構(gòu)的情況下,手動(dòng)優(yōu)化的AI軟件庫可能是有效的,但當(dāng)公司使用三種或四種架構(gòu)時(shí),它們有可能失效。Bansal斷言?!皳碛腥膫€(gè)架構(gòu)的優(yōu)勢(shì)肯定大于只擁有一種架構(gòu)?!?/p>
當(dāng)然,英特爾面臨的挑戰(zhàn)是讓企業(yè)和云巨頭相信,在很多企業(yè)完全依賴Nvidia的GPU進(jìn)行AI培訓(xùn)的時(shí)候,他們應(yīng)該使用多個(gè)架構(gòu)。如果一家公司選擇僅僅依靠Nvidia的GPU進(jìn)行培訓(xùn),它可能會(huì)堅(jiān)持使用Nvidia廣泛支持的軟件工具。另一方面,如果人工智能培訓(xùn)芯片市場開始崩潰,那么英特爾對(duì)nGraph的銷售推動(dòng)力將變得更加強(qiáng)大。
另外,Wierzynski指出,英特爾還投資于解決人工智能隱私問題的軟件解決方案,例如用于處理加密AI數(shù)據(jù)的開源解決方案。他為解決方案提供了一個(gè)用例:醫(yī)院可以將加密數(shù)據(jù)發(fā)送給遠(yuǎn)程工作的放射科醫(yī)師,無需共享患者信息,放射科醫(yī)師可以將他或她的答案的加密版本發(fā)送回醫(yī)院。
大局
Nvidia不太可能很快放棄目前在AI培訓(xùn)處理器市場上的領(lǐng)先優(yōu)勢(shì),特別是考慮到它也在該領(lǐng)域投入巨資。雖然服務(wù)器推理處理器市場競爭更加激烈,但英特爾可能會(huì)成為與Nvidia和Xilinx一樣強(qiáng)大的玩家。
英特爾確實(shí)擁有獨(dú)特的芯片和軟件戰(zhàn)略來增加其AI加速器的銷售額,并且顯然將其資金投入其中。盡管他們的確切性能和耗電量還有很多需要分享的地方,但這家公司的神經(jīng)網(wǎng)絡(luò)ASIC正從地面上建立起來,以處理AI的工作,這一事實(shí)可以幫助他們?nèi)〉贸晒Α?br />
本文來自半導(dǎo)體行業(yè)觀察微信號(hào),本文作為轉(zhuǎn)載分享。
-
FPGA
+關(guān)注
關(guān)注
1629文章
21744瀏覽量
603655 -
英特爾
+關(guān)注
關(guān)注
61文章
9974瀏覽量
171822 -
NVIDIA
+關(guān)注
關(guān)注
14文章
4990瀏覽量
103117 -
AI芯片
+關(guān)注
關(guān)注
17文章
1887瀏覽量
35047
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論