(文章來源:智東西)
英特爾在舊金山舉行2019人工智能峰會,推出代號為Keem Bay的下一代Movidius VPU,可用于邊緣媒體、計(jì)算機(jī)視覺和推理應(yīng)用,并計(jì)劃于明年上半年上市。此外,英特爾還在現(xiàn)場展示了Nervana神經(jīng)網(wǎng)絡(luò)處理器(NNP),并正式宣告商用。這是英特爾的NNP研發(fā)項(xiàng)目對外宣告三年后,正式開始商用交付。
此外,英特爾副總裁兼人工智能產(chǎn)品事業(yè)部總經(jīng)理Naveen Rao、英特爾物聯(lián)網(wǎng)事業(yè)部副總裁兼視覺市場和渠道部門總經(jīng)理Jonathan Ballon在會上發(fā)表演講,介紹了英特爾最新的AI產(chǎn)品與相關(guān)技術(shù)進(jìn)展。Naveen Rao在現(xiàn)場演講中談到,隨著英特爾AI產(chǎn)品的更新與發(fā)布,AI解決方案的產(chǎn)品組合也將得到進(jìn)一步的提升與優(yōu)化,而這也有望在2019年創(chuàng)造超過35億美元的營收。
我們先來說說最新的重量級產(chǎn)品——英特爾Movidius Myriad視覺處理單元(VPU),代號為Keem Bay,其經(jīng)過優(yōu)化可在邊緣端進(jìn)行工作負(fù)載的推理。性能方面,與上一代VPU相比,Keem Bay的推理性能提升了10倍以上,能效則可以達(dá)到競品的6倍。同時,英特爾還介紹到,Keem Bay的功耗僅為英偉達(dá)TX2的四分之一,后者的功耗約為30W。同時,它比華為海思的昇騰310快1.25倍。
Jonathan Ballon在現(xiàn)場提到,該芯片擁有新的片上存儲器架構(gòu)。同時,Keem Bay提供的Tops推理量是英偉達(dá)Xavier的4倍,在充分利用的情況下,該芯片可幫助客戶獲得50%的額外性能?!芭c同類競品相比,Keem Bay的性能比GPU的性能更好,不僅功率、大小和成本都實(shí)現(xiàn)了一定程度的降低,而且還進(jìn)一步補(bǔ)充了我們完整的產(chǎn)品、工具和服務(wù)產(chǎn)品組合?!盝onathan Ballon補(bǔ)充說到。此外,Keem Bay計(jì)劃將于2020年上半年上市。
今年,英特爾在面向AI推理和AI訓(xùn)練領(lǐng)域,相繼推出了NNP-T和NNP-I兩款Nervana神經(jīng)網(wǎng)絡(luò)處理器,專為大型數(shù)據(jù)中心而設(shè)計(jì)。同時,Nervana神經(jīng)網(wǎng)絡(luò)處理器也是英特爾研發(fā)的首個針對復(fù)雜深度學(xué)習(xí)的專用ASIC芯片,主要提供給云端和數(shù)據(jù)中心客戶。實(shí)際上,英特爾早在2016年就已對外提出將啟動Nervana神經(jīng)網(wǎng)絡(luò)處理器的項(xiàng)目研發(fā)。然而,英特爾在去年的AI大會中也尚未揭開該系列處理器的神秘面紗,直到今年才面世,現(xiàn)在終于正式交付商用。
Naveen Rao說,作為系統(tǒng)級AI解決方案的一部分,Nervana神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器目前已經(jīng)投入生產(chǎn),并已完成客戶交付。其中,NNP-T采用臺積電16nm制程工藝,擁有270億個晶體管,硅片總面積達(dá)680平方毫米。應(yīng)用上,它據(jù)有高度的可編程性,并支持所有主流深度學(xué)習(xí)框架,如TensorFlow、PYTORCH 訓(xùn)練框架和C++深度學(xué)習(xí)軟件庫等。同時,它還能夠?qū)崿F(xiàn)計(jì)算、通信和內(nèi)存之間的平衡,而且不管是針對小規(guī)模群集,還是最大規(guī)模的pod超級計(jì)算機(jī),它都可以進(jìn)行近乎線性且極具能效的擴(kuò)展。
一方面,NNP-I基于英特爾10nm Ice Lake處理器架構(gòu),同樣支持所有的主流深度學(xué)習(xí)框架,在ResNet50上的效率可達(dá)4.8 TOPs/W,功率范圍為10W到50W之間 。此外,它具有高能效和低成本,能將傳統(tǒng)的AI和多個引擎結(jié)合,實(shí)現(xiàn)高效率的AI推理工作負(fù)載,適合在實(shí)際規(guī)模下運(yùn)行高強(qiáng)度的多模式推理。在Naveen Rao看來,隨著AI推理計(jì)算不斷發(fā)展,并逐漸向智能化邊緣轉(zhuǎn)移,英特爾的AI競爭優(yōu)勢進(jìn)一步明顯。
“我們非常驕傲,能成為客戶背后的算力支柱,我們也將持續(xù)用創(chuàng)新和技術(shù)來幫助客戶布局AI?!盢aveen Rao說到,目前,英特爾的許多客戶已將其AI解決方案應(yīng)用于各個層級的設(shè)備,部署在本地?cái)?shù)據(jù)中心和超大規(guī)模公有云設(shè)施中。值得一提的是,這兩款Nervana神經(jīng)網(wǎng)絡(luò)處理器主要面向英特爾的前沿AI客戶,如百度和Facebook等,并針對這些企業(yè)的AI處理需求進(jìn)行定制開發(fā)。
Naveen Rao說,截至目前,英特爾在無人機(jī)、機(jī)器人和自動駕駛等設(shè)備的邊緣計(jì)算方面,已實(shí)現(xiàn)20%的同比增長。而今年,在邊緣AI方面,英特爾推出了DevCloud for the Edge。它與OpenVINO工具包結(jié)合使用,可讓開發(fā)人員在購買硬件前,使用現(xiàn)有的工具和框架,免費(fèi)測試和優(yōu)化OpenVINO中用于英特爾硬件的模型,例如CPU和FPGA等,進(jìn)一步幫助開發(fā)人員對邊緣設(shè)備進(jìn)行AI部署和測試。
Jonathan Ballon在現(xiàn)場演講中也提到,隨著DevCloud for the Edge的發(fā)布,客戶將能使用英特爾在夏季推出的Deep Learning Workbench工具進(jìn)行建模和仿真,并可免費(fèi)將其部署于開發(fā)云中的各種硬件配置。實(shí)際上,早在六個月前,DevCloud for the Edge的beta版本就已經(jīng)推出,截至目前已經(jīng)有2700個客戶在使用。另一方面,OpenVINO支持從CPU、GPU、FPGA和英特爾Movidius神經(jīng)計(jì)算棒等一系列深度學(xué)習(xí)加速器。
在Naveen Rao看來,隨著人工智能的進(jìn)一步發(fā)展,現(xiàn)有的計(jì)算硬件和內(nèi)存都將在未來達(dá)到臨界點(diǎn),同時專用型硬件的重要性也愈加明顯。因此,對英特爾來說,利用AI技術(shù)來提升業(yè)務(wù)成果,需要進(jìn)一步推出涵蓋硬件和軟件的多種技術(shù)組合。
(責(zé)任編輯:fqj)
-
英特爾
+關(guān)注
關(guān)注
61文章
9974瀏覽量
171825 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3778瀏覽量
91158
發(fā)布評論請先 登錄
相關(guān)推薦
評論