人工智能推動了互聯(lián)網(wǎng)形態(tài)的新變化。
如果說從 PC 互聯(lián)網(wǎng)到
移動互聯(lián)網(wǎng)是一次大的跨越,
那么,現(xiàn)在我們又面臨著
移動互聯(lián)網(wǎng)向智能互聯(lián)網(wǎng)的一次新跨越。
如果說智能終端是人的感官,
那么云就是大腦,
把智能終端和云大腦完美結(jié)合起來,
才是人工智能未來的方向。
在我們預想中的世界里,人工智能將使終端、機器、汽車和萬物都變得更加智能,簡化并豐富我們的日常生活。它們將能夠基于場景認知,進行感知、推理并采取直觀行動,改善目前我們提供給用戶的所有體驗,并解決我們目前更多交給常規(guī)算法所去處理的相關問題。
人工智能(AI)正是驅(qū)動這次革命的技術(shù)。你可能聽說過這一愿景,或認為人工智能只和大數(shù)據(jù)、云端有關,但 Qualcomm 的解決方案已具備合適的功耗、散熱和處理效率,讓強大的人工智能算法在實際的終端上運行,而這將帶來諸多優(yōu)勢。
得益于現(xiàn)代終端設備對大量數(shù)據(jù)的掌握,以及在算法和處理能力方面的提升,人工智能成為了快速增長的普遍趨勢。新技術(shù)似乎總是出其不意地出現(xiàn),但在時機成熟并取得關鍵進展之前,研究人員和工程師們通常需要辛苦鉆研很多年。
在 Qualcomm,創(chuàng)新是我們的企業(yè)文化。我們?yōu)檠邪l(fā)出大規(guī)模改變世界的基礎技術(shù)而深感自豪。在人工智能方面也不例外。我們于十年前就開始了基礎研究,目前我們的現(xiàn)有產(chǎn)品支持了許多人工智能用例:從計算機視覺和自然語言處理,到各種終端,如智能手機和汽車上的惡意軟件偵測。同時,我們正在研究更廣泛的課題,例如面向無線連接、電源管理和攝影的人工智能。
我們在機器學習方面有著深厚積累
我們對機器學習的投入有著悠久的歷史。自 2007 年,Qualcomm 開始探索面向計算機視覺和運動控制應用的機器學習脈沖神經(jīng)方法,隨后還將其研究范圍從仿生方法拓展到了人工神經(jīng)網(wǎng)絡——主要是深度學習領域(這是機器學習的一個子范疇)。我們多次見證了基于深度學習的網(wǎng)絡在模式匹配任務中展現(xiàn)出一流的成果。一個令人矚目的例子就是,2012 年 AlexNet 利用深度學習技術(shù)(而非傳統(tǒng)手作計算機視覺)贏得 ImageNet 比賽。我們自己也在 ImageNet 挑戰(zhàn)賽中利用深度學習技術(shù)獲得成功,在物體定位、物體偵測和場景分類比賽中名列前三名。
我們還將自主研究和與外界人工智能團體合作的領域擴展到諸如遞歸神經(jīng)網(wǎng)絡、物體跟蹤、自然語言處理和手寫識別等其他前景廣闊的領域和機器學習應用等。2014 年 9 月,我們在阿姆斯特丹開設了 Qualcomm Research 荷蘭分支,作為機器學習研究的基地。我們通過 Qualcomm 創(chuàng)新獎學金計劃與博士研究生緊密合作,開展前瞻性的理念研究。2015 年 9 月,我們與阿姆斯特丹大學(QUVA)建立聯(lián)合研究實驗室,專注于推動面向移動計算機視覺的、最先進的機器學習技術(shù)發(fā)展。通過收購位于阿姆斯特丹的領先人工智能公司 Scyfer,我們進一步深化與阿姆斯特丹人工智能業(yè)界的合作關系。Scyfer 的創(chuàng)始 人Max Welling 是阿姆斯特丹大學知名教授,主攻機器學習、計算統(tǒng)計學和人工智能基礎研究。Scyfer 專注于應用廣泛的機器學習方法以解決實際問題。Scyfer 團隊將加入 Qualcomm Research 機器學習團隊。
支持終端側(cè)機器學習的出色功耗和性能
為了實現(xiàn)我們的智能終端愿景,我們也意識到基于機器學習的解決方案需要在終端上運行,無論終端是智能手機、汽車、機器人、無人機、機器或是其他設備。與在云端運行的人工智能相比,在終端側(cè)運行人工智能算法——亦稱推理,具有諸多優(yōu)勢,例如即時響應、可靠性提升、隱私保護增強,以及高效利用網(wǎng)絡帶寬。
當然,云端仍然十分重要,并作為終端側(cè)處理的補充而存在。云端對匯集大數(shù)據(jù)以及在終端上運行的許多人工智能推理算法的訓練(現(xiàn)階段)是必要的。但是,在很多情況下,完全基于云端運行的推理在自動駕駛等時延敏感和關鍵型任務的實時應用中會遇到問題。此類應用無法負擔數(shù)據(jù)傳輸往返的時間,或在無線覆蓋變化時依靠關鍵功能運行。進一步講,終端側(cè)推理從本質(zhì)來說更加私密。
我們不想把自己僅僅局限在運行終端側(cè)推理。我們也與云端協(xié)同合作,面向手勢識別、連續(xù)認證、個性化用戶界面和面向自動駕駛的精密地圖構(gòu)建等使用場景進行終端側(cè)人工智能訓練。實際上,得益于高速連接和高性能本地處理,我們有獨特的能力去探索未來架構(gòu),實現(xiàn)最佳的總體系統(tǒng)性能。
高效運行終端側(cè)人工智能需要異構(gòu)計算
十多年來,Qualcomm 一直專注于在移動終端的功耗、散熱和尺寸限制之內(nèi),高效地處理多種計算工作負載。驍龍移動平臺是最高性能移動終端的首選系統(tǒng)級芯片(SoC)。人工智能工作負載在這方面提出了另一個挑戰(zhàn)。通過在適宜的計算引擎上運行各種機器學習任務(如 CPU、GPU 和 DSP 等),我們能提供最高效的解決方案。這已經(jīng)集成在了我們的 SoC 中。Qualcomm Hexagon DSP 就是一個典型范例,它最初是面向其他向量數(shù)學密集型工作而設計,但已通過進一步增強用來解決人工智能的工作負載。實際上,在驍龍835 上支持 Qualcomm Hexagon 向量擴展的 Hexagon DSP,與 Qualcomm Kryo CPU 相比,在運行相同工作負載時(GoogleNet Inception網(wǎng)絡)能夠?qū)崿F(xiàn) 25 倍能效提升和 8 倍性能提升。
架構(gòu)的多樣性是至關重要的,你不能僅依賴某一類引擎處理所有工作。我們將持續(xù)演進面向機器學習工作負載的現(xiàn)有引擎,保持我們在性能表現(xiàn)最大化上的領先優(yōu)勢。利用我們對新興神經(jīng)網(wǎng)絡的研究,我們在專注提升性能表現(xiàn),以擴展異構(gòu)計算能力,應對未來人工智能工作負載上已具備了優(yōu)勢。實際上早在 2012 年,我們已預見了通過專用硬件高效運行人工智能的構(gòu)想。
我們正大規(guī)模普及人工智能
讓開發(fā)者能簡單利用異構(gòu)計算并非易事,僅有優(yōu)良硬件還不夠。為了彌補這一差距,我們發(fā)布了驍龍神經(jīng)處理引擎(NPE)軟件開發(fā)包(SDK)。它能縮短終端側(cè)卷積神經(jīng)網(wǎng)絡(CNN)和遞歸神經(jīng)網(wǎng)絡(RNN)在合適的驍龍引擎(例如 Kryo CPU、Qualcomm Adreno GPU 和 Hexagon DSP)上的運行時間,對圖形識別和自然語言處理分別都有著重要作用。相同的開發(fā)者 API 給每個引擎都提供接入口,從而使開發(fā)者能夠方便地無縫切換人工智能任務。
該神經(jīng)處理引擎還支持通用深度學習模型框架,例如 Caffe/Caffe2 和 TensorFlow。該 SDK 是利用驍龍技術(shù)提供最佳性能和功耗的輕量靈活平臺,旨在幫助從醫(yī)療健康到安全的廣泛行業(yè)內(nèi)的開發(fā)者和 OEM 廠商,在便攜式終端上運行它們自己的專有神經(jīng)網(wǎng)絡模型。例如,今年的 F8 大會上,F(xiàn)acebook 和 Qualcomm 宣布合作,支持優(yōu)化 Facebook 開源深度學習框架 Caffe2,以及 NPE 框架。
持續(xù)研究擴展人工智能范圍,帶來效率提升
我們正處于機器學習發(fā)展征程的最初期,深度學習也僅是具備改變計算潛力的多項機器學習技術(shù)之一。
為了實現(xiàn)更復雜的應用,我們在多個領域持續(xù)前進:
-
專門的硬件架構(gòu):持續(xù)關注低功耗硬件(無論增強型、專用型還是定制型),以處理這些機器學習工作負載;
-
神經(jīng)網(wǎng)絡技術(shù)的提升:針對半監(jiān)督和無監(jiān)督訓練進行相關研究,如生成式對抗網(wǎng)絡(GANs)、分布式學習和隱私保護;
-
面向終端側(cè)應用的網(wǎng)絡優(yōu)化:進行壓縮、層間優(yōu)化、稀疏優(yōu)化,以及更好地利用內(nèi)存和空間/時間復雜度的其他技術(shù)的相關研究;
在終端側(cè)完成全部或大部分思考的、“始終開啟”的智能終端中蘊藏著巨大的機遇,我們期待通過研究和產(chǎn)品化推動先進機器學習的發(fā)展。目前,Qualcomm 人工智能平臺可通過高效的終端側(cè)機器學習,提供高度響應、高度安全且直觀的用戶體驗。未來還有更多可能。
-
人工智能
+關注
關注
1792文章
47497瀏覽量
239211 -
智能終端
+關注
關注
6文章
884瀏覽量
34805 -
云大腦
+關注
關注
0文章
1瀏覽量
1469
原文標題:我們的心愿是人工智能無處不在!
文章出處:【微信號:Qualcomm_China,微信公眾號:高通中國】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論