GPU要超越CPU擠身一線主角還得靠AI
GPU應用因AI開始有了截然不同的新轉變,不只讓一些支援高度平行運算應用的高階GPU相繼問世,現(xiàn)在連整套GPU深度學習專用服務器也搶灘登陸,要助企業(yè)加快AI應用。
AI人工智慧、虛擬/擴增實境(VR/AR)與自動駕駛技術,在過去一年引起很高的市場關注,而一舉躍升成為當前最火紅的熱門話題,特別是以深度學習(Deep Learning)為首的AI應用,過去幾個月來,因為Google的AI電腦AlphaGo接連大敗歐洲和南韓國圍棋棋王,更在全世界吹起一股AI風潮,使得現(xiàn)在不只有大型科技或網(wǎng)路公司要大力投資AI,就連各國政府也都要砸重金扶植AI產(chǎn)業(yè)。
目前一些大型科技或網(wǎng)路業(yè)者,例如Google、Facebook、亞馬遜AWS、IBM、微軟與百度等,都陸續(xù)已在云端服務中融入AI服務,做為電腦視覺、語音辨識和機器人等服務用途,甚至,也開始有越來越多規(guī)模較小的新創(chuàng)或網(wǎng)路公司,如Api.ai、Drive. ai、Clarifai與MetaMind等,打算將AI開始應用在各行各業(yè)的領域上。
GPU開始在AI應用逐漸嶄露頭角
然而,決定這些AI服務能不能獲得更好發(fā)揮的關鍵,不只得靠機器學習的幫忙,甚至得借助深度學習的類神經(jīng)演算法,才能加深AI未來的應用。這也使得近年來,GPU開始在一些AI應用當中逐漸嶄露頭角。這是因為不論是AI、VR/AR,還是自動駕駛技術的應用,雖然各有不同用途,但他們普遍都有一個共同的特色,都是需要大量平行運算(Parallel Computing)的能力,才能當作深度學習訓練模型使用,或者是將圖形繪制更貼近真實呈現(xiàn)。
所謂的平行運算泛指的是將大量且密集的運算問題,切割成一個個小的運算公式,而在同時間內(nèi)并行完成計算的一種運算類型。而GPU則是最能夠將平行運算發(fā)揮到極致的一大關鍵,這是因為GPU在晶片架構上,原本就被設計成適合以分散式運算的方式,來加速完成大量且單調式的計算工作,例如圖形渲染等。所以,過去像是高細膩電玩畫面所需的大量圖形運算,就成為了GPU最先被廣為運用的領域,現(xiàn)在,VR/AR則是進一步打算將原本就擅于繪圖運算的GPU發(fā)揮得更淋漓盡致,來呈現(xiàn)出高臨場感的3D虛擬實境體驗。
當然在游戲繪圖運算外,后來GPU也被拿來運用在需要大量同質計算的科學研究中使用。甚至近年來,GPU也開始因為深度學習的關系,而在一些AI應用當中擔任重要角色。
深度學習其實是機器學習類神經(jīng)網(wǎng)路的其中一個分支,深度學習本身是由很多小的數(shù)學元件組合成一個復雜模型,就像是腦神經(jīng)網(wǎng)路一般,可以建構出多層次的神經(jīng)網(wǎng)路模型,來分別處理不同層次的運算工作,這些神經(jīng)網(wǎng)路本身并不做判斷,只重覆相同計算工作,使得GPU在深度學習方面可以獲得很好的發(fā)揮,而隨著網(wǎng)路、云端和硬體技術成熟所帶來巨量的資料,也造就了現(xiàn)在所需完成訓練的深度學習模型,比起以前更需要大量高階GPU的平行運算能力,才足以應付得了。
GPU平行運算性價比贏過CPU
因為AI、VR/AR與自駕車應用需求提高后,也促使GPU重要性與日俱增,甚至為了因應深度學習與AI應用趨勢,新世代GPU反而希望盡可能在晶片中裝入了更多電晶體和核心數(shù),來提高大量同性質的資料計算能力。若是以Nvidia新的Tesla P100系列的GPU加速器產(chǎn)品來舉例說明的話,在這個GPU加速器內(nèi)總共裝有3,584個CUDA核心數(shù)(單精度條件下),其內(nèi)含的電晶體數(shù)更一舉超過了150億顆,數(shù)量幾乎是前一代Tesla M40 GPU的翻倍,在雙精度條件下的浮點運算能力,更高達有5.3 TFLOPs。
當然GPU之外,CPU本身也具有計算處理的能力,不過在處理平行運算時,***大學資工系副教授洪士灝認為,GPU的CP值(性價比)比CPU還要高。這是因為GPU原本就擅長處理大量高同質性的資料計算工作,而CPU則擅于通用型任務的資料處理,所以對于一些需要大量單調式運算工作的應用,就很適合使用GPU來執(zhí)行,例如利用深度學習神經(jīng)網(wǎng)路訓練模型來實現(xiàn)AI應用,或者是用繪圖運算呈現(xiàn)VR/AR所需的高細膩畫面,都很適合用GPU的方式來進行計算。
另外從Nvidia官方所公布的一份CUDA C Programming Guide設計指南中也揭露了在2013年前的過去10年間,GPU與CPU兩者在單精度與雙精度浮點運算(Floating-Point Operations Per Second,F(xiàn)LOPS)發(fā)展的比較差異。整體來看,GPU與CPU發(fā)展越到后期,兩者在浮點運算處理能力的差距,有逐漸被拉大的趨勢,這是因為越到后面才推出的新款GPU,更加強調浮點運算的重要性,而盡可能要提高GPU浮點運算的處理能力。所以,現(xiàn)在許多超級電腦內(nèi)都有使用GPU,來大幅提高浮點運算的實力。
從Nvidia官方所公布的一份CUDA C Programming Guide設計指南中也部分揭露了在2013年前的過去10年間,GPU與CPU兩者在單精度與雙精度浮點運算發(fā)展的比較差異。
整體來看,GPU與CPU發(fā)展越到后期,兩者在浮點運算處理能力的差距,有逐漸被拉大的趨勢,這是因為越到后面才推出的新款GPU,更加強了浮點運算的能力。
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%
相關閱讀:
- [電子說] Blackwell GB100能否在超級計算機和AI市場保持領先優(yōu)勢? 2023-10-24
- [電子說] 如何使用Rust創(chuàng)建一個基于ChatGPT的RAG助手 2023-10-24
- [電子說] 訊飛星火大模型V3.0正式發(fā)布,全面對標ChatGPT 2023-10-24
- [電子說] 如何創(chuàng)建FPGA控制的機器人手臂 2023-10-24
- [電子說] 亞馬遜云科技生成式AI最新案例分析,助力企業(yè)業(yè)務創(chuàng)新迭代 2023-10-24
- [電子說] 怎樣延長半導體元器件的壽命呢? 2023-10-24
- [電子說] 新思科技攜手臺積公司加速N2工藝下的SoC創(chuàng)新 2023-10-24
- [電子說] 服務器硬盤通用基礎知識 2023-10-24
( 發(fā)表人:包永剛 )