0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

詳解GPU硬件架構及運行機制

sakobpqhz ? 來源:Tim在路上 ? 2024-01-26 09:23 ? 次閱讀

為什么我們總說GPUCPU要強大,既然GPU強大,為什么不能取代CPU呢?

答案就是CPU工作方式和GPU的工作方式截然不同,下面的兩張圖有助于幫助我們理解CPU和GPU的工作方式的不同。

87d71412-bbe7-11ee-8b88-92fbcf53809c.jpg

上圖有幾個重點的元素,也是我們下文重點要闡述的概念,綠色代表的是computational units(可計算單元) 或者稱之為 cores(核心),橙色代表memories(內存) ,黃色代表的是control units(控制單元)。

因此想要理解GPU的底層核心構成,就必須明確這幾個元素的作用,下文會逐一講解每個元素的作用。

01.計算單元(cores)

總的來看,我們可以這樣說:CPU的計算單元是“大”而“少”的,然而GPU的計算單元是“小”而“多”的。

這里的大小是指的計算能力,多少指的是設備中的數量。通過觀察上圖,顯然可以看出,計算單元(綠色的部分),CPU“大少”,GPU“小多”的特點。

CPU的cores 比GPU的cores要更加聰明(smarter),這也是所謂“大”的特點。

在過去的很長時間里,CPU的core計算能力增長是得益于主頻時鐘最大的頻率增長。

相反,GPU不僅沒有主頻時鐘的提升,而且還經歷過主頻下降的情況,因為GPU需要適應嵌入式應用環(huán)境,在這個環(huán)境下對功耗的要求是比較高的,不能容忍超高主頻的存在。

例如英偉達的Jetson NANO, 安裝在室內導航機器人身上,就是一個很好的嵌入式環(huán)境應用示例,安裝在機器人身上,就意味著使用電池供電,GPU的功耗不可以過高。

CPU比GPU聰明,很大一個原因就是CPU擁有"out-of-order exectutions"(亂序執(zhí)行)功能。

出于優(yōu)化的目的,CPU可以用不同于輸入指令的順序執(zhí)行指令,當遇到分支的時候,它可以預測在不久的將來哪一個指令最有可能被執(zhí)行到(multiple branch prediction 多重分支預測)。

通過這種方式,它可以預先準備好操作數,并且提前執(zhí)行他們(soeculative execution 預測執(zhí)行),通過上述的幾種方式節(jié)省了程序運行時間。

顯然現代CPU擁有如此多的提升性能的機制,這是比GPU聰明的地方。

相比之下,GPU的core不能做任何類似out-of-order exectutions那樣復雜的事情。

總的來說,GPU的core只能做一些最簡單的浮點運算,例如 multiply-add(MAD)或者 fused multiply-add(FMA)指令。

87ea2430-bbe7-11ee-8b88-92fbcf53809c.jpg

通過上圖可以看出MAD指令實際是計算A*B+C的值。

實際上,現代GPU結構,CORE不僅僅可以結算FMA這樣簡單的運算,還可以執(zhí)行更加復雜的運算操作,例如tensor張量(tensor core)或者光線追蹤(ray tracing core)相關的操作。

87f24fd4-bbe7-11ee-8b88-92fbcf53809c.jpg

張量核心 (tensor cores) 的目的在于服務張量操作在一些人工智能運算場合,光纖追蹤(ray tracing) 旨在服務超現實主義(hyper-realistic)實時渲染的場合。

上文說到,GPU Core最開始只是支持一些簡單的浮點運算FMA, 后來經過發(fā)展又增加了一些復雜運算的機制tensor core以及ray trace,但是總體來說GPU的計算靈活性還是比不上CPU的核心。

值得一提的是,GPU的編程方式是SIMD(Single Instruction Multiple Data)意味著所有Core的計算操作完全是在相同的時間內進行的,但是輸入的數據有所不同。

顯然,GPU的優(yōu)勢不在于核心的處理能力,而是在于他可以大規(guī)模并行處理數據。

GPU中每個核心的作用有點像羅馬帆船上的槳手:鼓手打著節(jié)拍(時鐘),槳手跟著節(jié)拍一同滑動帆船。

SIMT編程模型允許加速運行非常多的應用,對圖像進行縮放就是一個很好的例子。

在這個例子中,每個core對應圖像的一個像素點,這樣就可以并行的處理每一個像素點的縮放操作,如果這個工作給到CPU來做,需要N的時間才可以做完,但是給到GPU只需要一個時鐘周期就可以完成。

當然,這樣做的前提是有足夠的core來覆蓋所有的圖像像素點。這個問題有個顯著的特點,就是對一張圖像進行縮放操作,各個像素點之間的信息是相互獨立的,因此可以獨立的放在不同的core中進行并行運算。

我們認為不同的core操作的信息相互獨立,是符合SIMT的模型的,使用SIMT來解決這樣的問題非常方便。

但是,也不是所有的問題都是符合SIMT模型的,尤其在異步問題中,在這樣的問題中,不同的core之間要相互交互信息,計算的結構不規(guī)則,負載不均衡,這樣的問題交給GPU來處理就會比較復雜。

02.內存memory

88183c30-bbe7-11ee-8b88-92fbcf53809c.jpg

回到這個文章的第一張圖中來,我們接下來會討論GPU和CPU內存方面的差別。

CPU的memory系統(tǒng)一般是基于DRAM的,在桌面PC中,一般來說是8G,在服務器中能達到數百(256)Gbyte。

CPU內存系統(tǒng)中有個重要的概念就是cache,是用來減少CPU訪問DRAM的時間。cache是一片小的內存區(qū)域,但是訪問速度更快,更加靠近處理器核心的內存段,用來儲存DRAM中的數據副本。

cache一般有一個分級,通常分為三個級別L1,L2,L3 cache,cache離核心越近就越小訪問越快,例如 L1可以是64KB L2就是256KB L3是4MB。

CPU Cache的內容不再這里展開講解,感興趣的讀者可以自行查閱資料。

從第一張圖可以看到GPU中有一大片橙色的內存,名稱為DRAM,這一塊被稱為全局內存或者GMEM。

GMEM的內存大小要比CPU的DRAM小的多,在最便宜的顯卡中一般只有幾個G的大小,在最好的顯卡中GMEM可以達到24G。

GMEM的尺寸大小是科學計算使用中的主要限制。十年前,顯卡的容量最多也就只有512M,但是,現在已經完全克服了這個問題。

關于cache,從第一張圖中不難推斷,左上角的小橙色塊就是GPU的cache段。然而GPU的緩存機制和CPU是存在一定的差異的,稍后將會證明這一點。

03.GPU的底層結構

為了充分理解GPU的架構,讓我們在返回來看下第一張圖,一個顯卡中絕大多數都是計算核心core組成的海洋。

在圖像縮放的例子中,core與core之間不需要任何協作,因為他們的任務是完全獨立的,然而,GPU解決的問題不一定這么簡單,讓我們來舉個例子。

假設我們需要對一個數組里的數進行求和,這樣的運算屬于reductuin family類型,因為這樣的運算試圖將一個序列“reduce”簡化為一個數。

計算數組的元素總和的操作看起來是順序的,我們只需要獲取第一個元素,求和到第二個元素中,獲取結果,再將結果求和到第三個元素,以此類推。

881fb5d2-bbe7-11ee-8b88-92fbcf53809c.jpg

令人驚訝的是,一些看起來本質是順序的運算,其實可以再并行算法中轉化。

假設一個長度為8的數組,在第一步中完全可以并行執(zhí)行兩個元素和兩個元素的求和,從而同時獲得四個元素,兩兩相加的結果,以此類推,通過并行的方式加速數組求和的運算速度。具體的操作如下圖所示:

882e9462-bbe7-11ee-8b88-92fbcf53809c.jpg

如上圖計算方式,如果是長度為8的數組兩兩并行求和計算,那么只需要三次就可以計算出結果。

如果是順序計算需要8次。如果按照兩兩并行相加的算法,N個數字相加,那么僅需要log2(N)次就可以完成計算。

從GPU的角度來講,只需要四個core就可以完成長度為8的數組求和算法,我們將四個core編號為0,1,2,3。

那么第一個時鐘下,兩兩相加的結果通過0號core計算,放入了0號core可以訪問到的內存中,另外兩兩對分別由1號2號3號core來計算,第二個個時鐘繼續(xù)按照之前的算法計算,只需要0號和1號兩個core即可完成。

以此類推,最終的結果將在第三個時鐘由0號core計算完成,并儲存在0號core可以訪問到的內存中。這樣實際三次就能完成長度為8的數組求和計算。

88339db8-bbe7-11ee-8b88-92fbcf53809c.jpg

如果GPU想要完成上述的推理計算過程,顯然,多個core之間要可以共享一段內存空間以此來完成數據之間的交互,需要多個core可以在共享的內存空間中完成讀/寫的操作。

我們希望每個Cores都有交互數據的能力,但是不幸的是,一個GPU里面可以包含數以千計的core,如果使得這些core都可以訪問共享的內存段是非常困難和昂貴的。

出于成本的考慮,折中的解決方案是將各類GPU的core分類為多個組,形成多個流處理器(Streaming Multiprocessors )或者簡稱為SMs。

04.GPU架構

884732f6-bbe7-11ee-8b88-92fbcf53809c.jpg

上圖的綠色部分意味著Core計算單元,綠色的塊就是上文談到的Streaming Multiprocessors,理解為Core的集合。

黃色的部分名為RT COREs畫的離SMs非常近。單個SM的圖靈架構如下圖所示

886935ea-bbe7-11ee-8b88-92fbcf53809c.jpg

在SM的圖靈結構中,綠色的部分CORE相關的,我們進一步區(qū)分了不同類型的CORE。主要分為INT32,FP32,TENSOR CORES。

1. FP32 Cores,執(zhí)行單進度浮點運算,在TU102卡中,每個SM由64個FP32核,圖靈102由72個SM因此,FP32 Core的數量是 72 * 64。

2. FP64 Cores. 實際上每個SM都包含了2個64位浮點計算核心FP64 Cores,用來計算雙精度浮點運算,雖然上圖沒有畫出,但是實際是存在的。

3. Integer Cores,這些core執(zhí)行一些對整數的操作,例如地址計算,可以和浮點運算同時執(zhí)行指令。在前幾代GPU中,執(zhí)行這些整型操作指令都會使得浮點運算的管道停止工作。TU102總共由4608個Integer Cores,每個SM有64個intCores。

4. Tensor Cores,張量core是FP16單元的變種,認為是半精度單元,致力于張量積算加速常見的深度學習操作。

圖靈張量Core還可以執(zhí)行INT8和INT4精度的操作,用于可以接受量化而且不需要FP16精度的應用場景,在TU102中,我們每個SM有8個張量Cores,一共有8 * 72個Tensor Cores。

在大致描述了GPU的執(zhí)行部分之后,讓我們回到上文提出的問題,各個核心之間如何完成彼此的協作?

在四個SM塊的底部有一個96KB的L1 Cache,用淺藍色標注的。這個cache段是允許各個Core都可以訪問的段,在L1 Cache中每個SM都有一塊專用的共享內存。

作為芯片上的L1 cache他的大小是有限的,但它非???,肯定比訪問GMEM快得多。

實際上L1 CACHE擁有兩個功能,一個是用于SM上Core之間相互共享內存,另一個則是普通的cache功能。

當Core需要協同工作,并且彼此交換結果的時候,編譯器編譯后的指令會將部分結果儲存在共享內存中,以便于不同的core獲取到對應數據。

當用做普通cache功能的時候,當core需要訪問GMEM數據的時候,首先會在L1中查找,如果沒找到,則回去L2 cache中尋找,如果L2 cache也沒有,則會從GMEM中獲取數據,L1訪問最快 L2 以及GMEM遞減。

緩存中的數據將會持續(xù)存在,除非出現新的數據做替換。從這個角度來看,如果Core需要從GMEM中多次訪問數據,那么編程者應該將這塊數據放入功能內存中,以加快他們的獲取速度。

其實可以將共享內存理解為一段受控制的cache,事實上L1 cache和共享內存是同一塊電路中實現的。編程者有權決定L1 的內存多少是用作cache多少是用作共享內存。

最后,也是比較重要的是,可以儲存各個core的計算中間結果,用于各個核心之間共享的內存段不僅僅可以是共享內存L1,也可以是寄存器,寄存器是離core最近的內存段,但是也非常小。

最底層的思想是每個線程都可以擁有一個寄存器來儲存中間結果,每個寄存器只能由相同的一個線程來訪問,或者由相同的warp或者組的線程訪問。

05.總結

GPU的基本底層構成,主要是以GPU計算核心 Cores,以及Memory以及控制單元,三大組成要素組成。

Core是計算的基本單元,既可以用作簡單的浮點運算,又可以做一些復雜的運算例如,tensor 或者ray tracing。

多個core之間通訊的方式:

在特定的應用場合多個core之間是不需要的通訊的,也就是各干各的(例如 圖像縮放)。但是也有一些例子,多個core之間要相互通訊配合(例如上文談到的數組求和問題),每個core之間都可以實現交互數據是非常昂貴的,因此提出了SM的概念,SM是多個core的集合,一個SM里面的cores可以通過L1 Cache進行交互信息,完成使用GPU處理數組求和問題的時候,多個核心共享數據的功能。

關于memory,存在全局的內存GMEM,但是訪問較慢,Cores當需要訪問GMEM的時候會首先訪問L1,L2如果都miss了,那么才會花費大代價到GMEM中尋找數據。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19286

    瀏覽量

    229852
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10863

    瀏覽量

    211778
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4740

    瀏覽量

    128951

原文標題:深入理解GPU硬件架構及運行機制

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    蘋果宣布iPhone OS 4 多任務運行機制詳解

    蘋果宣布iPhone OS 4 多任務運行機制詳解 蘋果今天在公司總部召開發(fā)布會,提前披露了將于今夏發(fā)布的iPhone OS 4操作系統(tǒng)升級新特性。之前傳言中有關
    發(fā)表于 04-13 08:48 ?888次閱讀

    Arduino為什么只有l(wèi)oop和setup函數,揭開Arduino的神秘面紗--運行機制

    。。。。。。。。。。。。。。。。。。?運行機制是怎么樣??一系列問題。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。然后咱們揭開它神秘的面紗-----首先大家可以用代碼瀏覽神器Source
    發(fā)表于 10-30 17:33

    NVIDIA火熱招聘GPU高性能計算架構

    這邊是NVIDIA HR Allen, 我們目前在上海招聘GPU高性能計算架構師(功能驗證)的崗位,有意向的朋友歡迎發(fā)送簡歷到 allelin@nvidia.comWechat
    發(fā)表于 09-01 17:22

    計算機操作系統(tǒng)的運行機制和體系結構

    計算機操作系統(tǒng)-運行機制、體系結構
    發(fā)表于 07-09 16:52

    ARM架構GPU和臺式機的GPU有什么區(qū)別

    1:移動GPU(指的是ARM處理器集成的GPU)和獨立的PC的GPU的區(qū)別?除了架構,就拿視頻解碼來說,為什么ARM的處理器的GPU可以實現
    發(fā)表于 07-18 08:04

    HSA----CPU+GPU異構系統(tǒng)架構詳解

    解析HSA----CPU+GPU異構系統(tǒng)架構
    發(fā)表于 02-03 07:07

    CPU的基本結構和運行機制

    目錄一. CPU的基本結構和運行機制參考《ARM微控制器與嵌入式系統(tǒng)--清華》一. CPU的基本結構和運行機制分析其中的CPU:(ALU、寄存器組、控制單元是必要的,其他非必要)一個完整的CPU:將
    發(fā)表于 11-03 09:22

    MCU總結結構和程序運行機制的相關資料分享

    MCU總結結構和程序運行機制
    發(fā)表于 11-16 08:45

    Linux系統(tǒng)是如何去實現多用戶運行機制的呢

    什么是Linux系統(tǒng)呢?Linux系統(tǒng)是如何去實現多用戶運行機制的呢?
    發(fā)表于 12-29 06:40

    Linux系統(tǒng)的fork運行機制分析

    如果其中一個進程的輸出結果是“pid1:1001, pid2:1002”,寫出其他進程的輸出結果(不考慮進程執(zhí)行順序)。 明顯這道題的目的是考察linux下fork的執(zhí)行機制。下面我們通過分析這個題目,談談Linux下fork的運行機制。
    發(fā)表于 04-26 16:26 ?1166次閱讀
    Linux系統(tǒng)的fork<b class='flag-5'>運行機制</b>分析

    SSL和TLS協議運行機制的資料詳細概述

    聯網的通信安全,建立在SSL/TLS協議之本文簡要介紹SSL/TLS協議的運行機制。文章的重點是設計思想和運行過程,不涉及具體的實現細節(jié)。
    發(fā)表于 07-22 08:00 ?2次下載
    SSL和TLS協議<b class='flag-5'>運行機制</b>的資料詳細概述

    深入GPU硬件架構運行機制(下)

    由于SIMT技術的引入,導致很多同一個SM內的很多Core并不是獨立的,當它們當中有部分Core需要訪問到紋理、常量緩存和全局內存時,就會導致非常大的卡頓(Stall)。
    的頭像 發(fā)表于 12-19 09:33 ?2092次閱讀

    GPU硬件架構運行機制(下)

    由于SIMT技術的引入,導致很多同一個SM內的很多Core并不是獨立的,當它們當中有部分Core需要訪問到紋理、常量緩存和全局內存時,就會導致非常大的卡頓(Stall)。
    的頭像 發(fā)表于 12-19 14:15 ?2459次閱讀

    php運行機制和原理

    PHP是一種在服務器端執(zhí)行的腳本語言,它被廣泛用于開發(fā)動態(tài)網站。它的運行機制和原理非常重要,因為它決定了PHP腳本如何被解釋執(zhí)行和與服務器進行交互。 PHP的運行機制 PHP腳本的運行機制涉及到以下
    的頭像 發(fā)表于 12-04 15:28 ?927次閱讀

    揭秘GPU: 高端GPU架構設計的挑戰(zhàn)

    在計算領域,GPU(圖形處理單元)一直是性能飛躍的代表。眾所周知,高端GPU的設計充滿了挑戰(zhàn)。GPU架構創(chuàng)新,為軟件承接大模型訓練和推理場景的人工智能計算提供了持續(xù)提升的
    的頭像 發(fā)表于 12-21 08:28 ?925次閱讀
    揭秘<b class='flag-5'>GPU</b>: 高端<b class='flag-5'>GPU</b><b class='flag-5'>架構</b>設計的挑戰(zhàn)