0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

面向數(shù)組計(jì)算任務(wù)而設(shè)計(jì)的Numba具有CUDA加速功能

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Mark Harris ? 2022-04-11 09:58 ? 次閱讀

Python 是一種高效的動(dòng)態(tài)編程語(yǔ)言,廣泛應(yīng)用于科學(xué)、工程和數(shù)據(jù)分析應(yīng)用程序中。影響 python 流行的因素有很多,包括它簡(jiǎn)潔而富有表現(xiàn)力的語(yǔ)法和標(biāo)準(zhǔn)的數(shù)據(jù)結(jié)構(gòu)、全面的“包含電池”的標(biāo)準(zhǔn)庫(kù)、優(yōu)秀的文檔、廣泛的庫(kù)和工具生態(tài)系統(tǒng)、專業(yè)支持的可用性以及大而開(kāi)放的社區(qū)。不過(guò),最重要的也許是 Python 這樣的動(dòng)態(tài)類型化、解釋性語(yǔ)言所能實(shí)現(xiàn)的高生產(chǎn)率。 Python 既靈活又靈活,這使它成為快速原型設(shè)計(jì)和構(gòu)建完整系統(tǒng)的優(yōu)秀語(yǔ)言。

但是 Python 最大的優(yōu)點(diǎn)也可能是它最大的弱點(diǎn):它的靈活性和無(wú)類型的高級(jí)語(yǔ)法會(huì)導(dǎo)致數(shù)據(jù)和計(jì)算密集型程序的性能下降。因此,關(guān)心效率的 Python 程序員通常用 C 重寫(xiě)最里面的循環(huán),并從 Python 調(diào)用編譯后的 C 函數(shù)。有許多項(xiàng)目旨在使這種優(yōu)化更容易,例如 Cython ,但它們通常需要學(xué)習(xí)新的語(yǔ)法。理想情況下, Python 程序員希望在不使用其他編程語(yǔ)言的情況下使現(xiàn)有的 Python 代碼更快,而且,自然地,許多人希望使用加速器來(lái)從他們的代碼中獲得更高的性能。

Numba :高性能計(jì)算的高生產(chǎn)率

你為什么不想在 Numba 上用 Python Anaconda 編譯一個(gè) CUDA 的 Python 編譯器,因?yàn)槟悴幌胗?Python 的 GPUs 編譯一個(gè) PythonCPU 語(yǔ)言。答案當(dāng)然是運(yùn)行本機(jī)編譯代碼比運(yùn)行動(dòng)態(tài)解釋代碼快很多倍。 Numba 的工作原理是允許您為 Python 函數(shù)指定類型簽名,這樣可以在運(yùn)行時(shí)進(jìn)行編譯(這是“ Just-in-time ”或 JIT 編譯)。 Numba 動(dòng)態(tài)編譯代碼的能力意味著您不會(huì)放棄 Python 的靈活性。這是向提供高生產(chǎn)率編程和高性能計(jì)算的理想組合邁出的一大步。

使用 Numba ,現(xiàn)在可以編寫(xiě)標(biāo)準(zhǔn)的 Python 函數(shù)并在支持 CUDA -GPU 上運(yùn)行它們。 Numba 是為面向數(shù)組的計(jì)算任務(wù)而設(shè)計(jì)的,很像廣泛使用的 NumPy 庫(kù)。面向數(shù)組的計(jì)算任務(wù)中的數(shù)據(jù)并行性自然適合 GPUs 這樣的加速器。 Numba 理解 NumPy 數(shù)組類型,并使用它們生成高效的編譯代碼,以便在 GPUs 或多核 CPU 上執(zhí)行。所需的編程工作可以簡(jiǎn)單到添加一個(gè)函數(shù)修飾符來(lái)指示 Numba 為 GPU 編譯。例如,下面代碼中的 @vectorize 修飾符在運(yùn)行時(shí)生成標(biāo)量函數(shù) Add 的編譯矢量化版本,以便可以在 GPU 上并行處理數(shù)據(jù)數(shù)組。

import numpy as np
from numba import vectorize @vectorize(['float32(float32, float32)'], target='cuda')
def Add(a, b): return a + b # Initialize arrays
N = 100000
A = np.ones(N, dtype=np.float32)
B = np.ones(A.shape, dtype=A.dtype)
C = np.empty_like(A, dtype=A.dtype) # Add arrays on GPU

C = Add(A, B)要在 CPU 上編譯并運(yùn)行相同的函數(shù),我們只需將目標(biāo)更改為“ CPU ”,這將在 CPU 上產(chǎn)生編譯的、矢量化的 C 代碼級(jí)別的性能。這種靈活性有助于您生成更多可重用的代碼,并允許您在沒(méi)有 GPUs 的機(jī)器上進(jìn)行開(kāi)發(fā)。

GPU -Python 加速庫(kù)

CUDA 并行計(jì)算平臺(tái)的優(yōu)勢(shì)之一是其可用 GPU – 加速庫(kù) 的寬度。Numba 團(tuán)隊(duì)的另一個(gè)項(xiàng)目叫做 pyculib ,提供到 CUDA cuBLAS (稠密線性代數(shù)) 、 快速傅里葉變換 和 cuRAND (隨機(jī)數(shù)生成) 庫(kù)的 Python 接口。許多應(yīng)用程序只需使用這些庫(kù)就可以獲得顯著的加速,而無(wú)需編寫(xiě)任何特定于 GPU 的代碼。

import numpy as np
from pyculib import rand as curand prng = curand.PRNG(rndtype=curand.PRNG.XORWOW)
rand = np.empty(100000)
prng.uniform(rand)

print rand[:10]使用 CUDA Python 實(shí)現(xiàn)大規(guī)模并行

Anaconda (以前的 Continuum Analytics )認(rèn)識(shí)到,在某些計(jì)算上實(shí)現(xiàn)大的加速需要一個(gè)更具表現(xiàn)力的編程接口,對(duì)并行性的控制比庫(kù)和自動(dòng)循環(huán)矢量化所能提供的更詳細(xì)。因此, Numba 還有另一組重要的特性,它們構(gòu)成了非正式的“ CUDA Python ”。 NUBA 公開(kāi)了 CUDA 編程模型,就像 CUDA C / C ++中一樣,但是使用純 Python 語(yǔ)法,這樣程序員就可以創(chuàng)建定制的、并行的并行內(nèi)核,而不必留下 Python 的舒適性和優(yōu)點(diǎn)。 Numba 的 CUDA JIT (通過(guò) decorator 或 function call 提供)在運(yùn)行時(shí)編譯 CUDA Python 函數(shù),將它們專門化為您使用的類型,而且它的 CUDA Python API 提供了對(duì)數(shù)據(jù)傳輸和 CUDA 流等功能的顯式控制。

下面的代碼示例用一個(gè)簡(jiǎn)單的 Mandelbrot set 內(nèi)核演示了這一點(diǎn)。請(qǐng)注意, mandel_kernel 函數(shù)使用 Numba 提供的 cuda.threadIdx, cuda.blockIdx, cuda.blockDim, and cuda.gridDim 結(jié)構(gòu)來(lái)計(jì)算當(dāng)前線程的全局 X 和 Y 像素索引。與其他 CUDA 語(yǔ)言一樣,我們通過(guò)在括號(hào)中插入一個(gè)“執(zhí)行配置”( CUDA – 表示運(yùn)行內(nèi)核的線程數(shù)和線程塊數(shù))來(lái)啟動(dòng)內(nèi)核函數(shù)名和參數(shù)列表: mandel_kernel[griddim, blockdim](-2.0, 1.0, -1.0, 1.0, d_image, 20) 。您還可以看到使用 to_hostto_device API 函數(shù)在 GPU 之間復(fù)制數(shù)據(jù)。

您可以在 Github 上獲得完整的 Mandelbrot 示例的 Jupyter 筆記本 。

@cuda.jit(device=True)
def mandel(x, y, max_iters): """ Given the real and imaginary parts of a complex number, determine if it is a candidate for membership in the Mandelbrot set given a fixed number of iterations. """ c = complex(x, y) z = 0.0j for i in range(max_iters): z = z*z + c if (z.real*z.real + z.imag*z.imag) >= 4: return i return max_iters @cuda.jit
def mandel_kernel(min_x, max_x, min_y, max_y, image, iters): height = image.shape[0] width = image.shape[1] pixel_size_x = (max_x - min_x) / width pixel_size_y = (max_y - min_y) / height startX = cuda.blockDim.x * cuda.blockIdx.x + cuda.threadIdx.x startY = cuda.blockDim.y * cuda.blockIdx.y + cuda.threadIdx.y gridX = cuda.gridDim.x * cuda.blockDim.x; gridY = cuda.gridDim.y * cuda.blockDim.y; for x in range(startX, width, gridX): real = min_x + x * pixel_size_x for y in range(startY, height, gridY): imag = min_y + y * pixel_size_y image[y, x] = mandel(real, imag, iters) gimage = np.zeros((1024, 1536), dtype = np.uint8)
blockdim = (32, 8)
griddim = (32,16) start = timer()
d_image = cuda.to_device(gimage)
mandel_kernel[griddim, blockdim](-2.0, 1.0, -1.0, 1.0, d_image, 20) d_image.to_host()

dt = timer() - start print "Mandelbrot created on GPU in %f s" % dt imshow(gimage)在帶有 NVIDIA Tesla P100GPU 和 Intel Xeon E5-2698 v3CPU 的服務(wù)器上, CUDA Python Mandelbrot 代碼的運(yùn)行速度比純 Python 版本快近 1700 倍。 1700x 似乎是一個(gè)不切實(shí)際的加速,但請(qǐng)記住,我們將編譯的、并行的、 GPU – 加速的 Python 代碼與 CPU 上解釋的單線程 Python 代碼進(jìn)行比較。

今天就開(kāi)始使用 Numba

Numba 為 Python 開(kāi)發(fā)人員提供了一個(gè)進(jìn)入 GPU 加速計(jì)算的簡(jiǎn)單入口,并為使用日益復(fù)雜的 CUDA 代碼提供了一條路徑,只需使用最少的新語(yǔ)法和行話。您可以從簡(jiǎn)單的函數(shù)修飾符開(kāi)始自動(dòng)編譯函數(shù),或者使用 pyculib 公開(kāi)的功能強(qiáng)大的 CUDA 庫(kù)。隨著您對(duì)并行編程概念的深入理解,以及當(dāng)您需要對(duì)并行線程進(jìn)行富有表現(xiàn)力和靈活的控制時(shí), CUDA 是可用的,無(wú)需您在第一天就投入使用。

Numba 是一個(gè)經(jīng)過(guò) BSD 許可的開(kāi)源項(xiàng)目,它本身嚴(yán)重依賴于 LLVM 編譯器的功能。 Numba 的 GPU 后端使用了基于 LLVM 的 NVIDIA 編譯器 SDK 。 CUDA 庫(kù)的 膿皰 包裝器也是開(kāi)源的,并且是 BSD 許可的。

要開(kāi)始使用 Numba ,第一步是下載并安裝 Anaconda 分布 ,這是一個(gè)“完全免費(fèi)的企業(yè)級(jí) Python 發(fā)行版,用于大規(guī)模數(shù)據(jù)處理、預(yù)測(cè)分析和科學(xué)計(jì)算”,其中包括許多流行的軟件包( NumPy 、 Scipy 、 Matplotlib 、 iPython 等)和功能強(qiáng)大的包管理器“ conda ”。一旦安裝了 Anaconda ,輸入 conda install numba cudatoolkit pyculib 安裝所需的 CUDA 包。然后查看 ContinuumIO github 存儲(chǔ)庫(kù)上的 CUDA 的 Numba 教程 。

關(guān)于作者

Mark Harris 是 NVIDIA 杰出的工程師,致力于 RAPIDS 。 Mark 擁有超過(guò) 20 年的 GPUs 軟件開(kāi)發(fā)經(jīng)驗(yàn),從圖形和游戲到基于物理的模擬,到并行算法和高性能計(jì)算。當(dāng)他還是北卡羅來(lái)納大學(xué)的博士生時(shí),他意識(shí)到了一種新生的趨勢(shì),并為此創(chuàng)造了一個(gè)名字: GPGPU (圖形處理單元上的通用計(jì)算)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4986

    瀏覽量

    103066
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4740

    瀏覽量

    128951
  • 編譯器
    +關(guān)注

    關(guān)注

    1

    文章

    1634

    瀏覽量

    49133
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    《CST Studio Suite 2024 GPU加速計(jì)算指南》

    。 2. 操作系統(tǒng)支持:CST Studio Suite在不同操作系統(tǒng)上持續(xù)測(cè)試,可在支持的操作系統(tǒng)上使用GPU計(jì)算,具體參考相關(guān)文檔。 3. 許可證:GPU計(jì)算功能通過(guò)CST Studio Suite
    發(fā)表于 12-16 14:25

    C語(yǔ)言數(shù)組應(yīng)用計(jì)算機(jī)導(dǎo)論A第6講:數(shù)組

    C語(yǔ)言數(shù)組應(yīng)用計(jì)算機(jī)導(dǎo)論A第6講:數(shù)組
    發(fā)表于 11-20 15:33 ?0次下載

    GPU加速計(jì)算平臺(tái)是什么

    GPU加速計(jì)算平臺(tái),簡(jiǎn)而言之,是利用圖形處理器(GPU)的強(qiáng)大并行計(jì)算能力來(lái)加速科學(xué)計(jì)算、數(shù)據(jù)分析、機(jī)器學(xué)習(xí)等復(fù)雜
    的頭像 發(fā)表于 10-25 09:23 ?251次閱讀

    有沒(méi)有大佬知道NI vision 有沒(méi)有辦法通過(guò)gpu和cuda來(lái)加速圖像處理

    有沒(méi)有大佬知道NI vision 有沒(méi)有辦法通過(guò)gpu和cuda來(lái)加速圖像處理
    發(fā)表于 10-20 09:14

    labview字符串數(shù)組轉(zhuǎn)化為數(shù)值數(shù)組

    在LabVIEW中,將字符串數(shù)組轉(zhuǎn)換為數(shù)值數(shù)組是一項(xiàng)常見(jiàn)的任務(wù),尤其是在處理數(shù)據(jù)采集、信號(hào)處理或用戶輸入時(shí)。 1. 理解LabVIEW的數(shù)據(jù)類型 在開(kāi)始之前,了解LabVIEW中的數(shù)據(jù)類型是非
    的頭像 發(fā)表于 09-04 17:47 ?2348次閱讀

    打破英偉達(dá)CUDA壁壘?AMD顯卡現(xiàn)在也能無(wú)縫適配CUDA

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)一直以來(lái),圍繞CUDA打造的軟件生態(tài),是英偉達(dá)在GPU領(lǐng)域最大的護(hù)城河,尤其是隨著目前AI領(lǐng)域的發(fā)展加速,市場(chǎng)火爆,英偉達(dá)GPU+CUDA的開(kāi)發(fā)生態(tài)則更加穩(wěn)固,AMD
    的頭像 發(fā)表于 07-19 00:16 ?4695次閱讀

    借助NVIDIA Aerial CUDA增強(qiáng)5G/6G的DU性能和工作負(fù)載整合

    Aerial CUDA 加速無(wú)線接入網(wǎng) (RAN)可加速電信工作負(fù)載,使用 CPU、GPU 和 DPU 在云原生加速計(jì)算平臺(tái)上提供更高水平的
    的頭像 發(fā)表于 05-24 11:10 ?576次閱讀
    借助NVIDIA Aerial <b class='flag-5'>CUDA</b>增強(qiáng)5G/6G的DU性能和工作負(fù)載整合

    借助全新 AMD Alveo? V80 計(jì)算加速卡釋放計(jì)算能力

    對(duì)于大規(guī)模數(shù)據(jù)處理,最佳性能不僅取決于原始計(jì)算能力,還取決于高存儲(chǔ)器帶寬。 因此,全新 AMD Alveo? V80 計(jì)算加速卡專為具有大型數(shù)據(jù)集的內(nèi)存受限型應(yīng)用
    發(fā)表于 05-16 14:09 ?217次閱讀
    借助全新 AMD Alveo? V80 <b class='flag-5'>計(jì)算</b><b class='flag-5'>加速</b>卡釋放<b class='flag-5'>計(jì)算</b>能力

    英偉達(dá)CUDA-Q平臺(tái)推動(dòng)全球量子計(jì)算研究

    英偉達(dá)今日公布了其重要戰(zhàn)略決策,即采用開(kāi)源的CUDA-Q平臺(tái),旨在推動(dòng)德國(guó)、日本和波蘭等國(guó)家超運(yùn)中心在量子計(jì)算領(lǐng)域的創(chuàng)新研究。CUDA-Q作為英偉達(dá)推出的一款開(kāi)源平臺(tái),不僅與QPU無(wú)關(guān),還實(shí)現(xiàn)了量子
    的頭像 發(fā)表于 05-14 11:45 ?656次閱讀

    NVIDIA通過(guò)CUDA-Q平臺(tái)為全球各地的量子計(jì)算中心提供加速

    德國(guó)、日本和波蘭的超級(jí)計(jì)算機(jī)利用 Grace-Hopper 和量子-經(jīng)典加速超算平臺(tái)推進(jìn)量子計(jì)算研究。
    的頭像 發(fā)表于 05-14 09:15 ?357次閱讀

    NVIDIA 通過(guò) CUDA-Q 平臺(tái)為全球各地的量子計(jì)算中心提供加速

    德國(guó)、日本和波蘭的超級(jí)計(jì)算機(jī)利用 Grace-Hopper 和量子-經(jīng)典加速超算平臺(tái)推進(jìn)量子計(jì)算研究 ? ? 德國(guó)漢堡 —— 國(guó)際超算大會(huì)(ISC)—— 2024 年 5 月 13 日
    發(fā)表于 05-13 15:21 ?200次閱讀
    NVIDIA 通過(guò) <b class='flag-5'>CUDA</b>-Q 平臺(tái)為全球各地的量子<b class='flag-5'>計(jì)算</b>中心提供<b class='flag-5'>加速</b>

    恩智浦推出全新面向工業(yè)與物聯(lián)網(wǎng)應(yīng)用的MCX微控制器產(chǎn)品組合

    恩智浦推出全新面向工業(yè)與物聯(lián)網(wǎng)應(yīng)用的MCX微控制器產(chǎn)品組合,賦能安全邊緣計(jì)算,其中MCX N系列為用戶帶來(lái)高能效多任務(wù)處理、AI加速、智能外設(shè)與靈活的開(kāi)發(fā)體驗(yàn)。
    的頭像 發(fā)表于 03-21 13:33 ?1724次閱讀
    恩智浦推出全新<b class='flag-5'>面向</b>工業(yè)與物聯(lián)網(wǎng)應(yīng)用的MCX微控制器產(chǎn)品組合

    PHP中數(shù)組的使用方法!

    PHP中數(shù)組的使用方法! PHP是一種廣泛使用的網(wǎng)絡(luò)編程語(yǔ)言,它的數(shù)組功能非常強(qiáng)大且靈活。數(shù)組是一種數(shù)據(jù)結(jié)構(gòu),它允許我們?cè)趩蝹€(gè)變量中存儲(chǔ)多個(gè)值。 在本篇文章中,我將詳細(xì)解釋PHP
    的頭像 發(fā)表于 01-12 15:11 ?551次閱讀

    加速計(jì)算卡與AI顯卡有什么區(qū)別?

    與原理 1. 加速計(jì)算卡:加速計(jì)算卡是一種用于高性能計(jì)算的硬件設(shè)備,主要用于加速復(fù)雜
    的頭像 發(fā)表于 01-09 14:10 ?1562次閱讀

    深入淺出理解PagedAttention CUDA實(shí)現(xiàn)

    vLLM 中,LLM 推理的 prefill 階段 attention 計(jì)算使用第三方庫(kù) xformers 的優(yōu)化實(shí)現(xiàn),decoding 階段 attention 計(jì)算則使用項(xiàng)目編譯 CUDA 代碼實(shí)現(xiàn)。
    的頭像 發(fā)表于 01-09 11:43 ?1893次閱讀
    深入淺出理解PagedAttention <b class='flag-5'>CUDA</b>實(shí)現(xiàn)