0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用NVIDIA CUDA 11 . 2優(yōu)化GPU應(yīng)用性能

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-06 10:24 ? 次閱讀

CUDA 11 . 2 的特點是在 GPU 加速應(yīng)用程序中為設(shè)備代碼提供強大的鏈路時間優(yōu)化( LTO )功能。 Device LTO 將設(shè)備代碼優(yōu)化的性能優(yōu)勢(只有在 nvcc 整個程序編譯模式下才可能)帶到了 CUDA 5 . 0 中引入的 nvcc 單獨編譯模式。

單獨編譯模式允許 CUDA 設(shè)備內(nèi)核代碼跨多個源文件,而在整個程序編譯模式下,程序中的所有 CUDA 設(shè)備內(nèi)核代碼都必須位于單個源文件中。獨立編譯模式將源代碼模塊化引入設(shè)備內(nèi)核代碼,因此是提高開發(fā)人員生產(chǎn)率的重要步驟。獨立的編譯模式使開發(fā)人員能夠更好地設(shè)計和組織設(shè)備內(nèi)核代碼,并使 GPU 加速許多現(xiàn)有的應(yīng)用程序,而無需進行大量的代碼重構(gòu)工作,即可將所有設(shè)備內(nèi)核代碼移動到單個源文件中。它還提高了大型并行應(yīng)用程序開發(fā)的開發(fā)人員的生產(chǎn)效率,只需要重新編譯帶有增量更改的設(shè)備源文件。

CUDA 編譯器優(yōu)化的范圍通常限于正在編譯的每個源文件。在單獨的編譯模式下,編譯時優(yōu)化的范圍可能會受到限制,因為編譯器無法看到源文件之外引用的任何設(shè)備代碼,因為編譯器無法利用跨越文件邊界的優(yōu)化機會。

相比之下,在整個程序編譯模式下,程序中存在的所有設(shè)備內(nèi)核代碼都位于同一源文件中,消除了任何外部依賴關(guān)系,并允許編譯器執(zhí)行在單獨編譯模式下不可能執(zhí)行的優(yōu)化。因此,在整個程序編譯模式下編譯的程序通常比在單獨編譯模式下編譯的程序性能更好。

使用 CUDA 11 . 0 中預(yù)覽的設(shè)備鏈接時間優(yōu)化( LTO ),可以獲得單獨編譯的源代碼模塊化以及設(shè)備代碼整個程序編譯的運行時性能。雖然編譯器在優(yōu)化單獨編譯的 CUDA 源文件時可能無法進行全局優(yōu)化的代碼轉(zhuǎn)換,但鏈接器更適合這樣做。

與編譯器相比,鏈接器具有正在構(gòu)建的可執(zhí)行文件的整個程序視圖,包括來自多個源文件和庫的源代碼和符號??蓤?zhí)行文件的整個程序視圖使鏈接器能夠選擇最適合單獨編譯的程序的性能優(yōu)化。此設(shè)備鏈接時間優(yōu)化由鏈接器執(zhí)行,是 CUDA 11 . 2 中 nvlink 實用程序的一個功能。具有多個源文件和庫的應(yīng)用程序現(xiàn)在可以通過 GPU 進行加速,而不會影響單獨編譯模式下的性能。

圖 1 。不同編程模式下編譯時和鏈接時優(yōu)化過程的比較。

圖 1 ,在 nvcc 全程序編譯模式下,要在單個源文件 X . cu 中編譯的設(shè)備程序,沒有任何未解析的外部設(shè)備函數(shù)或變量引用,可以在編譯時由編譯器完全優(yōu)化。然而,在單獨的編譯模式下,編譯器只能優(yōu)化正在編譯的單個源文件中的設(shè)備代碼,而最終的可執(zhí)行文件沒有盡可能優(yōu)化,因為編譯器無法執(zhí)行跨源文件的更多優(yōu)化。設(shè)備鏈接時間優(yōu)化通過將優(yōu)化推遲到鏈接步驟來彌補這一差距。

在設(shè)備 LTO 模式下,我們?yōu)槊總€翻譯單元存儲代碼的高級中間形式,然后在鏈接時合并所有這些中間形式以創(chuàng)建所有設(shè)備代碼的高級表示。這使鏈接器能夠執(zhí)行高級優(yōu)化,例如跨文件邊界內(nèi)聯(lián),這不僅消除了調(diào)用約定的開銷,還進一步支持對內(nèi)聯(lián)代碼塊本身進行其他優(yōu)化。鏈接器還可以利用已完成的偏移量。例如,共享內(nèi)存分配是最終確定的,并且數(shù)據(jù)偏移量僅在鏈路時間已知,因此設(shè)備鏈路時間優(yōu)化現(xiàn)在可以使諸如設(shè)備代碼的恒定傳播或折疊之類的低級優(yōu)化成為可能。即使函數(shù)沒有內(nèi)聯(lián),鏈接器仍然可以看到調(diào)用的兩面,以優(yōu)化調(diào)用約定。因此,可以通過設(shè)備鏈路時間優(yōu)化來提高為單獨編譯的程序生成的代碼的質(zhì)量,并且其性能與以整個程序模式編譯的程序一樣。

為了了解單獨編譯的局限性以及設(shè)備 LTO 可能帶來的性能提升,讓我們看一個 MonteCarlo 基準測試中的示例

I 在下面的示例代碼中, MC_Location:: get_domain 不是在另一個文件中定義的標準編譯模式中內(nèi)聯(lián)的,而是
使用 CUDA 11 . 2 中的設(shè)備鏈路優(yōu)化內(nèi)聯(lián)

 __device__ void MCT_Reflect_Particle(MonteCarlo *monteCarlo,
 MC_Particle &particle){

 MC_Location location = particle.Get_Location();
 const MC_Domain &domain = location.get_domain(monteCarlo);
 ...
 ...
 /* uses domain */
 }

函數(shù) get \ u domain 是另一個類的一部分,因此在另一個文件中定義它是有意義的。但是在單獨的編譯模式下,編譯器在調(diào)用 get \ u domain ()時將不知道它做什么,甚至不知道它存在于何處,因此編譯器無法內(nèi)聯(lián)該函數(shù),必須隨參數(shù)一起發(fā)出調(diào)用并返回處理,同時也節(jié)省空間的事情,如回郵地址后,呼吁。這又使得它無法潛在地優(yōu)化使用域值的后續(xù)語句。在設(shè)備 LTO 模式下, get \ u domain ()可以完全內(nèi)聯(lián),編譯器可以執(zhí)行更多優(yōu)化,從而消除調(diào)用約定的代碼,并啟用基于域值的優(yōu)化。

簡而言之,設(shè)備 LTO 將所有性能優(yōu)化都引入到單獨的編譯模式中,而以前只有在整個程序編譯模式中才可用。

使用設(shè)備 LTO

要使用設(shè)備 LTO ,請將選項 -dlto 添加到編譯和鏈接命令中,如下所示。從這兩個步驟中跳過 -dlto 選項會影響結(jié)果。

使用-dlto選項編譯 CUDA 源文件:

nvcc -dc -dlto *.cu

使用-dlto選項鏈接 CUDA 對象文件:

 nvcc -dlto *.o

在編譯時使用 -dlto 選項指示編譯器將正在編譯的設(shè)備代碼的高級中間表示( NVVM-IR )存儲到 fatbinary 中。在鏈接時使用 -dlto 選項將指示鏈接器從所有鏈接對象檢索 NVVM IR ,并將它們合并到一個 IR 中并執(zhí)行優(yōu)化在生成的 IR 上生成代碼。設(shè)備 LTO 與任何支持的 SM 架構(gòu)目標一起工作。

對現(xiàn)有庫使用設(shè)備 LTO

設(shè)備 LTO 只有在編譯和鏈接步驟都使用 -dlto 時才能生效。如果 -dlto 在編譯時使用,而不是在鏈接時使用,則在鏈接時每個對象都被單獨編譯到 SASS ,然后作為正常鏈接,沒有任何優(yōu)化機會。如果 -dlto 在鏈接時使用,而不是在編譯時使用,然后鏈接器找不到要執(zhí)行 LTO 的中間表示,并跳過直接鏈接對象的優(yōu)化步驟。

如果包含設(shè)備代碼的所有對象都是用 -dlto 構(gòu)建的,那么 Device LTO 工作得最好。但是,即使只有一些對象使用 -dlto ,它仍然可以使用,如圖 2 所示。

圖 2 :使用非 LTO 庫進行單獨編譯和設(shè)備鏈接時間優(yōu)化。

在這種情況下,在鏈接時,使用 -dlto 構(gòu)建的對象鏈接在一起形成一個可重定位對象,然后與其他非 LTO 對象鏈接。這不會提供最佳性能,但仍然可以通過在 LTO 對象內(nèi)進行優(yōu)化來提高性能。此功能允許使用 -dlto ,即使外部庫不是用 -dlto 構(gòu)建的;這只是意味著庫代碼不能從設(shè)備 LTO 中獲益。

每體系結(jié)構(gòu)的細粒度設(shè)備鏈路優(yōu)化支持

全局 -dlto 選項適用于編譯單個目標體系結(jié)構(gòu)。

使用 -gencode 為多個體系結(jié)構(gòu)編譯時,請確切指定要存儲到 fat 二進制文件中的中間產(chǎn)物。例如,要在可執(zhí)行文件中存儲 Volta SASS 和 Ampere PTX ,您當前可以使用以下選項進行編譯:

nvcc -gencode arch=compute_70,code=sm_70
 -gencode arch=compute_80,code=compute_80

使用一個新的代碼目標 lto_70 ,您可以獲得細粒度的控制,以指示哪個目標體系結(jié)構(gòu)應(yīng)該存儲 LTO 中介體,而不是 SASS 或 PTX 。例如,要存儲 Volta LTO 和 Ampere PTX ,可以使用以下代碼示例進行編譯:

nvcc -gencode arch=compute_70,code=lto_70
 -gencode arch=compute_80,code=compute_80

績效結(jié)果

設(shè)備 LTO 會對性能產(chǎn)生什么樣的影響?

gpu 對內(nèi)存流量和寄存器壓力非常敏感。因此,設(shè)備優(yōu)化通常比相應(yīng)的主機優(yōu)化影響更大。正如預(yù)期的那樣,我們觀察到許多應(yīng)用受益于設(shè)備 LTO 。通常,通過設(shè)備 LTO 的加速比取決于 CUDA 應(yīng)用特性。

圖 3 和圖 4 顯示了一個內(nèi)部基準應(yīng)用程序和另一個實際應(yīng)用程序的運行時性能和構(gòu)建時間的比較圖,這兩個應(yīng)用程序都采用三種編譯模式:

  • 全程序編譯
  • 不帶設(shè)備 LTO 的單獨編譯
  • 使用設(shè)備 LTO 模式單獨編譯

我們測試的客戶應(yīng)用程序有一個占運行時 80% 以上的主計算內(nèi)核,它調(diào)用了分布在不同翻譯單元或源文件中的數(shù)百個獨立設(shè)備函數(shù)。函數(shù)的手動內(nèi)聯(lián)是有效的,但如果您希望使用單獨的編譯來維護傳統(tǒng)的開發(fā)工作流和庫邊界,則會很麻煩。在這些情況下,使用設(shè)備 LTO 來實現(xiàn)潛在的性能優(yōu)勢而不需要額外的開發(fā)工作是非常有吸引力的。

圖 3 :設(shè)備鏈接時間優(yōu)化的性能加速比優(yōu)于單獨編譯模式,在某些情況下與整個程序編譯模式相當(越高越好)

如圖 3 所示,帶有設(shè)備 LTO 的基準測試和客戶應(yīng)用程序的運行時性能接近于整個程序編譯模式,克服了單獨編譯模式帶來的限制。請記住,性能的提高在很大程度上取決于應(yīng)用程序本身的構(gòu)建方式。正如我們所觀察到的,在某些情況下,收益微乎其微。使用另一個 CUDA 應(yīng)用程序套件,設(shè)備 LTO 的運行時性能平均提高了 25% 左右。

在這篇文章的后面,我們將介紹更多關(guān)于設(shè)備 LTO 不是特別有用的場景。

除了 GPU 性能之外,設(shè)備 LTO 還有另一個方面,那就是構(gòu)建時間。使用設(shè)備 LTO 的總構(gòu)建時間在很大程度上取決于應(yīng)用程序大小和其他系統(tǒng)因素。在圖 4 中,內(nèi)部基準構(gòu)建時間的相對差異與前面三種不同編譯模式的客戶應(yīng)用程序進行了比較。內(nèi)部基準由大約 12000 行代碼組成,而客戶應(yīng)用程序有上萬行代碼。


有些情況下,由于編譯和優(yōu)化這些程序所需的過程較少,因此整個程序模式的編譯速度可能更快。此外,在全程序模式下,較小的程序有時可能編譯得更快,因為它有較少的編譯命令,因此對宿主編譯器的調(diào)用也較少。但是在全程序模式下的大型程序會帶來更高的優(yōu)化成本和內(nèi)存使用。在這種情況下,使用單獨的編譯模式進行編譯會更快。對于圖 4 中的內(nèi)部基準可以觀察到這一點,其中整個程序模式的編譯時間快了 17% ,而對于客戶應(yīng)用程序,整個程序模式的編譯速度慢了 25% 。

有限的優(yōu)化范圍和較小的翻譯單元使單獨編譯模式下的編譯速度更快。當增量更改被隔離到幾個源文件時,單獨的編譯模式還減少了總體的增量構(gòu)建時間。當啟用設(shè)備鏈接時間優(yōu)化時,編譯器優(yōu)化階段將被取消,從而顯著減少編譯時間,從而進一步加快單獨編譯模式的編譯速度。但是,同時,由于設(shè)備代碼優(yōu)化階段推遲到鏈接器,并且由于鏈接器可以在單獨編譯模式下執(zhí)行更多優(yōu)化,因此單獨編譯的程序的鏈接時間可能隨著設(shè)備鏈接時間優(yōu)化而更高。在圖 4 中,我們可以觀察到設(shè)備 LTO 構(gòu)建時間與基準相比只慢了 7% ,但是與客戶應(yīng)用程序相比,構(gòu)建時間慢了近 50% 。

圖 4 :構(gòu)建時間加速可以變化(越高越好)。

在 11 . 2 中,我們還引入了新的 nvcc -threads 選項,它在針對多個體系結(jié)構(gòu)時支持并行編譯。這有助于減少構(gòu)建時間。一般來說,這些編譯模式的總(編譯和鏈接)構(gòu)建時間可能會因一組不同的因素而有所不同。盡管如此,由于使用設(shè)備 LTO 可以顯著縮短編譯時間,我們希望啟用設(shè)備鏈接時間優(yōu)化的單獨編譯模式的總體構(gòu)建在大多數(shù)典型場景中應(yīng)該是可比的。

設(shè)備 LTO 的限制

設(shè)備 LTO 在跨文件對象內(nèi)聯(lián)設(shè)備功能時特別強大。但是,在某些應(yīng)用程序中,設(shè)備代碼可能都駐留在源文件中,在這種情況下,設(shè)備 LTO 沒有太大的區(qū)別。

來自函數(shù)指針的間接調(diào)用(如回調(diào))不會從 LTO 中獲得太多好處,因為這些間接調(diào)用不能內(nèi)聯(lián)。

請注意,設(shè)備 LTO 執(zhí)行激進的代碼優(yōu)化,因此它與使用 -G NVCC 命令行選項來啟用設(shè)備代碼的符號調(diào)試支持不兼容。

對于 CUDA 11 . 2 ,設(shè)備 LTO 只能脫機編譯。設(shè)備 LTO 中間窗體尚不支持 JIT LTO 。

-maxrregcount-use_fast_math 這樣的文件作用域命令與設(shè)備 LTO 不兼容,因為 LTO 優(yōu)化跨越了文件邊界。如果所有的文件都是用相同的選項編譯的,那么一切都很好,但是如果它們不同,那么設(shè)備 LTO 會在鏈接時抱怨。通過在鏈接時指定 -maxrregcount-use_fast_math ,可以覆蓋設(shè)備 LTO 的這些編譯屬性,然后該值將用于所有 LTO 對象。

盡管使用設(shè)備 LTO 將編譯時優(yōu)化所花的大部分時間轉(zhuǎn)移到了鏈接時,但總體構(gòu)建時間通常在 LTO 構(gòu)建和非 LTO 構(gòu)建之間是相當?shù)?,因為編譯時間顯著縮短。但是,它增加了鏈接時所需的內(nèi)存量。我們認為,設(shè)備 LTO 的好處應(yīng)該抵消最常見情況下的限制。

試用設(shè)備 LTO

如果您希望在不影響性能或設(shè)備源代碼模塊化的情況下,以單獨的編譯模式構(gòu)建 GPU 加速的應(yīng)用程序,那么設(shè)備 LTO 就適合您了!

使用以單獨編譯模式編譯的設(shè)備 LTO 程序可以利用跨文件邊界的代碼優(yōu)化的性能優(yōu)勢,從而有助于縮小相對于整個程序編譯模式的性能差距。

為了評估和利用設(shè)備 LTO 對 CUDA 應(yīng)用程序的好處, 立即下載 CUDA 11 . 2 工具包 并進行試用。另外,請告訴我們您的想法。我們一直在尋找改進 CUDA 應(yīng)用程序開發(fā)和運行時性能調(diào)優(yōu)體驗的方法。

關(guān)于作者

Mike Murphy 是 NVIDIA 的高級編譯工程師。

Arthy Sundaram 是 CUDA 平臺的技術(shù)產(chǎn)品經(jīng)理。她擁有哥倫比亞大學計算機科學碩士學位。她感興趣的領(lǐng)域是操作系統(tǒng)、編譯器和計算機體系結(jié)構(gòu)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4996

    瀏覽量

    103213
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4744

    瀏覽量

    129016
收藏 人收藏

    評論

    相關(guān)推薦

    借助NVIDIA GPU提升魯班系統(tǒng)CAE軟件計算效率

    本案例中魯班系統(tǒng)高性能 CAE 軟件利用 NVIDIA性能 GPU,實現(xiàn)復雜產(chǎn)品的快速仿真,加速產(chǎn)品開發(fā)和設(shè)計迭代,縮短開發(fā)周期,提升產(chǎn)
    的頭像 發(fā)表于 12-27 16:24 ?139次閱讀

    解鎖NVIDIA TensorRT-LLM的卓越性能

    Batching、Paged KV Caching、量化技術(shù) (FP8、INT4 AWQ、INT8 SmoothQuant 等) 以及更多功能,確保您的 NVIDIA GPU 能發(fā)揮出卓越的推理性能
    的頭像 發(fā)表于 12-17 17:47 ?193次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    監(jiān)控/利用率、選擇可用GPU卡子集等內(nèi)容。 6. 故障排除:針對NVIDIA驅(qū)動安裝、多GPU設(shè)置、GPU模式、硬件識別、
    發(fā)表于 12-16 14:25

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--了解算力芯片GPU

    從而充分利用 GPU的強大計算能力。在CUDA編程模型中,GPU的計算資源被組織為線期線程塊和線程網(wǎng)格3級。線程是基本的執(zhí)行單元,線程塊是包含多個線程的組,線程網(wǎng)格包含多個線程塊的組。
    發(fā)表于 11-03 12:55

    使用Arthas火焰圖工具的Java應(yīng)用性能分析和優(yōu)化經(jīng)驗

    分享作者在使用Arthas火焰圖工具進行Java應(yīng)用性能分析和優(yōu)化的經(jīng)驗。
    的頭像 發(fā)表于 10-28 09:27 ?284次閱讀
    使用Arthas火焰圖工具的Java<b class='flag-5'>應(yīng)用性能</b>分析和<b class='flag-5'>優(yōu)化</b>經(jīng)驗

    AMD與NVIDIA GPU優(yōu)缺點

    在圖形處理單元(GPU)市場,AMD和NVIDIA是兩大主要的競爭者,它們各自推出的產(chǎn)品在性能、功耗、價格等方面都有著不同的特點和優(yōu)勢。 一、性能
    的頭像 發(fā)表于 10-27 11:15 ?770次閱讀

    有沒有大佬知道NI vision 有沒有辦法通過gpucuda來加速圖像處理

    有沒有大佬知道NI vision 有沒有辦法通過gpucuda來加速圖像處理
    發(fā)表于 10-20 09:14

    IB Verbs和NVIDIA DOCA GPUNetIO性能測試

    NVIDIA DOCA GPUNetIO 是 NVIDIA DOCA SDK 中的一個庫,專門為實時在線 GPU 數(shù)據(jù)包處理而設(shè)計。它結(jié)合了 GPUDirect RDMA 和 GPUDirect
    的頭像 發(fā)表于 08-23 17:03 ?634次閱讀
    IB Verbs和<b class='flag-5'>NVIDIA</b> DOCA GPUNetIO<b class='flag-5'>性能</b>測試

    英國公司實現(xiàn)英偉達CUDA軟件在AMD GPU上的無縫運行

    7月18日最新資訊,英國創(chuàng)新科技企業(yè)Spectral Compute震撼發(fā)布了其革命性GPGPU編程工具包——“SCALE”,該工具包實現(xiàn)了英偉達CUDA軟件在AMD GPU上的無縫遷移與運行,標志著在GPU計算領(lǐng)域,
    的頭像 發(fā)表于 07-18 14:40 ?670次閱讀

    借助NVIDIA Aerial CUDA增強5G/6G的DU性能和工作負載整合

    Aerial CUDA 加速無線接入網(wǎng) (RAN)可加速電信工作負載,使用 CPU、GPU 和 DPU 在云原生加速計算平臺上提供更高水平的頻譜效率 (SE)。
    的頭像 發(fā)表于 05-24 11:10 ?600次閱讀
    借助<b class='flag-5'>NVIDIA</b> Aerial <b class='flag-5'>CUDA</b>增強5G/6G的DU<b class='flag-5'>性能</b>和工作負載整合

    NVIDIA 通過 CUDA-Q 平臺為全球各地的量子計算中心提供加速

    —— NVIDIA 于今日宣布將通過開源的 NVIDIA CUDA-Q? 量子計算平臺,助力全球各地的國家級超算中心加快量子計算的研究發(fā)展。 ? 德國、日本和波蘭的超算中心將使用該平臺來賦能他們由
    發(fā)表于 05-13 15:21 ?201次閱讀
    <b class='flag-5'>NVIDIA</b> 通過 <b class='flag-5'>CUDA</b>-Q 平臺為全球各地的量子計算中心提供加速

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網(wǎng)絡(luò)和熱 Embedding 全置于
    的頭像 發(fā)表于 04-20 09:39 ?751次閱讀

    NVIDIA 發(fā)布全新交換機,全面優(yōu)化萬億參數(shù)級 GPU 計算和 AI 基礎(chǔ)設(shè)施

    NVIDIA Quantum-X800 InfiniBand 網(wǎng)絡(luò),打造性能最強大的 AI 專用基礎(chǔ)設(shè)施 NVIDIA Spectrum-X800 以太網(wǎng)絡(luò),數(shù)據(jù)中心必備的優(yōu)化 AI
    發(fā)表于 03-19 10:05 ?354次閱讀
    <b class='flag-5'>NVIDIA</b> 發(fā)布全新交換機,全面<b class='flag-5'>優(yōu)化</b>萬億參數(shù)級 <b class='flag-5'>GPU</b> 計算和 AI 基礎(chǔ)設(shè)施

    深度解讀Nvidia AI芯片路線圖

    Nvidia是一個同時擁有 GPU、CPU和DPU的計算芯片和系統(tǒng)公司。Nvidia通過NVLink、NVSwitch和NVLink C2C技術(shù)將CPU、
    發(fā)表于 03-13 09:25 ?981次閱讀
    深度解讀<b class='flag-5'>Nvidia</b> AI芯片路線圖

    Google Gemma優(yōu)化后可在NVIDIA GPU上運行

    2024 年 2 月 21 日,NVIDIA 攜手 Google 在所有 NVIDIA AI 平臺上發(fā)布面向 Gemma 的優(yōu)化功能,Gemma 是 Google 最先進的新型輕量級
    的頭像 發(fā)表于 02-25 11:01 ?475次閱讀