0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RTX AI PC和工作站提供強(qiáng)大AI性能

NVIDIA英偉達(dá) ? 來源:NVIDIA英偉達(dá) ? 2024-08-23 16:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由 NVIDIA RTX 和 GeForce RTX 技術(shù)驅(qū)動的 AI PC 時(shí)代已經(jīng)到來。在這一背景下,一種評估 AI 加速性能的新方法應(yīng)運(yùn)而生,同時(shí)還帶來了一套新術(shù)語,這套術(shù)語成了用戶選擇臺式電腦和筆記本電腦的參考標(biāo)準(zhǔn)。

雖然 PC 游戲玩家了解每秒幀數(shù)(FPS)及類似的統(tǒng)計(jì)數(shù)據(jù),但衡量 AI 性能需要新的指標(biāo)。

TOPS 脫穎而出

TOPS,即每秒萬億次運(yùn)算是首要的基準(zhǔn)指標(biāo)?!叭f億”是這里的關(guān)鍵詞:生成式 AI 任務(wù)背后的處理運(yùn)算量是巨大的。您可以將 TOPS 視為原始性能指標(biāo),類似于發(fā)動機(jī)的額定功率。這個(gè)數(shù)值自然是越大越好。

例如,比較一下微軟最近發(fā)布的 Windows 11 AI PC,其中就包含每秒至少可執(zhí)行 40 萬億次運(yùn)算的神經(jīng)處理單元(NPU)。40 TOPS 的算力足以勝任一些輕量級 AI 輔助任務(wù),例如詢問本地聊天機(jī)器人昨天的筆記在哪里。

但許多生成式 AI 的算力需求遠(yuǎn)不止于此。NVIDIA RTX 和 GeForce RTX GPU 可在所有生成式任務(wù)中提供卓越的性能,其中 GeForce RTX 4090 GPU 的算力可達(dá) 1177 TOPS。這就是處理 AI 輔助數(shù)字內(nèi)容創(chuàng)作(DCC)、PC 游戲 AI 超分辨率、根據(jù)文本或視頻生成圖像、與本地大語言模型(LLM)交互等任務(wù)所需的算力。

以 Token 衡量性能

TOPS 只是一項(xiàng)基礎(chǔ)衡量指標(biāo)。LLM 的性能以模型生成的 Token 數(shù)量來衡量。

Token 是 LLM 的輸出,它可以是句子中的一個(gè)詞,甚至可以是標(biāo)點(diǎn)符號或空格這類更小的片段。AI 加速任務(wù)的性能可以用“每秒 Token 數(shù)”來衡量。

另一個(gè)重要因素則是 batch size,也就是在一次推理過程中可同時(shí)處理的輸入數(shù)量。由于大語言模型(LLM)是許多現(xiàn)代 AI 系統(tǒng)的核心,處理多個(gè)輸入(例如來自單個(gè)應(yīng)用或跨多個(gè)應(yīng)用)的能力將成為關(guān)鍵的差異化因素。雖然較大的 batch size 可以提升并發(fā)輸入的性能,但也需要占用更多的內(nèi)存,尤其是運(yùn)行較大的模型時(shí)。

RTX GPU 非常適合 LLM,因?yàn)樗鼈儞碛写罅繉S玫娘@存(VRAM)、Tensor Core 和 TensorRT-LLM 軟件。

GeForce RTX GPU 最多可提供 24GB 的高速 VRAM,而 NVIDIA RTX GPU 最多可提供 48GB 的高速 VRAM,可支持更大的模型和更大的 batch size。RTX GPU 還可利用 Tensor Core,這是一種專用的 AI 加速器,可顯著加速深度學(xué)習(xí)和生成式 AI 模型中的計(jì)算密集型運(yùn)算。應(yīng)用在使用 NVIDIA TensorRT 軟件開發(fā)套件(SDK)的情況下可輕松實(shí)現(xiàn)超高性能。該套件可在超過 1 億臺由 RTX GPU 驅(qū)動的 Windows PC 和工作站上解鎖超高性能生成式 AI。

結(jié)合了大顯存、專用 AI 加速器和優(yōu)化的軟件,RTX GPU 的吞吐量得到了巨大提升,尤其是在 batch size 增加的情況下。

文本生圖像,速度超以往

測量圖像生成速度是評估性能的另一種方法。最直接的一個(gè)方法是使用 Stable Diffusion,這是一種基于圖像的熱門 AI 模型,可讓用戶輕松地將文本描述轉(zhuǎn)換為復(fù)雜的視覺畫面。

借由 Stable Diffusion,用戶可以通過輸入關(guān)鍵詞快速獲得想要的圖像相比于 CPU 或 NPU,使用 RTX GPU 運(yùn)行 AI 模型時(shí)可以更快生成所需結(jié)果。

在熱門的 Automatic1111 界面使用 TensorRT 擴(kuò)展程序時(shí),相應(yīng)性能表現(xiàn)甚至?xí)谩=柚?SDXL 模型,RTX 用戶通過提示生成圖像的速度至多可提升至原來的 2 倍,這可大幅簡化 Stable Diffusion 工作流。

另一個(gè)熱門的 Stable Diffusion 用戶界面 ComfyUI 在上周也支持了 TensorRT 加速?,F(xiàn)在,RTX 用戶文生圖的速度可提升多達(dá) 60%。RTX 用戶還可使用 Stable Video Diffusion 將這些圖像轉(zhuǎn)換為視頻,在 TensorRT 的助力下,轉(zhuǎn)換速度甚至可提升多達(dá) 70%。

全新的 UL Procyon AI 圖像生成基準(zhǔn)測試現(xiàn)已支持 TensorRT 加速。與最快的非 TensorRT 加速狀態(tài)相比,TensorRT 加速可在 GeForce RTX 4080 SUPER GPU 上帶來 50% 的速度提升。

適用于 Stable Diffusion 3 的 TensorRT 加速近期發(fā)布,前者是 Stability AI 備受期待的全新文本轉(zhuǎn)圖像模型。此外,全新的 TensorRT-Model Optimizer 可進(jìn)一步提升性能。與非 TensorRT 加速狀態(tài)相比,它可帶來顯著的速度提升,同時(shí)減少顯存消耗。

當(dāng)然,眼見方能為實(shí)。真正的考驗(yàn)來自于不斷迭代提示詞這種真實(shí)場景。在 RTX GPU 上,用戶通過改進(jìn)提示詞來優(yōu)化圖像的速度可得到顯著提升,每次迭代只需數(shù)秒即可完成。而在 Macbook Pro M3 Max 上,完成相同的迭代需要耗費(fèi)數(shù)分鐘。此外,如果在由 RTX 驅(qū)動的 PC 或工作站上本地運(yùn)行,用戶可以同時(shí)享受到速度和安全性方面的優(yōu)勢,并讓所有內(nèi)容保持私密。

測試結(jié)果出爐,相關(guān)技術(shù)開源

不過,且不要僅聽我們的一面之詞。開源的 Jan.ai 背后的 AI 研究人員和工程師團(tuán)隊(duì)最近將 TensorRT-LLM 集成到了其本地聊天機(jī)器人應(yīng)用中,然后親自測試了這些優(yōu)化效果。

研究人員在社區(qū)使用的各種 GPU 和 CPU 上,以開源的 llama.cpp 推理引擎為對照,測試了 TensorRT-LLM 的實(shí)際表現(xiàn)。他們發(fā)現(xiàn) TensorRT“在相同硬件上比 llama.cpp 快 30-70%”,并且在進(jìn)行連續(xù)處理時(shí)效率更高。該團(tuán)隊(duì)還提供了測試方法,邀請其他人親自測試生成式 AI 的性能。

無論是游戲還是生成式 AI,速度才是其致勝法寶。在確定性能冠軍時(shí),TOPS、每秒 Token 數(shù)和 batch size 均需納入考量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5282

    瀏覽量

    106039
  • PC
    PC
    +關(guān)注

    關(guān)注

    9

    文章

    2144

    瀏覽量

    156247
  • 內(nèi)存
    +關(guān)注

    關(guān)注

    8

    文章

    3117

    瀏覽量

    75112
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    34765

    瀏覽量

    276908

原文標(biāo)題:解碼 RTX AI PC 和工作站上的 AI 性能

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    潤開鴻推出基于OpenHarmony的桌面操作系統(tǒng)及AI PC工作站

    股份有限公司旗下子公司江蘇潤開鴻數(shù)字科技有限公司(以下簡稱“潤開鴻”)受邀出席,并重磅發(fā)布基于OpenHarmony的HiHopeOS桌面操作系統(tǒng)及AI PC工作站軟、硬件新品,以創(chuàng)新技術(shù)共筑中國電腦產(chǎn)業(yè)未來。
    的頭像 發(fā)表于 06-03 16:25 ?274次閱讀

    英特爾發(fā)布全新GPU,AI工作站迎來新選擇

    Pro B50 GPU,搭載了為AI推理和專業(yè)工作站量身定制的配置,擴(kuò)展了英特爾銳炫Pro產(chǎn)品系列。 英特爾 ? Gaudi 3 AI 加速器: 英特爾Gaud
    發(fā)表于 05-20 11:03 ?1486次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    Studio提供了最優(yōu)解。Neuron Studio可針對模型到應(yīng)用,提供式、全鏈路、自動化的開發(fā)協(xié)助,不僅讓AI應(yīng)用開發(fā)的全流程可視化,更帶來整個(gè)多種工具的一
    發(fā)表于 04-13 19:52

    Banana Pi 發(fā)布 BPI-AI2N & BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入式開發(fā)

    RZ/V2N——近期在嵌入式世界2025上新發(fā)布,為 AI 計(jì)算、嵌入式系統(tǒng)及工自動化提供強(qiáng)大支持。這款全新的計(jì)算平臺旨在滿足開發(fā)者和企業(yè)用戶對高性能、低功耗和靈活擴(kuò)展的需求。 [](
    發(fā)表于 03-19 17:54

    NVIDIA Blackwell RTX PRO 提供工作站和服務(wù)器兩種規(guī)格,助力設(shè)計(jì)師、開發(fā)者、數(shù)據(jù)科學(xué)家和創(chuàng)作人員構(gòu)建代理式

    月 18 日 —— NVIDIA 今日發(fā)布了 NVIDIA RTX PRO? Blackwell 系列工作站和服務(wù)器 GPU,通過突破性的加速計(jì)算、AI 推理、光線追蹤和神經(jīng)渲染技術(shù),重新定義
    發(fā)表于 03-19 09:50 ?272次閱讀
    NVIDIA Blackwell <b class='flag-5'>RTX</b> PRO <b class='flag-5'>提供</b><b class='flag-5'>工作站</b>和服務(wù)器兩種規(guī)格,助力設(shè)計(jì)師、開發(fā)者、數(shù)據(jù)科學(xué)家和創(chuàng)作人員構(gòu)建代理式

    工業(yè)機(jī)器人工作站的建設(shè)意義

    其他輔助設(shè)備的配合,形成了一套完整的自動化生產(chǎn)流程。桐爾作為專業(yè)的自動化解決方案提供商,致力于通過工業(yè)機(jī)器人工作站的建設(shè),為企業(yè)帶來顯著的經(jīng)濟(jì)效益和生產(chǎn)效率提升。 工業(yè)機(jī)器人工作站的建立首先能夠顯著
    發(fā)表于 03-17 14:49

    快速升級DELL與HP工作站儲存效能,實(shí)現(xiàn)高效工作流!

    。對于已配備超薄型光驅(qū)插槽位及PCIe插槽的HP工作站、Dell工作站,ICYDOCK可以提供創(chuàng)新的解決方案,幫助用戶有效率地提升存儲容量??杉嫒莸?b class='flag-5'>工作站型號HP
    的頭像 發(fā)表于 02-14 15:38 ?478次閱讀
    快速升級DELL與HP<b class='flag-5'>工作站</b>儲存效能,實(shí)現(xiàn)高效<b class='flag-5'>工作</b>流!

    NVIDIA RTX賦能AI工作站加速數(shù)據(jù)科學(xué)工作流程

    各行各業(yè)都在借助 AI 實(shí)現(xiàn)轉(zhuǎn)型,以提高競爭力和運(yùn)營效率。在零售業(yè)中,聊天機(jī)器人正在簡化用戶的產(chǎn)品庫存搜索。在金融服務(wù)業(yè),基于 AI 的工具正應(yīng)用于欺詐檢測。而在醫(yī)療健康領(lǐng)域,AI 正在幫助從基因組學(xué)中發(fā)現(xiàn)新的見解,從而改善患者
    的頭像 發(fā)表于 02-08 10:01 ?532次閱讀
    NVIDIA <b class='flag-5'>RTX</b>賦能<b class='flag-5'>AI</b><b class='flag-5'>工作站</b>加速數(shù)據(jù)科學(xué)<b class='flag-5'>工作</b>流程

    NVIDIA推出面向RTX AI PCAI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運(yùn)行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強(qiáng)大助力。
    的頭像 發(fā)表于 01-08 11:01 ?511次閱讀

    提升企業(yè)效能:迷你工作站的潛力

    杰和科技迷你工作站WA814正式上線以來,客戶們和合作伙伴就對這款產(chǎn)品表現(xiàn)出了濃厚的興趣,迫不及待地想要深入了解并親身體驗(yàn)它所帶來的價(jià)值。對比傳統(tǒng)的工作站,杰和迷你工作站WA814只有3.4L的小巧體積,外出
    的頭像 發(fā)表于 01-06 11:02 ?353次閱讀
    提升企業(yè)效能:迷你<b class='flag-5'>工作站</b>的潛力

    NVIDIA RTX AI Toolkit擁抱LoRA技術(shù)

    RTX AI PC工作站上使用最新版 RTX AI Toolkit 微調(diào) LLM,最高可
    的頭像 發(fā)表于 11-20 09:14 ?679次閱讀
    NVIDIA <b class='flag-5'>RTX</b> <b class='flag-5'>AI</b> Toolkit擁抱LoRA技術(shù)

    NVIDIA NIM在搭載RTX技術(shù)的AI工作站上的應(yīng)用

    AI 計(jì)算資源的需求正不斷增長。從概念驗(yàn)證到企業(yè)部署需要針對生成性 AI 工作負(fù)載進(jìn)行優(yōu)化的強(qiáng)大計(jì)算基礎(chǔ)設(shè)施。同時(shí),AI 開發(fā)項(xiàng)目需要更多的
    的頭像 發(fā)表于 11-09 11:47 ?744次閱讀

    NVIDIA RTX AI套件簡化AI驅(qū)動的應(yīng)用開發(fā)

    NVIDIA 于近日發(fā)布 NVIDIA RTX AI套件,這一工具和 SDK 集合能夠幫助 Windows 應(yīng)用開發(fā)者定制、優(yōu)化和部署適用于 Windows 應(yīng)用的 AI 模型。該套件免費(fèi)提供
    的頭像 發(fā)表于 09-06 14:45 ?825次閱讀

    寧暢推出自驅(qū)式相變液冷AI工作站

    6月25日至6月27日,第五屆中國智算中心全棧技術(shù)大會暨中國數(shù)據(jù)中心綠色能源大會于上海召開。寧暢現(xiàn)場發(fā)布了自驅(qū)式相變液冷AI工作站,并發(fā)表了《人工智能服務(wù)器液冷設(shè)計(jì)典型特點(diǎn)及趨勢》主題演講。本次發(fā)布
    的頭像 發(fā)表于 07-01 16:26 ?1059次閱讀

    AMD Radeon PRO W7900雙槽工作站顯卡發(fā)布上市

    的高性能平臺進(jìn)行了優(yōu)化,可為專業(yè)設(shè)計(jì)人員以及AI開發(fā)人員提供強(qiáng)大的,可擴(kuò)展的專業(yè)解決方案。 ? 其核心功能特性如下: 卓越的性能:配備了96
    的頭像 發(fā)表于 06-29 15:23 ?1121次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品