0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Torch-TensorRT軟件更新 HF BERT性能提升40%

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-05-16 15:56 ? 次閱讀

我們十分高興地宣布,Torch-TensorRT 1.1.0 版本正式發(fā)布!

軟件版本

PyTorch 1.11

CUDA 11.3(在 x86_64 上,默認(rèn)設(shè)置下,兼容的 PyTorch Build 支持較新版本的 CUDA 11)

cuDNN 8.2.4.15

TensorRT 8.2.4.2

由于最近 JetPack 的升級(jí)和其發(fā)布流程的變化,Torch-TRTv1.1.0 版本不支持Jetson(Jetpack 5.0DP 或其他)。將在中期版本(Torch-TensorRT1.1.x)同時(shí)支持 Jetpack 5.0DP 和 TensorRT 8.4。

重要變更

HF BERT性能

算子和性能的進(jìn)一步優(yōu)化使 HF BERT 的性能比 V1.1 版本提升了 40%

更多的算子

18 個(gè)新的 aten 算子轉(zhuǎn)換器提高了 TensorRT 的模型覆蓋范圍和性能

查看全部 250+ 個(gè)算子

Triton 后端支持

21.12 版本以上的 Triton 現(xiàn)已支持 Torch-TensorRT

將在不久后提供工作流程教程

調(diào)試工具

上下文管理器現(xiàn)在允許使用更簡(jiǎn)潔清晰的調(diào)試工作流程

不支持的算子已降級(jí)為警告,建議使用上下文管理器進(jìn)行調(diào)查

API 變更

max_batch_size 和 strict_types 由于在 TRT 中不被遵守已被刪除

所有與 Torch-TensorRT 相關(guān)的 Bug 都應(yīng)被歸入新的 “MachineLearning – TorchTRT” nvbugs 模塊。

原文標(biāo)題:Torch-TensorRT 1.1.0 版本正式發(fā)布

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 軟件
    +關(guān)注

    關(guān)注

    69

    文章

    4966

    瀏覽量

    87647
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    808

    瀏覽量

    13244

原文標(biāo)題:Torch-TensorRT 1.1.0 版本正式發(fā)布

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個(gè)專為優(yōu)化大語(yǔ)言模型 (LLM) 推理而設(shè)計(jì)的庫(kù)。它提供了多種先進(jìn)的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?193次閱讀

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開(kāi)源模型集的模型陣容,包含視覺(jué)語(yǔ)言模型(VLM)、小語(yǔ)言模型(SLM)和支持視覺(jué)的更新版 Llama Guard 模型。與 NVIDIA 加速
    的頭像 發(fā)表于 11-20 09:59 ?249次閱讀

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對(duì)比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?327次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理優(yōu)化

    在設(shè)備上利用AI Edge Torch生成式API部署自定義大語(yǔ)言模型

    我們很高興地發(fā)布 AI Edge Torch 生成式 API,它能將開(kāi)發(fā)者用 PyTorch 編寫的高性能大語(yǔ)言模型 (LLM) 部署至 TensorFlow Lite (TFLite) 運(yùn)行時(shí)
    的頭像 發(fā)表于 11-14 10:23 ?463次閱讀
    在設(shè)備上利用AI Edge <b class='flag-5'>Torch</b>生成式API部署自定義大語(yǔ)言模型

    Google AI Edge Torch的特性詳解

    我們很高興地發(fā)布 Google AI Edge Torch,可將 PyTorch 編寫的模型直接轉(zhuǎn)換成 TFLite 格式 (.tflite),且有著優(yōu)異的模型覆蓋率和 CPU 性能。TFLite
    的頭像 發(fā)表于 11-06 10:48 ?401次閱讀
    Google AI Edge <b class='flag-5'>Torch</b>的特性詳解

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國(guó)最具影響力的模型開(kāi)源社區(qū),致力給開(kāi)發(fā)者提供模型即服務(wù)的體驗(yàn)。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語(yǔ)言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價(jià)值?!?/div>
    的頭像 發(fā)表于 08-23 15:48 ?465次閱讀

    M8020A J-BERT性能比特誤碼率測(cè)試儀

    M8020A 比特誤碼率測(cè)試儀 J-BERT M8020A 高性能 BERT 產(chǎn)品綜述 Keysight J-BERT M8020A 高性能
    的頭像 發(fā)表于 08-21 17:13 ?219次閱讀

    韓國(guó)服務(wù)器的性能如何提升

    韓國(guó)服務(wù)器的性能可以通過(guò)硬件升級(jí)、網(wǎng)絡(luò)優(yōu)化、緩存優(yōu)化和軟件優(yōu)化來(lái)提升。具體方法如下,rak小編為您整理發(fā)布韓國(guó)服務(wù)器的性能如何提升。
    的頭像 發(fā)表于 08-15 11:33 ?260次閱讀

    Allegro X 23.11 版本更新 I PCB 設(shè)計(jì):梯形布線的分析性能提升

    的新功能及用法,助力您提升設(shè)計(jì)質(zhì)量和設(shè)計(jì)效率。點(diǎn)擊文末閱讀原文,收藏版本更新亮點(diǎn)詳解匯總頁(yè)面,持續(xù)關(guān)注版本更新!AllegroXPCBDesigner系統(tǒng)級(jí)PCB設(shè)計(jì)
    的頭像 發(fā)表于 08-10 08:12 ?904次閱讀
    Allegro X 23.11 版本<b class='flag-5'>更新</b> I PCB 設(shè)計(jì):梯形布線的分析<b class='flag-5'>性能</b><b class='flag-5'>提升</b>

    AWG和BERT常見(jiàn)問(wèn)題解答

    隨著信號(hào)的速率越來(lái)越高,調(diào)制格式越來(lái)越復(fù)雜,對(duì)測(cè)試儀器的性能要求也越來(lái)越高。是德科技也一直在推出業(yè)界領(lǐng)先的高帶寬、高采樣率的AWG和高性能BERT。
    的頭像 發(fā)表于 08-06 17:27 ?694次閱讀

    艾體寶方案 | 管理開(kāi)源軟件更新,提升開(kāi)源安全性

    文章介紹了Mend.io如何通過(guò)其Smart Merge Control功能增強(qiáng)開(kāi)源軟件的安全性?,F(xiàn)代應(yīng)用程序高度依賴開(kāi)源軟件,但這也增加了潛在的安全漏洞。Mend SCA的增強(qiáng)功能允許開(kāi)發(fā)者
    的頭像 發(fā)表于 05-31 17:03 ?329次閱讀

    如何修改Kernel Affinity提升openplc性能?

    如何修改Kernel Affinity提升openplc性能
    發(fā)表于 05-22 06:36

    軟件算法賦能4D雷達(dá)性能提升

    軟件定義雷達(dá)是一種可通過(guò)修改或更新軟件來(lái)配置和控制雷達(dá)工作方式的雷達(dá)系統(tǒng)。其中,軟件算法不僅作用于處理環(huán)節(jié),更直接作用于MIMO(多輸入多輸出)環(huán)節(jié),虛擬出更多信號(hào)通道。
    的頭像 發(fā)表于 04-18 14:15 ?699次閱讀
    <b class='flag-5'>軟件</b>算法賦能4D雷達(dá)<b class='flag-5'>性能</b><b class='flag-5'>提升</b>

    TC3x7如何更改DMU_HF_CONFIRM0以更新所需的BMHD?

    有人能分享更改 DMU_HF_CONFIRM0 以更新目標(biāo) TC3x7 所需的 BMHD 的步驟嗎
    發(fā)表于 01-24 08:19

    Torch TensorRT是一個(gè)優(yōu)化PyTorch模型推理性能的工具

    那么,什么是Torch TensorRT呢?Torch是我們大家聚在一起的原因,它是一個(gè)端到端的機(jī)器學(xué)習(xí)框架。而TensorRT則是NVIDIA的高
    的頭像 發(fā)表于 01-09 16:41 ?1780次閱讀
    <b class='flag-5'>Torch</b> <b class='flag-5'>TensorRT</b>是一個(gè)優(yōu)化PyTorch模型推理<b class='flag-5'>性能</b>的工具