0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天

jf_MYvksKR0 ? 來源:MicroComputer ? 2024-02-23 09:42 ? 次閱讀

NVIDIA今天在其官方博客中表示,今天與谷歌合作,在所有NVIDIA AI平臺上為Gemma推出了優(yōu)化。Gemma是谷歌最先進(jìn)的新輕量級2B(20億)和7B(70億)參數(shù)開放語言模型,可以在任何地方運(yùn)行,降低了成本,加快了特定領(lǐng)域用例的創(chuàng)新工作。

這兩家公司的團(tuán)隊(duì)密切合作,主要是使用NVIDIA TensorRT LLM加速谷歌Gemma開源模型的性能。開源模型Gemma采用與Gemini模型相同的底層技術(shù)構(gòu)建,而NVIDIA TensorRT LLM是一個開源庫,用于在數(shù)據(jù)中心的NVIDIA GPU、云服務(wù)器以及帶有NVIDIA RTX GPU的PC上運(yùn)行時,可以極大優(yōu)化大型語言模型推理。這也這使得開發(fā)人員能夠完全利用全球超過1億臺數(shù)量的RTX GPU AI PC完成自己的工作。

9c3d6116-d19c-11ee-a297-92fbcf53809c.png

同時,開發(fā)人員還可以在云計(jì)算服務(wù)器中的NVIDIA GPU上運(yùn)行Gemma,包括在谷歌云基于H100 Tensor Core GPU,以及很快谷歌將于今年部署的NVIDIA H200 TensorCore GPU——該GPU具有141GB的HBM3e內(nèi)存,內(nèi)存帶寬可以達(dá)到4.8TB/s。

9c7d73b4-d19c-11ee-a297-92fbcf53809c.png

另外,企業(yè)開發(fā)人員還可以利用NVIDIA豐富的工具生態(tài)系統(tǒng),包括具有NeMo框架的NVIDIA AI Enterprise和TensorRT LLM,對Gemma進(jìn)行微調(diào),并在其生產(chǎn)應(yīng)用程序中部署優(yōu)化模型。

9c90b0dc-d19c-11ee-a297-92fbcf53809c.png

NVIDIA表示,先期上線支持Gemma的是Chat with RTX,這是一款NVIDIA技術(shù)演示應(yīng)用,使用檢索增強(qiáng)生成和TensorRT LLM擴(kuò)展,在基于RTX GPU的本地Windows PC上為用戶提供生成式AI應(yīng)用的功能。通過RTX聊天,用戶可以輕松地將PC上的本地文件連接到大型語言模型,從而使用自己的數(shù)據(jù)對聊天機(jī)器人進(jìn)行個性化設(shè)置。

由于該模型在本地運(yùn)行,因此可以快速提供結(jié)果,并且用戶數(shù)據(jù)保留在設(shè)備上。與基于云的LLM服務(wù)不同,使用Chat with RTX聊天可以讓用戶在本地PC上處理敏感數(shù)據(jù),而無需與第三方共享或連接互聯(lián)網(wǎng)。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5052

    瀏覽量

    103361
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    303

    瀏覽量

    5864
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    297

    瀏覽量

    357
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    509

    瀏覽量

    511

原文標(biāo)題:TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天

文章出處:【微信號:Microcomputer,微信公眾號:Microcomputer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運(yùn)行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強(qiáng)大助力。
    的頭像 發(fā)表于 01-08 11:01 ?203次閱讀

    NVIDIA和GeForce RTX GPU專為AI時代打造

    NVIDIA 和 GeForce RTX GPU 專為 AI 時代打造。
    的頭像 發(fā)表于 01-06 10:45 ?158次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?200次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b>中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計(jì)的庫。它提供了多種先進(jìn)的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?225次閱讀

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?314次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b> Roadmap現(xiàn)已在GitHub上公開發(fā)布

    NVIDIA RTX AI Toolkit擁抱LoRA技術(shù)

    RTX AI PC 和工作站上使用最新版 RTX AI Toolkit 微調(diào) LLM,最高可將性能提升至原來的 6 倍。
    的頭像 發(fā)表于 11-20 09:14 ?297次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>RTX</b> <b class='flag-5'>AI</b> Toolkit擁抱LoRA技術(shù)

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?361次閱讀
    <b class='flag-5'>TensorRT-LLM</b>低精度推理優(yōu)化

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗(yàn)。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價值?!?/div>
    的頭像 發(fā)表于 08-23 15:48 ?480次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM
    的頭像 發(fā)表于 04-28 10:36 ?598次閱讀

    谷歌AI大模型Gemma全球開放使用

    谷歌公司近日宣布,其全新的AI大模型Gemma現(xiàn)已在全球范圍內(nèi)開放使用。這一重要舉措不僅彰顯了谷歌AI領(lǐng)域的領(lǐng)先地位,還為其在全球范圍內(nèi)的
    的頭像 發(fā)表于 02-28 18:12 ?1185次閱讀

    谷歌發(fā)布開源AI大模型Gemma

    近日,谷歌發(fā)布了全新AI大模型Gemma,這款模型為各種規(guī)模的組織提供了前所未有的機(jī)會,以負(fù)責(zé)任的方式在商業(yè)應(yīng)用中進(jìn)行分發(fā)。
    的頭像 發(fā)表于 02-28 17:38 ?872次閱讀

    Google Gemma優(yōu)化后可在NVIDIA GPU上運(yùn)行

    2024 年 2 月 21 日,NVIDIA 攜手 Google 在所有 NVIDIA AI 平臺上發(fā)布面向 Gemma 的優(yōu)化功能,Gemma
    的頭像 發(fā)表于 02-25 11:01 ?485次閱讀

    谷歌發(fā)布輕量級開源人工智能模型Gemma

    谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發(fā)人員和研究人員提供一個負(fù)責(zé)任的AI構(gòu)建平臺。這一舉措標(biāo)志著自2022年OpenAI的ChatGPT引領(lǐng)
    的頭像 發(fā)表于 02-23 11:38 ?907次閱讀

    谷歌宣布Gemma大模型全球開放使用

    谷歌公司近日宣布,其先進(jìn)的AI大模型Gemma即日起在全球范圍內(nèi)開放使用。這一新模型由谷歌DeepMind和其他團(tuán)隊(duì)合作開發(fā),并與其最大的AI
    的頭像 發(fā)表于 02-23 10:41 ?803次閱讀

    英偉達(dá)推出全新AI聊天機(jī)器人

    近日,英偉達(dá)(Nvidia)宣布推出其全新的AI聊天機(jī)器人——“Chat With RTX”。這款聊天機(jī)器人被視為英偉達(dá)版的ChatGPT,
    的頭像 發(fā)表于 02-19 11:09 ?957次閱讀