0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA發(fā)布NeuralVDB 可將內(nèi)存占用量減少高達(dá)100倍

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-08-14 10:58 ? 次閱讀

NeuralVDB 可將煙霧、云和其他稀疏體積數(shù)據(jù)的內(nèi)存占用量減少多達(dá) 100 倍。

NVIDIA 發(fā)布了 NeuralVDB,可將 AI 的強(qiáng)大功能引入 OpenVDB。OpenVDB 是用于模擬和渲染稀疏體積數(shù)據(jù)(例如水、火焰、煙霧和云)的行業(yè)標(biāo)準(zhǔn)庫(kù)。

鑒于 OpenVDB 在過(guò)去十年內(nèi)的發(fā)展歷程,在 SIGGRAPH 上推出的 NeuralVDB 可為科學(xué)計(jì)算和可視化、醫(yī)學(xué)成像、火箭科學(xué)和視覺(jué)效果等領(lǐng)域的專業(yè)人士帶來(lái)顛覆性的變革。通過(guò)將內(nèi)存占用量減少高達(dá) 100 倍,創(chuàng)作者、開(kāi)發(fā)者和研究人員可以與高度復(fù)雜的大型數(shù)據(jù)集進(jìn)行實(shí)時(shí)交互。

在過(guò)去十年中,作為視覺(jué)效果行業(yè)中廣泛運(yùn)用的核心技術(shù),OpenVDB 贏得了奧斯卡金像獎(jiǎng)。此后,它已從娛樂(lè)業(yè)擴(kuò)展到稀疏體積數(shù)據(jù)普遍存在的工業(yè)和科學(xué)用例,例如工業(yè)設(shè)計(jì)和機(jī)器人開(kāi)發(fā)。

去年,NVIDIA 推出了 NanoVDB,為 OpenVDB 添加了 GPU 支持。這帶來(lái)了數(shù)量級(jí)的加速,實(shí)現(xiàn)了更快速的性能和更輕松的開(kāi)發(fā),并開(kāi)啟了實(shí)時(shí)模擬和渲染的大門(mén)。

NeuralVDB 建立在 NanoVDB 的 GPU 加速基礎(chǔ)上,通過(guò)添加機(jī)器學(xué)習(xí)來(lái)引入緊湊型神經(jīng)表示,大大減少了其內(nèi)存占用率。這使得 3D 數(shù)據(jù)能夠以更高的分辨率和比 OpenVDB 大得多的規(guī)模來(lái)表示。其結(jié)果是,用戶可以在個(gè)人工作站甚至筆記本電腦等設(shè)備上輕松處理大規(guī)模的體積數(shù)據(jù)集。在 OpenVDB 的基礎(chǔ)上,NeuralVDB 顯著提高了效率,相比 NanoVDB,NeuralVDB 將體積數(shù)據(jù)的內(nèi)存足跡壓縮了高達(dá) 100 倍。這使得用戶能夠更高效地傳輸和共享復(fù)雜的大型體積數(shù)據(jù)集。

為了將訓(xùn)練速度提高 2 倍,NeuralVDB 允許將一幀的權(quán)重用于后續(xù)幀。NeuralVDB 還允許用戶通過(guò)使用前一幀的網(wǎng)絡(luò)結(jié)果實(shí)現(xiàn)時(shí)間一致性或流暢編碼。

借助大幅降低內(nèi)存需求、加速訓(xùn)練以及實(shí)現(xiàn)時(shí)間一致性的三重優(yōu)勢(shì),NeuralVDB 為科學(xué)和工業(yè)用例帶來(lái)了新的可能性,包括用于 AI 醫(yī)學(xué)成像、大規(guī)模數(shù)字孿生模擬等用途的大規(guī)模復(fù)雜數(shù)據(jù)集。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4994

    瀏覽量

    103166
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4743

    瀏覽量

    128997
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30998

    瀏覽量

    269311

原文標(biāo)題:SIGGRAPH 22 | 提升標(biāo)準(zhǔn):NVIDIA 推出 NeuralVDB,將 AI 和 GPU 優(yōu)化引入 OpenVDB

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    虛擬內(nèi)存不足如何解決 虛擬內(nèi)存和物理內(nèi)存的區(qū)別

    物理內(nèi)存,可以減少系統(tǒng)對(duì)虛擬內(nèi)存的依賴。 調(diào)整虛擬內(nèi)存設(shè)置 : 進(jìn)入系統(tǒng)設(shè)置,調(diào)整虛擬內(nèi)存的大小。通常,虛擬
    的頭像 發(fā)表于 12-04 09:14 ?445次閱讀

    NVIDIA加速計(jì)算引入Polars

    Polars 近日發(fā)布了一款由 RAPIDS cuDF 驅(qū)動(dòng)的全新 GPU 引擎,該引擎可將 NVIDIA GPU 上的 Polars 工作流速度最高提速 13 ,使數(shù)據(jù)科學(xué)家僅在一
    的頭像 發(fā)表于 11-20 10:03 ?233次閱讀
    將<b class='flag-5'>NVIDIA</b>加速計(jì)算引入Polars

    如何優(yōu)化RAM內(nèi)存使用

    :使用任務(wù)管理器查看當(dāng)前運(yùn)行的程序和服務(wù),關(guān)閉那些不需要的。 禁用啟動(dòng)程序 :減少開(kāi)機(jī)啟動(dòng)項(xiàng),只保留必要的程序。 2. 優(yōu)化操作系統(tǒng)設(shè)置 調(diào)整虛擬內(nèi)存 :合理設(shè)置虛擬內(nèi)存,避免過(guò)多占用
    的頭像 發(fā)表于 11-11 09:58 ?389次閱讀

    INA333 RG接100歐不是放大1000嗎?怎么輸出才2左右?

    RG接100歐不是放大1000嗎?怎么輸出才2左右?請(qǐng)問(wèn)要放大1000如何接才正確?
    發(fā)表于 09-11 07:25

    NVIDIA NIM微服務(wù)帶來(lái)巨大優(yōu)勢(shì)

    新服務(wù)通過(guò)熱門(mén) AI 模型為數(shù)百萬(wàn)開(kāi)發(fā)者帶來(lái)高達(dá) 5 的 token 效率提升,使他們能夠立即訪問(wèn)在 NVIDIA DGX Cloud 上運(yùn)行的 NIM 微服務(wù)。
    的頭像 發(fā)表于 08-23 15:20 ?505次閱讀

    LM7171放大倍數(shù)理論設(shè)定為100,實(shí)測(cè)只有70左右,為什么?

    LM7171放大倍數(shù)理論設(shè)定為100,實(shí)測(cè)只有70左右
    發(fā)表于 08-16 06:36

    mesh的內(nèi)存占用能否優(yōu)化?

    我測(cè)試到esp_mesh在開(kāi)啟的情況下,即打開(kāi)wifi和打開(kāi)mesh,DRAM會(huì)占用大約130kb內(nèi)存。且測(cè)試發(fā)現(xiàn)esp32剩余內(nèi)存不足大約60kb的時(shí)候系統(tǒng)會(huì)重啟。這樣來(lái)說(shuō)300KB內(nèi)存
    發(fā)表于 06-28 15:32

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    冷卻技術(shù),提高計(jì)算密度,減少占地面積,并通過(guò)高帶寬、低延遲的GPU通信,有效減少數(shù)據(jù)中心的碳足跡和能源消耗。相較于傳統(tǒng)的NVIDIA H100風(fēng)冷基礎(chǔ)設(shè)施,GB200在相同功耗下實(shí)現(xiàn)2
    發(fā)表于 05-13 17:16

    linux下查詢進(jìn)程占用內(nèi)存方法有哪些?

    linux下查詢進(jìn)程占用內(nèi)存方法
    發(fā)表于 04-08 06:03

    FORESEE LPCAMM2內(nèi)存新形態(tài)

    FORESEELPCAMM2內(nèi)存新形態(tài)在此次CFMS峰會(huì)中,江波龍還發(fā)布了FORESEELPCAMM2(16GB/32GB/64GB),該產(chǎn)品以其獨(dú)特的128bit位寬設(shè)計(jì),實(shí)現(xiàn)了內(nèi)存形態(tài)的新突破
    的頭像 發(fā)表于 03-28 08:19 ?871次閱讀
    FORESEE LPCAMM2<b class='flag-5'>內(nèi)存</b>新形態(tài)

    微軟提出通過(guò)SSD固態(tài)硬盤(pán)降低顯存占用的新方法

    據(jù)3月25日發(fā)布的信息顯示,微軟近期通過(guò)了一項(xiàng)專供電專利成功提出一種新型SSD驅(qū)動(dòng)器緩存技術(shù)來(lái)降低顯存占用量,這將會(huì)為未來(lái)的DRX API更新后的游戲環(huán)境提供更好的光追效果。
    的頭像 發(fā)表于 03-25 10:39 ?504次閱讀

    NVIDIA 推出 Blackwell 架構(gòu) DGX SuperPOD,適用于萬(wàn)億參數(shù)級(jí)的生成式 AI 超級(jí)計(jì)算

    基于先進(jìn)的 NVIDIA 網(wǎng)絡(luò)、NVIDIA 全棧 AI 軟件和存儲(chǔ)技術(shù),可將集群中 Grace Blackwell 超級(jí)芯片的數(shù)量擴(kuò)展至數(shù)萬(wàn)個(gè),通過(guò) NVIDIA NVLink
    發(fā)表于 03-19 10:56 ?431次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Blackwell 架構(gòu) DGX SuperPOD,適用于萬(wàn)億參數(shù)級(jí)的生成式 AI 超級(jí)計(jì)算

    NVIDIA將在今年第二季度發(fā)布Blackwell架構(gòu)的新一代GPU加速器“B100

    根據(jù)各方信息和路線圖,NVIDIA預(yù)計(jì)會(huì)在今年第二季度發(fā)布Blackwell架構(gòu)的新一代GPU加速器“B100”。
    的頭像 發(fā)表于 03-04 09:33 ?1340次閱讀
    <b class='flag-5'>NVIDIA</b>將在今年第二季度<b class='flag-5'>發(fā)布</b>Blackwell架構(gòu)的新一代GPU加速器“B<b class='flag-5'>100</b>”

    在MDK中使用RTT為什么內(nèi)存占用這么大?

    為什么在MDK中使用RTT ,內(nèi)存占用這么大?
    發(fā)表于 02-26 07:19

    利用NVIDIA產(chǎn)品技術(shù)組合提升用戶體驗(yàn)

    本案例通過(guò)利用NVIDIA TensorRT-LLM加速指令識(shí)別深度學(xué)習(xí)模型,并借助NVIDIA Triton推理服務(wù)器在NVIDIA V100 GPU上進(jìn)行高效部署,幫助必優(yōu)科技的文
    的頭像 發(fā)表于 01-17 09:30 ?704次閱讀