0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA AI使用視頻輸入改進(jìn)運(yùn)動(dòng)捕捉動(dòng)畫模型

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Nathan Horrocks ? 2022-04-06 16:42 ? 次閱讀

來(lái)自 NVIDIA 、多倫多大學(xué)和矢量研究所的研究人員提出了一種新的運(yùn)動(dòng)捕捉方法,即使用昂貴的運(yùn)動(dòng)捕捉硬件。它僅使用視頻輸入來(lái)改進(jìn)過(guò)去的運(yùn)動(dòng)捕捉動(dòng)畫模型。

YouTuber 和圖形研究人員 Károly Zsolnai-Fehér 博士在他的 YouTube 系列文章 兩分鐘的論文 中詳細(xì)介紹了這項(xiàng)創(chuàng)新技術(shù)的研究。這段視頻強(qiáng)調(diào)了研究人員如何僅通過(guò)視頻輸入捕獲使用人工智能的個(gè)體,并將其轉(zhuǎn)化為數(shù)字化身。然后,他們可以給阿凡達(dá)一個(gè)物理模擬,以消除腳滑動(dòng)和時(shí)間不一致或閃爍的傳統(tǒng)挑戰(zhàn)。

“在本文中,我們引入了一種新的框架,用于從原始視頻姿勢(shì)估計(jì)中訓(xùn)練運(yùn)動(dòng)合成模型,而不使用運(yùn)動(dòng)捕捉數(shù)據(jù),” Kevin Xie 在論文中解釋道。

“我們的框架通過(guò)接觸不變優(yōu)化(包括接觸力的計(jì)算)實(shí)施物理約束,從而細(xì)化噪聲姿勢(shì)估計(jì)。然后,我們?cè)诩?xì)化的姿勢(shì)上訓(xùn)練時(shí)間序列生成模型,合成未來(lái)的運(yùn)動(dòng)和接觸力。我們的結(jié)果表明,這兩種姿勢(shì)的性能都有顯著提升通過(guò)我們基于物理的細(xì)化和視頻的運(yùn)動(dòng)合成結(jié)果進(jìn)行估計(jì)。我們希望通過(guò)利用大量在線視頻資源,我們的工作將導(dǎo)致更具可伸縮性的人體運(yùn)動(dòng)合成。”

image3.gif

image3.gif

圖 2 。 AI 使用運(yùn)動(dòng)捕捉來(lái)捕捉運(yùn)動(dòng),將個(gè)人動(dòng)畫化為數(shù)字化身,并提供物理模擬來(lái)準(zhǔn)確模擬現(xiàn)實(shí)生活中的運(yùn)動(dòng)。

這個(gè)框架使人們離在虛擬世界中工作和玩耍更近了一步。它將幫助開發(fā)人員以更便宜的價(jià)格制作人體運(yùn)動(dòng)動(dòng)畫,并提供更豐富的運(yùn)動(dòng)多樣性。從視頻游戲到虛擬世界,這個(gè)框架無(wú)疑將影響我們可視化人類運(yùn)動(dòng)合成的方式。

關(guān)于作者

Nathan Horrocks 是 NVIDIA Research 的內(nèi)容營(yíng)銷經(jīng)理。他重點(diǎn)強(qiáng)調(diào)了 NVIDIA 實(shí)驗(yàn)室在世界各地進(jìn)行的驚人研究。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4996

    瀏覽量

    103216
  • 人工智能
    +關(guān)注

    關(guān)注

    1792

    文章

    47373

    瀏覽量

    238866
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Luma AI Ray 2視頻模型即將發(fā)布

    近日,在2024年亞馬遜云科技re:Invent全球大會(huì)上,Luma AI宣布了一個(gè)令人振奮的消息:其最新版Luma AI Ray 2視頻模型即將面向廣大消費(fèi)者、專業(yè)人士及開發(fā)者開放。
    的頭像 發(fā)表于 12-20 11:37 ?256次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這一新品的發(fā)布,無(wú)疑為AI技術(shù)注入了新的活力。 據(jù)悉,Sora與OpenAI旗下的
    的頭像 發(fā)表于 12-12 09:40 ?208次閱讀

    騰訊混元大模型上線并開源文生視頻能力

    生成大模型具備生成“超寫實(shí)”高質(zhì)量視頻的能力,生成的畫面細(xì)膩且不易變形。這一特點(diǎn)在處理復(fù)雜場(chǎng)景和大幅度運(yùn)動(dòng)畫面時(shí)尤為突出,能夠保持視頻的流暢性和合理性。 尤為值得一提的是,該
    的頭像 發(fā)表于 12-04 14:06 ?166次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了一個(gè)全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂(lè)、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?367次閱讀

    可靈AI全球首發(fā)視頻模型定制功能,助力AI視頻創(chuàng)作

    近日,快手旗下的可靈AI在全球范圍內(nèi)率先推出了視頻模型定制功能,這一創(chuàng)新之舉成功解決了AI視頻生成過(guò)程中人物IP穩(wěn)定性不足的難題。 據(jù)了解,
    的頭像 發(fā)表于 11-26 14:02 ?538次閱讀

    NVIDIA助力輕威科技開發(fā)下一代多人實(shí)時(shí)運(yùn)動(dòng)捕捉系統(tǒng)

    在本案例中,通過(guò)使用 Jetson 平臺(tái),輕威科技研發(fā)了無(wú)需穿戴的下一代多人實(shí)時(shí)運(yùn)動(dòng)捕捉系統(tǒng) SemCam,可以在演員無(wú)需穿戴任何 Mark 點(diǎn)和傳感器的前提下,僅憑 AI 視覺識(shí)別和 AI
    的頭像 發(fā)表于 11-13 11:46 ?324次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態(tài)的優(yōu)勢(shì),為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務(wù)器
    的頭像 發(fā)表于 09-09 09:19 ?483次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源
    的頭像 發(fā)表于 07-25 09:48 ?720次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國(guó)現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405B 和 NVIDIA Nemotron 模型配對(duì),來(lái)構(gòu)建“超級(jí)
    發(fā)表于 07-24 09:39 ?719次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>

    ai模型ai框架的關(guān)系是什么

    的數(shù)據(jù)和計(jì)算資源來(lái)進(jìn)行訓(xùn)練。AI模型的主要特點(diǎn)包括: 1.1 參數(shù)數(shù)量大:AI模型的參數(shù)數(shù)量通常在數(shù)百萬(wàn)到數(shù)十億之間,這使得它們能夠捕捉
    的頭像 發(fā)表于 07-16 10:07 ?4w次閱讀

    ai模型和傳統(tǒng)ai的區(qū)別在哪?

    的BERT模型使用了33億個(gè)參數(shù),而傳統(tǒng)AI模型通常只有幾千到幾百萬(wàn)個(gè)參數(shù)。 模型復(fù)雜度 AI模型
    的頭像 發(fā)表于 07-16 10:06 ?1406次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)將極大地簡(jiǎn)化AI模型部署過(guò)程,為全球的2800萬(wàn)英偉達(dá)開發(fā)者
    的頭像 發(fā)表于 06-04 09:15 ?687次閱讀

    使用NVIDIA Isaac Manipulator生成抓取姿勢(shì)和機(jī)器人運(yùn)動(dòng)

    NVIDIA 宣布與 Intrinsic.ai 就工業(yè)機(jī)器人任務(wù)的基礎(chǔ)技能模型學(xué)習(xí)展開合作。
    的頭像 發(fā)表于 05-17 10:33 ?1327次閱讀
    使用<b class='flag-5'>NVIDIA</b> Isaac Manipulator生成抓取姿勢(shì)和機(jī)器人<b class='flag-5'>運(yùn)動(dòng)</b>

    智譜AI正研發(fā)對(duì)標(biāo)Sora的國(guó)產(chǎn)文生視頻模型

    智譜AI,這家國(guó)內(nèi)估值超過(guò)200億的AI模型獨(dú)角獸企業(yè),正全力投入研發(fā)一款與OpenAI的Sora相媲美的國(guó)產(chǎn)文生視頻模型。據(jù)公司內(nèi)部人士
    的頭像 發(fā)表于 05-07 09:22 ?540次閱讀

    生成式 AI 制作動(dòng)畫:周期短、成本低!

    工作室和特效公司正廣泛采用生成式AI技術(shù)進(jìn)行背景生成、角色創(chuàng)作和動(dòng)作合成。這種技術(shù)的應(yīng)用不僅提高了動(dòng)畫制作的效率,還使得動(dòng)畫作品在視覺效果和創(chuàng)意上有了更大的突破。生成式AI可以根據(jù)預(yù)設(shè)
    的頭像 發(fā)表于 03-18 08:19 ?3663次閱讀
    生成式 <b class='flag-5'>AI</b> 制作<b class='flag-5'>動(dòng)畫</b>:周期短、成本低!