3 月 15 日消息,騰訊與清華大學(xué)及香港科技大學(xué)聯(lián)合發(fā)布新型圖生視頻模型 “Follow-Your-Click”,已上線 GitHub(代碼于四月份公開(kāi))并發(fā)布相關(guān)研究論文(查閱地址:DOI:2403.08268)。
該模型以局部動(dòng)態(tài)生成及多物體動(dòng)畫為主打性能,支持多樣化動(dòng)作,如頭部運(yùn)動(dòng)、翅膀震動(dòng)等。
據(jù)了解,在這款名為 “Follow-Your-Click” 的視頻模型中,用戶僅需利用點(diǎn)擊與明確指令便可實(shí)現(xiàn)圖案的局部動(dòng)畫效果。用戶只需輕點(diǎn)所需位置,再輸入微量提示詞匯,原先靜態(tài)的圖像便能立即呈現(xiàn)出動(dòng)態(tài)效果,無(wú)需繁瑣程序,輕松實(shí)現(xiàn)物體自動(dòng)微笑、舞蹈乃至飛翔等視覺(jué)效果。
此外,該系統(tǒng)還能協(xié)同處理多個(gè)對(duì)象的動(dòng)畫效果,提升動(dòng)畫的復(fù)雜度及多樣性。用戶可通過(guò)簡(jiǎn)單的點(diǎn)擊和短語(yǔ)提醒輕松選定需要?jiǎng)赢嬣D(zhuǎn)變的區(qū)域以及動(dòng)作類型,無(wú)需冗長(zhǎng)描述或額外操理解釋。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。
舉報(bào)投訴
相關(guān)推薦
近日,在線教育平臺(tái)考試寶宣布與騰訊云達(dá)成深度戰(zhàn)略合作,共同探索在線教育領(lǐng)域的新機(jī)遇。此次合作,考試寶將借助騰訊云業(yè)界領(lǐng)先的混元大模型技術(shù),進(jìn)
發(fā)表于 12-31 10:21
?73次閱讀
近日,在線教育平臺(tái)考試寶與騰訊云宣布達(dá)成深度戰(zhàn)略合作,共同探索在線教育領(lǐng)域的新機(jī)遇。此次合作旨在借助騰訊云業(yè)界領(lǐng)先的混元大模型技術(shù),進(jìn)一步創(chuàng)
發(fā)表于 12-30 10:02
?87次閱讀
內(nèi)外部技術(shù)的開(kāi)源共享,旨在促進(jìn)技術(shù)創(chuàng)新與生態(tài)發(fā)展。 據(jù)悉,騰訊混元大模型已經(jīng)在多個(gè)模態(tài)上實(shí)現(xiàn)了開(kāi)源,包括語(yǔ)言大模型、文生圖大
發(fā)表于 12-26 10:30
?204次閱讀
榜首。 FlagEval作為智源研究院推出的大模型評(píng)測(cè)體系及開(kāi)放平臺(tái),一直致力于評(píng)估基礎(chǔ)模型及訓(xùn)練算法的性能。此次評(píng)測(cè)范圍涵蓋了國(guó)內(nèi)外100余個(gè)開(kāi)源和商業(yè)閉源模型,
發(fā)表于 12-25 10:06
?168次閱讀
近日,騰訊宣布其混元大模型正式上線,并開(kāi)源了一項(xiàng)令人矚目的能力——文生視頻。該大模型參數(shù)量高達(dá)130億,支持中英文雙語(yǔ)輸入,為用戶提供了更為便捷和多樣化的
發(fā)表于 12-04 14:06
?160次閱讀
近日,快手旗下的可靈AI在全球范圍內(nèi)率先推出了視頻模型定制功能,這一創(chuàng)新之舉成功解決了AI視頻生成過(guò)程中人物IP穩(wěn)定性不足的難題。 據(jù)了解,用戶現(xiàn)在
發(fā)表于 11-26 14:02
?516次閱讀
被譽(yù)為“通用大模型國(guó)家隊(duì)”的科大訊飛,再度強(qiáng)化其大模型技術(shù)實(shí)力。在10月24日舉辦的第七屆世界聲博會(huì)及2024科大訊飛全球1024開(kāi)發(fā)者節(jié)開(kāi)幕式上,
發(fā)表于 10-25 16:09
?381次閱讀
電子發(fā)燒友網(wǎng)站提供《如何開(kāi)發(fā)不帶Flash API 的Bootloader實(shí)現(xiàn)在線升級(jí).pdf》資料免費(fèi)下載
發(fā)表于 09-12 09:41
?0次下載
他進(jìn)一步表示,盡管傳統(tǒng)搜索引擎已相當(dāng)出色,但大模型卻能使其更上一層樓。自去年9月騰訊推出大模型產(chǎn)品以來(lái),模型效率已提升50%,參數(shù)規(guī)模由千億
發(fā)表于 05-30 15:20
?729次閱讀
電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)大模型技術(shù)正在快速發(fā)展,并在不同領(lǐng)域取得顯著進(jìn)展。如在設(shè)計(jì)領(lǐng)域,近日消息,騰訊混元大模型文生圖已經(jīng)深度應(yīng)用在B端和C端,此外,
發(fā)表于 05-15 01:16
?2955次閱讀
近期,科大訊飛推出了首個(gè)支持長(zhǎng)文本、長(zhǎng)圖及語(yǔ)音大數(shù)據(jù)處理的大模型,該系統(tǒng)融合了多元化數(shù)據(jù)源,包括海量文字、圖片以及會(huì)議音頻等,能為各行業(yè)場(chǎng)景提供專業(yè)化、精準(zhǔn)化的答案。
發(fā)表于 04-28 09:32
?376次閱讀
近日,阿里巴巴集團(tuán)智能計(jì)算研究院宣布推出了一款革命性的AI圖片-音頻-視頻模型技術(shù)——EMO。據(jù)官方介紹,EMO是一種先進(jìn)的音頻驅(qū)動(dòng)肖像視頻生成框架,能夠?qū)㈧o態(tài)照片轉(zhuǎn)化為生動(dòng)逼真的動(dòng)態(tài)
發(fā)表于 03-05 11:00
?1358次閱讀
因賽集團(tuán)宣布其營(yíng)銷行業(yè)首個(gè)AIGC應(yīng)用級(jí)模型InsightGPT已正式上線。這一創(chuàng)新技術(shù)結(jié)合了開(kāi)源和自研的視頻生成算法,以及豐富的行業(yè)視頻庫(kù),為營(yíng)銷行業(yè)提供了獨(dú)特的圖
發(fā)表于 03-05 10:18
?593次閱讀
針對(duì) Boximator 的相關(guān)問(wèn)題,字節(jié)跳動(dòng)方回應(yīng)指出,這只是視頻生成對(duì)象移動(dòng)技術(shù)方法的研究項(xiàng)目,暫不可能成為完整可用的產(chǎn)品。相比國(guó)外優(yōu)秀的視頻生成模型,其在圖像質(zhì)素、真實(shí)度以及視頻
發(fā)表于 02-20 13:49
?544次閱讀
科大訊飛旗下控股子公司訊飛醫(yī)療已于1月26日正式向港交所遞交上市申請(qǐng),計(jì)劃在香港主板上市。這是科大訊飛繼智慧教育業(yè)務(wù)上市后,又一子公司尋求資本市場(chǎng)支持。
發(fā)表于 02-04 13:57
?1293次閱讀
評(píng)論