0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MediaTek聯(lián)合快手推出高效端側(cè)視頻生成技術(shù)

聯(lián)發(fā)科技 ? 來源:聯(lián)發(fā)科技 ? 2024-07-05 11:23 ? 次閱讀

MediaTek 與快手共同宣布,推出高效端側(cè)視頻生成技術(shù),共同探索并推進生成式 AI 技術(shù)的革新。作為對 2024 世界移動通信大會(MWC 2024)上亮相的視頻生成技術(shù)的延續(xù),該技術(shù)結(jié)合快手的 AI 模型 I2V(image to video)Adapter 與 MediaTek 天璣 9300、天璣 8300 移動平臺強勁的 AI 算力,在端側(cè)實現(xiàn)由靜態(tài)圖像生成動態(tài)視頻的創(chuàng)新體驗。用戶只需在設(shè)備上選取圖片,應(yīng)用即可智能地識別照片中的人物和場景,生成自然流暢的視頻佳作,從而顯著提升視頻制作的創(chuàng)意表現(xiàn)和效率。

雙方的合作充分借助 MediaTek 天璣移動平臺先進的 AI 技術(shù),攜手攻克了模型底層適配優(yōu)化及上層開發(fā)的系列技術(shù)及工程難題,為用戶帶來讓人耳目一新的端側(cè)生成式 AI 體驗,將改變用戶創(chuàng)作和分享內(nèi)容的方式。

I2V-Adapter 是快手 AI 團隊提出的一種適用于基于 Stable Diffusion 文生視頻擴散模型的輕量級適配模塊。作為即插即用的擴散模型輕量級模塊,該模塊專門用于由圖像到視頻的生成任務(wù),能夠在不需要改變現(xiàn)有文本到視頻生成(T2V)模型原始結(jié)構(gòu)和預(yù)訓(xùn)練參數(shù)的情況下,將靜態(tài)圖像轉(zhuǎn)換成動態(tài)視頻。此外,其解耦設(shè)計使得該方案能夠與 DreamBooth、LoRa、ControlNet 等模塊無縫兼容,實現(xiàn)個性化和可控的圖像到視頻生成。

MediaTek 天璣 9300 和天璣 8300 移動平臺集成為生成式 AI 而設(shè)計的先進 NPU(神經(jīng)網(wǎng)絡(luò)處理單元),具備強勁算力和能效。在圖像生成視頻的應(yīng)用中,它可以顯著加速 AI 模型的運算,配合與快手 I2V Adapter 模型的適配和優(yōu)化,實現(xiàn)更快的視頻生成速度,同時兼具低功耗特性。與此同時,天璣移動平臺可結(jié)合深度學(xué)習(xí)和實時渲染技術(shù),對圖像內(nèi)容進行深度分析,捕捉關(guān)鍵幀,并據(jù)此生成流暢、逼真的視頻畫面效果。而 MediaTek 的實時渲染技術(shù)則能夠確保視頻在各類設(shè)備上均能帶來高畫質(zhì)表現(xiàn)。

全球短視頻市場正迎來高速增長期,行業(yè)對創(chuàng)新、高效的視頻生成技術(shù)的需求日益迫切。MediaTek 與快手基于對市場需求和趨勢的深刻洞察,為廣大用戶帶來更加先進、便捷的視頻生成工具,共同推動短視頻生態(tài)的繁榮發(fā)展。未來,雙方將持續(xù)深化合作,推動生成式 AI 技術(shù)的進一步發(fā)展,滿足市場不斷變化的需求,共同開創(chuàng)和探索短視頻技術(shù)的新紀元。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視頻
    +關(guān)注

    關(guān)注

    6

    文章

    1945

    瀏覽量

    72910
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30896

    瀏覽量

    269086
  • Mediatek
    +關(guān)注

    關(guān)注

    0

    文章

    275

    瀏覽量

    22630

原文標題:MediaTek 聯(lián)合快手推出高效端側(cè)視頻生成技術(shù),先進生成式 AI 讓圖像動起來

文章出處:【微信號:mtk1997,微信公眾號:聯(lián)發(fā)科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無推出視頻生成模型Sora的應(yīng)用程序接口(API)的計劃。Sora模型能夠基于文本和圖像生成視頻,引發(fā)了廣泛關(guān)注。然而,由于訪問量遠超預(yù)期,OpenAI此
    的頭像 發(fā)表于 12-20 14:23 ?127次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這一新品的發(fā)布,無疑為AI技術(shù)注入了新的活力。 據(jù)悉,Sora與OpenAI旗下的AI工具DALL-E有著異曲同工之妙
    的頭像 發(fā)表于 12-12 09:40 ?190次閱讀

    OpenAI開放Sora視頻生成模型

    OpenAI近日宣布,其傾力打造的人工智能視頻生成系統(tǒng)Sora已正式向美國及其他市場的ChatGPT Plus訂閱用戶開放。自去年首次公開預(yù)覽以來,Sora歷經(jīng)約10個月的精心研發(fā)與優(yōu)化,現(xiàn)已全面
    的頭像 發(fā)表于 12-10 11:16 ?325次閱讀

    今日看點丨Vishay裁員800人,關(guān)閉上海等三家工廠;字節(jié)跳動發(fā)布兩款視頻生成大模型

    企業(yè)市場開啟邀測。 ? 火山引擎介紹,豆包視頻生成模型基于DiT架構(gòu),通過高效的DiT融合計算單元,能更充分地壓縮編碼視頻與文本,讓視頻在大動態(tài)與運鏡中自由切換,擁有變焦、環(huán)繞、平搖、
    發(fā)表于 09-25 15:48 ?751次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創(chuàng)新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這一舉措標志著火山引擎在視頻內(nèi)容生成領(lǐng)域邁出了重要一步。豆包模型憑借其獨特的
    的頭像 發(fā)表于 09-25 14:11 ?301次閱讀

    阿里通義將發(fā)布視頻生成大模型

    在即將召開的云棲大會上,阿里通義將震撼發(fā)布其自主研發(fā)的視頻生成大模型。目前,用戶已可通過通義App頻道及通義萬相PC預(yù)約體驗這一創(chuàng)新功能,盡管具體使用尚未開放。
    的頭像 發(fā)表于 09-19 17:01 ?346次閱讀

    MediaTek快手攜手創(chuàng)新,側(cè)視頻生成技術(shù)引領(lǐng)AI新紀元

    在科技日新月異的今天,MediaTek快手再次攜手,于近日宣布了一項重大技術(shù)突破——高效側(cè)視頻生成
    的頭像 發(fā)表于 07-05 11:52 ?1016次閱讀

    谷歌發(fā)布全新視頻生成模型Veo與Imagen文生圖模型

    谷歌近日宣布了兩項重大技術(shù)進展,首先是視頻生成模型Veo的正式推出。這款先進的模型能夠支持生成質(zhì)量更高的視頻內(nèi)容,讓用戶能夠根據(jù)自己的需求設(shè)
    的頭像 發(fā)表于 05-16 10:46 ?399次閱讀

    阿里云視頻生成技術(shù)創(chuàng)新!視頻生成使用了哪些AI技術(shù)和算法

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)日前,阿里云宣布通義實驗室研發(fā)的視頻生成模型EMO正式上線通義App,免費對所有人開放。借助這一功能,用戶可以在歌曲、熱梗、表情包中任選一款模板,然后通過上傳一張肖像
    的頭像 發(fā)表于 05-08 00:07 ?3376次閱讀

    OpenAI視頻生成工具Sora將于年內(nèi)正式向公眾推出

    OpenAI的首席技術(shù)官Mira Murati在近期采訪中透露,公司正計劃在今年晚些時候正式向公眾正式推出視頻生成工具Sora。Murati表示,盡管具體的推出時間可能需要幾個月,但
    的頭像 發(fā)表于 03-19 11:41 ?901次閱讀

    新火種AI|圍攻光明頂:Sora效應(yīng)下的AI視頻生成競賽

    Sora的出現(xiàn),讓AI視頻生成領(lǐng)域真正“活”了起來
    的頭像 發(fā)表于 03-16 11:12 ?642次閱讀

    openai發(fā)布首個視頻生成模型sora

    美國當?shù)貢r間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個文生視頻案例和技術(shù)報告 ,正式入局視頻生成領(lǐng)域 。Sora能夠根據(jù)提示詞
    的頭像 發(fā)表于 02-21 16:45 ?1267次閱讀

    AI視頻年大爆發(fā)!2023年AI視頻生成領(lǐng)域的現(xiàn)狀全盤點

    2023年,也是AI視頻元年。過去一年究竟有哪些爆款應(yīng)用誕生,未來視頻生成領(lǐng)域面臨的難題還有哪些?
    的頭像 發(fā)表于 02-20 10:40 ?1239次閱讀
    AI<b class='flag-5'>視頻</b>年大爆發(fā)!2023年AI<b class='flag-5'>視頻生成</b>領(lǐng)域的現(xiàn)狀全盤點

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀元

    在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻生成
    的頭像 發(fā)表于 02-19 11:03 ?952次閱讀

    OpenAI發(fā)布首個視頻生成模型Sora

    OpenAI近日宣布推出其全新的文本到視頻生成模型——Sora。這一突破性的技術(shù)視頻創(chuàng)作帶入了一個全新的紀元,為用戶提供了前所未有的創(chuàng)作可能性。
    的頭像 發(fā)表于 02-18 10:07 ?1064次閱讀