0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

驚!大腦視覺(jué)信號(hào)被Stable Diffusion復(fù)現(xiàn)成視頻!

CVer ? 來(lái)源:量子位 ? 2023-06-02 16:51 ? 次閱讀

現(xiàn)在,AI可以把人類腦中的信息,用高清視頻展示出來(lái)了!

例如你坐在副駕所欣賞到的沿途美景信息,AI分分鐘給重建了出來(lái):

e8e12ad0-fae1-11ed-90ce-dac502259ad0.gif

看到過(guò)的水中的魚兒、草原上的馬兒,也不在話下:

e8f91f00-fae1-11ed-90ce-dac502259ad0.gif

e90528ea-fae1-11ed-90ce-dac502259ad0.gif

這就是由新加坡國(guó)立大學(xué)和香港中文大學(xué)共同完成的最新研究,團(tuán)隊(duì)將項(xiàng)目取名為MinD-Video。

e914e28a-fae1-11ed-90ce-dac502259ad0.png

Cinematic Mindscapes: High-quality Video Reconstruction from Brain Activity 主頁(yè):https://mind-video.com/ 論文:https://arxiv.org/abs/2305.11675 代碼:https://github.com/jqin4749/MindVideo

這波操作,宛如科幻電影《超體》中Lucy讀取反派大佬記憶一般:

e91f001c-fae1-11ed-90ce-dac502259ad0.gif

引得網(wǎng)友直呼:

推動(dòng)人工智能和神經(jīng)科學(xué)的前沿。

e94a5302-fae1-11ed-90ce-dac502259ad0.png

值得一提的是,大火的Stable Diffusion也在這次研究中立了不小的功勞。

e9588300-fae1-11ed-90ce-dac502259ad0.png

怎么做到的?

從大腦活動(dòng)中重建人類視覺(jué)任務(wù),尤其是功能磁共振成像技術(shù)(fMRI)這種非侵入式方法,一直是受到學(xué)界較多的關(guān)注。

因?yàn)轭愃七@樣的研究,有利于理解我們的認(rèn)知過(guò)程。

但以往的研究都主要聚焦在重建靜態(tài)圖像,而以高清視頻形式來(lái)展現(xiàn)的工作還是較為有限。

之所以會(huì)如此,是因?yàn)榕c重建一張靜態(tài)圖片不同,我們視覺(jué)所看到的場(chǎng)景、動(dòng)作和物體的變化是連續(xù)、多樣化的。

而fMRI這項(xiàng)技術(shù)的本質(zhì)是測(cè)量血氧水平依賴(BOLD)信號(hào),并且在每隔幾秒鐘的時(shí)間里捕捉大腦活動(dòng)的快照。

相比之下,一個(gè)典型的視頻每秒大約包含30幀畫面,如果要用fMRI去重建一個(gè)2秒的視頻,就需要呈現(xiàn)起碼60幀。

因此,這項(xiàng)任務(wù)的難點(diǎn)就在于解碼fMRI并以遠(yuǎn)高于fMRI時(shí)間分辨率的FPS恢復(fù)視頻。

為了彌合圖像和視頻大腦解碼之間差距,研究團(tuán)隊(duì)便提出了MinD-Video的方法。

整體來(lái)看,這個(gè)方法主要包含兩大模塊,它們分別做訓(xùn)練,然后再在一起做微調(diào)。

e96f0e18-fae1-11ed-90ce-dac502259ad0.png

這個(gè)模型從大腦信號(hào)中逐步學(xué)習(xí),在第一個(gè)模塊多個(gè)階段的過(guò)程,可以獲得對(duì)語(yǔ)義空間的更深入理解。

具體而言,便是先利用大規(guī)模無(wú)監(jiān)督學(xué)習(xí)與mask brain modeling(MBM)來(lái)學(xué)習(xí)一般的視覺(jué)fMRI特征。

然后,團(tuán)隊(duì)使用標(biāo)注數(shù)據(jù)集的多模態(tài)提取語(yǔ)義相關(guān)特征,在對(duì)比語(yǔ)言-圖像預(yù)訓(xùn)練(CLIP)空間中使用對(duì)比學(xué)習(xí)訓(xùn)練fMRI編碼器。

在第二個(gè)模塊中,團(tuán)隊(duì)通過(guò)與增強(qiáng)版Stable Diffusion模型的共同訓(xùn)練來(lái)微調(diào)學(xué)習(xí)到的特征,這個(gè)模型是專門為fMRI技術(shù)下的視頻生成量身定制的。

如此方法之下,團(tuán)隊(duì)也與此前的諸多研究做了對(duì)比,可以明顯地看到MinD-Video方法所生成的圖片、視頻質(zhì)量要遠(yuǎn)優(yōu)于其它方法。

e97b83f0-fae1-11ed-90ce-dac502259ad0.png

而且在場(chǎng)景連續(xù)變化的過(guò)程中,也能夠呈現(xiàn)高清、有意義的連續(xù)幀。

e98d88ac-fae1-11ed-90ce-dac502259ad0.png

研究團(tuán)隊(duì)

這項(xiàng)研究的共同一作,其中一位是來(lái)自新加坡國(guó)立大學(xué)的博士生Zijiao Chen,目前在該校的神經(jīng)精神疾病多模式神經(jīng)成像實(shí)驗(yàn)室(MNNDL_Lab)。

另一位一作則是來(lái)自香港中文大學(xué)的Jiaxin Qing,就讀專業(yè)是信息工程系。

除此之外,通訊作者是新加坡國(guó)立大學(xué)副教授Juan Helen ZHOU。

據(jù)了解,這次的新研究是他們團(tuán)隊(duì)在此前一項(xiàng)名為MinD-Vis的功能磁共振成像圖像重建工作的延伸。

MinD-Vis已經(jīng)被CVPR 2023所接收。

e99ee28c-fae1-11ed-90ce-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30998

    瀏覽量

    269302
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47352

    瀏覽量

    238771
  • 視覺(jué)
    +關(guān)注

    關(guān)注

    1

    文章

    147

    瀏覽量

    23972

原文標(biāo)題:驚!大腦視覺(jué)信號(hào)被Stable Diffusion復(fù)現(xiàn)成視頻!"AI讀腦術(shù)"又來(lái)了!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?112次閱讀
    如何開啟<b class='flag-5'>Stable</b> <b class='flag-5'>Diffusion</b> WebUI模型推理部署

    HDMI光端機(jī):打造高清視頻信號(hào)傳輸?shù)臉蛄?/a>

    在當(dāng)今這個(gè)追求高清畫質(zhì)與極致視覺(jué)體驗(yàn)的時(shí)代,HDMI信號(hào)傳輸?shù)馁|(zhì)量與穩(wěn)定性成為了眾多行業(yè)關(guān)注的焦點(diǎn)。無(wú)論是網(wǎng)絡(luò)平板顯示、大屏幕幕墻顯示廣告工程,還是工業(yè)自動(dòng)化控制、醫(yī)療設(shè)備、安防監(jiān)控以及多媒體教學(xué)等
    的頭像 發(fā)表于 11-28 09:17 ?333次閱讀

    常見的視頻接口有哪些

    。它是一種廣泛使用的視頻接口標(biāo)準(zhǔn),也叫做基帶視頻或RCA視頻。CVBS接口以模擬波形來(lái)傳輸數(shù)據(jù),包含色差(色調(diào)和飽和度)和亮度(光亮)信息,并將它們同步在消隱脈沖中,用同一
    的頭像 發(fā)表于 10-09 15:58 ?737次閱讀

    PCB視頻板 —— 開啟視覺(jué)盛宴的關(guān)鍵之匙

    PCB 視頻板是一種專門用于處理視頻信號(hào)的印制電路板。它作為電子元器件的支撐體和電氣連接的載體 ,主要功能是承載與視頻處理相關(guān)的電子元件,如視頻信號(hào)處理器、解碼器、編碼器等。通過(guò)其上面
    的頭像 發(fā)表于 09-06 14:18 ?138次閱讀

    示波器的波形存儲(chǔ)與復(fù)現(xiàn),再也不怕瞬時(shí)信號(hào)抓不住了

    示波器和虛擬USB示波器來(lái)進(jìn)行。Chrent臺(tái)式示波器的波形存儲(chǔ)與復(fù)現(xiàn)使用信號(hào)源模擬一個(gè)測(cè)信號(hào)。通過(guò)BNC線將這個(gè)信號(hào)連接到示波器上。在示
    的頭像 發(fā)表于 09-05 08:06 ?2208次閱讀
    示波器的波形存儲(chǔ)與<b class='flag-5'>復(fù)現(xiàn)</b>,再也不怕瞬時(shí)<b class='flag-5'>信號(hào)</b>抓不住了

    實(shí)操: 如何在AirBox上跑Stable Diffusion 3

    StableDiffusion3Medium是一種多模態(tài)擴(kuò)散變換器(MMDiT)文本到圖像模型,在圖像質(zhì)量、排版、復(fù)雜提示理解和資源效率方面具有顯著提升的性能。目前瑞莎團(tuán)隊(duì)使用StableDiffusion3Medium開源模型,通過(guò)SOPHONSDK移植到SG2300X處理器系列產(chǎn)品上進(jìn)行本地TPU硬件加速推理,實(shí)現(xiàn)在radxaAirbox上離線快速生成特
    的頭像 發(fā)表于 07-23 08:34 ?262次閱讀
    實(shí)操: 如何在AirBox上跑<b class='flag-5'>Stable</b> <b class='flag-5'>Diffusion</b> 3

    STM32F4在APP運(yùn)行時(shí)導(dǎo)致IAP程序修改怎么解決?

    IAP程序修改無(wú)法運(yùn)行,導(dǎo)致過(guò)程IAP卡死。 已驗(yàn)證該錯(cuò)誤發(fā)生在APP程序(地址0x08020000)中,僅IAP程序的首地址0x08000000和0x08000004兩個(gè)數(shù)據(jù)改寫,且每次復(fù)現(xiàn)
    發(fā)表于 05-17 09:32

    怎樣檢測(cè)測(cè)電路的差分信號(hào)和單端信號(hào)?

    在檢測(cè)電路信號(hào)之前,首先要知道什么是測(cè)電路,什么是測(cè)信號(hào)。盲目測(cè)試或使用不正確的測(cè)量方法可能會(huì)導(dǎo)致錯(cuò)誤的波形甚至損壞儀器,危及安全。 1、差分
    的頭像 發(fā)表于 03-26 11:00 ?797次閱讀
    怎樣檢測(cè)<b class='flag-5'>被</b>測(cè)電路的差分<b class='flag-5'>信號(hào)</b>和單端<b class='flag-5'>信號(hào)</b>?

    UL Procyon AI 發(fā)布圖像生成基準(zhǔn)測(cè)試,基于Stable Diffusion

    UL去年發(fā)布的首個(gè)Windows版Procyon AI推理基準(zhǔn)測(cè)試,以計(jì)算機(jī)視覺(jué)工作負(fù)載評(píng)估AI推理性能。新推出的圖像生成測(cè)試將提供統(tǒng)一、精確且易于理解的工作負(fù)載,用以保證各支持硬件間公平、可比的性能表現(xiàn)。
    的頭像 發(fā)表于 03-25 16:16 ?897次閱讀

    Stability AI推出全新Stable Video 3D模型

    近日,Stability AI 推出了全新的 Stable Video 3D 模型,該模型以其獨(dú)特的功能吸引了眾多關(guān)注。此模型具備從單張圖像中生成多視圖3D視頻的能力,為視頻制作領(lǐng)域帶來(lái)了革命性的突破。
    的頭像 發(fā)表于 03-22 10:30 ?864次閱讀

    Stability AI推出Stable Video 3D模型,可制作多視角3D視頻

    SV3D_u是Stable Video 3D的一個(gè)版本,僅需單幅圖片即可生成運(yùn)動(dòng)軌跡視頻,無(wú)須進(jìn)行相機(jī)調(diào)整。擴(kuò)充版本的SV3D_p加入了軌道視圖的特性,使其可以根據(jù)預(yù)設(shè)的相機(jī)路徑創(chuàng)建3D視頻。
    的頭像 發(fā)表于 03-21 14:57 ?1036次閱讀

    韓國(guó)科研團(tuán)隊(duì)發(fā)布新型AI圖像生成模型KOALA,大幅優(yōu)化硬件需求

    由此模型的核心在于其運(yùn)用了“知識(shí)蒸餾”(knowledge distillation)技術(shù),這使得開源圖像生成工具Stable Diffusion XL可大幅縮小其規(guī)模。原Stable Dif
    的頭像 發(fā)表于 03-01 14:10 ?644次閱讀

    OpenAI視頻模型Sora的架構(gòu)及應(yīng)用場(chǎng)景

    LDM 就是 Stable Diffusion 使用的模型架構(gòu)。擴(kuò)散模型的一大問(wèn)題是計(jì)算需求大,難以擬合高分辨率圖像。為了解決這一問(wèn)題,實(shí)現(xiàn) LDM時(shí),會(huì)先訓(xùn)練一個(gè)幾乎能無(wú)損壓縮圖像的自編碼器,能把 512x512 的真實(shí)圖像壓縮成 64x64 的壓縮圖像并還原。
    發(fā)表于 02-20 15:13 ?654次閱讀
    OpenAI<b class='flag-5'>視頻</b>模型Sora的架構(gòu)及應(yīng)用場(chǎng)景

    Stability AI試圖通過(guò)新的圖像生成人工智能模型保持領(lǐng)先地位

    Stability AI的最新圖像生成模型Stable Cascade承諾比其業(yè)界領(lǐng)先的前身Stable Diffusion更快、更強(qiáng)大,而Stable
    的頭像 發(fā)表于 02-19 16:03 ?953次閱讀
    Stability AI試圖通過(guò)新的圖像生成人工智能模型保持領(lǐng)先地位

    機(jī)器視覺(jué)軟件有哪些 機(jī)器視覺(jué)軟件的優(yōu)點(diǎn)

    機(jī)器視覺(jué)軟件是一種利用計(jì)算機(jī)視覺(jué)技術(shù)來(lái)模擬和彌補(bǔ)人眼視覺(jué)功能的軟件系統(tǒng)。它可以通過(guò)對(duì)圖像和視頻進(jìn)行分析,識(shí)別和理解目標(biāo)物體,以實(shí)現(xiàn)自動(dòng)化和智能化的任務(wù)。機(jī)器
    的頭像 發(fā)表于 02-02 10:53 ?1617次閱讀