0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

研發(fā)全新多模態(tài)感知AI框架 AI能同時模擬人眼和手預(yù)測物體運(yùn)動

工程師鄧生 ? 來源:VentureBeat ? 作者:VentureBeat ? 2021-02-12 09:12 ? 次閱讀

據(jù)外媒VentureBeat報道,來自三星、麥吉爾大學(xué)和約克大學(xué)的研究人員,近日研發(fā)出一個全新的生成式多模態(tài)感知AI框架,能夠根據(jù)物體初始狀態(tài)的視覺和觸覺數(shù)據(jù),來預(yù)測出物體的運(yùn)動趨勢。

據(jù)悉,這是第一個利用視覺和觸覺感知來學(xué)習(xí)多模態(tài)動力學(xué)模型的研究。

運(yùn)動預(yù)測是自動化領(lǐng)域的一大關(guān)鍵技術(shù),通過預(yù)判物體和環(huán)境的交互方式,自動化系統(tǒng)得以作出更加智能的決策。該團(tuán)隊的這項研究,似乎又將這一技術(shù)的應(yīng)用向前推進(jìn)了一步。

這篇論文名為《基于多模態(tài)的生成模型指導(dǎo)的直觀物理研究(Learning Intuitive Physics with Multimodal Generative Models)》,已發(fā)表于arXiv平臺。

論文鏈接:

https://arxiv.org/pdf/2101.04454.pdf

一、運(yùn)動預(yù)測有挑戰(zhàn):摩擦力、壓力難確定

假如你要接住一個掉落的物體,你會迅速判斷它的運(yùn)動走向,然后準(zhǔn)確接住它。

但對于一個機(jī)器人來說,要準(zhǔn)確預(yù)測出物體還未發(fā)生的運(yùn)動趨勢,可不是一件容易的事。

近期,不少運(yùn)動預(yù)測方面的AI研究,都指出了觸覺和視覺之間的協(xié)同作用。

其中,觸覺數(shù)據(jù)可以反映物體和環(huán)境間的作用力、由此產(chǎn)生的物體運(yùn)動和環(huán)境接觸等關(guān)鍵信息,提供一種展現(xiàn)物體與環(huán)境交互過程的整體視角;視覺數(shù)據(jù)則可以直觀反映了立體形狀、位置等物體屬性。

在本文研究人員看來,視覺、觸覺信號的組合,或有助于推測出物體運(yùn)動后的最終穩(wěn)定狀態(tài)。

研究人員在論文寫道:“先前的研究表明,由于摩擦力、幾何特性、壓力分布存在不確定性,預(yù)測運(yùn)動對象的軌跡具有挑戰(zhàn)性。”

比如推一個瓶子,如何準(zhǔn)確預(yù)測這個動作的結(jié)果,接下來這個瓶子是會向前移動,還是會翻倒?

▲《基于多模態(tài)的生成模型指導(dǎo)的直觀物理研究(Learning Intuitive Physics with Multimodal Generative Models)》論文插圖

為了減少這種不確定性,研究團(tuán)隊設(shè)計并實現(xiàn)了一個由軟硬件組成的高質(zhì)量AI感知系統(tǒng),經(jīng)訓(xùn)練后,該系統(tǒng)能捕獲到運(yùn)動軌跡中最關(guān)鍵、最穩(wěn)定的元素,從而準(zhǔn)確測量和預(yù)測物體落在表面上的最終靜止?fàn)顟B(tài)。

二、開發(fā)新型視覺觸覺傳感器,打造多模態(tài)感知系統(tǒng)

動態(tài)預(yù)測常被表述為一個高分辨率的時間問題,但在此項研究中,研究人員關(guān)注的是物體運(yùn)動后的最終結(jié)果,而不是預(yù)測細(xì)粒度的物體運(yùn)動軌跡。

研究人員認(rèn)為,關(guān)注未來關(guān)鍵時間的結(jié)果,有助于大大提高模型預(yù)測的準(zhǔn)確度和可靠性。

該研究團(tuán)隊開發(fā)了一款名為“透視肌膚(STS,See-Through-Your-Skin)”的新型視覺-觸覺多模態(tài)傳感器,可以同時捕捉物體的視覺和觸覺特征數(shù)據(jù),并重建在1640×1232的高分辨率圖像中。

由于光學(xué)觸覺傳感器通常使用不透明和反光的涂料涂層,研究人員開發(fā)了一種具有可控透明度的薄膜,使得傳感器能同時采集關(guān)于物理交互的觸覺信息和傳感器外部世界的視覺信息。

具體而言,研究人員通過改變STS傳感器的內(nèi)部照明條件,來控制傳感器的觸覺和視覺測量的占空比,從而設(shè)置了反光涂料層的透明度。

如上圖左上角所示,利用內(nèi)部照明可將傳感器表面變成透明,從而使得傳感器內(nèi)置攝像頭能直接采集傳感器外部世界的圖像;上圖的左下角顯示,傳感器也可以保持內(nèi)外一致的亮度,通過感知膜形變來采集物理交互觸覺信息。

借助STS傳感器和PyBullet模擬器,研究人員在動態(tài)場景中快速生成大量物體交互的視覺觸覺數(shù)據(jù)集,用于驗證其感知系統(tǒng)的性能。

受多模態(tài)變分自編碼器(MVAE)啟發(fā),研究團(tuán)隊設(shè)計了一個生成式多模態(tài)感知系統(tǒng),在一個統(tǒng)一的MVAE框架內(nèi)集成了視覺、觸覺和3D Pose反饋。

MVAE可以解讀STS傳感器采集的視覺、觸覺數(shù)據(jù),將所有模態(tài)的物體關(guān)鍵信息映射到一個共享的嵌入空間,用于推斷物體在運(yùn)動后最終的穩(wěn)定狀態(tài)。

實驗結(jié)果表明,MVAE架構(gòu)可以被訓(xùn)練用于預(yù)測多模態(tài)運(yùn)動軌跡中最穩(wěn)定和信息最豐富的元素。

三、不懼單一模態(tài)信息缺失,準(zhǔn)確預(yù)測物體未來狀態(tài)

該研究團(tuán)隊生成的視覺觸覺數(shù)據(jù)庫主要包含三種動態(tài)模擬場景,分別是物體在平面上自由落體、物體在斜面上下滑、物體在靜止?fàn)顟B(tài)下收到外力擾動。

下圖顯示了模擬三種動態(tài)場景的示例集,頂部一行顯示3D Pose視圖,中間一行、底部一行分別顯示STS傳感器采集的視覺和觸覺結(jié)果。

bf4c4d28780e42c1bb1fa5e5e9bb9665.png

研究人員在三種模擬動態(tài)場景和使用STS傳感器的真實實驗場景中,分別驗證了其動力學(xué)模型的預(yù)測能力。

如下方圖表顯示,在三種模擬場景中的固定步和最終步預(yù)測中,相比僅依賴視覺(VAE-visual only)或僅依賴觸覺(VAE-tactile only)的單模態(tài)感知模型,多模態(tài)感知模型(MVAE)在驗證集中的二進(jìn)制交叉熵誤差(BCE)均值更小,即預(yù)測結(jié)果的準(zhǔn)確性更高。

a8d1bf13e33c4f2d8ab42254125e4be3.png

研究人員還用基于高時間分辨率的模型進(jìn)行對比實驗,發(fā)現(xiàn)這一模型在預(yù)測物體最終靜止?fàn)顟B(tài)時,準(zhǔn)確性要高于動態(tài)模型。這是由于不確定性和錯誤會隨著時間前向傳播,導(dǎo)致模糊和不精確的預(yù)測。

結(jié)果表明,在對中間狀態(tài)不感興趣的動態(tài)場景中,該AI框架能以更高的準(zhǔn)確度來預(yù)測最終結(jié)果,而無需明確推理中間步驟。

此外,由于該研究方法破譯了觸覺、視覺、物體姿態(tài)之間的映射關(guān)系,因此即便某一模態(tài)信息缺失,比如缺乏觸覺信息時,該框架仍然可以從視覺信息推測出視覺信息,從而預(yù)測物體運(yùn)動后的最終落點(diǎn)。

135dbc0e477d4786b31a1c0ce71f9121.png

結(jié)語:制造業(yè)自動化將是運(yùn)動預(yù)測的一大應(yīng)用場景

該研究團(tuán)隊的這項新成果能夠基于觸覺、視覺的雙模態(tài)數(shù)據(jù)對物體的運(yùn)動軌跡進(jìn)行預(yù)判,并推測出物體的最終靜止?fàn)顟B(tài)。

相較于以往的運(yùn)動預(yù)測技術(shù),該研究團(tuán)隊實現(xiàn)了觸覺和視覺數(shù)據(jù)的雙向推測,為制造業(yè)的自動化場景提供了更多的可能性。

比如,揀貨機(jī)器人能夠更準(zhǔn)確地判斷貨物的運(yùn)動狀態(tài),從而提高拾取精度;貨架機(jī)器人能夠提前預(yù)判貨物的運(yùn)動軌跡,從而防止貨物跌落破損,減少損失。

不過,這項成果能夠預(yù)測的運(yùn)動狀態(tài)還相對有限,我們期待研究團(tuán)隊對復(fù)雜的運(yùn)動模式、多樣的物體形態(tài)進(jìn)行更多的模擬和技術(shù)攻關(guān)。

責(zé)任編輯:PSY

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30947

    瀏覽量

    269216
  • 自動化
    +關(guān)注

    關(guān)注

    29

    文章

    5585

    瀏覽量

    79323
  • 智能感知
    +關(guān)注

    關(guān)注

    2

    文章

    98

    瀏覽量

    17791
  • 運(yùn)動物體
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    6733
收藏 人收藏

    評論

    相關(guān)推薦

    超越人類視覺!昱感微“多維像素”模態(tài)超級攝像頭方案產(chǎn)品賦超凡感知

    視覺——人只能感知所見目標(biāo)大概的距離/位置/速度以及外觀信息,并且受到天氣、光線等因素影響較大;昱感微“多維像素”模態(tài)感知方案的超級攝像
    的頭像 發(fā)表于 12-12 17:17 ?184次閱讀
    超越人類視覺!昱感微“多維像素”<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>超級攝像頭方案產(chǎn)品賦<b class='flag-5'>能</b>超凡<b class='flag-5'>感知</b>力

    高通與智譜推動模態(tài)生成式AI體驗的終端側(cè)部署

    此前,驍龍峰會首日,智譜與高通技術(shù)公司宣布合作將GLM-4V端側(cè)視覺大模型,面向驍龍8至尊版進(jìn)行深度適配和推理優(yōu)化,支持豐富的模態(tài)交互方式,進(jìn)一步推動模態(tài)生成式
    的頭像 發(fā)表于 11-08 09:55 ?188次閱讀

    蘋果發(fā)布300億參數(shù)模態(tài)AI大模型MM1.5

    蘋果近日推出了全新模態(tài)AI大模型MM1.5,該模型擁有高達(dá)300億的參數(shù)規(guī)模,是在前代MM1架構(gòu)的基礎(chǔ)上進(jìn)一步發(fā)展而來的。
    的頭像 發(fā)表于 10-14 15:50 ?275次閱讀

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    研究的進(jìn)程。從蛋白質(zhì)結(jié)構(gòu)預(yù)測到基因測序與編輯,再到藥物研發(fā),人工智能技術(shù)在生命科學(xué)的各個層面都發(fā)揮著重要作用。特別是像AlphaFold這樣的工具,成功解決了困擾生物學(xué)界半個世紀(jì)的蛋白質(zhì)折疊問題,將
    發(fā)表于 10-14 09:21

    智譜AI發(fā)布全新模態(tài)開源模型GLM-4-9B

    近日,智譜AI在人工智能領(lǐng)域取得重大突破,成功推出全新開源模型GLM-4-9B。這款模型以其卓越的模態(tài)能力,再次刷新了業(yè)界對于大型語言模型的認(rèn)識。
    的頭像 發(fā)表于 06-07 09:17 ?752次閱讀

    Build 2024發(fā)布多項Azure AI Speech全新模態(tài)功能

    客戶們持續(xù)使用 Azure OpenAI 和 Azure AI Speech 進(jìn)行創(chuàng)新,為企業(yè)引入新的效率,并構(gòu)建新的模態(tài)體驗。
    的頭像 發(fā)表于 05-28 09:08 ?577次閱讀
    Build 2024發(fā)布多項Azure <b class='flag-5'>AI</b> Speech<b class='flag-5'>全新</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>功能

    谷歌發(fā)布模態(tài)AI新品,加劇AI巨頭競爭

    在全球AI競技場上,谷歌與OpenAI一直穩(wěn)居領(lǐng)先地位。近日,谷歌在I/O開發(fā)者大會上掀起了一股新的技術(shù)浪潮,發(fā)布了多款全新升級的模態(tài)AI
    的頭像 發(fā)表于 05-16 09:28 ?455次閱讀

    李未可科技正式推出WAKE-AI模態(tài)AI大模型

    文本生成、語言理解、圖像識別及視頻生成等模態(tài)交互能力。 ? 該大模型圍繞 GPS 軌跡+視覺+語音打造新一代 LLM-Based的自然交互,同時
    發(fā)表于 04-18 17:01 ?607次閱讀
    李未可科技正式推出WAKE-<b class='flag-5'>AI</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>AI</b>大模型

    開發(fā)者手機(jī) AI - 目標(biāo)識別 demo

    應(yīng)用的demo。 應(yīng)用程序通過相機(jī)進(jìn)行預(yù)覽,對預(yù)覽畫面中的物體進(jìn)行目標(biāo)識別,目前該應(yīng)用程序支持識別100種物體。 系統(tǒng)架構(gòu) 下圖為demo應(yīng)用以及Openharmony AI子系統(tǒng)的架構(gòu)圖。 目標(biāo)
    發(fā)表于 04-11 16:14

    未來已來,傳感器融合感知是自動駕駛破局的關(guān)鍵

    駕駛的關(guān)鍵的是具備人類的感知能力,傳感器融合感知正是自動駕駛破局的關(guān)鍵。昱感微的雷視一體傳感器融合方案就好像一雙比人更敏銳的眼睛,可以
    發(fā)表于 04-11 10:26

    谷歌推出模態(tài)VLOGGER AI

    谷歌最新推出的VLOGGER AI技術(shù)引起了廣泛關(guān)注,這項創(chuàng)新的模態(tài)模型能夠讓靜態(tài)肖像圖“活”起來并“說話”。用戶只需提供一張人物肖像照片和一段音頻內(nèi)容,VLOGGER AI就能讓圖
    的頭像 發(fā)表于 03-22 10:45 ?851次閱讀

    字節(jié)跳動被曝正秘密研發(fā)多個AI產(chǎn)品

    據(jù)多位知情人士透露,科技巨頭字節(jié)跳動正在人工智能(AI)大模型領(lǐng)域秘密研發(fā)多個創(chuàng)新產(chǎn)品。其中,模態(tài)數(shù)字人產(chǎn)品備受矚目,該產(chǎn)品將結(jié)合先進(jìn)的AI
    的頭像 發(fā)表于 03-05 11:22 ?985次閱讀

    MWC2024:高通推出全新AI Hub及前沿模態(tài)大模型

    2024年世界移動通信大會(MWC)上,高通再次展現(xiàn)其技術(shù)領(lǐng)導(dǎo)力,通過發(fā)布全新的高通AI Hub和展示前沿的模態(tài)大模型技術(shù),推動了5G和AI
    的頭像 發(fā)表于 02-26 16:59 ?1278次閱讀

    阿里巴巴推出自主模態(tài)AI代理MobileAgent

    阿里巴巴最近推出了一款名為MobileAgent的自主模態(tài)AI代理,這款產(chǎn)品模擬人類操作手機(jī),并采用純視覺解決方案,無需任何系統(tǒng)代碼。
    的頭像 發(fā)表于 02-04 10:34 ?1061次閱讀

    洲明科技發(fā)布AI+顯示終端技術(shù),推動LED行業(yè)數(shù)字化、智能化升級

    AI技術(shù)快速崛起,引領(lǐng)著數(shù)字產(chǎn)業(yè)新的場景、應(yīng)用及生態(tài),同時也為LED行業(yè)帶來巨大商業(yè)機(jī)遇。為此,洲明科技提出“LED+AI”戰(zhàn)略,在技術(shù)層面,推出數(shù)字虛擬人UniAvatar、垂直
    的頭像 發(fā)表于 02-03 14:43 ?1049次閱讀