0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器人接入大模型直接聽懂人話,日常操作輕松完成!

CVer ? 來源:量子位(QbitAI) ? 2023-07-11 14:31 ? 次閱讀

李飛飛團隊具身智能最新成果來了:

大模型接入機器人,把復雜指令轉化成具體行動規(guī)劃,無需額外數(shù)據(jù)和訓練。

42ef34d6-1fa9-11ee-962d-dac502259ad0.png

從此,人類可以很隨意地用自然語言給機器人下達指令,如:

打開上面的抽屜,小心花瓶!

430c81c6-1fa9-11ee-962d-dac502259ad0.gif

大語言模型+視覺語言模型就能從3D空間中分析出目標和需要繞過的障礙,幫助機器人做行動規(guī)劃。

480c09b2-1fa9-11ee-962d-dac502259ad0.gif

然后重點來了,真實世界中的機器人在未經(jīng)“訓練”的情況下,就能直接執(zhí)行這個任務。

4b43432a-1fa9-11ee-962d-dac502259ad0.gif

新方法實現(xiàn)了零樣本的日常操作任務軌跡合成,也就是機器人從沒見過的任務也能一次執(zhí)行,連給他做個示范都不需要。

可操作的物體也是開放的,不用事先劃定范圍,開瓶子、按開關、拔充電線都能完成。

4e6515ec-1fa9-11ee-962d-dac502259ad0.gif

目前項目主頁和論文都已上線,代碼即將推出,并且已經(jīng)引起學術界廣泛興趣。

4fd5cbba-1fa9-11ee-962d-dac502259ad0.png

論文地址:
https://voxposer.github.io/voxposer.pdf
項目主頁:
https://voxposer.github.io/

一位前微軟研究員評價到:這項研究走在了人工智能系統(tǒng)最重要和最復雜的前沿。

4ffd5dba-1fa9-11ee-962d-dac502259ad0.png

具體到機器人研究界也有同行表示:給運動規(guī)劃領域開辟了新世界。

5009c104-1fa9-11ee-962d-dac502259ad0.png

還有本來沒看到AI危險性的人,因為這項AI結合機器人的研究而改變看法。

501ed6de-1fa9-11ee-962d-dac502259ad0.png

機器人如何直接聽懂人話?

李飛飛團隊將該系統(tǒng)命名為VoxPoser,如下圖所示,它的原理非常簡單。

502fe406-1fa9-11ee-962d-dac502259ad0.png

首先,給定環(huán)境信息(用相機采集RGB-D圖像)和我們要執(zhí)行的自然語言指令。

接著,LLM(大語言模型)根據(jù)這些內容編寫代碼,所生成代碼與VLM(視覺語言模型)進行交互,指導系統(tǒng)生成相應的操作指示地圖,即3D Value Map。

5072ff8e-1fa9-11ee-962d-dac502259ad0.png

所謂3D Value Map,它是Affordance Map和Constraint Map的總稱,既標記了“在哪里行動”,也標記了“如何行動”。

509f2276-1fa9-11ee-962d-dac502259ad0.png

如此一來,再搬出動作規(guī)劃器,將生成的3D地圖作為其目標函數(shù),便能夠合成最終要執(zhí)行的操作軌跡了。

而從這個過程我們可以看到,相比傳統(tǒng)方法需要進行額外的預訓練,這個方法用大模型指導機器人如何與環(huán)境進行交互,所以直接解決了機器人訓練數(shù)據(jù)稀缺的問題。

更進一步,正是由于這個特點,它也實現(xiàn)了零樣本能力,只要掌握了以上基本流程,就能hold任何給定任務。

在具體實現(xiàn)中,作者將VoxPoser的思路轉化為一個優(yōu)化問題,即下面這樣一個復雜的公式:

50f7ae78-1fa9-11ee-962d-dac502259ad0.png

它考慮到了人類下達的指令可能范圍很大,并且需要上下文理解,于是將指令拆解成很多子任務,比如開頭第一個示例就由“抓住抽屜把手”和“拉開抽屜”組成。

VoxPoser要實現(xiàn)的就是優(yōu)化每一個子任務,獲得一系列機器人軌跡,最終最小化總的工作量和工作時間。

而在用LLM和VLM將語言指令映射為3D地圖的過程中,系統(tǒng)考慮到語言可以傳達豐富的語義空間,便利用“感興趣的實體(entity of interest)”來引導機器人進行操作,也就是通過3DValue Map中標記的值來反應哪個物體是對它具有“吸引力”的,那些物體是具有“排斥性”。

510f2ba2-1fa9-11ee-962d-dac502259ad0.png

還是以開頭的例子舉,抽屜就是“吸引”的,花瓶是“排斥”的。

當然,這些值如何生成,就靠大語言模型的理解能力了。

而在最后的軌跡合成過程中,由于語言模型的輸出在整個任務中保持不變,所以我們可以通過緩存其輸出,并使用閉環(huán)視覺反饋重新評估生成的代碼,從而在遇到干擾時快速進行重新規(guī)劃。

因此,VoxPoser有著很強的抗干擾能力。

?

51468480-1fa9-11ee-962d-dac502259ad0.gif

?△ 將廢紙放進藍色托盤

以下分別是VoxPoser在真實和模擬環(huán)境中的表現(xiàn)(衡量指標為平均成功率):

575ebaae-1fa9-11ee-962d-dac502259ad0.png

可以看到,無論是哪種環(huán)境哪種情況(有無干擾、指令是否可見),它都顯著高于基于原語的基線任務。

最后,作者還驚喜地發(fā)現(xiàn),VoxPoser產(chǎn)生了4個“涌現(xiàn)能力”:

(1)評估物理特性,比如給定兩個質量未知的方塊,讓機器人使用工具進行物理實驗,確定哪個塊更重;

(2)行為常識推理,比如在擺餐具的任務中,告訴機器人“我是左撇子”,它就能通過上下文理解其含義;

(3)細粒度校正,比如執(zhí)行“給茶壺蓋上蓋子”這種精度要求較高的任務時,我們可以向機器人發(fā)出“你偏離了1厘米”等精確指令來校正它的操作;

(4)基于視覺的多步操作,比如叫機器人將抽屜精準地打開成一半,由于沒有對象模型導致的信息不足可能讓機器人無法執(zhí)行這樣的任務,但VoxPoser可以根據(jù)視覺反饋提出多步操作策略,即首先完全打開抽屜同時記錄手柄位移,然后將其推回至中點就可以滿足要求了。

578669e6-1fa9-11ee-962d-dac502259ad0.png

李飛飛:計算機視覺的3顆北極星

大約一年前,李飛飛在美國文理學會會刊上撰文,指出計算機視覺發(fā)展的三個方向:

具身智能(Embodied AI)

視覺推理(Visual Reasoning)

場景理解(Scene Understanding)

57ab97ac-1fa9-11ee-962d-dac502259ad0.png

李飛飛認為,具身智能不單指人形機器人,任何能在空間中移動的有形智能機器都是人工智能的一種形式。

正如ImageNet旨在表示廣泛且多樣化的現(xiàn)實世界圖像一樣,具身智能研究也需要解決復雜多樣的人類任務,從疊衣服到探索新城市。

遵循指令執(zhí)行這些任務需要視覺,但需要的不僅僅是視覺,也需要視覺推理理解場景中的三維關系。

最后機器還要做到理解場景中的人,包括人類意圖和社會關系。比如看到一個人打開冰箱能判斷出他餓了,或者看到一個小孩坐在大人腿上能判斷出他們是親子關系。

機器人結合大模型可能正是解決這些問題的一個途徑。

57bf5a6c-1fa9-11ee-962d-dac502259ad0.png

除李飛飛外,參與本次研究的還有清華姚班校友吳佳俊,博士畢業(yè)于MIT,現(xiàn)為斯坦福大學助理教授。

論文一作Wenlong Huang現(xiàn)為斯坦福博士生,在谷歌實習期間參與了PaLM-E研究。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    211

    文章

    28565

    瀏覽量

    207712
  • 語言模型
    +關注

    關注

    0

    文章

    533

    瀏覽量

    10300
  • 大模型
    +關注

    關注

    2

    文章

    2514

    瀏覽量

    2929

原文標題:李飛飛團隊「具身智能」新成果!機器人接入大模型直接聽懂人話,日常操作輕松完成!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎模塊

    非常重要的地位。 先說這個自主機器人的計算系統(tǒng)。計算系統(tǒng)是自主機器人的關鍵部件。自主機器人通過智能計算系統(tǒng)與物理世界交互,自主地完成任務。通常會包括幾個關鍵的模塊,分別是傳感模塊,感知
    發(fā)表于 01-04 19:22

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    閱讀《具身智能機器人系統(tǒng)》第10-13章,我對具身智能機器人的工程實踐有了全新認識。第10章從實時性角度剖析了機器人計算加速問題。機器人定位中的SLAM算法需要處理兩個計算密集型任務:
    發(fā)表于 01-04 01:15

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人模型

    、醫(yī)療、服務等領域的應用前景更加廣闊,也使得人類能夠更輕松地借助機器完成復雜工作。我深刻認識到,大模型技術正在從根本上改變我們對機器人能力的
    發(fā)表于 12-29 23:04

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    與未來,涵蓋如基于行為的人工智能、生物啟發(fā)的進化人工智能及認知機器人技術的發(fā)展。這一歷史背景為隨后的大模型驅動的具身智能討論奠定了基礎,隨著人工智能模型復雜性和能力的不斷提升,這一主題也變得愈加
    發(fā)表于 12-28 21:12

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.全書概覽與第一章學習

    非常感謝電子發(fā)燒友提供的這次書籍測評活動!最近,我一直在學習大模型和人工智能的相關知識,深刻體會到機器人技術是一個極具潛力的未來方向,甚至可以說是推動時代變革的重要力量。能參與這次活動并有機會深入
    發(fā)表于 12-27 14:50

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    研讀《具身智能機器人系統(tǒng)》第7-9章,我被書中對大模型機器人技術融合的深入分析所吸引。第7章詳細闡述了ChatGPT for Robotics的核心技術創(chuàng)新:它摒棄了傳統(tǒng)的分層控制架構,創(chuàng)造性地
    發(fā)表于 12-24 15:03

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    提高機器人的自適應性和自主性,賦能機器人在多種場景中的應用。例如在家庭自動化領域,具身智能機器人能夠感知家庭成員的日常習慣和需求,自動執(zhí)行清潔、整理或其他家務任務。它們通過觀察家庭成員
    發(fā)表于 12-20 19:17

    構建語音控制機器人 - 線性模型機器學習

    2024-07-31 |Annabel Ng 在該項目的[上一篇博客文章]中,我介紹了運行機器人電機、處理音頻信號和調節(jié)電壓所需的電路的基礎知識。然而,機器人還沒有完全完成!盡管機器人
    的頭像 發(fā)表于 10-02 16:31 ?238次閱讀
    構建語音控制<b class='flag-5'>機器人</b> - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機器</b>學習

    工業(yè)機器人常用的編程方式

    機器人完成特定的任務。編程可以手動完成,也可以通過計算機輔助設計(CAD)軟件自動生成。編程方式的選擇取決于任務的復雜性、機器人的類型、以及所需的靈活性和效率。 1. 手動編程 1.1
    的頭像 發(fā)表于 09-04 09:26 ?977次閱讀

    Al大模型機器人

    金航標kinghelm薩科微slkor總經(jīng)理宋仕強介紹說,薩科微Al大模型機器人有哪些的優(yōu)勢?薩科微AI大模型機器人由清華大學畢業(yè)的天才少年N博士和王博士團隊開發(fā),與同行相比具有許多優(yōu)
    發(fā)表于 07-05 08:52

    優(yōu)必選宣布人形機器人Walker S接入百度文心大模型

    優(yōu)必選宣布人形機器人Walker S接入百度文心大模型,共同探索中國AI大模型+人形機器人的應用。
    的頭像 發(fā)表于 04-07 10:17 ?941次閱讀

    英偉達發(fā)布人形機器人基礎模型

    英偉達在一年一度的GTC開發(fā)者大會上,由創(chuàng)始黃仁勛親自揭曉了令人矚目的Project GR00T人形機器人項目,其中引人注目的是一款全新的人形機器人基礎模型。這款
    的頭像 發(fā)表于 03-21 11:43 ?802次閱讀

    Figure首發(fā)OpenAI大模型加持的機器人

    近日,機器人初創(chuàng)公司Figure在業(yè)界引起了廣泛關注,該公司成功發(fā)布了首個由OpenAI大模型加持的機器人demo。這一創(chuàng)新成果不僅展示了Figure在機器人技術領域的深厚實力,也為整
    的頭像 發(fā)表于 03-16 14:21 ?1139次閱讀

    字節(jié)發(fā)布機器人領域首個開源視覺-語言操作模型,激發(fā)開源VLMs更大潛能

    對此,ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機器人操作模型,只用單機就可以訓練。
    的頭像 發(fā)表于 01-23 16:02 ?559次閱讀
    字節(jié)發(fā)布<b class='flag-5'>機器人</b>領域首個開源視覺-語言<b class='flag-5'>操作</b>大<b class='flag-5'>模型</b>,激發(fā)開源VLMs更大潛能

    機器人基于開源的多模態(tài)語言視覺大模型

    ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機器人操作模型,只用單機就可以訓練。
    發(fā)表于 01-19 11:43 ?431次閱讀
    <b class='flag-5'>機器人</b>基于開源的多模態(tài)語言視覺大<b class='flag-5'>模型</b>