0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

UC伯克利新機器人成果:靈活自由地使用工具

jmiy_worldofai ? 來源:YXQ ? 2019-04-15 09:03 ? 次閱讀

之前我們剛剛介紹了加州大學伯克利分校 Pieter Abbeel 教授領(lǐng)導伯克利機器人學習實驗室(UC Berkeley's Robot Learning Lab)開發(fā)的會疊衣服的家務向機器人 BLUE,今天伯克利人工智能實驗室(BAIR)這邊也帶來了一項新的機器人科研成果——教會機器人使用工具完成任務。這篇論文的作者之一是知名青年機器學習研究員、谷歌大腦研究科學家ChelseaFinn,她目前正在BAIR做博士后。論文成果的介紹博客編譯如下。

一個有難度的目標:學習使用工具

在許多動物身上,使用工具的能力都來自于觀察學習和動手嘗試兩者的共同作用。比如,大猩猩可以通過觀察自己已經(jīng)掌握了技能的同伴學會如何用樹枝從白蟻窩里“釣”白蟻吃,人類也觀察到卷尾猴能夠把樹枝作為掃和撥的工具,把較遠的食物弄到他們身邊。有人也許會提出這只不過是猴子們依葫蘆畫瓢,但這篇論文的作者們認為使用工具的能力顯然體現(xiàn)了更為高級的智慧。

大猩猩釣白蟻

在這項新研究中作者們探索的問題是:我們能否讓機器人也擁有相似的使用工具的能力——通過觀察和自己動手實驗學會使用工具。

在執(zhí)行復雜的多物體控制任務時,有一項必須的要素是理解物理層面的因果關(guān)系,所以預測不同的物體之間會如何相互作用就非常關(guān)鍵。在之前的視覺深度強化學習研究(https://arxiv.org/abs/1812.00568)中,作者們已經(jīng)探究了如何在機器人與世界的無監(jiān)督交互過程中學習包含因果關(guān)系的視覺預測模型。在學習到這樣的模型之后,機器人就可以開始規(guī)劃并完成一系列簡單的任務,包括疊衣服、整理物品。不過,如果考慮到使用工具的任務中更為復雜的物理交互,比如用掃帚把塵土掃進簸箕里,非指向性的動手實驗就不夠了。

因此,考慮到動物們是如何學習的,作者們設(shè)計了一個新的算法,它可以讓機器人通過類似的模仿、互動的范式學習如何使用工具。具體來說作者們展示了,借助一組演示數(shù)據(jù)以及無監(jiān)督的動手實驗,機器人可以學會把新的物體作為工具使用,甚至可以在傳統(tǒng)工具缺失的情況下靈活使用現(xiàn)有的工具完成任務。更進一步地,根據(jù)任務要求的不同,作者們的方法還讓機器人有能力決定是否使用當前給定的工具。


作者們提出的方法讓機器人有能力學習如何把不同的物體當作工具以完成用戶給定的任務(第一行圖中用黃色箭頭標出)。任務中并沒有指定機器人必須使用給定的工具,但機器人決定使用它們。

在指導中學習視覺預測

從演示中學習

首先,作者們需要使用一個演示動作數(shù)據(jù)集,其中展示了各種不同的工具是如何使用的。由于最終的目標是希望學習到一個具有多種多樣的工具使用能力的模型,作者們采集的演示動作數(shù)據(jù)也就包含了多種不同的工具和多種不同的任務。對于每一個演示,作者們都讓機器人自己的攝像頭錄制了圖像序列和動作指令。

幾個引導運動的例子

通過這些數(shù)據(jù),作者們得到了一個模型,它可以提出把當前場景內(nèi)存在的物體作為工具的運動序列。并且,為了能夠從演示中捕捉更為豐富的行為,這個模型的輸出形式是不同動作序列的分布。

為視覺預測模型的學習收集無監(jiān)督數(shù)據(jù)

由于作者們希望機器人的行為不要局限于演示數(shù)據(jù)中出現(xiàn)的那些動作,并最終泛化到新的物體和新的情境中,他們就還需要很多不同的數(shù)據(jù)。最理想的來源當然是由機器人自己采集,而且是通過大規(guī)??赏卣沟姆绞?。比如,作者們希望機器人能夠理解抓取姿態(tài)不好之類的小錯誤對后續(xù)的動作會有什么影響,所以他們就讓機器人從現(xiàn)有的經(jīng)驗基礎(chǔ)上繼續(xù)動手實驗、繼續(xù)收集更多的數(shù)據(jù)。

具體來說,論文作者們設(shè)計了兩種不同的數(shù)據(jù)自動采集方式:一種方式是執(zhí)行隨機的動作序列,另一種是從上一節(jié)中提到的動作序列提出模型中采樣。后一種方式中,機器人可以把工具拿起來然后在空間中隨機移動它。對于學習多物體的交互方式來說,在這一環(huán)節(jié)中學習到的經(jīng)驗非常重要。

根據(jù)日常物體和工具進行無監(jiān)督交互學習

最終,作者們使用的數(shù)據(jù)集一共由這幾部分構(gòu)成:專家演示、機器人使用多種不同工具的無監(jiān)督實驗、以及BAIR機器人交互數(shù)據(jù)集中的數(shù)據(jù)。作者們用這些數(shù)據(jù)訓練了一個動態(tài)模型。模型的實現(xiàn)方式是循環(huán)卷積神經(jīng)網(wǎng)絡,它在每個時間步驟的輸入是前一副圖像和一個動作,輸出是一副生成的圖像。

在指導中學習規(guī)劃

在測試時,機器人可以使用模仿學習訓練的模型來指導規(guī)劃過程,然后用預測模型來覺得哪些動作可以讓它完成目前的任務。

新任務的創(chuàng)建需要用戶給定關(guān)鍵點的移動。比如下圖中,我們希望機器人把地上的垃圾掃到簸箕中,就在圖中選中垃圾的中心點,然后畫出希望的最終位置。用這種方式指定任務并不會告訴機器人如何使用工具,在有多種工具可以選的環(huán)境下甚至都沒有指明要用哪一種工具,機器人需要自己思考并規(guī)劃。

作者們使用了一個簡單的基于采樣的規(guī)劃過程,它會使用動作提議模型和圖像預測模型的輸出,并讓機器人有能力用多種不同的工具和物品完成多種不同的任務。具體來說,動作序列最初是從隨機采樣的,然后,根據(jù)圖像預測模型可以預測出每一種動作序列規(guī)劃的結(jié)果。

同一個初始場景中,針對不同動作序列的預測結(jié)果

通過選出當前最佳的規(guī)劃并根據(jù)它生成一個分布,系統(tǒng)可以進行反復的迭代采樣,在當前最佳的規(guī)劃的基礎(chǔ)上一直優(yōu)化改進,最后在機器人上執(zhí)行。

系統(tǒng)運行框圖

實驗

作者們對這種方法進行了實驗,讓它使用新的工具執(zhí)行用戶設(shè)定的目標。

從左到右:初始場景和任務目標;根據(jù)最佳運動規(guī)劃的預測結(jié)果;機器人的實際執(zhí)行結(jié)果

在前面提到過的清掃任務中,機器人可以抓起附近的掃帚,高效地完成任務。

在另一個場景中,雖然機器人從未見過海綿,但它能夠思考如何用它把盤子中的碎渣掃走。

在下面的例子中,作者們設(shè)定只允許機器人在綠色陰影范圍內(nèi)移動,目標是把藍色圓柱體向自己的方向移動。顯然,這個任務的關(guān)鍵就是機器人想到了如何使用L型的木塊把圓柱體鉤過來。

以及,即便只給機器人提供礦泉水瓶之類的日常物體,它也能推理出如何把它作為工具完成任務。

最后,在最好不使用工具的環(huán)境中,機器人也會選擇直接用自己的夾鉗完成任務。

左:任務目標是把兩個物體都移向左邊,機器人選擇用工具高效地完成;右:任務目標只需移動一個物體,機器人用自己的夾鉗把它移過去

除了這些例子之外,論文中的量化實驗結(jié)果表明他們的方法比單獨使用從演示學習有更好的泛化通用性,也比單獨從經(jīng)驗學習有更強的完成任務能力。

關(guān)于其他機器人使用工具研究的對比討論

論文《A Relational Approach to Tool-Use Learning in Robots》研究了如何在任務和運動規(guī)劃框架下通過邏輯編程和已知模型控制工具。然而,基于邏輯的系統(tǒng)和基于解析模型的系統(tǒng)都容易受到建模誤差的影響,這會在測試執(zhí)行時累積并影響表現(xiàn)。

其它的研究中把工具看作了面向任務的抓取動作控制,并根據(jù)規(guī)劃或者策略學習來使用工具。這些方法都限制了涉及到工具的運用的范圍,而這篇論文中的方法不論場景中有沒有工具都可以完成運動規(guī)劃。

也有一些別的方法(1,2)提出在使用工具中學習動態(tài)模型。然而,這些方法需要額外使用手工設(shè)計的感知流水線,或者完全忽略感知,這篇論文中的方法就可以直接從原始圖像像素中學習物體間的交互。

結(jié)論

會出現(xiàn)從未見過的物體的多樣、復雜任務是機器人領(lǐng)域正在嘗試攻克的問題。為了研究這個問題,這篇論文的作者們研究了需要把物體作為工具的多種任務。作者們提出了結(jié)合模仿學習和自我監(jiān)督交互學習的新方法,并展示了這種方法可以讓機器人完成復雜的多物體交互任務,其中可以含有多種多樣的物體,甚至可以在新的環(huán)境中靈活運用物體作為工具。作者們希望這項研究展示了讓機器人同時變得更通用和更能干的新方法,以便未來機器人可以在日常生活環(huán)境中執(zhí)行有用的任務。

論文原文:

《ImprovisationthroughPhysicalUnderstanding:UsingNovelObjectsasToolswithVisualForesight》

論文地址:https://arxiv.org/abs/1904.05538

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    211

    文章

    28560

    瀏覽量

    207697
  • UC
    UC
    +關(guān)注

    關(guān)注

    1

    文章

    57

    瀏覽量

    60994
收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    具身智能機器人的基礎(chǔ)模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機器人計算系統(tǒng),自主機器人的感知系統(tǒng),自主機器人的定位系統(tǒng),自主機器人
    發(fā)表于 01-04 19:22

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    引入GPT這樣的大模型后,情況發(fā)生了根本性的變化。只需提供適當?shù)奶崾驹~以及封裝好的機器人函數(shù)庫,大模型便能靈活地生成控制代碼,極大地簡化了開發(fā)過程,并提高了自動化水平。 此外,大模型憑借強大的推理能力
    發(fā)表于 12-29 23:04

    新型復眼結(jié)構(gòu)有望革新機器人視覺系統(tǒng)

    的靈敏度較現(xiàn)有市售產(chǎn)品高出兩倍以上。這一突破有望革新機器人視覺系統(tǒng)、增強機器人的導航、感知和決策能力,并為人機協(xié)作開拓了更廣泛的商業(yè)應用和未來發(fā)展空間。 ? ? 研究團隊(香港科技大學) 該創(chuàng)新系統(tǒng)模仿生物復眼的視覺
    的頭像 發(fā)表于 12-24 10:49 ?314次閱讀
    新型復眼結(jié)構(gòu)有望革<b class='flag-5'>新機器人</b>視覺系統(tǒng)

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示,機器人的角色為迎賓機器人,開發(fā)板負責人賓客出現(xiàn)監(jiān)聽
    發(fā)表于 12-02 14:55

    軟硬互聯(lián)——革新機器人非標產(chǎn)線智能制造

    在智能制造的浪潮中,每一條生產(chǎn)線都承載著企業(yè)向智能化、高效化轉(zhuǎn)型的夢想。特別是對于機器人非標產(chǎn)線而言,如何在復雜多變的生產(chǎn)任務中保持高效、靈活與智能化,成為了眾多制造企業(yè)關(guān)注的焦點。今天,就讓我們一同探索IO模塊、網(wǎng)關(guān)與物聯(lián)網(wǎng)平臺如何協(xié)同作戰(zhàn),在
    的頭像 發(fā)表于 11-13 16:44 ?202次閱讀
    軟硬互聯(lián)——革<b class='flag-5'>新機器人</b>非標產(chǎn)線智能制造

    小鵬汽車正式進軍人形機器人領(lǐng)域,發(fā)布AI機器人Iron

    在特斯拉之后,中國電動汽車制造商小鵬汽車也于11月6日正式進軍人形機器人領(lǐng)域。今日下午,小鵬汽車在廣州隆重發(fā)布了其自主研發(fā)的全新AI人形機器人——Iron。   Iron機器人是按照真人1:1
    的頭像 發(fā)表于 11-07 15:28 ?673次閱讀

    “0元購”智元靈犀X1機器人,軟硬件全套圖紙和代碼全公開!資料免費下載!

    自由度設(shè)計展現(xiàn)了靈活的運動能力;安全輕量及高可擴展性,更加適用于人機交互與輕服務場景。在智元靈犀X1打造過程中,智元機器人創(chuàng)新性地應用了自研的PowerFlow R86、R52兩款關(guān)節(jié)電機,依托模塊化
    發(fā)表于 10-25 15:20

    醫(yī)療機器人有哪些_醫(yī)療機器人有哪些應用

    醫(yī)療機器人是醫(yī)用機器人工程的重要應用,結(jié)合了各個學科最新研究和發(fā)展的成果,并廣泛應用于醫(yī)學診療、康復等醫(yī)學領(lǐng)域。醫(yī)療機器人的類型多種多樣,以下是主要的一些類型:
    的頭像 發(fā)表于 10-21 15:16 ?871次閱讀

    NVIDIA在ICRA展示最新機器人研究

    在 日前舉行的 IEEE 國際機器人和自動化大會(ICRA)上,幾何織物(geometric fabrics)成為一個熱門的討論話題。幾何織物是 NVIDIA 機器人研究實驗室成員與合作者共同提交的七篇論文的主題之一,并于 ICRA 上發(fā)表。
    的頭像 發(fā)表于 10-10 09:55 ?384次閱讀

    構(gòu)建語音控制機器人 - 深入研究電路

    2024-07-29 |Annabel Ng S1XT33N項目 正如[之前的博客文章]中提到的,加州大學伯克利分校的 EECS 16B 課程重點關(guān)注構(gòu)建名為 S1XT33N 的語音控制機器人的為期
    的頭像 發(fā)表于 10-02 16:40 ?267次閱讀
    構(gòu)建語音控制<b class='flag-5'>機器人</b> - 深入研究電路

    Al大模型機器人

    豐富的知識儲備。它們可以涵蓋各種領(lǐng)域的知識,并能夠回答相關(guān)問題。靈活性與通用性: AI大模型機器人具有很強的靈活性和通用性,能夠處理各種類型的任務和問題。持續(xù)學習和改進: 這些模型可以通過持續(xù)的訓練
    發(fā)表于 07-05 08:52

    基于FPGA EtherCAT的六自由機器人視覺伺服控制設(shè)計

    和增強系統(tǒng)處理圖像的實時性,本文提出了一種伊瑟特的六自由機器人視覺伺服控制系統(tǒng),將攝像頭集成到基于 Zynq的伊瑟特主站上,提高了視覺伺服的實時性.經(jīng)測試,該平臺能夠?qū)σ曈X檢測目標的變化做出及時的反應
    發(fā)表于 05-29 16:17

    大象機器人完成Pre-B輪融資,致力打造全新機器人生態(tài)!

    近日,深圳市大象機器人科技有限公司(以下簡稱「大象機器人」)近日完成Pre-B輪融資,本輪融資由清輝投資領(lǐng)投、云卓資本跟投,資金將用于人形機器人產(chǎn)線升級及持續(xù)研發(fā)迭代。義柏資本擔任長期獨家財務顧問。
    的頭像 發(fā)表于 05-22 14:46 ?937次閱讀

    斯坦福、伯克利大神教授創(chuàng)業(yè)給機器人造大腦,OpenAI紅杉搶著投5億

    還記得曾火遍全網(wǎng)的ALOHA家務機器人嗎?最近該項目導師,斯坦福計算機科學與電氣工程系教授ChelseaFinn在X宣布,正式與其他幾位伯克利大牛學者、谷歌DeepMind科學家共同創(chuàng)業(yè),全力為
    的頭像 發(fā)表于 04-14 08:04 ?135次閱讀
    斯坦福、<b class='flag-5'>伯克利</b>大神教授創(chuàng)業(yè)給<b class='flag-5'>機器人</b>造大腦,OpenAI紅杉搶著投5億

    常見的多關(guān)節(jié)機器人有哪些?具有什么特點?

    系統(tǒng) 多關(guān)節(jié)機器人具有以下一些特點: 靈活性:多關(guān)節(jié)機器人由多個可動關(guān)節(jié)構(gòu)成,能夠?qū)崿F(xiàn)復雜的運動和姿態(tài)調(diào)整,適應不同的工作環(huán)境和任務需求。 自由度高:多關(guān)節(jié)
    的頭像 發(fā)表于 03-07 08:42 ?1528次閱讀
    常見的多關(guān)節(jié)<b class='flag-5'>機器人</b>有哪些?具有什么特點?