近日,據(jù)TechCrunch報(bào)道,麻省理工學(xué)院的研究團(tuán)隊(duì)展示了一種創(chuàng)新的機(jī)器人訓(xùn)練模型,該模型突破了傳統(tǒng)模仿學(xué)習(xí)方法的局限,不再依賴標(biāo)準(zhǔn)數(shù)據(jù)集,而是借鑒了大型語言模型(LLM)如GPT-4等所使用的大規(guī)模信息處理方式,為機(jī)器人學(xué)習(xí)新技能開辟了全新的道路。
傳統(tǒng)的模仿學(xué)習(xí)方法中,機(jī)器人通過觀察和模仿執(zhí)行任務(wù)的人類或其他代理進(jìn)行學(xué)習(xí)。然而,這種方法在面對(duì)諸如照明變化、不同環(huán)境或新障礙等小挑戰(zhàn)時(shí),往往因?yàn)槿狈ψ銐虻臄?shù)據(jù)而難以適應(yīng)。為了克服這一難題,麻省理工學(xué)院的研究團(tuán)隊(duì)探索了一種新的解決方案,他們借鑒了大型語言模型的強(qiáng)大數(shù)據(jù)處理能力,并引入了異構(gòu)預(yù)訓(xùn)練變壓器(HPT)這一創(chuàng)新架構(gòu)。
新論文的主要作者王立睿指出,與語言領(lǐng)域的數(shù)據(jù)以句子形式存在不同,機(jī)器人領(lǐng)域的數(shù)據(jù)具有高度的異質(zhì)性。因此,如果想以類似語言模型的方式進(jìn)行預(yù)訓(xùn)練,就需要構(gòu)建一種全新的架構(gòu)。HPT正是這樣一種架構(gòu),它能夠整合來自不同傳感器和環(huán)境的多樣信息,并利用變壓器技術(shù)將這些數(shù)據(jù)匯總到訓(xùn)練模型中。值得注意的是,變壓器的規(guī)模越大,其輸出效果也越好。
在使用該新型訓(xùn)練模型時(shí),用戶只需輸入機(jī)器人的設(shè)計(jì)、配置以及期望完成的任務(wù),系統(tǒng)便能根據(jù)這些信息為機(jī)器人提供所需的技能。這一創(chuàng)新不僅提高了機(jī)器人學(xué)習(xí)的效率和靈活性,還為實(shí)現(xiàn)更廣泛、更復(fù)雜的機(jī)器人應(yīng)用奠定了堅(jiān)實(shí)的基礎(chǔ)。
卡內(nèi)基梅隆大學(xué)副教授戴維·赫爾德對(duì)這項(xiàng)研究給予了高度評(píng)價(jià)。他表示,我們的夢(mèng)想是擁有一個(gè)通用的機(jī)器人大腦,用戶可以直接下載并使用它,而無需進(jìn)行任何額外訓(xùn)練。雖然目前我們還處于這一愿景的早期階段,但借助規(guī)?;膬?yōu)勢(shì),我們有望在機(jī)器人策略方面取得像大型語言模型那樣的突破性進(jìn)展。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28418瀏覽量
207096 -
LLM
+關(guān)注
關(guān)注
0文章
288瀏覽量
335
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論