0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡單隨機搜索:無模型強化學(xué)習(xí)的高效途徑

zhKF_jqr_AI ? 來源:未知 ? 作者:steve ? 2018-04-01 09:35 ? 次閱讀

現(xiàn)在人們對無模型強化學(xué)習(xí)的一個普遍看法是,這種基于隨機搜索策略的方法在參數(shù)空間中比那些探索行為空間的方法表現(xiàn)出更差的樣本復(fù)雜性。UC Berkeley的研究人員通過引入隨機搜索方法,推翻了這種說法。以下是論智對作者Benjamin Recht博文的編譯。

我們已經(jīng)看到,隨機搜索在簡單的線性問題上表現(xiàn)得很好,而且似乎比一些強化學(xué)習(xí)方法(例如策略梯度)更好。然而隨著問題難度增加,隨機搜索是否會崩潰?答案是否定的。但是,請繼續(xù)讀下去!

讓我們在強化學(xué)習(xí)社區(qū)感興趣的問題上應(yīng)用隨機搜索。深度強化學(xué)習(xí)領(lǐng)域一直把大量時間和精力用于由OpenAI維護的、基于MuJoCo模擬器的一套基準測試中。這里,最優(yōu)控制問題指的是讓一個有腿機器人在一個方向上盡可能快地行走,越遠越好。其中一些任務(wù)非常簡單,但是有些任務(wù)很難,比如這種有22個自由度的復(fù)雜人形模型。有腿機器人的運動由Hamilton方程控制,但是從這些模型中計劃動作是非常具有挑戰(zhàn)性的,因為沒有設(shè)計目標函數(shù)的最佳方法,并且模型是分段線性的。只要機器人的任何部位碰到堅硬物體,模型就會變化,因此會出現(xiàn)此前沒有的作用于機器人的法向力。于是,讓機器人無需處理復(fù)雜的非凸非線性模型而正常工作,對強化學(xué)習(xí)來說是個有趣的挑戰(zhàn)。

最近,Salimans及其在OpenAI的合作者表示,隨機搜索在這些標準測試中表現(xiàn)的很好,尤其是加上幾個算法增強后很適合神經(jīng)網(wǎng)絡(luò)控制器。在另一項實驗中,Rajeswaran等人表示,自然策略梯度可以學(xué)習(xí)用于完成標準的先行策略。也就是說,他們證明靜態(tài)線性狀態(tài)的反饋——就像我們在LQR(Linear Quadratic Regulator)中使用的那樣——也足以控制這些復(fù)雜的機器人模擬器。但這仍然有一個問題:簡單隨機搜索能找到適合MuJoCo任務(wù)的線性控制器嗎?

我的學(xué)生Aurelia Guy和Horia Mania對此進行了測試,他們編寫了一個非常簡單的隨機搜索版本(是我之前發(fā)布的Iqrpols.py中的一個)。令人驚訝的是,這個簡單的算法學(xué)習(xí)了Swimmer-v1,Hopper-v1,Walker2d-v1和Ant-v1任務(wù)中的線性策略,這些策略實現(xiàn)了之前文章中提出的獎勵閾值。不錯!

簡單隨機搜索:無模型強化學(xué)習(xí)的高效途徑

但是只有隨機搜索還不夠完美。Aurelia和Horia完全不能用人形模型做出有趣的事。試了很多次參數(shù)調(diào)整后,他們決定改進隨機搜索,讓它訓(xùn)練地更快。Horia注意到許多強化學(xué)習(xí)的論文利用狀態(tài)的統(tǒng)計數(shù)據(jù),并且在將狀態(tài)傳遞給神經(jīng)網(wǎng)絡(luò)之前能夠?qū)顟B(tài)白化。所以他開始保持在線估計狀態(tài),在將他們傳遞給線性控制器之前將它們白化。有了這個簡單的竅門,Aurelia和Horia現(xiàn)在可以讓人形機器人做出最佳表現(xiàn)。這實際上是Salimans等人在標準值上達到的“成功閾值”的兩倍。只需要線性控制器、隨機搜索和一個簡單的技巧。

簡單隨機搜索:無模型強化學(xué)習(xí)的高效途徑

另外還有一件簡單的事情就是,代碼比OpenAI的進化策略論文中的要快15倍。我們可以用更少的計算獲得更高的獎勵。用戶可以在一小時內(nèi)在標準18核EC2實例上訓(xùn)練一個高性能人形模型。

現(xiàn)在,隨著在線狀態(tài)的更新,隨機搜索不僅超過了人形模型的最佳水平,而且還超越了Swimmer-v1、Hopper-v1、HalfCheetah-v1。但在Walker2d-v1和Ant-v1上的表現(xiàn)還不是很好。但是我們可以再添加一個小技巧。我們可以放棄不會產(chǎn)生良好回報的采樣方向。這增加了一個超參數(shù),但有了這一額外的調(diào)整,隨機搜索實際上可能會達到或超過OpenAI的gym中所有MuJoCo標準的最佳性能。注意,這里并不限制與策略梯度的比較。就我所知,這些策略比任何無模型強化學(xué)習(xí)的應(yīng)用結(jié)果要好,無論是Actor Critic Method還是Value Function Estimation Method等等更深奧的東西。對于這類MuJoCo問題,似乎純粹的隨機搜索優(yōu)于深度強化學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)。

簡單隨機搜索:無模型強化學(xué)習(xí)的高效途徑

通過一些小調(diào)整得到的隨機搜索結(jié)果勝過了MuJoCo任務(wù)中的所有其他方法,并且速度更快。論文和代碼都已公布。

從隨機搜索中,我們有了以下幾點收獲:

基準很難

我認為所有這一切唯一合理的結(jié)論就是這些MuJoCo Demo很容易,毫無疑問。但是,用這些標準測試NIPS、ICML或ICLR中的論文可能不再合適。這就出現(xiàn)了一個重要的問題:什么是強化學(xué)習(xí)的良好標準?顯然,我們需要的不僅僅是Mountain Car。我認為具有未知動作的LQR是一個合理的任務(wù),因為確定新實例并了解性能的限制是很容易的。但是該領(lǐng)域應(yīng)該花更多時間了解如何建立有難度的標準。

不要在模擬器上抱太大希望

這些標準比較容易的一部分原因是MuJoCo不是一個完美的模擬器。MuJoCo非???,并且對于概念驗證非常有用。但為了快速起見,它必須在接觸點周圍進行平滑處理(接觸的不連續(xù)是使腿部運動困難的原因)。因此,你只能讓其中一個模擬器走路,并不意味著你可以讓真正的機器人走路。的確,這里有四種讓獎勵可以達到6000的步態(tài),但看起來都不太現(xiàn)實:

即使是表現(xiàn)最好的模型(獎勵達到11600),如下圖所示,這種看起來很蠢的步態(tài)也不可能應(yīng)用在現(xiàn)實中:

努力將算法簡化

在簡單算法中添加超參數(shù)和算法小部件,可以在足夠小的一組基準測試中提高其性能。我不確定是否放棄最好的方向或狀態(tài)歸一化會對新的隨機搜索問題起作用,但這對MuJoCo的標準和有用。通過添加更多可調(diào)參數(shù),甚至可以獲得更多回報。

使用之前先探索

注意,由于隨機搜索方法很快,我們可以評估它在許多隨機種子上的表現(xiàn)。這些無模型的方法在這些基準上都表現(xiàn)出驚人的巨大差異。例如,在人形任務(wù)中,即使我們提供了我們認為是好的參數(shù),模型的訓(xùn)練時間也慢了四分之一。對于那些隨機種子,它會找到相當(dāng)奇特的步態(tài)。如果將注意力限定在三個隨機種子上用于隨機搜索,通常具有誤導(dǎo)性,因為你可能會將性能調(diào)整為隨機數(shù)生成器的特性。

簡單隨機搜索:無模型強化學(xué)習(xí)的高效途徑

這種現(xiàn)象在LQR上也出現(xiàn)了。我們可以將算法向一些隨機種子進行微調(diào),然后在新的隨機種子上看到完全不同的行為。Henderson等人用深度強化學(xué)習(xí)方法觀察了這些現(xiàn)象,但我認為如此高的變量將成為所有無模型方法的通用癥狀。僅通過模擬就能解釋很多邊界情況。正如我在上一篇文章中所說的:“通過拋棄模型和知識,我們永遠不知道是否可以從少數(shù)實例和隨機種子中學(xué)到足夠的東西進行概括?!?/p>


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:簡單隨機搜索:強化學(xué)習(xí)的高效途徑

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    螞蟻集團收購邊塞科技,吳翼出任強化學(xué)習(xí)實驗室首席科學(xué)家

    近日,專注于模型賽道的初創(chuàng)企業(yè)邊塞科技宣布被螞蟻集團收購。據(jù)悉,此次交易完成后,邊塞科技將保持獨立運營,而原投資人已全部退出。 與此同時,螞蟻集團近期宣布成立強化學(xué)習(xí)實驗室,旨在推動大模型強化
    的頭像 發(fā)表于 11-22 11:14 ?589次閱讀

    如何使用 PyTorch 進行強化學(xué)習(xí)

    強化學(xué)習(xí)(Reinforcement Learning, RL)是一種機器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?305次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?784次閱讀

    AI大模型與傳統(tǒng)機器學(xué)習(xí)的區(qū)別

    多個神經(jīng)網(wǎng)絡(luò)層組成,每個層都包含大量的神經(jīng)元和權(quán)重參數(shù)。 傳統(tǒng)機器學(xué)習(xí)模型規(guī)模相對較小,參數(shù)數(shù)量通常只有幾千到幾百萬個,模型結(jié)構(gòu)相對簡單。 二、訓(xùn)練數(shù)據(jù)需求 AI大
    的頭像 發(fā)表于 10-23 15:01 ?650次閱讀

    谷歌AlphaChip強化學(xué)習(xí)工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計領(lǐng)域取得了重要突破,詳細介紹了其用于芯片設(shè)計布局的強化學(xué)習(xí)方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計流程,并幫助芯片在性能、功耗和面積方面實現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?429次閱讀

    月訪問量超2億,增速113%!360AI搜索成為全球增速最快的AI搜索引擎

    和系統(tǒng)自動匹配最佳模型,這使得360AI搜索獲得了獨一二的技術(shù)優(yōu)勢。除了通用大模型,360AI搜索還配備了眾多
    的頭像 發(fā)表于 09-09 13:44 ?483次閱讀
    月訪問量超2億,增速113%!360AI<b class='flag-5'>搜索</b>成為全球增速最快的AI<b class='flag-5'>搜索</b>引擎

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí)模型采用自監(jiān)督學(xué)習(xí)策略,在大量
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)
    發(fā)表于 07-25 14:33

    深度學(xué)習(xí)中的監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機器學(xué)習(xí)領(lǐng)域的一個重要分支,近年來在多個領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領(lǐng)域。然而,深度學(xué)習(xí)模型的強大性能往往依賴于大量有標簽的數(shù)據(jù)進行訓(xùn)練
    的頭像 發(fā)表于 07-09 10:50 ?761次閱讀

    tensorflow簡單模型訓(xùn)練

    在本文中,我們將詳細介紹如何使用TensorFlow進行簡單模型訓(xùn)練。TensorFlow是一個開源的機器學(xué)習(xí)庫,廣泛用于各種機器學(xué)習(xí)任務(wù),包括圖像識別、自然語言處理等。我們將從安裝
    的頭像 發(fā)表于 07-05 09:38 ?695次閱讀

    通過強化學(xué)習(xí)策略進行特征選擇

    更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實現(xiàn)一種新的通過強化學(xué)習(xí)策略的特征選擇。我們先討論強化學(xué)習(xí),尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?357次閱讀
    通過<b class='flag-5'>強化學(xué)習(xí)</b>策略進行特征選擇

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    Transformer架構(gòu),利用自注意力機制對文本進行編碼,通過預(yù)訓(xùn)練、有監(jiān)督微調(diào)和強化學(xué)習(xí)等階段,不斷提升性能,展現(xiàn)出強大的語言理解和生成能力。 大語言模型的涌現(xiàn)能力,是指隨著模型規(guī)模的增長,展現(xiàn)出
    發(fā)表于 05-04 23:55

    名單公布!【書籍評測活動NO.30】大規(guī)模語言模型:從理論到實踐

    個文本質(zhì)量對比模型,用于對有監(jiān)督微調(diào)模型對于同一個提示詞給出的多個不同輸出結(jié)果進行質(zhì)量排序。這一階段的難點在于如何限定獎勵模型的應(yīng)用范圍及如何構(gòu)建訓(xùn)練數(shù)據(jù)。 強化學(xué)習(xí)階段 ,根據(jù)數(shù)十萬
    發(fā)表于 03-11 15:16

    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型

    Transformer模型強化學(xué)習(xí)領(lǐng)域的應(yīng)用主要是應(yīng)用于策略學(xué)習(xí)和值函數(shù)近似。強化學(xué)習(xí)是指讓機器在與環(huán)境互動的過程中,通過試錯來學(xué)習(xí)最優(yōu)的
    發(fā)表于 02-20 09:55 ?1.4w次閱讀
    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>模型</b>

    如何使用TensorFlow構(gòu)建機器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個簡單的機器學(xué)習(xí)模型
    的頭像 發(fā)表于 01-08 09:25 ?997次閱讀
    如何使用TensorFlow構(gòu)建機器<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>