0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能的強(qiáng)化學(xué)習(xí)要點(diǎn)

汽車玩家 ? 來源:今日頭條 ? 作者:聞數(shù)起舞 ? 2020-05-04 18:14 ? 次閱讀

了解強(qiáng)化學(xué)習(xí)的要點(diǎn)!

強(qiáng)化學(xué)習(xí)(RL)是現(xiàn)代人工智能領(lǐng)域中最熱門的研究主題之一,其普及度還在不斷增長。 讓我們看一下開始學(xué)習(xí)RL需要了解的5件事。

1.什么是強(qiáng)化學(xué)習(xí)? 與其他機(jī)器學(xué)習(xí)技術(shù)相比有何不同?

強(qiáng)化學(xué)習(xí)(RL)是一種機(jī)器學(xué)習(xí)技術(shù),使代理能夠使用自身行為和經(jīng)驗(yàn)的反饋,通過反復(fù)試驗(yàn),在交互式環(huán)境中學(xué)習(xí)。

人工智能的強(qiáng)化學(xué)習(xí)要點(diǎn)

盡管監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)都使用輸入和輸出之間的映射,但不同于監(jiān)督學(xué)習(xí),后者提供給代理的反饋是執(zhí)行任務(wù)的正確動作集,而強(qiáng)化學(xué)習(xí)則將獎懲作為正面和負(fù)面行為的信號

與無監(jiān)督學(xué)習(xí)相比,強(qiáng)化學(xué)習(xí)在目標(biāo)方面有所不同。 無監(jiān)督學(xué)習(xí)的目標(biāo)是發(fā)現(xiàn)數(shù)據(jù)點(diǎn)之間的相似點(diǎn)和差異,而在強(qiáng)化學(xué)習(xí)的情況下,目標(biāo)是找到合適的行為模型,以最大化代理的總累積獎勵。 下圖說明了通用RL模型的動作獎勵反饋回路。

人工智能的強(qiáng)化學(xué)習(xí)要點(diǎn)

2.如何制定基本的強(qiáng)化學(xué)習(xí)問題?

描述RL問題基本要素的一些關(guān)鍵術(shù)語是:

環(huán)境-代理在其中運(yùn)行的物理世界

狀態(tài)—代理的現(xiàn)狀

獎勵-來自環(huán)境的反饋

策略-將代理狀態(tài)映射到操作的方法

價(jià)值-代理在特定狀態(tài)下采取的行動將獲得的未來獎勵

RL問題可以通過游戲來最好地解釋。 讓我們以吃豆人的游戲?yàn)槔?,代理人(PacMan)的目標(biāo)是在網(wǎng)格中吃食物,同時避免途中出現(xiàn)鬼魂。 在這種情況下,網(wǎng)格世界是代理所作用的交互式環(huán)境。 如果特工被幽靈殺死(輸?shù)袅擞螒颍?,代理會得到食物和懲罰的獎勵。 狀態(tài)是代理在網(wǎng)格世界中的位置,總累積獎勵是贏得比賽的代理。

人工智能的強(qiáng)化學(xué)習(xí)要點(diǎn)

為了建立最佳政策,代理面臨探索新狀態(tài)的困境,同時又要最大化其整體回報(bào)。 這稱為"探索與利用"的權(quán)衡。 為了平衡兩者,最佳的整體策略可能涉及短期犧牲。 因此,代理應(yīng)收集足夠的信息,以便將來做出最佳的總體決策。

馬爾可夫決策過程(MDP)是描述RL環(huán)境的數(shù)學(xué)框架,幾乎所有RL問題都可以使用MDP來表述。 一個MDP由一組有限的環(huán)境狀態(tài)S,在每個狀態(tài)下的一組可能的動作A,一個實(shí)值獎勵函數(shù)R和一個過渡模型P(s',s | a)組成。 但是,現(xiàn)實(shí)環(huán)境更可能缺少任何有關(guān)環(huán)境動力學(xué)的先驗(yàn)知識。 在這種情況下,無模型RL方法非常方便。

Q學(xué)習(xí)是一種常用的無模型方法,可用于構(gòu)建自播放的PacMan代理。 它圍繞更新Q值的概念展開,Q值表示在狀態(tài)s中執(zhí)行動作a的值。 以下值更新規(guī)則是Q學(xué)習(xí)算法的核心。

人工智能的強(qiáng)化學(xué)習(xí)要點(diǎn)

3.什么是最常用的強(qiáng)化學(xué)習(xí)算法?

Q學(xué)習(xí)和SARSA(狀態(tài)行動-獎勵狀態(tài)行動)是兩種常用的無模型RL算法。 它們的探索策略不同,而利用策略卻相似。 Q學(xué)習(xí)是一種非策略方法,其中代理根據(jù)從另一個策略得出的操作a *學(xué)習(xí)值,而SARSA是一種策略上方法,在其中根據(jù)其當(dāng)前操作a從當(dāng)前策略得出的值來學(xué)習(xí)值。 政策。 這兩種方法易于實(shí)現(xiàn),但缺乏通用性,因?yàn)樗鼈儫o法估計(jì)未見狀態(tài)的值。

可以通過更高級的算法(例如使用神經(jīng)網(wǎng)絡(luò)來估計(jì)Q值的深度Q網(wǎng)絡(luò)(DQN))來克服這一問題。 但是DQN只能處理離散的低維動作空間。

深度確定性策略梯度(DDPG)是一種無模型,脫離策略,對執(zhí)行者敏感的算法,它通過在高維連續(xù)動作空間中學(xué)習(xí)策略來解決此問題。 下圖是評論體系結(jié)構(gòu)的表示。

人工智能的強(qiáng)化學(xué)習(xí)要點(diǎn)

4.強(qiáng)化學(xué)習(xí)的實(shí)際應(yīng)用是什么?

由于RL需要大量數(shù)據(jù),因此最適用于容易獲得模擬數(shù)據(jù)(例如游戲性,機(jī)器人技術(shù))的領(lǐng)域。

RL被廣泛用于構(gòu)建用于玩計(jì)算機(jī)游戲的AI。 AlphaGo Zero是第一個在古代中國的圍棋游戲中擊敗世界冠軍的計(jì)算機(jī)程序。 其他包括ATARI游戲,西洋雙陸棋等

在機(jī)器人技術(shù)和工業(yè)自動化中,RL用于使機(jī)器人能夠?yàn)槠渥陨韯?chuàng)建高效的自適應(yīng)控制系統(tǒng),該系統(tǒng)可以從自身的經(jīng)驗(yàn)和行為中學(xué)習(xí)。 DeepMind的"通過異步策略更新進(jìn)行機(jī)器人操縱的深度強(qiáng)化學(xué)習(xí)"就是一個很好的例子。 觀看這個有趣的演示視頻。

RL的其他應(yīng)用包括抽象文本摘要引擎,對話代理(文本,語音),這些代理可以從用戶的交互中學(xué)習(xí)并隨著時間的流逝而改善,學(xué)習(xí)醫(yī)療保健中的最佳治療策略,以及用于在線股票交易的基于RL的代理。

5.我如何開始進(jìn)行強(qiáng)化學(xué)習(xí)?

為了理解RL的基本概念,可以參考以下資源。

《強(qiáng)化學(xué)習(xí)-入門》,是強(qiáng)化學(xué)習(xí)之父的一本書-理查德·薩頓(Richard Sutton)和他的博士生導(dǎo)師安德魯·巴托(Andrew Barto)。 這本書的在線草稿可以在這里找到。

David Silver的教學(xué)材料(包括視頻講座)是有關(guān)RL的入門課程。

Pieter Abbeel和John Schulman(開放式AI /伯克利AI研究實(shí)驗(yàn)室)的另一本有關(guān)RL的技術(shù)教程。

對于開始構(gòu)建和測試RL代理,以下資源可能會有所幫助。

博客介紹了如何使用來自原始像素的Policy Gradients訓(xùn)練神經(jīng)網(wǎng)絡(luò)ATARI Pong代理,Andrej Karpathy將幫助您在130行Python代碼中啟動并運(yùn)行您的第一個Deep Reinforcement Learning代理。

·DeepMind Lab是一個類似于開放源代碼的3D游戲平臺,用于具有豐富模擬環(huán)境的基于代理的AI研究。

馬爾默項(xiàng)目是另一個支持AI基礎(chǔ)研究的AI實(shí)驗(yàn)平臺。

OpenAI Gym是用于構(gòu)建和比較強(qiáng)化學(xué)習(xí)算法的工具包。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評論

    相關(guān)推薦

    嵌入式和人工智能究竟是什么關(guān)系?

    領(lǐng)域,如工業(yè)控制、智能家居、醫(yī)療設(shè)備等。 人工智能是計(jì)算機(jī)科學(xué)的一個分支,它研究如何使計(jì)算機(jī)具備像人類一樣思考、學(xué)習(xí)、推理和決策的能力。人工智能的發(fā)展歷程可以追溯到上世紀(jì)50年代,經(jīng)
    發(fā)表于 11-14 16:39

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    的計(jì)算圖和自動微分功能,非常適合實(shí)現(xiàn)復(fù)雜的強(qiáng)化學(xué)習(xí)算法。 1. 環(huán)境(Environment) 在強(qiáng)化學(xué)習(xí)中,環(huán)境是一個抽象的概念,它定義了智能體(agent)可以執(zhí)行的動作(actions)、觀察到
    的頭像 發(fā)表于 11-05 17:34 ?305次閱讀

    人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)
    發(fā)表于 10-24 17:22 ?2493次閱讀
    <b class='flag-5'>人工智能</b>、機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    、優(yōu)化等方面的應(yīng)用有了更清晰的認(rèn)識。特別是書中提到的基于大數(shù)據(jù)和機(jī)器學(xué)習(xí)的能源管理系統(tǒng),通過實(shí)時監(jiān)測和分析能源數(shù)據(jù),實(shí)現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能在能源科學(xué)中
    發(fā)表于 10-14 09:27

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,無疑為讀者鋪設(shè)了一條探索人工智能(AI)如何深刻影響并推動科學(xué)創(chuàng)新的道路。在閱讀這一章后,我深刻感受到了人工智能技術(shù)在科學(xué)領(lǐng)域的廣泛應(yīng)用潛力以及其帶來的革命性變化,以下是我個人的學(xué)習(xí)心得: 1.
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    人工智能推薦系統(tǒng)中強(qiáng)大的圖形處理器(GPU)一爭高下。其獨(dú)特的設(shè)計(jì)使得該處理器在功耗受限的條件下仍能實(shí)現(xiàn)高性能的圖像處理任務(wù)。 Ceremorphic公司 :該公司開發(fā)的分層學(xué)習(xí)處理器結(jié)合了
    發(fā)表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學(xué)家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    人工智能如何強(qiáng)化智能家居設(shè)備的功能

    ,以配合用戶的生活習(xí)慣與作息。本文將為您介紹人工智能將如何強(qiáng)化智能家居設(shè)備的功能,以及由芯科科技(Silicon Labs)所推出的解決方案,將如何增進(jìn)智能家居設(shè)備的功能性與安全性。
    的頭像 發(fā)表于 08-27 10:46 ?901次閱讀
    <b class='flag-5'>人工智能</b>如何<b class='flag-5'>強(qiáng)化</b><b class='flag-5'>智能</b>家居設(shè)備的功能

    報(bào)名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領(lǐng)域集產(chǎn)品
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    通過強(qiáng)化學(xué)習(xí)策略進(jìn)行特征選擇

    更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實(shí)現(xiàn)一種新的通過強(qiáng)化學(xué)習(xí)策略的特征選擇。我們先討論強(qiáng)化學(xué)習(xí),尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?357次閱讀
    通過<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>策略進(jìn)行特征選擇

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    https://t.elecfans.com/v/25653.html 人工智能 初學(xué)者完整學(xué)習(xí)流程實(shí)現(xiàn)手寫數(shù)字識別案例_Part1 13分59秒 https://t.elecfans.com/v
    發(fā)表于 05-10 16:46

    機(jī)器學(xué)習(xí)怎么進(jìn)入人工智能

    人工智能(Artificial Intelligence,AI)是一門涉及計(jì)算機(jī)、工程、數(shù)學(xué)、哲學(xué)和認(rèn)知科學(xué)等多個領(lǐng)域的交叉學(xué)科,旨在構(gòu)建智能化計(jì)算機(jī)系統(tǒng),使之能夠自主感知、理解、學(xué)習(xí)和決策。如今
    的頭像 發(fā)表于 04-04 08:41 ?336次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    ://t.elecfans.com/v/25653.html 人工智能 初學(xué)者完整學(xué)習(xí)流程實(shí)現(xiàn)手寫數(shù)字識別案例 28分55秒 https://t.elecfans.com/v/27184.html
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級的核心驅(qū)動力。同時在此背景驅(qū)動下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17