今日凌晨,OpenAI發(fā)布Neural MMO—一個(gè)強(qiáng)化學(xué)習(xí)的大型多智能體游戲環(huán)境。這一平臺(tái)可以在持久性和開放式任務(wù)中支持大量可變數(shù)量的智能體。
一直以來,人工智能研究者都希望讓智能體(agent)學(xué)會(huì)合作競(jìng)爭(zhēng),一些研究者也認(rèn)為這是實(shí)現(xiàn)通用人工智能(AGI)的必要條件。
17年7月份,OpenAI、麥吉爾大學(xué)和 UC Berkeley 聯(lián)合提出了一種“用于合作-競(jìng)爭(zhēng)混合環(huán)境的多智能體 actor-critic”,可用于多智能體環(huán)境中的中心化學(xué)習(xí)(centralized learning)和去中心化執(zhí)行(decentralized execution),讓智能體可以學(xué)會(huì)彼此合作和競(jìng)爭(zhēng)。
論文地址:
https://arxiv.org/pdf/1706.02275.pdf
之后,OpenAI也一直沒有放棄對(duì)多智能體學(xué)習(xí)環(huán)境的探索。
今日凌晨,OpenAI宣稱發(fā)布Neural MMO——一個(gè)強(qiáng)化學(xué)習(xí)的大型多智能體游戲環(huán)境。這一多智能體的環(huán)境可以探索更兼容和高效的整體環(huán)境,力求在復(fù)雜度和智能體人數(shù)上獲取難得的平衡。
近年來,多重代理設(shè)置已成為深度強(qiáng)化學(xué)習(xí)研究的一個(gè)有效平臺(tái)。盡管進(jìn)展頗豐,但其仍存在兩個(gè)主要挑戰(zhàn):當(dāng)前環(huán)境要么復(fù)雜但過于受限,要么開放但過于簡(jiǎn)單。
其中,持久性和規(guī)?;瘜⑹翘接懙年P(guān)鍵屬性,但研究者們還需要更好的基準(zhǔn)測(cè)試環(huán)境,在存在大量人口規(guī)模和持久性的情況下量化學(xué)習(xí)進(jìn)度。這一游戲類型(MMO:大型多人在線游戲)模擬了在持續(xù)和廣泛環(huán)境中可變數(shù)量玩家進(jìn)行競(jìng)爭(zhēng)的大型生態(tài)系統(tǒng)。
為了應(yīng)對(duì)這些挑戰(zhàn),OpenAI構(gòu)建了神經(jīng)MMO以滿足以下標(biāo)準(zhǔn):
持久性:在沒有環(huán)境重置的情況下,代理可以在其他學(xué)習(xí)代理存在的情況下同時(shí)學(xué)習(xí)。策略必須具有遠(yuǎn)見思維,并適應(yīng)其他代理行為的潛在快速變化。
比例:環(huán)境支持大量且可變數(shù)量的實(shí)體。實(shí)驗(yàn)考慮了100個(gè)并發(fā)服務(wù)器中每個(gè)服務(wù)器128個(gè)并發(fā)代理且長達(dá)100M的生命周期。
效率:進(jìn)入的計(jì)算障礙很低??梢栽趩蝹€(gè)桌面CPU上培訓(xùn)有效的策略。
擴(kuò)展:與現(xiàn)有MMO類似,Neural MMO旨在更新內(nèi)容。目前的核心功能包括基于拼接單元塊(tile-based)的地形的程序生成,食物和水覓食系統(tǒng)以及戰(zhàn)略戰(zhàn)斗系統(tǒng)。未來有機(jī)會(huì)進(jìn)行開源驅(qū)動(dòng)的擴(kuò)展。
OpenAI在博客中詳細(xì)介紹了這一新環(huán)境。
環(huán)境
玩家(代理)可以加入任何可用的服務(wù)器(環(huán)境),每個(gè)都會(huì)包含一個(gè)可配置大小、且自動(dòng)生成的基于圖塊的游戲地圖。一些障礙塊,例如森林和草,是可穿越的;其他的如水和實(shí)心巖石,則不能穿越。
代理在環(huán)境邊緣的隨機(jī)位置產(chǎn)生。他們需要獲得食物和水,并避免其他代理的戰(zhàn)斗傷害,以維持自己的生存。踩在森林地塊上或出現(xiàn)在水資源地塊的旁邊會(huì)分別填充一部分代理的食物和水供應(yīng)。然而,森林的食物供應(yīng)有限,隨著時(shí)間的推移會(huì)緩慢再生。這意味著代理必須競(jìng)爭(zhēng)食品塊,同時(shí)定期補(bǔ)充水源。玩家還可以使用三種戰(zhàn)斗風(fēng)格參與戰(zhàn)斗,分別為混戰(zhàn),游獵及魔法。
輸入:代理觀察以其當(dāng)前位置為中心的方形區(qū)域。這包括地塊類型和占用代理的選擇屬性(健康,食物,水和位置)。
輸出:代理為下一個(gè)游戲單位時(shí)間(timestep)輸出操作選項(xiàng)。該操作由一個(gè)動(dòng)作和一個(gè)攻擊組成。
模型
作為一個(gè)簡(jiǎn)單的基準(zhǔn),我們使用vanilla策略梯度訓(xùn)練一個(gè)小型,完全連接的架構(gòu),并把值函數(shù)基準(zhǔn)和獎(jiǎng)勵(lì)折扣作為唯一的增強(qiáng)功能。在這個(gè)模型中,獎(jiǎng)勵(lì)策略并不針對(duì)實(shí)現(xiàn)特定目標(biāo),而是針對(duì)其生命周期(軌跡長度)進(jìn)行優(yōu)化:他們?cè)谄渖芷诘拿總€(gè)單位時(shí)間上獲得獎(jiǎng)勵(lì)1。我們通過計(jì)算所有代理的最大值來將可變長度觀測(cè)值(例如周圍代理列表)轉(zhuǎn)換為單個(gè)長度向量(OpenAI Five也使用了這個(gè)技巧)?;赑yTorch和Ray,源版本包括我們完整分布式培訓(xùn)的實(shí)現(xiàn)。
訓(xùn)練中最大種群數(shù)量在(16,32,64,128)之間變化。為了提高效率,在測(cè)試時(shí),將在一對(duì)實(shí)驗(yàn)中學(xué)到的特定群進(jìn)行合并,并在一個(gè)固定的范圍內(nèi)進(jìn)行評(píng)估。只對(duì)作戰(zhàn)策略進(jìn)行評(píng)估,因?yàn)橹苯恿炕鲬?zhàn)策略比較困難。通常來說,在更大的分布范圍內(nèi)進(jìn)行訓(xùn)練效果會(huì)更好。
代理的策略是從多個(gè)種群中簡(jiǎn)單抽樣——不同種群中的代理共享體系結(jié)構(gòu),但只有相同種群中的代理共享權(quán)重。初步實(shí)驗(yàn)表明,隨著多智能體相互作用的增加,智能體的能力也隨之增加。增加并發(fā)智能體的最大數(shù)量將放大探索行為;增加種群的數(shù)量將放大生態(tài)位形成——也就是說,種群在地圖的不同部分?jǐn)U散和覓食的趨勢(shì)。
在評(píng)估跨多臺(tái)服務(wù)器的玩家能力方面,并沒有統(tǒng)一的標(biāo)準(zhǔn)。然而,有時(shí),MMO服務(wù)器會(huì)進(jìn)行合并。我們通過合并在不同服務(wù)器中訓(xùn)練的玩家基地來實(shí)現(xiàn)“錦標(biāo)賽”風(fēng)格的評(píng)估。這使得我們可以直接比較在不同實(shí)驗(yàn)環(huán)境中學(xué)到的策略。改變了測(cè)試時(shí)間范圍,發(fā)現(xiàn)在較大環(huán)境下訓(xùn)練的代理一直優(yōu)于在較小環(huán)境中訓(xùn)練的代理。
評(píng)估結(jié)果
訓(xùn)練中最大種群數(shù)量在(16,32,64,128)之間變化。為了提高效率,在測(cè)試時(shí),將在一對(duì)實(shí)驗(yàn)中學(xué)到的特定群進(jìn)行合并,并在一個(gè)固定的范圍內(nèi)進(jìn)行評(píng)估。只對(duì)作戰(zhàn)策略進(jìn)行評(píng)估,因?yàn)橹苯恿炕鲬?zhàn)策略比較困難。通常來說,在更大的分布范圍內(nèi)進(jìn)行訓(xùn)練效果會(huì)更好。
代理的策略是從多個(gè)種群中簡(jiǎn)單抽樣——不同種群中的代理共享體系結(jié)構(gòu),但只有相同種群中的代理共享權(quán)重。初步實(shí)驗(yàn)表明,隨著多智能體相互作用的增加,智能體的能力也隨之增加。增加并發(fā)智能體的最大數(shù)量將放大探索行為;增加種群的數(shù)量將放大生態(tài)位形成——也就是說,種群在地圖的不同部分?jǐn)U散和覓食的趨勢(shì)。
服務(wù)器合并條件下的錦標(biāo)賽:多代理放大了競(jìng)爭(zhēng)行為
在跨多臺(tái)服務(wù)器隊(duì)玩家能力的能力進(jìn)行評(píng)估時(shí),我們并沒有統(tǒng)一的標(biāo)準(zhǔn)。然而,有時(shí)MMO服務(wù)器會(huì)進(jìn)行合并。我們通過合并在不同服務(wù)器中訓(xùn)練的玩家基地來實(shí)現(xiàn)“錦標(biāo)賽”風(fēng)格的評(píng)估。這使得我們可以直接比較在不同實(shí)驗(yàn)環(huán)境中學(xué)到的策略。改變了測(cè)試時(shí)間范圍后,我們發(fā)現(xiàn),在較大環(huán)境下訓(xùn)練的代理一直優(yōu)于在較小環(huán)境中訓(xùn)練的代理。
種群規(guī)模的增加放大了探索行為
種群規(guī)模放大了探索行為:代理表現(xiàn)出分散開來的特征以避免競(jìng)爭(zhēng)。最后幾幀顯示學(xué)習(xí)值函數(shù)疊加。有關(guān)其他參數(shù),請(qǐng)參閱論文:
https://s3-us-west-2.amazonaws.com/openai-assets/neural-mmo/neural-mmo-arxiv.pdf
在自然世界中,動(dòng)物之間的競(jìng)爭(zhēng)可以激勵(lì)它們分散開來以避免沖突。我們觀察到,隨著并發(fā)代理數(shù)量的增加,映射覆蓋率增加。代理學(xué)習(xí)探索僅僅是因?yàn)槠渌淼拇嬖谔峁┝诉@樣做的自然動(dòng)機(jī)。物種數(shù)量的增加擴(kuò)大了生態(tài)位形成的幾率。
物種數(shù)量的增加擴(kuò)大了生態(tài)位的形成。
物種數(shù)量(種群數(shù)量)放大了生態(tài)位的形成。上圖中訪問地圖覆蓋了游戲地圖;不同的顏色對(duì)應(yīng)不同的物種。訓(xùn)練單一物種傾向于產(chǎn)生單一的深度探索路徑。訓(xùn)練八個(gè)物種則會(huì)導(dǎo)致許多較淺的探索路徑:種群擴(kuò)散以避免物種之間的競(jìng)爭(zhēng)。
鑒于環(huán)境足夠大且資源豐富,我們發(fā)現(xiàn)不同的代理群在地圖上呈現(xiàn)分散的特點(diǎn),以避免隨著數(shù)量的增加與其他代理產(chǎn)生競(jìng)爭(zhēng)。由于代理不能與自己種群中的其他代理競(jìng)爭(zhēng)(即與他們共享權(quán)重的代理),他們傾向于尋找包含足夠資源來維持其種群數(shù)量的地圖區(qū)域。在DeepMind的并發(fā)多代理研究中也獨(dú)立地觀察到類似的效果。
并發(fā)多代理研究:
https://arxiv.org/abs/1812.07019
其他見解
每個(gè)方形圖顯示位于中心的代理對(duì)其周圍代理的存在的響應(yīng)。我們?cè)诔跏蓟陀?xùn)練早期展示覓食地圖;額外的依賴圖對(duì)應(yīng)于覓食和戰(zhàn)斗的不同表述。
我們通過將代理固定在假設(shè)的地圖中心來對(duì)代理進(jìn)行可視化。對(duì)于該代理可見的每個(gè)位置,我們將顯示在該位置有第二個(gè)代理時(shí)的值函數(shù)。
我們發(fā)現(xiàn)代理商在覓食和戰(zhàn)斗環(huán)境中,可以學(xué)習(xí)依賴于其他代理的策略。代理學(xué)習(xí)“插眼(bull’s eye)”行為時(shí),在幾分鐘的訓(xùn)練后就能更有效地開始覓食。當(dāng)代理學(xué)習(xí)環(huán)境的戰(zhàn)斗力學(xué)時(shí),他們開始適當(dāng)?shù)卦u(píng)估有效的接觸范圍和接近角度。
下一步
Neural MMO解決了之前基于游戲環(huán)境的兩個(gè)主要限制,但仍有許多尚未解決。這種Neural MMO在環(huán)境復(fù)雜性和人口規(guī)模之間盡力尋求平衡。OpenAI在設(shè)計(jì)這個(gè)環(huán)境時(shí)考慮了開源擴(kuò)展,并為研究社區(qū)提供了基礎(chǔ)。
-
人工智能
+關(guān)注
關(guān)注
1792文章
47425瀏覽量
238960 -
智能體
+關(guān)注
關(guān)注
1文章
157瀏覽量
10596 -
強(qiáng)化學(xué)習(xí)
+關(guān)注
關(guān)注
4文章
268瀏覽量
11270
原文標(biāo)題:OpenAI發(fā)布Neural MMO :大型多智能體游戲環(huán)境
文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論