0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind分享了他們在多智能體學(xué)習(xí)方面的進展

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-07-05 09:32 ? 次閱讀

繼OpenAI之后,DeepMind也在多智能體強化學(xué)習(xí)方面秀肌肉:首次在第一人稱射擊游戲的多人模式中完勝人類,而且沒有使用大量訓(xùn)練局數(shù),輕松超過了人類水平。

就在OpenAI宣布在5v5 DOTA 2中戰(zhàn)勝人類玩家后沒多久,今天,DeepMind也分享了他們在多智能體學(xué)習(xí)(multi-agent learning)方面的進展。

CEO Hassabis在Twitter上分享:“我們最新的工作展示了智能體在復(fù)雜的第一人稱多人游戲中達到人類水平,還能與人類玩家合作!”

Hassbis說的這個游戲,就是《雷神之錘III競技場》,這也是很多現(xiàn)代第一人稱射擊游戲的鼻祖,玩家或獨立或組隊在地圖中廝殺,死亡后數(shù)秒在地圖某處重生。當(dāng)某一方達到勝利條件(在DeepMind的實驗里就是搶奪更多的旗幟),或者游戲持續(xù)一定時間后即宣告回合結(jié)束。勝利條件取決于選擇的游戲模式。

雖然Hassbis在Twitter里說他們的AI“達到了人類水平”,實際上,從實驗結(jié)果看,他們的AI已經(jīng)超越了人類:在與由40個人類玩家組成的隊伍對戰(zhàn)時,純AI的隊伍完勝純?nèi)祟惖年犖椋ㄆ骄鄵尩?6面旗),并且有95%的幾率戰(zhàn)勝AI與人混合組成的隊伍。

這個AI名叫“為了贏”(For the Win,F(xiàn)TW),只玩了將近45萬場游戲,理解了如何有效地與人和其他的機器合作與競爭。

研究人員對AI的唯一限定是,在5分鐘時間里盡可能取得多的旗幟。對戰(zhàn)的游戲地圖是隨機生成的,每場都會變,室內(nèi)與室外的地形也不相同。組隊的時候,AI可能與人組隊,也可能與其他AI組隊。對戰(zhàn)的模式分為慢速和高速兩種。

在訓(xùn)練過程中,AI發(fā)展出了自己的獎勵機制,學(xué)會了基地防守、尾隨隊友,或者守在敵人營地外偷襲等策略。

DeepMind在他們今天發(fā)表的博客文章中寫道,從多智能體的角度說,玩《雷神之錘III》這種多人視頻游戲,需要與隊友合作,與敵方競爭,還要對遭遇到的任何對戰(zhàn)風(fēng)格/策略保持魯棒性。

分析發(fā)現(xiàn),游戲中,AI在“tagging”(碰觸對方,將其送回地圖上的初始地點)上比人類更加高效,80%的情況下能夠成功(人類為48%)。

而且有趣的是,對參與對戰(zhàn)的人類玩家進行調(diào)查后發(fā)現(xiàn),大家普遍認為AI是更好的team player,更善于合作。

第一人稱射擊游戲多人模式重大突破

啟元世界首席算法官、前Netflix資深算法專家王湘君告訴新智元:

之前第一人稱射擊(FPS)游戲的研究更多是單人模式,這次DeepMind在FPS多人模式做出了重大突破,在沒有使用大量訓(xùn)練局數(shù)的情況下就超過了人類水平。和之前OpenAI Five相比,DeepMind的Capture the Flag (CTF) 模型直接從pixel學(xué)習(xí),沒有作feature engineering和為每個agent單獨訓(xùn)練模型,得益于以下創(chuàng)新:

去年DeepMind Max Jaderberg 提出的Population-based training 的應(yīng)用極大提高了訓(xùn)練效率,并且提供了多樣化的exploration,幫助模型在不同地形隊友環(huán)境中的適應(yīng)性,實驗結(jié)果顯示比self-play的結(jié)果更好更高效。

For The Win agent 的分層reward機制來解決credit assignment問題。

用fast and slow RNN 和內(nèi)存機制達到類似Hierarchical RL的作用。

不過,F(xiàn)PS在策略學(xué)習(xí)上面的難度還是比Dota,星際這種RTS游戲小很多,CTF模型在長期策略游戲上效果還有待觀察。

在和人類對戰(zhàn)模式之外,CTF模型同時在人機協(xié)作上有很好的效果。值得一提的是,啟元世界在今年4月份北大ACM總決賽期間發(fā)布的基于星際爭霸2的人機協(xié)作挑戰(zhàn)賽,其智能體也率先具備了與人和AI組隊協(xié)作的能力。人機協(xié)作在未來的人工智能研究領(lǐng)域?qū)⒊蔀榉浅V匾囊画h(huán)。

掌握策略,理解戰(zhàn)術(shù)和團隊合作

在多人視頻游戲中掌握策略、戰(zhàn)術(shù)理解和團隊合作是人工智能研究的關(guān)鍵挑戰(zhàn)?,F(xiàn)在,由于強化學(xué)習(xí)取得的新進展,我們的智能體已經(jīng)在《雷神之錘III競技場》(Quake III Arena)游戲中達到了人類級別的表現(xiàn),這是一個經(jīng)典的3D第一人稱多人游戲,也是一個復(fù)雜的多智能體環(huán)境。這些智能體展現(xiàn)出同時與人工智能體和人類玩家合作的能力。

我們居住的星球上有數(shù)十億人,每個人都有自己的個人目標(biāo)和行動,但我們?nèi)匀荒軌蛲ㄟ^團隊、組織和社會團結(jié)起來,展現(xiàn)出顯著的集體智慧。這是我們稱之為多智能體學(xué)習(xí)(multi-agentlearning)的設(shè)置:許多個體的智能體必須能夠獨立行動,同時還要學(xué)會與其他智能體交互和合作。這是一個極其困難的問題——因為有了共適應(yīng)智能體,世界在不斷地變化。

為了研究這個問題,我們選擇了3D第一人稱多人視頻游戲。這些游戲是最流行的電子游戲類型,由于它們身臨其境的游戲設(shè)計,以及它們在策略、戰(zhàn)術(shù)、手眼協(xié)調(diào)和團隊合作方面的挑戰(zhàn),吸引了數(shù)以百萬計的玩家。我們的智能體面臨的挑戰(zhàn)是直接從原始像素中學(xué)習(xí)以產(chǎn)生操作。這種復(fù)雜性使得第一人稱多人游戲成為人工智能社區(qū)一個非?;钴S而且得到許多成果的研究領(lǐng)域。

我們的這項工作關(guān)注的游戲是《雷神之錘III競技場》(我們對其進行了一些美術(shù)上的修改,但所有游戲機制保持不變)?!独咨裰NIII競技場》是為許多現(xiàn)代第一人稱視頻游戲奠定了基礎(chǔ),并吸引了長期以來競爭激烈的電子競技場面。我們訓(xùn)練智能體作為個體學(xué)習(xí)和行動,但必須能夠與其他智能體或人類組成團隊作戰(zhàn)。

CTF(Capture The Flag)的游戲規(guī)則很簡單,但是動態(tài)很復(fù)雜。在Quake3里分成藍紅兩隊在給定的地圖中競賽。競賽的目的是將對方的旗子帶回來,并且碰觸未被移動過的我方旗子,我隊就得一分,稱作一個capture。為了獲得戰(zhàn)術(shù)上的優(yōu)勢,他們可以會碰觸地方的隊員(tagging),把他們送回自己的地盤。在五分鐘內(nèi)capture到最多旗子的隊伍獲勝。

從多智能體的角度看,CTF要求隊員既要成功地與隊友合作,又要與對方敵手競爭,同時在可能遇到的任何比賽風(fēng)格中保持穩(wěn)健性。

FTW智能體:等級分遠超基線方法和人類玩家

為了使事情更有趣,我們設(shè)計了CTF的一種變體,令地圖的布局在每一場競賽中發(fā)生改變。這樣,我們的智能體被迫要采用一般性策略,而不是記住地圖的布局。此外,為了讓游戲更加公平,智能體要以類似于人類的方式體驗CTF的世界:它們觀察一系列的像素圖像,并通過模擬游戲控制器發(fā)出動作。

CTF是在程序生成的環(huán)境中執(zhí)行的,因此,智能體必須要適應(yīng)不可見的地圖。

智能體必須從頭開始學(xué)習(xí)如何在不可見(unseen)的環(huán)境中觀察、行動、合作和競爭,所有這些都來自每場比賽的一個強化信號:他們的團隊是否獲勝。這是一個具有挑戰(zhàn)性的學(xué)習(xí)問題,它的解決方法基于強化學(xué)習(xí)的三個一般思路:

我們不是訓(xùn)練一個智能體,而是訓(xùn)練一群智能體,它們通過組隊玩游戲來學(xué)習(xí),提供了多樣化的隊友和敵手。

群體中的每個智能體都學(xué)習(xí)自己的內(nèi)部獎勵信號,這些信號使得智能體能夠產(chǎn)生自己的內(nèi)部目標(biāo),例如奪取一面旗子。雙重優(yōu)化過程可以直接為了獲勝優(yōu)化智能體的內(nèi)部獎勵,并使用內(nèi)部獎勵的強化學(xué)習(xí)來學(xué)習(xí)智能體的策略。

智能體在兩個時間尺度上運行,快速和慢速,這提高了它們使用內(nèi)存和產(chǎn)生一致動作序列的能力。

圖: For The Win (FTW)智能體架構(gòu)的示意圖。該智能體將快速和慢速兩個時間尺度的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)相結(jié)合,包括一個共享記憶模塊,并學(xué)習(xí)從游戲點到內(nèi)部獎勵的轉(zhuǎn)換。

由此產(chǎn)生的智能體,我們稱之為For The Win(FTW)智能體,它學(xué)會了以非常高的標(biāo)準(zhǔn)玩CTF。最重要的是,學(xué)會的智能體策略對地圖的大小、隊友的數(shù)量以及團隊中的其他參與者都具有穩(wěn)健性。

下面演示了FTW智能體互相競爭的室外程序環(huán)境游戲,以及人類和智能體競爭的室內(nèi)程序環(huán)境的游戲。

圖:交互式CTF游戲瀏覽器,分別有室內(nèi)和室外的程序生成環(huán)境。室外地圖游戲是FTW智能體相互之間的競賽,而室內(nèi)地圖上的游戲則是人類與FTW智能體之間的競賽(見圖標(biāo))。

我們舉辦了一場比賽,包括40名人類玩家。在比賽中,人類和智能體都是隨機配對的——可以作為敵手或者作為隊友。

一場早期的測試比賽,由人類與訓(xùn)練好的智能體一起玩CTF。

FTW智能體學(xué)會的比強大的基線方法更強,并超過人類玩家的勝率。事實上,在一項對參與者的調(diào)查中,它們被認為比人類參與者更具有合作精神。

訓(xùn)練期間我們的智能體的表現(xiàn)。我們新的FTW智能體相比人類玩家和Self-play + RS和Self-play的基線方法獲得了更高的Elo等級分——獲勝的概率也更高。

除了性能評估之外,理解這些智能體的行為和內(nèi)部表示的復(fù)雜性是很重要的。

為了理解智能體如何表示游戲狀態(tài),我們研究了在平面上繪制的智能體的神經(jīng)網(wǎng)絡(luò)的激活模式。下圖中的點表示游戲過程中的情況,近處的點表示類似的激活模式。這些點是根據(jù)高級CTF游戲狀態(tài)進行著色的,在這些狀態(tài)中智能體要問自己:智能體在哪個房間?旗子的狀態(tài)是怎樣的?可以看到哪些隊友和敵手?我們觀察到相同顏色的集群,表明智能體以類似的方式表示類似的高級游戲狀態(tài)。

智能體如何表示游戲世界。不同的情形在概念上對應(yīng)于同一游戲情境,并由智能體相似地表示出來。訓(xùn)練好的智能體甚至展示了一些人工神經(jīng)元,這些神經(jīng)元直接為特定情況編碼。

智能體從未被告知游戲的規(guī)則,但是它可以學(xué)習(xí)基本的游戲概念,并能有效地建立CTF直覺。事實上,我們可以找到一些特定的神經(jīng)元,它們可以直接編碼一些最重要的游戲狀態(tài),比如當(dāng)智能體的旗子被奪走時激活的神經(jīng)元,或者當(dāng)它的隊友奪到對方的旗子時激活的神經(jīng)元。我們在論文中進一步分析了智能體對記憶和視覺注意力的使用。

除了這種豐富的表示,智能體還會如何行動呢?首先,我們注意到這些智能體的反應(yīng)時間非???,tagging也非常準(zhǔn)確,這可以解釋為它們的性能。但是,通過人為地降低tagging的準(zhǔn)確度和反應(yīng)時間,我們發(fā)現(xiàn)這只是它們成功的因素之一。

訓(xùn)練后人為地降低了智能體的tagging精度和tagging反應(yīng)時間。即使在具有于人類相當(dāng)?shù)臏?zhǔn)確度和反應(yīng)時間下,智能體的性能仍高于人類。

通過無監(jiān)督學(xué)習(xí),我們建立了智能體和人類的原型行為( prototypical behaviours),發(fā)現(xiàn)智能體實際上學(xué)習(xí)了類似人類的行為,例如跟隨隊友并在對手的基地扎營。

訓(xùn)練好的智能體表現(xiàn)出來的自動發(fā)現(xiàn)行為的3個例子。

這些行為出現(xiàn)在訓(xùn)練過程中,通過強化學(xué)習(xí)和群體層面的進化,一些行為——比如跟隨隊友——隨著智能體學(xué)會以更加互補的方式合作而減少。

左上方顯示的是30個智能體在訓(xùn)練和發(fā)展過程中的Elo等級分。右上角顯示了這些進化事件的遺傳樹( genetic tree)。下方的圖表顯示了整個智能體訓(xùn)練過程中知識的發(fā)展,一些內(nèi)部獎勵,以及行為概率。

總結(jié)和展望

最近,研究界在復(fù)雜游戲領(lǐng)域做出了非常令人印象深刻的工作,例如星際爭霸2和Dota 2。我們的這篇論文聚焦于《雷神之錘III競技場》的奪旗模式,它的研究貢獻是具有普遍性的。我們很希望看到其他研究人員在不同的復(fù)雜環(huán)境中重建我們的技術(shù)。未來,我們還希望進一步改進目前的強化學(xué)習(xí)和群體訓(xùn)練方法。總的來說,我們認為這項工作強調(diào)了多智能體訓(xùn)練對促進人工智能發(fā)展的潛力:利用多智能體訓(xùn)練的自然設(shè)置,并促進強大的、甚至能與人類合作的智能體的開發(fā)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1793

    文章

    47567

    瀏覽量

    239426
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    163

    瀏覽量

    10600
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    10901

原文標(biāo)題:【DOTA之后新里程碑】DeepMind強化學(xué)習(xí)重大突破:AI在多人射擊游戲完勝人類!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)自然語言處理方面的研究進展

    要是關(guān)注深度學(xué)習(xí)自然語言處理方面的研究進展,我相信你一定聽說過Attention Model(后文有時會簡
    的頭像 發(fā)表于 07-19 09:20 ?7550次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>自然語言處理<b class='flag-5'>方面的</b>研究<b class='flag-5'>進展</b>

    未來的AI 深挖谷歌 DeepMind 和它背后的技術(shù)

    Suleyman和Shane Legg創(chuàng)立的,他們都是人工智能的愛好者,有些人將他們視為深度學(xué)習(xí)的先驅(qū)者。 自成立以來,DeepMind
    發(fā)表于 08-26 12:04

    介紹智能體系統(tǒng)的解決方案以及應(yīng)用

    方向參考摘要強化學(xué)習(xí)算法已經(jīng)存在幾十年,并被用于解決各種順序決策問題。然而,這些算法處理高維環(huán)境時卻面臨著巨大的挑戰(zhàn)。深度學(xué)習(xí)的最新發(fā)展使RL方法能夠為復(fù)雜和有能力的
    發(fā)表于 07-12 08:44

    華為公司3G專利方面的進展

    華為公司3G專利方面的進展 截止到2003年4月底,移動領(lǐng)域華為已經(jīng)累計申請中國發(fā)明專利732件,其中3G技術(shù)領(lǐng)域546件。除此以外還
    發(fā)表于 06-13 22:28 ?945次閱讀

    機器學(xué)習(xí)簡單運用方面的基礎(chǔ)知識

    本文科普機器學(xué)習(xí)方面的知識,簡單介紹機器學(xué)習(xí)可以做什么,以及如何做的。以下是譯文。 在過去的幾個月中,我與很多的決策者交流了有關(guān)人工
    發(fā)表于 11-15 11:41 ?1431次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>簡單運用<b class='flag-5'>方面的</b>基礎(chǔ)知識

    袁進輝:分享深度學(xué)習(xí)框架方面的技術(shù)進展

    1月17日,院友袁進輝博士回到微軟亞洲研究院做了題為《打造最強深度學(xué)習(xí)引擎》的報告,分享深度學(xué)習(xí)框架方面的技術(shù)進展。
    的頭像 發(fā)表于 01-25 09:23 ?4837次閱讀
    袁進輝:分享<b class='flag-5'>了</b>深度<b class='flag-5'>學(xué)習(xí)</b>框架<b class='flag-5'>方面的</b>技術(shù)<b class='flag-5'>進展</b>

    意法半導(dǎo)體展示其功率GaN方面的研發(fā)進展

    今年9月,意法半導(dǎo)體展示功率GaN方面的研發(fā)進展,并宣布將建設(shè)一條完全合格的生產(chǎn)線,包括GaN-on-Si異質(zhì)外延。
    的頭像 發(fā)表于 12-18 16:52 ?5205次閱讀

    谷歌量子計算機學(xué)習(xí)任務(wù)方面取得新進展

    谷歌人工智能量子(Google AI Quantum)團隊最近發(fā)表兩篇論文,介紹他們在理解量子計算機學(xué)習(xí)任務(wù)
    的頭像 發(fā)表于 01-07 10:45 ?2737次閱讀

    谷歌、DeepMind重磅推出PlaNet 強化學(xué)習(xí)新突破

    Google AI 與 DeepMind 合作推出深度規(guī)劃網(wǎng)絡(luò) (PlaNet),這是一個純粹基于模型的智能,能從圖像輸入中學(xué)習(xí)世界模型,完成多項規(guī)劃任務(wù),數(shù)據(jù)效率平均提升50倍,強
    的頭像 發(fā)表于 02-17 09:30 ?3361次閱讀
    谷歌、<b class='flag-5'>DeepMind</b>重磅推出PlaNet 強化<b class='flag-5'>學(xué)習(xí)</b>新突破

    DeepMind 綜述深度強化學(xué)習(xí) 智能和人類相似度竟然如此高

    近年來,深度強化學(xué)習(xí)(Deep reinforcement learning)方法人工智能方面取得了矚目的成就,從 Atari 游戲、到圍棋、再到無限制撲克等領(lǐng)域,AI 的表現(xiàn)都大大
    的頭像 發(fā)表于 05-30 17:29 ?2759次閱讀
    <b class='flag-5'>DeepMind</b> 綜述深度強化<b class='flag-5'>學(xué)習(xí)</b> <b class='flag-5'>智能</b><b class='flag-5'>體</b>和人類相似度竟然如此高

    DeepMind阿爾法被打臉,華為論文指出多項問題

    DeepMind 強化學(xué)習(xí)領(lǐng)域具有很高的學(xué)術(shù)聲譽。從 AlphaGo 到 AlphaStar,每一項研究都取得了舉世矚目的成就,但就在最近,DeepMind 的一篇有關(guān)
    的頭像 發(fā)表于 11-22 16:26 ?3242次閱讀
    <b class='flag-5'>DeepMind</b>阿爾法被打臉,華為論文指出多項問題

    智能路徑規(guī)劃研究綜述

    智能路徑規(guī)劃是一類尋找多個智能從起始位置到目標(biāo)位置且無沖突的最優(yōu)路徑集合的問題,針對該問題的研究
    發(fā)表于 06-04 11:56 ?4次下載

    內(nèi)存計算IMC用于人工智能加速方面的研究進展

    內(nèi)存計算(In-memory Computing ,簡稱IMC)似乎是EnCharge AI實現(xiàn)高效率和低功耗的關(guān)鍵因素。該公司在其網(wǎng)站上列出了2019年、2020年和2021年的四份出版物,展示他們改善IMC用于人工
    的頭像 發(fā)表于 02-02 13:51 ?1743次閱讀

    黑芝麻智能在BEV感知方面的研發(fā)進展

    日前,由黑芝麻智能主辦的“2023智能汽車高峰論壇”上,黑芝麻智能深度學(xué)習(xí)研發(fā)高級總監(jiān)王祚官發(fā)表
    的頭像 發(fā)表于 05-15 16:39 ?1583次閱讀

    語言模型做先驗,統(tǒng)一強化學(xué)習(xí)智能,DeepMind選擇走這條通用AI之路

    智能的開發(fā)中,強化學(xué)習(xí)與大語言模型、視覺語言模型等基礎(chǔ)模型的進一步融合究竟能擦出怎樣的火花?谷歌 DeepMind 給了我們新的答案。
    的頭像 發(fā)表于 07-24 16:55 ?548次閱讀
    語言模型做先驗,統(tǒng)一強化<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>,<b class='flag-5'>DeepMind</b>選擇走這條通用AI之路