0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google Brain和DeepMind聯(lián)手發(fā)布可以分布式訓(xùn)練模型的框架

中科院長春光機(jī)所 ? 來源:reddit ? 作者:reddit ? 2021-06-26 15:42 ? 次閱讀

【導(dǎo)讀】AI模型進(jìn)入大數(shù)據(jù)時代,單機(jī)早已不能滿足訓(xùn)練模型的要求,最近Google Brain和DeepMind聯(lián)手發(fā)布了一個可以分布式訓(xùn)練模型的框架Launchpad,堪稱AI界的MapReduce。

正如吳恩達(dá)所言,當(dāng)代機(jī)器學(xué)習(xí)算法的成功很大程度上是由于模型和數(shù)據(jù)集大小的增加,在大規(guī)模數(shù)據(jù)下進(jìn)行分布式訓(xùn)練也逐漸變得普遍,而如何在大規(guī)模數(shù)據(jù)、大模型的情況下進(jìn)行計算,還是一個挑戰(zhàn)。

分布式學(xué)習(xí)過程也會使實現(xiàn)過程復(fù)雜化,這對于許多不熟悉分布式系統(tǒng)機(jī)制的機(jī)器學(xué)習(xí)從業(yè)者來說是個問題,尤其是那些具有復(fù)雜通信拓?fù)浣Y(jié)構(gòu)的機(jī)器學(xué)習(xí)從業(yè)者。

在arxiv上一篇新論文中,來自 DeepMind 和 Google Brain 的研究團(tuán)隊用 Launchpad 解決了這個問題,Launchpad 是一種編程模型,它簡化了定義和啟動分布式計算實例的過程。

論文的第一作者是來自DeepMind的華人Yang Fan,畢業(yè)于香港中文大學(xué)。

Launchpad 將分布式系統(tǒng)的拓?fù)涿枋鰹橐粋€圖形數(shù)據(jù)結(jié)構(gòu),這樣圖中的每個節(jié)點都代表一個服務(wù),即研究人員正在運行的基本計算單元。

將句柄構(gòu)造為節(jié)點的引用,將客戶端表示為尚未構(gòu)造的服務(wù)。

圖的邊表示兩個服務(wù)之間的通信,并在構(gòu)建時將與一個節(jié)點相關(guān)聯(lián)的句柄給予另一個節(jié)點時創(chuàng)建。

通過這種方式,Launchpad 可以通過傳遞節(jié)點句柄來定義跨服務(wù)通信。Launchpad 的計算構(gòu)建塊由不同的服務(wù)類型表示,每種服務(wù)類型由特定于該類型的節(jié)點和句柄類表示。

8bf59634-d5af-11eb-9e57-12bb97331649.png

論文中提出的 Launchpad 的生命周期可以分為三個階段: 設(shè)置、啟動和執(zhí)行。設(shè)置階段構(gòu)造程序數(shù)據(jù)結(jié)構(gòu); 在啟動階段,處理這個數(shù)據(jù)結(jié)構(gòu)以分配資源、地址等,并啟動指定服務(wù); 然后執(zhí)行階段運行服務(wù),例如為服務(wù)通信創(chuàng)建客戶端。

Launchpad 是用流行的編程語言 Python 實現(xiàn)的,它簡化了定義程序和節(jié)點數(shù)據(jù)結(jié)構(gòu)以及為單個平臺啟動的過程。Launchpad 框架還可以很容易地用任何其他宿主語言實現(xiàn),包括 c/c + + 等低級編程語言。

8cd0f1fc-d5af-11eb-9e57-12bb97331649.png

Launchpad 編程模型非常豐富,足以容納各種各樣的分布式系統(tǒng),包括參數(shù)服務(wù)器、 MapReduce和 Evolution Strategies。

研究人員用簡潔的代碼詳細(xì)描述了如何將 Launchpad 應(yīng)用到這些常見的分布式系統(tǒng)范例中,并說明了該框架在簡化本研究領(lǐng)域常用機(jī)器學(xué)習(xí)算法和組件的設(shè)計過程方面的能力。

總的來說,Launchpad 是一個實用的、用戶友好的、表達(dá)性強的框架,用于機(jī)器學(xué)習(xí)研究人員和實踐者詳細(xì)說明分布式系統(tǒng),作者表示,這個框架能夠處理日益復(fù)雜的機(jī)器學(xué)習(xí)模型。其他框架

2020年,DeepMind 發(fā)布過一個強化學(xué)習(xí)優(yōu)化框架Acme,可以讓AI驅(qū)動的智能體在不同的執(zhí)行規(guī)模上運行,從而簡化強化學(xué)習(xí)算法的開發(fā)過程。

強化學(xué)習(xí)可以讓智能體與環(huán)境互動,生成他們自己的訓(xùn)練數(shù)據(jù),這在電子游戲、機(jī)器人技術(shù)、自動駕駛機(jī)器人出租車等領(lǐng)域取得了突破。

隨著所使用的訓(xùn)練數(shù)據(jù)量的增加,這促使設(shè)計了一個系統(tǒng),使智能體與環(huán)境實例相互作用,迅速積累經(jīng)驗。DeepMind 斷言,將算法的單進(jìn)程原型擴(kuò)展到分布式系統(tǒng)通常需要重新實現(xiàn)相關(guān)的智能體,這就是 Acme 框架的用武之地。

DeepMind研究員寫道,「Acme 是一個用于構(gòu)建可讀、高效、面向研究的 RL 算法的框架。Acme 的核心是設(shè)計用于簡單描述 RL 智能體,這些智能體可以在不同規(guī)模的執(zhí)行中運行,包括分布式智能體?!?/p>

Determined AI也是一個深度學(xué)習(xí)神器。Determined使深度學(xué)習(xí)工程師可以集中精力大規(guī)模構(gòu)建和訓(xùn)練模型,而無需擔(dān)心DevOps,或者為常見任務(wù)(如容錯或?qū)嶒灨櫍┚帉懘a。更快的分布式訓(xùn)練,智能的超參優(yōu)化,實驗跟蹤和可視化。

一萬億模型要來了?谷歌大腦和DeepMind聯(lián)手發(fā)布分布式訓(xùn)練框架Launchpad

Determined主要運用了Horovod,以Horovod為起點,研究人員運用了多年的專業(yè)知識和經(jīng)驗,使得整個訓(xùn)練過程比庫存配置要快得多。

Horovod 是一套面向TensorFlow 的分布式訓(xùn)練框架,由Uber 構(gòu)建并開源,目前已經(jīng)運行于Uber 的Michelangelo 機(jī)器學(xué)習(xí)即服務(wù)平臺上。Horovod 能夠簡化并加速分布式深度學(xué)習(xí)項目的啟動與運行。當(dāng)數(shù)據(jù)較多或者模型較大時,為提高機(jī)器學(xué)習(xí)模型訓(xùn)練效率,一般采用多 GPU 的分布式訓(xùn)練。TensorFlow 集群存在諸多缺點,如概念太多、學(xué)習(xí)曲線陡峭、修改的代碼量大、性能損失較大等,而 Horovod 則讓深度學(xué)習(xí)變得更加美好,隨著規(guī)模增大,Horovod 性能基本是線性增加的,損失遠(yuǎn)小于 TensorFlow。

2019年,字節(jié)跳動AI lab開源了一款高性能分布式框架BytePS,在性能上顛覆了過去幾年allreduce流派一直占據(jù)上風(fēng)的局面,超出目前其他所有分布式訓(xùn)練框架一倍以上的性能,且同時能夠支持Tensorflow、PyTorch、MXNet等開源庫。

BytePS 提供了 TensorFlow、PyTorch、 MXNet 以及Keras的插件,用戶只要在代碼中引用BytePS的插件,就可以獲得高性能的分布式訓(xùn)練。BytePS的核心邏輯,則實現(xiàn)在BytePS core里。具體的通信細(xì)節(jié),完全由BytePS完成,用戶完全不需要操心。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4740

    瀏覽量

    128951
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3349

    瀏覽量

    42501
  • 分布式
    +關(guān)注

    關(guān)注

    1

    文章

    899

    瀏覽量

    74509
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8418

    瀏覽量

    132646
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    808

    瀏覽量

    13226
收藏 人收藏

    評論

    相關(guān)推薦

    HarmonyOS Next 應(yīng)用元服務(wù)開發(fā)-分布式數(shù)據(jù)對象遷移數(shù)據(jù)權(quán)限與基礎(chǔ)數(shù)據(jù)

    使用分布式數(shù)據(jù)對象遷移數(shù)據(jù),當(dāng)需要遷移的數(shù)據(jù)較大(100KB以上)或需要遷移文件時,可以使用分布式數(shù)據(jù)對象。原理與接口說明詳見分布式數(shù)據(jù)對象跨設(shè)備數(shù)據(jù)同步。 說明:自API 12起,由
    發(fā)表于 12-24 09:40

    大語言模型開發(fā)框架是什么

    大語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言模型開發(fā)
    的頭像 發(fā)表于 12-06 10:28 ?125次閱讀

    Google DeepMind發(fā)布Genie 2:打造交互3D虛擬世界

    在OpenAI宣布即將發(fā)布模型和新功能后,Google DeepMind也不甘落后,于近日推出了大型基礎(chǔ)世界模型——Genie 2。這款
    的頭像 發(fā)表于 12-05 14:16 ?458次閱讀

    分布式通信的原理和實現(xiàn)高效分布式通信背后的技術(shù)NVLink的演進(jìn)

    的大小已經(jīng)超出了單個 GPU 的范圍。所以就需要實現(xiàn)跨多個 GPU 的模型訓(xùn)練,這種訓(xùn)練方式就涉及到了分布式通信和 NVLink。 當(dāng)談及分布式
    的頭像 發(fā)表于 11-18 09:39 ?453次閱讀
    <b class='flag-5'>分布式</b>通信的原理和實現(xiàn)高效<b class='flag-5'>分布式</b>通信背后的技術(shù)NVLink的演進(jìn)

    分布式光纖測溫是什么?應(yīng)用領(lǐng)域是?

    時,該處的散射光特性會受到影響。通過高速信號采集與數(shù)據(jù)處理技術(shù),可以準(zhǔn)確地定位發(fā)生溫度變化的位置,并給出實時的溫度信息。簡而言之,分布式光纖測溫技術(shù)將整條傳輸光纖作為傳感器,光纖上的每一點都兼具“傳”和“感”
    的頭像 發(fā)表于 10-24 15:30 ?375次閱讀
    <b class='flag-5'>分布式</b>光纖測溫是什么?應(yīng)用領(lǐng)域是?

    NetApp與Google Cloud深化合作,強化分布式云存儲

    智能數(shù)據(jù)基礎(chǔ)設(shè)施領(lǐng)導(dǎo)者NetApp?宣布,其與Google Cloud的戰(zhàn)略合作再升級。此次合作中,NetApp將統(tǒng)一數(shù)據(jù)存儲和智能服務(wù)融入Google Distributed Cloud架構(gòu),為分布式云基礎(chǔ)設(shè)施提供強大支撐。
    的頭像 發(fā)表于 10-11 17:21 ?497次閱讀

    分布式故障在線監(jiān)測|高精度技術(shù)選用 行波特征 故診模型

    輸電線路故障是電力系統(tǒng)中不可避免的問題,但通過深入分析其成因并采取有效的防范策略,我們可以最大限度地減少故障的發(fā)生,保障電網(wǎng)的安全穩(wěn)定運行。以下是深圳鼎信智慧科技為您講述關(guān)于鼎信分布式故障在線監(jiān)測
    的頭像 發(fā)表于 10-11 12:00 ?102次閱讀

    摩爾線程攜手憨猴集團(tuán),深化AI算力戰(zhàn)略合作,成功實現(xiàn)大模型分布式訓(xùn)練

    摩爾線程與憨猴科技集團(tuán)日前宣布,采用搭載摩爾線程的夸娥(KUAE)千卡智算集群,已成功完成了多個大模型分布式訓(xùn)練,涵蓋7B、34B以及70B三個不同的計算規(guī)模等級。
    的頭像 發(fā)表于 05-17 17:24 ?690次閱讀

    大語言模型:原理與工程時間+小白初識大語言模型

    分布式表示,基于預(yù)訓(xùn)練的詞嵌入表示。 獨熱表示就是在一個大的向量空間中,其中一個位1,其余都為0,這樣就會變成單獨的。 詞的分布式表示:根據(jù)上下文進(jìn)行推斷語義。 基于預(yù)訓(xùn)練的詞嵌入表
    發(fā)表于 05-12 23:57

    為大模型專門優(yōu)化 浪潮信息發(fā)布分布式全閃存儲AS13000G7-N系列

    北京2024年5月10日?/美通社/ -- 近日,浪潮信息發(fā)布為大模型專門優(yōu)化的分布式全閃存儲AS13000G7-N系列。該系列依托浪潮信息自研分布式文件系統(tǒng),搭載新一代數(shù)據(jù)加速引擎
    的頭像 發(fā)表于 05-10 16:37 ?430次閱讀
    為大<b class='flag-5'>模型</b>專門優(yōu)化 浪潮信息<b class='flag-5'>發(fā)布</b><b class='flag-5'>分布式</b>全閃存儲AS13000G7-N系列

    浪潮信息發(fā)布為大模型專門優(yōu)化的分布式全閃存儲AS13000G7-N系列

    近日,浪潮信息發(fā)布為大模型專門優(yōu)化的分布式全閃存儲AS13000G7-N系列。該系列依托浪潮信息自研分布式文件系統(tǒng),搭載新一代數(shù)據(jù)加速引擎DataTurbo,
    的頭像 發(fā)表于 05-08 09:38 ?566次閱讀
    浪潮信息<b class='flag-5'>發(fā)布</b>為大<b class='flag-5'>模型</b>專門優(yōu)化的<b class='flag-5'>分布式</b>全閃存儲AS13000G7-N系列

    【大語言模型:原理與工程實踐】大語言模型的預(yù)訓(xùn)練

    增長。DeepMind在相關(guān)論文中指出,模型大小和訓(xùn)練Token數(shù)應(yīng)以相似速率增長,以確保最佳性能。因此,構(gòu)建與模型規(guī)模相匹配的預(yù)訓(xùn)練數(shù)據(jù)至
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    概率推斷,利用共現(xiàn)矩陣學(xué)習(xí)每個詞的主題分布,進(jìn)而將其作為詞的表示向量。在大規(guī)模語料庫中進(jìn)行模型訓(xùn)練,使語義相似的詞具有相似的主題分布。然而,這類方法存在一個問題,即
    發(fā)表于 05-05 12:17

    鴻蒙OS 分布式任務(wù)調(diào)度

    鴻蒙OS 分布式任務(wù)調(diào)度概述 在 HarmonyO S中,分布式任務(wù)調(diào)度平臺對搭載 HarmonyOS 的多設(shè)備構(gòu)筑的“超級虛擬終端”提供統(tǒng)一的組件管理能力,為應(yīng)用定義統(tǒng)一的能力基線、接口
    的頭像 發(fā)表于 01-29 16:50 ?500次閱讀

    什么是分布式架構(gòu)?

    1.獨立性:分布式架構(gòu)中的各個節(jié)點是獨立運行的,它們沒有依賴關(guān)系,可以單獨進(jìn)行升級、維護(hù)和擴(kuò)展。 2.通信性:分布式架構(gòu)中的各個節(jié)點通過網(wǎng)絡(luò)連接進(jìn)行通信和協(xié)作,以實現(xiàn)數(shù)據(jù)的傳輸和共享。 3.負(fù)載均衡:
    的頭像 發(fā)表于 01-12 15:04 ?1244次閱讀
    什么是<b class='flag-5'>分布式</b>架構(gòu)?