0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟開源“傻瓜式”類ChatGPT模型訓練工具

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-04-14 09:36 ? 次閱讀

在利用 OpenAI 的 GPT-4 為 Bing Chat、 Bing Image Creator、Microsoft 365 Copilot、Azure OpenAI Service 和 GitHub Copilot X 引入了類似 ChatGPT 的功能后。微軟現(xiàn)又宣布推出 DeepSpeed-Chat,一種用于 RLHF 訓練的低成本開源解決方案,基于微軟開源的深度學習優(yōu)化庫 DeepSpeed;聲稱即使是使用單個 GPU,任何人也都可以創(chuàng)建高質(zhì)量的 ChatGPT 式模型。

該公司表示,盡管開源社區(qū)付出了巨大的努力,但目前仍缺乏一個支持端到端的基于人工反饋機制的強化學習(RLHF)的規(guī)?;到y(tǒng),這使得訓練強大的類 ChatGPT 模型十分困難。ChatGPT 模型的訓練是基于 InstructGPT 論文中的 RLHF 方式,與常見的大語言模型的預(yù)訓練和微調(diào)截然不同,使得現(xiàn)有深度學習系統(tǒng)在訓練類 ChatGPT 模型時存在種種局限。因此,為了讓 ChatGPT 類型的模型更容易被普通數(shù)據(jù)科學家和研究者使用,并使 RLHF 訓練真正普及到 AI 社區(qū),他們發(fā)布了 DeepSpeed-Chat。

8e39ca58-d9e7-11ed-bfe3-dac502259ad0.png

DeepSpeed-Chat 具有以下三大核心功能:

簡化 ChatGPT 類型模型的訓練和強化推理體驗:只需一個腳本即可實現(xiàn)多個訓練步驟,包括使用 Huggingface 預(yù)訓練的模型、使用 DeepSpeed-RLHF 系統(tǒng)運行 InstructGPT 訓練的所有三個步驟、甚至生成你自己的類 ChatGPT 模型。此外,還提供了一個易于使用的推理 API,用于用戶在模型訓練后測試對話式交互。

DeepSpeed-RLHF 模塊:DeepSpeed-RLHF 復(fù)刻了 InstructGPT 論文中的訓練模式,并確保包括 a) 監(jiān)督微調(diào)(SFT),b) 獎勵模型微調(diào)和 c) 基于人類反饋的強化學習(RLHF)在內(nèi)的三個步驟與其一一對應(yīng)。此外,還提供了數(shù)據(jù)抽象和混合功能,以支持用戶使用多個不同來源的數(shù)據(jù)源進行訓練。

DeepSpeed-RLHF 系統(tǒng):其將 DeepSpeed 的訓練(training engine)和推理能力(inference engine) 整合到一個統(tǒng)一的混合引擎(DeepSpeed Hybrid Engine or DeepSpeed-HE)中用于 RLHF 訓練。DeepSpeed-HE 能夠在 RLHF 中無縫地在推理和訓練模式之間切換,使其能夠利用來自 DeepSpeed-Inference 的各種優(yōu)化,如張量并行計算和高性能 CUDA 算子進行語言生成,同時對訓練部分還能從 ZeRO- 和 LoRA-based 內(nèi)存優(yōu)化策略中受益。DeepSpeed-HE 還能夠自動在 RLHF 的不同階段進行智能的內(nèi)存管理和數(shù)據(jù)緩存。

文檔內(nèi)容指出,DeepSpeed Chat 與其他先進方案相比的優(yōu)勢在于:效率和經(jīng)濟性方面比現(xiàn)有系統(tǒng)快 15 倍以上,在 Azure 云上只需 9 小時即可訓練一個 OPT-13B 模型,只需 18 小時既可訓練 OPT-30B 模型,分別花費不到 300 美元和 600 美元。

在速度和可擴展性方面,即使是 13B 的模型也可以在 1.25 小時內(nèi)訓練,龐大的 175B 模型可以在不到一天的時間內(nèi)使用 64 個 GPU 集群進行訓練。在 RLHF 的可訪問性和普及化方面,則可以在單個 GPU 上訓練超過 130 億參數(shù)的模型。此外還支持在相同的硬件上分別運行 6.5B 和 50B 的模型,實現(xiàn)高達 7.5 倍的提升。

8e44b440-d9e7-11ed-bfe3-dac502259ad0.png

8e6634f8-d9e7-11ed-bfe3-dac502259ad0.png

8e7a9b3c-d9e7-11ed-bfe3-dac502259ad0.png

盡管近期關(guān)于對 ChatGPT 類大語言模型發(fā)展的反對和擔憂之聲不斷,但微軟似乎仍在全力推進其 AI 開發(fā)。對于微軟的此次發(fā)布,前 Meta AI 專家 Elvis 也激動地表示,DeepSpeed Chat 提供了 Alpaca 和 Vicuna 等所缺少的、一個端到端的 RLHF 管道來訓練類似 ChatGPT 的模型,解決的是成本和效率方面的挑戰(zhàn)。這是 “微軟令人印象深刻的開源努力。..。.. 是一件大事”。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6648

    瀏覽量

    105211
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5546

    瀏覽量

    122278
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1584

    瀏覽量

    8645

原文標題:微軟開源“傻瓜式”類ChatGPT模型訓練工具,提速省錢15倍

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何高效訓練AI模型?這些常用工具你必須知道!

    模型的發(fā)展同樣面臨瓶頸,訓練所需的硬件資源日益增加,比如英偉達的芯片、電力等(這也可能是ChatGPT5遲遲沒有出來的原因)。業(yè)界有觀點認為,在大多數(shù)情況下,并不需要全能的大模型,而
    的頭像 發(fā)表于 04-17 16:43 ?1098次閱讀
    如何高效<b class='flag-5'>訓練</b>AI<b class='flag-5'>模型</b>?這些常用<b class='flag-5'>工具</b>你必須知道!

    恩智浦eIQ Time Series Studio工具使用教程之模型訓練

    大家好,eIQ Time SeriesStudio又和大家見面啦!本章為大家?guī)?b class='flag-5'>工具核心部分-模型訓練
    的頭像 發(fā)表于 03-25 15:25 ?499次閱讀
    恩智浦eIQ Time Series Studio<b class='flag-5'>工具</b>使用教程之<b class='flag-5'>模型</b><b class='flag-5'>訓練</b>

    模型訓練:開源數(shù)據(jù)與算法的機遇與挑戰(zhàn)分析

    進行多方位的總結(jié)和梳理。 在第二章《TOP 101-2024 大模型觀點》中,蘇州盛派網(wǎng)絡(luò)科技有限公司創(chuàng)始人兼首席架構(gòu)師蘇震巍分析了大模型訓練過程中開源數(shù)據(jù)集和算法的重要性和影響,分析
    的頭像 發(fā)表于 02-20 10:40 ?413次閱讀
    大<b class='flag-5'>模型</b><b class='flag-5'>訓練</b>:<b class='flag-5'>開源</b>數(shù)據(jù)與算法的機遇與挑戰(zhàn)分析

    【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙

    ,NVDIA與微軟的競爭 。計算能力的飛速提升是大模型得以興起的重要基石。GPU/TPU 等高性能計算設(shè)備的迅猛發(fā)展,宛如為大模型訓練打造了一臺強大的引擎。它們能夠以極高的速度處理海
    發(fā)表于 12-24 13:10

    微軟否認使用用戶數(shù)據(jù)訓練AI模型

    近日,微軟公司正式否認了一項關(guān)于其使用Microsoft 365應(yīng)用程序中客戶數(shù)據(jù)來訓練人工智能模型的指控。這一聲明旨在澄清近期在社交媒體上流傳的某些用戶的疑慮和誤解。 此前,部分用戶在社交媒體平臺
    的頭像 發(fā)表于 12-02 10:33 ?343次閱讀

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個簡稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓練模型”。預(yù)訓練,是一項技術(shù),我們后面再解釋。 ? 我們現(xiàn)在口頭上常說
    的頭像 發(fā)表于 11-25 09:29 ?1.2w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    如何在 PyTorch 中訓練模型

    PyTorch 是一個流行的開源機器學習庫,廣泛用于計算機視覺和自然語言處理等領(lǐng)域。它提供了強大的計算圖功能和動態(tài)圖特性,使得模型的構(gòu)建和調(diào)試變得更加靈活和直觀。 數(shù)據(jù)準備 在訓練模型
    的頭像 發(fā)表于 11-05 17:36 ?787次閱讀

    ChatGPT:怎樣打造智能客服體驗的重要工具

    ChatGPT作為智能對話生成模型,可以幫助打造智能客服體驗的重要工具。以下是一些方法和步驟:1.數(shù)據(jù)收集和準備:收集和整理與客服相關(guān)的數(shù)據(jù),包括常見問題、回答示例、客戶對話記錄等。這將用于
    的頭像 發(fā)表于 11-01 11:12 ?354次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗的重要<b class='flag-5'>工具</b>?

    llm模型chatGPT的區(qū)別

    基于Transformer架構(gòu)的預(yù)訓練語言模型,它可以生成連貫、自然的文本。ChatGPT使用GPT模型作為基礎(chǔ),通過微調(diào)和訓練來實現(xiàn)對話生
    的頭像 發(fā)表于 07-09 09:55 ?1704次閱讀

    名單公布!【書籍評測活動NO.34】大語言模型應(yīng)用指南:以ChatGPT為起點,從入門到精通的AI實踐教程

    ,包括開源和閉源兩。閉源模型的代表有OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列。毫無疑問,目前 OpenAI 的 GPT 系列模型在整個行業(yè)中處于領(lǐng)
    發(fā)表于 06-03 11:39

    微軟將推出自研AI大模型

    微軟正在緊鑼密鼓地訓練一款全新的自研人工智能大模型——“MAI-1”。據(jù)悉,這款模型規(guī)模龐大,足以與谷歌的Gemini和OpenAI的ChatGPT
    的頭像 發(fā)表于 05-13 11:30 ?771次閱讀

    【大語言模型:原理與工程實踐】大語言模型的預(yù)訓練

    大語言模型的核心特點在于其龐大的參數(shù)量,這賦予了模型強大的學習容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學習容量的增加,對預(yù)訓練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    微軟自研AI大模型即將問世

    微軟正悄然醞釀一項重大技術(shù)突破,據(jù)內(nèi)部消息人士透露,公司正全力訓練一款名為“MAI-1”的自研人工智能大模型。這款模型備受期待,其規(guī)模龐大,足以與谷歌的Gemini和OpenAI的
    的頭像 發(fā)表于 05-07 14:46 ?609次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    模型架構(gòu)奠定基礎(chǔ)。然后,引介一些經(jīng)典的預(yù)訓練模型,如BERT、GPT等。最后,解讀ChatGPT和LLaMA系列模型,幫助讀者初步感知大語言
    發(fā)表于 05-05 12:17

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?811次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品