0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓練數(shù)據(jù)

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2024-09-06 14:59 ? 次閱讀

Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成式 AI 訓練的數(shù)據(jù)集。

NVIDIA 于近日發(fā)布Nemotron-4 340B。開發(fā)者可以使用這組開源模型生成用于訓練大語言模型(LLM)的合成數(shù)據(jù),訓練出的 LLM 可用于醫(yī)療、金融、制造、零售等各個行業(yè)的商業(yè)應用。

高質量的訓練數(shù)據(jù)對于自定義 LLM 的性能、準確性和回答質量來說至關重要,但強大的數(shù)據(jù)集通常非常昂貴且難以獲得。

通過獨樹一幟的開源模型許可證,Nemotron-4 340B 為開發(fā)者提供了一種免費、可擴展的合成數(shù)據(jù)生成方法,幫助他們構建強大的 LLM。

Nemotron-4 340B 系列包含基礎模型、指導模型和獎勵模型,由它們組成的流水線能夠生成用于訓練和完善 LLM 的合成數(shù)據(jù)。為了能夠與NVIDIA NeMo協(xié)同工作,這些模型專門進行了優(yōu)化。NVIDIA NeMo 是一個適用于端到端模型訓練的開源框架,涵蓋數(shù)據(jù)管護、定制、評估等步驟。該系列模型還針對開源NVIDIA TensorRT-LLM庫的推理進行了優(yōu)化。

Nemotron-4 340B 現(xiàn)已可以從NVIDIA NGC目錄和 Hugging Face 下載。開發(fā)者很快就能在 ai.nvidia.com 上訪問這些模型,它們將被打包成帶有標準應用編程接口的NVIDIA NIM微服務,可在任意位置進行部署。

將 Nemotron 用于生成合成數(shù)據(jù)

在難以獲得大型多樣化標記數(shù)據(jù)集的情況下,這些 LLM 可以幫助開發(fā)者生成合成訓練數(shù)據(jù)。

Nemotron-4 340B Instruct模型可生成各種模擬現(xiàn)實世界數(shù)據(jù)特征的合成數(shù)據(jù),通過提高數(shù)據(jù)質量,增強自定義 LLM 在各個領域的性能和穩(wěn)健性。

隨后,為了提高 AI 生成數(shù)據(jù)的質量,開發(fā)者可以使用Nemotron-4 340B Reward模型來篩選高質量的回答。Nemotron-4 340B Reward 模型根據(jù)五個方面對回答進行評分,這五個方面分別是:有用性、正確性、連貫性、復雜性和冗長性。該模型目前在 AI2 專為評估獎勵模型能力、安全性和缺陷而創(chuàng)建的“Hugging Face RewardBench 排行榜”上排名第一。

wKgZombaqFaAYqNYAAEgri7KFqc769.jpg

在這個合成數(shù)據(jù)生成流水線中,(1)Nemotron-4 340B Instruct 模型首先生成基于文本的合成輸出。然后來到評估模型,

(2)Nemotron-4 340B Reward 模型對生成的文本進行評估,并提供指導反復改進的反饋,確保合成數(shù)據(jù)準確、相關且符合特定要求。

研究者還可以使用自己的專有數(shù)據(jù),并結合隨附的HelpSteer2 數(shù)據(jù)集自定義 Nemotron-4 340B Base 模型,創(chuàng)造出自己的指導或獎勵模型。

使用 NeMo 進行微調

并使用 TensorRT-LLM 優(yōu)化推理

開發(fā)者可以使用開源的 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 提高其指導和獎勵模型的效率,以便生成合成數(shù)據(jù)并對回答進行評分。

所有 Nemotron-4 340B 模型均使用 TensorRT-LLM 優(yōu)化,能夠利用張量并行性,這是一種模型并行技術,通過將單個權重矩陣分割到多個 GPU 和服務器上,實現(xiàn)大規(guī)模的高效推理。

Nemotron-4 340B Base在 9 萬億個 token 上訓練而成??墒褂?NeMo 框架對它進行自定義,使其適應特定的用例或領域。這一微調過程得益于大量的預訓練數(shù)據(jù),使模型能夠針對特定的下游任務提供更加準確的輸出。

NeMo 框架提供多種自定義方法,包括有監(jiān)督的微調和各種參數(shù)高效微調方法,比如低秩自適應(LoRA)。

為了提升模型質量,開發(fā)者可以使用NeMo Aligner以及由 Nemotron-4 340B Reward 模型注釋的數(shù)據(jù)集對齊模型。校準是 LLM 訓練過程中的一個關鍵步驟。在該步驟中,模型的行為通過人類反饋強化學習(RLHF)等算法進行微調,以保證其輸出結果安全、準確、符合上下文并與其預期目標一致。

尋求企業(yè)級支持和生產環(huán)境安全性的企業(yè)也可以通過NVIDIA AI Enterprise云原生軟件平臺訪問 NeMo 和 TensorRT-LLM。該平臺為生成式 AI 基礎模型提供更加快速和高效的運行時。

評估模型安全性并開始使用

Nemotron-4 340B Instruct 模型經過包括對抗測試在內的大量安全性評估,其各項風險指標均表現(xiàn)良好。但用戶仍應對該模型的輸出結果進行仔細評估,確保合成生成的數(shù)據(jù)適合且安全而準確地用于自己的用例。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4986

    瀏覽量

    103042
  • 模型
    +關注

    關注

    1

    文章

    3243

    瀏覽量

    48836
  • LLM
    LLM
    +關注

    關注

    0

    文章

    288

    瀏覽量

    334

原文標題:NVIDIA 發(fā)布適用于訓練大語言模型的開源合成數(shù)據(jù)生成流水線

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405BNVIDIA Nemotron
    發(fā)表于 07-24 09:39 ?710次閱讀
    <b class='flag-5'>NVIDIA</b> AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 <b class='flag-5'>生成</b>式 AI <b class='flag-5'>模型</b>

    在Ubuntu上使用Nvidia GPU訓練模型

    問題最近在Ubuntu上使用Nvidia GPU訓練模型的時候,沒有問題,過一會再訓練出現(xiàn)非常卡頓,使用nvidia-smi查看發(fā)現(xiàn),顯示G
    發(fā)表于 01-03 08:24

    2021 OPPO開發(fā)者大會:NLP預訓練模型

    2021 OPPO開發(fā)者大會:NLP預訓練模型 2021 OPPO開發(fā)者大會上介紹了融合知識的NLP預訓練
    的頭像 發(fā)表于 10-27 14:18 ?1762次閱讀
    2021 OPPO<b class='flag-5'>開發(fā)者</b>大會:NLP預<b class='flag-5'>訓練</b>大<b class='flag-5'>模型</b>

    2021年OPPO開發(fā)者大會 融合知識的NLP預訓練模型

    2021年OPPO開發(fā)者大會劉海鋒:融合知識的NLP預訓練模型,知識融合學習運用在小布助手里面。
    的頭像 發(fā)表于 10-27 14:48 ?2435次閱讀
    2021年OPPO<b class='flag-5'>開發(fā)者</b>大會 融合知識的NLP預<b class='flag-5'>訓練</b>大<b class='flag-5'>模型</b>

    NVIDIA提供用于AI訓練合成數(shù)據(jù)生成工具

    提供合成數(shù)據(jù)生成工具和服務的企業(yè)以及開發(fā)者現(xiàn)在可以使用 Omniverse Replicator SDK 構建自定義、物理級精確的合成數(shù)據(jù)生成
    的頭像 發(fā)表于 07-03 10:06 ?1770次閱讀

    NVIDIA NeMo最新語言模型服務幫助開發(fā)者定制大規(guī)模語言模型

    NVIDIA NeMo 大型語言模型(LLM)服務幫助開發(fā)者定制大規(guī)模語言模型NVIDIA B
    發(fā)表于 09-22 10:42 ?917次閱讀

    一文看懂 DRIVE Replicator:合成數(shù)據(jù)生成加速自動駕駛汽車的開發(fā)和驗證

    在長尾場景訓練的最新進展和相關經驗,特別是探討開發(fā)者如何使用 DRIVE Replicator 生成多樣化的合成數(shù)據(jù)集,以及準確的真值數(shù)據(jù)
    的頭像 發(fā)表于 11-10 11:00 ?626次閱讀

    使用 NVIDIA TAO 工具套件和預訓練模型加快 AI 開發(fā)

    可以訪問預訓練模型的完整源代碼和模型權重。 該工具套件能夠高效訓練視覺和對話式 AI 模型。由于簡化了復雜的 AI
    的頭像 發(fā)表于 12-15 19:40 ?1026次閱讀

    Rendered.ai 將 NVIDIA Omniverse 集成到其合成數(shù)據(jù)生成平臺

    合成數(shù)據(jù)生成(SDG)平臺即服務(PaaS)為開發(fā)者、數(shù)據(jù)科學家等人員簡化 AI 訓練。 訓練
    的頭像 發(fā)表于 07-12 19:10 ?537次閱讀
    Rendered.ai 將 <b class='flag-5'>NVIDIA</b> Omniverse 集成到其<b class='flag-5'>合成數(shù)據(jù)</b><b class='flag-5'>生成</b>平臺

    NVIDIA 與 Hugging Face 將連接數(shù)百萬開發(fā)者生成式 AI 超級計算

    8 月 8 日 — NVIDIA 與 Hugging Face 宣布建立合作伙伴關系,為數(shù)百萬開發(fā)者提供生成式 AI 超級計算服務,幫助他們構建大語言
    發(fā)表于 08-09 11:41 ?208次閱讀
    <b class='flag-5'>NVIDIA</b> 與 Hugging Face 將連接數(shù)百萬<b class='flag-5'>開發(fā)者</b>與<b class='flag-5'>生成</b>式 AI 超級計算

    NVIDIA 加快企業(yè)自定義生成式 AI 模型開發(fā)

    的業(yè)務數(shù)據(jù)進行自定義。 如今,免費、開源的大語言模型對企業(yè)來說就像是一頓“自助餐”。但對于構建自定義生成式 AI 應用的開發(fā)者來說,這頓“大餐”可能會讓他們應接不暇,因為他們需要滿足各
    的頭像 發(fā)表于 11-16 21:15 ?600次閱讀
    <b class='flag-5'>NVIDIA</b> 加快企業(yè)自定義<b class='flag-5'>生成</b>式 AI <b class='flag-5'>模型</b><b class='flag-5'>開發(fā)</b>

    NVIDIA 為部分大型亞馬遜 Titan 基礎模型提供訓練支持

    GPU 和海量的數(shù)據(jù)集上所訓練而成。 不過這可能會給想要使用生成式 AI 的企業(yè)帶來很多巨大的挑戰(zhàn)。 NVIDIA NeMo (一個用于構建、自定義和運行 LLM 的框架)能夠
    的頭像 發(fā)表于 11-29 21:15 ?535次閱讀
    <b class='flag-5'>NVIDIA</b> 為部分大型亞馬遜 Titan 基礎<b class='flag-5'>模型</b>提供<b class='flag-5'>訓練</b>支持

    NVIDIA NIM 革命性地改變模型部署,將全球數(shù)百萬開發(fā)者轉變?yōu)?b class='flag-5'>生成式 AI 開發(fā)者

    部署在云、數(shù)據(jù)中心或工作站上。借助 NVIDIA NIM,開發(fā)者能夠輕松地為 copilots、聊天機器人等構建生成式 AI 應用,所需時間從
    發(fā)表于 06-03 09:12 ?227次閱讀
    <b class='flag-5'>NVIDIA</b> NIM 革命性地改變<b class='flag-5'>模型</b>部署,將全球數(shù)百萬<b class='flag-5'>開發(fā)者</b>轉變?yōu)?b class='flag-5'>生成</b>式 AI <b class='flag-5'>開發(fā)者</b>

    NVIDIA將全球數(shù)百萬開發(fā)者轉變?yōu)?b class='flag-5'>生成式 AI 開發(fā)者

    和測試 ? NVIDIA 于今日宣布,全球 2,800 萬開發(fā)者現(xiàn)可下載NVIDIA NIM——一種推理微服務,通過經優(yōu)化的容器的形式提供模型——以部署在云、
    的頭像 發(fā)表于 06-03 18:21 ?1030次閱讀

    英偉達開源Nemotron-4 340B系列模型,助力大型語言模型訓練

    近日,英偉達宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型(LLM)
    的頭像 發(fā)表于 06-17 14:53 ?567次閱讀