近日,英偉達(dá)宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型(LLM)訓(xùn)練的新天地。該系列模型不僅包含高達(dá)3400億參數(shù),而且通過其獨(dú)特的架構(gòu),為醫(yī)療保健、金融、制造、零售等多個(gè)行業(yè)的商業(yè)應(yīng)用提供了強(qiáng)大的支持。
Nemotron-4 340B系列模型由三個(gè)主要組件構(gòu)成:Base基礎(chǔ)模型、Instruct指令模型和Reward獎(jiǎng)勵(lì)模型。這些模型協(xié)同工作,使得開發(fā)人員能夠生成高質(zhì)量的合成數(shù)據(jù),進(jìn)而訓(xùn)練出更加精準(zhǔn)、高效的大型語言模型。英偉達(dá)在訓(xùn)練過程中使用了驚人的9萬億個(gè)token(文本單位),確保了模型的廣泛覆蓋和深度理解。
值得一提的是,Nemotron-4 340B-Base在常識(shí)推理任務(wù)中展現(xiàn)出了非凡的實(shí)力。在ARC-c、MMLU和BBH等一系列基準(zhǔn)測試中,該模型的表現(xiàn)足以與業(yè)界知名的Llama-3 70B、Mixtral 8x22B和Qwen-2 72B等模型相媲美。這一成績不僅證明了Nemotron-4 340B的先進(jìn)性和可靠性,更為英偉達(dá)在人工智能領(lǐng)域的技術(shù)實(shí)力贏得了廣泛贊譽(yù)。
隨著Nemotron-4 340B系列模型的開源,英偉達(dá)為開發(fā)者們提供了一個(gè)強(qiáng)大的工具,使得他們能夠更加便捷地訓(xùn)練出適用于各種商業(yè)場景的大型語言模型。這一舉措無疑將加速人工智能技術(shù)的普及和應(yīng)用,推動(dòng)各行業(yè)的數(shù)字化轉(zhuǎn)型進(jìn)程。
-
開源
+關(guān)注
關(guān)注
3文章
3648瀏覽量
43676 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3933瀏覽量
93375 -
LLM
+關(guān)注
關(guān)注
1文章
323瀏覽量
774
發(fā)布評(píng)論請(qǐng)先 登錄
英偉達(dá)GROOT N1 全球首個(gè)開源人形機(jī)器人基礎(chǔ)模型
小白學(xué)大模型:訓(xùn)練大語言模型的深度指南

英偉達(dá)發(fā)布Nemotron-CC大型AI訓(xùn)練數(shù)據(jù)庫
NVIDIA推出開放式Llama Nemotron系列模型
NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺語言模型
大語言模型開發(fā)框架是什么
從零開始訓(xùn)練一個(gè)大語言模型需要投資多少錢?

英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型
NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

評(píng)論