0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度

科技綠洲 ? 來源:網(wǎng)絡(luò)整理 ? 作者:網(wǎng)絡(luò)整理 ? 2024-10-23 11:30 ? 次閱讀

英偉達(dá)團(tuán)隊近日在AI領(lǐng)域投下了一枚震撼彈,他們提出了一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)——?dú)w一化Transformer(nGPT)。這一創(chuàng)新架構(gòu)基于超球面(hypersphere)進(jìn)行表示學(xué)習(xí),為AI領(lǐng)域帶來了新的突破。

相較于傳統(tǒng)的Transformer架構(gòu),nGPT在保持原有精度的同時,直接將大型語言模型(LLM)的訓(xùn)練速度提升了高達(dá)20倍。這一顯著的性能提升,無疑將極大地推動AI技術(shù)的發(fā)展和應(yīng)用。

在nGPT中,所有的向量(包括嵌入向量、多層感知機(jī)(MLP)向量、注意力矩陣向量以及隱藏狀態(tài)向量)都被歸一化為單位范數(shù)(unit norm)。這一設(shè)計不僅簡化了模型訓(xùn)練過程,還提高了模型的穩(wěn)定性和泛化能力。

英偉達(dá)團(tuán)隊的這一創(chuàng)新成果,無疑為AI領(lǐng)域注入了新的活力。nGPT架構(gòu)的提出,不僅將推動AI技術(shù)的進(jìn)一步發(fā)展,還將為各種應(yīng)用場景提供更加高效、準(zhǔn)確的解決方案。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4776

    瀏覽量

    100945
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3815

    瀏覽量

    91480
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    145

    瀏覽量

    6026
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    296

    瀏覽量

    356
收藏 人收藏

    評論

    相關(guān)推薦

    什么是LLMLLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對語言理解能力的次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)
    的頭像 發(fā)表于 11-19 15:32 ?734次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的
    的頭像 發(fā)表于 11-08 09:30 ?658次閱讀

    LLM和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    訓(xùn)練方法 LLM: 預(yù)訓(xùn)練和微調(diào): LLM通常采用預(yù)訓(xùn)練(Pre-training)和微調(diào)(Fine-tuning)的方法。預(yù)
    的頭像 發(fā)表于 11-08 09:25 ?626次閱讀

    英偉達(dá)Blackwell可支持10萬億參數(shù)模型AI訓(xùn)練,實時大語言模型推理

    、NVLink交換機(jī)、Spectrum以太網(wǎng)交換機(jī)和Quantum InfiniBand交換機(jī)。 ? 英偉達(dá)稱,Blackwell擁有6項革命性技術(shù),可支持多達(dá)10萬億參數(shù)的模型進(jìn)行AI訓(xùn)練
    的頭像 發(fā)表于 09-04 09:10 ?2962次閱讀

    英偉達(dá)推出創(chuàng)新液冷技術(shù)

    英偉達(dá),這家領(lǐng)先的AI芯片制造商,近期在散熱技術(shù)上實現(xiàn)了重大突破,推出了創(chuàng)新的液冷技術(shù)。其即將問世的GB200服務(wù)器機(jī)架,將采用革命性的液體冷卻方式,摒棄傳統(tǒng)空氣冷卻,通過液體在硬件管
    的頭像 發(fā)表于 08-13 15:24 ?860次閱讀

    llm模型訓(xùn)練般用什么系統(tǒng)

    LLM(Large Language Model,大型語言模型)是近年來在自然語言處理領(lǐng)域取得顯著成果的種深度學(xué)習(xí)模型。它通常需要大量的計算資源和數(shù)據(jù)來進(jìn)行訓(xùn)練。以下是關(guān)于LLM模型
    的頭像 發(fā)表于 07-09 10:02 ?454次閱讀

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer種基于自注意力機(jī)制的模型,廣泛應(yīng)用于NLP領(lǐng)域?;?b class='flag-5'>TransformerLLM
    的頭像 發(fā)表于 07-09 09:59 ?684次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出革命性的AI模型推理服務(wù)——NVIDIA NIM。這項服務(wù)將極大地簡化AI模型部署過程,為全球的2800萬
    的頭像 發(fā)表于 06-04 09:15 ?696次閱讀

    【大規(guī)模語言模型:從理論到實踐】- 每日進(jìn)步點(diǎn)點(diǎn)

    訓(xùn)練效率、穩(wěn)定性和泛能力。以下是關(guān)于大模型訓(xùn)練歸一化的詳細(xì)介紹: 、歸一化的目的和重要
    發(fā)表于 05-31 19:54

    進(jìn)步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    2024年3月19日,[英偉達(dá)]CEO[黃仁勛]在GTC大會上公布了新代AI芯片架構(gòu)BLACKWELL,并推出基于該架構(gòu)的超級芯片GB200,將助推數(shù)據(jù)處理、工程模擬、電子設(shè)計自動
    發(fā)表于 05-13 17:16

    英偉達(dá)推出有2080億晶體管的GB200處理器

    英偉達(dá)在最新屆的GTC大會上隆重推出了全新的GB200處理器,這款處理器基于革命性的Blackwell架構(gòu),并配備了驚人的2080億個晶體
    的頭像 發(fā)表于 03-20 11:10 ?817次閱讀

    英偉達(dá)發(fā)布新代AI芯片B200

    在美國加州圣何塞舉辦的英偉達(dá)GTC生態(tài)大會上,英偉達(dá)CEO黃仁勛以場震撼人心的演講,正式推出
    的頭像 發(fā)表于 03-20 10:07 ?1011次閱讀

    英偉達(dá)發(fā)布性能大幅提升的新款B200 AI GPU

    英偉達(dá)宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構(gòu)成的服務(wù)器集群相比上代,運(yùn)算能力飛躍提升,甚至能使大語言模型的
    的頭像 發(fā)表于 03-20 09:37 ?841次閱讀

    長電科技推出革命性的高精度熱阻測試與仿真模擬驗證技術(shù)

    在芯片封裝技術(shù)日益邁向高密度、高性能的今天,長電科技引領(lǐng)創(chuàng)新,推出革命性的高精度熱阻測試與仿真模擬驗證技術(shù)。
    的頭像 發(fā)表于 03-08 13:33 ?580次閱讀

    英偉達(dá)引領(lǐng)AI新潮流,推出“Chat with RTX”聊天機(jī)器人

    隨著人工智能技術(shù)的突飛猛進(jìn),英偉達(dá)(NVIDIA)再次展現(xiàn)了其技術(shù)領(lǐng)導(dǎo)地位,為Windows PC用戶帶來了革命性的本地聊天機(jī)器人應(yīng)用程序——“Chat with RTX”。這
    的頭像 發(fā)表于 02-19 11:11 ?1029次閱讀