0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

國產(chǎn)大模型DeepSeek推出DeepSeek-V3

奇普樂芯片技術 ? 來源:奇普樂芯片技術 ? 2025-01-06 10:51 ? 次閱讀

眾所周知,過去一年間,大語言模型(LLM)領域經(jīng)歷了翻天覆地的變化...

回望2023年底,OpenAI的GPT-4還是一座難以逾越的高峰,其他AI實驗室都在思考同一個問題:OpenAI究竟掌握了哪些獨特的技術秘密?

一年后的今天,形勢已發(fā)生根本性轉變,據(jù)Chatbot Arena排行榜顯示,原始版本的GPT-4(GPT-4-0314)已跌至第70位左右。目前,已有18家機構的70個模型在性能上超越了這個曾經(jīng)的標桿。

00783262-c9b5-11ef-9310-92fbcf53809c.jpg

圖源:Chatbot Arena

隨著2025年的嶄新啟航,是否意味著AI圈的一顆“王炸”已悄然“引爆”?

近日,國產(chǎn)大模型DeepSeek推出DeepSeek-V3,一個強大的混合專家(Mixture-of-Experts, MoE)語言模型,DeepSeek-V3擁有高達6710億的參數(shù)規(guī)模,但每次推理僅激活370億參數(shù)。

尤其,當o1、Claude、Gemini和Llama 3等模型還在為數(shù)億美元的訓練成本苦惱時, DeepSeek-V3用557.6萬美元的預算,在2048個H800 GPU集群上僅花費3.7天/萬億tokens的訓練時間,就達到了足以與它們比肩的性能 。

與此同時,DeepSeek-V3相比其他前沿大模型,性能卻足以比肩乃至更優(yōu)。

00c6b108-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek-V3與其他大模型性能對比

其中,這種設計使得模型在性能和效率上實現(xiàn)了完美平衡,在多項模型測評中,DeepSeek-V3不僅超越了Llama 3.1 405B等頂級開源模型,更在代碼、數(shù)學、長文本處理等領域,與GPT-4o和Claude 3.5 Sonnet等閉源模型分庭抗禮。

其次,通過671B的總參數(shù)量,在每個token激活37B參數(shù)的精準控制下,DeepSeek-V3用14.8萬億高質量多樣化token,構建出了一個能夠超越所有開源模型,直逼GPT-4和Claude-3.5的AI巨人。

另外,在基礎理解能力測試中,DeepSeek-V3與Claude-3.5模型面對中文腦筋急轉彎“小明的媽媽有三個孩子”的問題,DeepSeek V3表現(xiàn)出色,不僅答對還進行了自我驗證。但在英文雙關語“April Fool's Day”的測試中則略顯不足,未能理解其中的語言巧思,而Claude3.5Sonnet則輕松應對。

00daead8-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek-V3與Claude-3.5實測對比

除此之外,DeepSeek自言,這得益于采用了Multi-head Latent Attention (MLA)和DeepSeek MoE架構,實現(xiàn)了高效的推理和經(jīng)濟高效的訓練。

Multi-head Latent Attention (MLA):MLA 通過對注意力鍵和值進行低秩聯(lián)合壓縮,減少了推理時的 KV 緩存,同時保持了與標準多頭注意力(MHA)相當?shù)男阅堋?/p>

00f34c36-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek-V3 的核心亮點

DeepSeekMoE:DeepSeekMoE 采用了更細粒度的專家分配策略,每個 MoE 層包含 1 個共享專家和 256 個路由專家,每個令牌激活 8 個專家,確保了計算的高效性。

因此,在系統(tǒng)架構層面,DeepSeek就使用了專家并行訓練技術,通過將不同的專家模塊分配到不同的計算設備上同時進行訓練,提升了訓練過程中的計算效率。

DeepSeek探索出一個精妙的解決策略,不等到最后再算總和,而是每加128個數(shù)就把當前結果轉移到科學計算器上繼續(xù)計算。其過程不影響速度,此技術利用了H800 GPU的特點:就像有兩個收銀員,當一個在結算購物籃的同時,另一個便可繼續(xù)掃描新商品。

這一策略使得模型訓練速度大幅提升,畢竟核心計算能提升100%的速度,而顯存使用減少也非常明顯,并且模型最終的效果精度損失能做到小于0.25%,幾乎無損。

010b5dee-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek 提出的誤差積累解決方法

但由于DeepSeek“大方”開源,Open AI水靈靈地被網(wǎng)友cue進行橫向對比,有一種被push的支配感。

Scale AI創(chuàng)始人亞歷山大·王 (Alexander Wang)更表示,DeepSeek-V3帶來的辛酸教訓是:當美國休息時,中國在工作,以更低的成本、更快的速度迎頭趕上,變得更強。

011e0156-c9b5-11ef-9310-92fbcf53809c.jpg

圖源:X平臺

簡言之,這種劇變深刻折射出AI領域的變革。在2023年,超越GPT-4還是一個值得載入史冊的重大突破,轉眼至2024年,這一成就已然演變?yōu)楹饬宽敿堿I模型的基準線。

而剛到來的2025年,DeepSeek用行動說明,中國大模型創(chuàng)業(yè)者,共同參與這場全球創(chuàng)新AI競賽中。

由于篇幅受限,本次的DeepSeek V3就先介紹這么多......

想了解更多半導體行業(yè)動態(tài),請您持續(xù)關注我們。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    3394

    瀏覽量

    42632
  • LLM
    LLM
    +關注

    關注

    0

    文章

    298

    瀏覽量

    361

原文標題:DeepSeek-V3橫空出世,GPT-4時代終結?

文章出處:【微信號:奇普樂芯片技術,微信公眾號:奇普樂芯片技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    對標OpenAI o1,DeepSeek-R1發(fā)布

    今天,我們正式發(fā)布 DeepSeek-R1,并同步開源模型權重。 DeepSeek-R1 遵循 MIT License,允許用戶通過蒸餾技術借助 R1 訓練其他模型。
    的頭像 發(fā)表于 01-22 13:46 ?71次閱讀
    對標OpenAI o1,<b class='flag-5'>DeepSeek</b>-R1發(fā)布

    趕緊在本地運行與OpenAI-o1能力近似的DeepSeek-R1模型

    類似GPT4-V的能力:MiniCPM-V 2.6 》。本文將分享在本地運行能與OpenAI-o1 能力相媲美的 DeepSeek-R1? 模型。 [編者注]:OpenAI-o1是Op
    的頭像 發(fā)表于 01-21 14:29 ?746次閱讀
    趕緊在本地運行與OpenAI-o1能力近似的<b class='flag-5'>DeepSeek</b>-R1<b class='flag-5'>模型</b>

    算力魔方體驗DeepSeek-R1的能力

    代碼
    jf_23871869
    發(fā)布于 :2025年01月21日 14:16:32

    采用FP8混合精度,DeepSeek V3訓練成本僅557.6萬美元!

    模型需要花費約4684.8萬美元。然而,隨著技術的進步,這一成本正在迅速降低。DeepSeek V3的出現(xiàn),標志著訓練成本的大幅下降,其訓練成本僅為557.6萬美元,相較于之前的模型
    的頭像 發(fā)表于 01-13 11:12 ?137次閱讀

    談談DeepSeek-v3提到的基礎設施演進

    DeepSeek-v3的感受是, 算法和Infra的非常緊密結合. 其實很多大模型團隊的算法和Infra是非常割裂的, 完全同時懂算法和Infra的人并不多, DeepSeek這個團隊就是其中之一
    的頭像 發(fā)表于 01-02 10:04 ?208次閱讀
    談談<b class='flag-5'>DeepSeek-v3</b>提到的基礎設施演進

    雷軍千萬年薪挖角95后AI天才少女 DeepSeek開源大模型DeepSeek-V2關鍵開發(fā)者之一羅福莉

    95后AI“天才少女”刷屏;原因是雷軍千萬年薪挖角。人工智能時代最貴的依然是人才! 這位?95后AI“天才少女”是DeepSeek開源大模型DeepSeek-V2的關鍵開發(fā)者之一羅福莉。 羅福莉本科
    的頭像 發(fā)表于 12-30 10:58 ?523次閱讀

    中國AI企業(yè)創(chuàng)新降低成本打造競爭力模型

    在中國,面對美國實施的芯片限制以及相較于西方企業(yè)更為有限的預算,人工智能(AI)公司正積極尋求降低成本的方法,以開發(fā)出具有市場競爭力的模型。初創(chuàng)公司如01.ai(零一萬物)和DeepSeek(深度求索)等,通過聚焦小數(shù)據(jù)集進行AI模型
    的頭像 發(fā)表于 10-22 14:56 ?517次閱讀

    零一萬物正式開源Yi-Coder系列模型 PerfXCloud火速支持等你體驗!

    今日,零一萬物宣告正式開源Yi-Coder系列模型:Yi-Coder 1.5B和Yi-Coder 9B,PerfXCloud(澎峰云)大模型開發(fā)與服務平臺第一時間支持并在平臺完成上線,趕快來體驗吧
    的頭像 發(fā)表于 09-05 16:07 ?378次閱讀
    零一萬物正式開源Yi-Coder系列<b class='flag-5'>模型</b> PerfXCloud火速支持等你體驗!

    PerfXCloud順利接入MOE大模型DeepSeek-V2

    今日,在 PerfXCloud 重磅更新支持 llama 3.1 之后,其平臺再度實現(xiàn)重大升級!目前,已順利接入被譽為全球最強的 MOE 大模型 DeepSeek-V2 ,已在 PerfXCloud(澎峰云)官網(wǎng)的體驗中心對平臺用戶免費開放體驗。
    的頭像 發(fā)表于 07-27 10:08 ?678次閱讀
    PerfXCloud順利接入MOE大<b class='flag-5'>模型</b><b class='flag-5'>DeepSeek-V</b>2

    模型發(fā)展下,國產(chǎn)GPU的機會和挑戰(zhàn)

    電子發(fā)燒友網(wǎng)站提供《大模型發(fā)展下,國產(chǎn)GPU的機會和挑戰(zhàn).pdf》資料免費下載
    發(fā)表于 07-18 15:44 ?10次下載
    大<b class='flag-5'>模型</b>發(fā)展下,<b class='flag-5'>國產(chǎn)</b>GPU的機會和挑戰(zhàn)

    Meta推出最強開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了開源AI大模型
    的頭像 發(fā)表于 04-19 17:00 ?869次閱讀

    國產(chǎn)GPU在AI大模型領域的應用案例一覽

    不斷推出新品,產(chǎn)品也逐漸在各個領域取得應用,而且在大模型的訓練和推理方面,也有所建樹。 ? 國產(chǎn)GPU在大模型上的應用進展 ? 電子發(fā)燒友此前就統(tǒng)計過目前國內主要的GPU廠商,也介紹了
    的頭像 發(fā)表于 04-01 09:28 ?3976次閱讀
    <b class='flag-5'>國產(chǎn)</b>GPU在AI大<b class='flag-5'>模型</b>領域的應用案例一覽

    Stability AI推出全新Stable Video 3D模型

    近日,Stability AI 推出了全新的 Stable Video 3D 模型,該模型以其獨特的功能吸引了眾多關注。此模型具備從單張圖像
    的頭像 發(fā)表于 03-22 10:30 ?908次閱讀

    字節(jié)跳動辟謠推出中文版Sora 期待國產(chǎn)Sora大模型

    字節(jié)跳動辟謠推出中文版Sora 期待國產(chǎn)Sora大模型 “文成視頻大模型”的熱度持續(xù)火爆,大家都在期待國產(chǎn)的大
    的頭像 發(fā)表于 02-21 17:29 ?883次閱讀

    科大訊飛發(fā)布“訊飛星火V3.5”:基于全國產(chǎn)算力訓練的全民開放大模型

    科大訊飛,作為中國領先的智能語音和人工智能公司,近日宣布推出首個基于全國產(chǎn)算力訓練的全民開放大模型“訊飛星火V3.5”。
    的頭像 發(fā)表于 02-04 11:28 ?1561次閱讀