0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Nvidia 正在利用迄今為止最強大的芯片 H200 推動人工智能革命

捷易物聯(lián) ? 2024-01-17 08:25 ? 次閱讀

Nvidia 表示,H200 Tensor Core GPU 具有更大的內(nèi)存容量和帶寬,可加快生成 AI 和 HPC 工作負載的速度。

Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的內(nèi)存,可加速生成式 AI。

H200 芯片定于 2024 年第二季度發(fā)布,Nvidia 表示將與“全球系統(tǒng)制造商和云服務(wù)提供商”合作以實現(xiàn)廣泛可用性。

JAEALOT

Nvidia

OpenAI推出ChatGPT已經(jīng)一段時間了 ,全球?qū)I芯片的需求比以往任何時候都更加難以滿足。如今,大多數(shù)大型科技公司都將注意力集中在生成式人工智能上。對于制造數(shù)量最多、性能最高的圖形處理單元 (GPU) 的公司 Nvidia 公司來說,現(xiàn)在的情況從未如此好過。在發(fā)布了數(shù)十款芯片以滿足看似呈指數(shù)級增長的人工智能市場之后,這家圖形芯片巨頭展示了迄今為止最強大的 GPU——H200。

NVIDIA H200 Tensor Core GPU 誕生之際,Nvidia 正在努力捍衛(wèi)其 在 AI 計算領(lǐng)域的主導(dǎo)地位 ,面對 英特爾、AMD以及眾多芯片初創(chuàng)公司和 Amazon Web Services 等試圖搶占市場份額的云服務(wù)提供商。在生成人工智能工作負載驅(qū)動的芯片需求激增的情況下,市場份額不斷增加。

為了保持在人工智能和高性能計算 (HPC) 硬件領(lǐng)域的領(lǐng)先地位,英偉達上月初公布了加快新 GPU 架構(gòu)開發(fā)的計劃。根據(jù)為投資者發(fā)布的路線圖 以及 SemiAnalysis的進一步解釋,這個想法是要恢復(fù)到一年一次的產(chǎn)品推出節(jié)奏 。SemiAnalysis 的報告中寫道:“Nvidia 對 AI GPU 進行年度更新的舉動非常重要,并且會產(chǎn)生許多影響?!?/p>

這一切的開始就是 Nvidia 推出的 H200,它利用 Hopper 架構(gòu)來加速人工智能應(yīng)用程序。它是去年發(fā)布的H100 GPU的后續(xù)產(chǎn)品 ,也是此前 Nvidia 最強大的 AI GPU 芯片。簡而言之,H200 現(xiàn)在是 Nvidia 產(chǎn)品組合中最強大的 AI 芯片。

Nvidia 超大規(guī)模和 HPC 副總裁 Ian Buck 認為,“借助業(yè)界領(lǐng)先的端到端 AI 超級計算平臺 Nvidia H200,可以更快地解決世界上一些最重要的挑戰(zhàn)?!?一般來說,GPU 在人工智能應(yīng)用中表現(xiàn)出色,因為它們能夠執(zhí)行大量并行矩陣乘法,這是神經(jīng)網(wǎng)絡(luò)運行的關(guān)鍵操作。

它們在構(gòu)建人工智能模型的訓(xùn)練階段和隨后的“推理”階段都發(fā)揮著至關(guān)重要的作用,在“推理”階段,用戶將數(shù)據(jù)輸入到人工智能模型中,并提供相應(yīng)的結(jié)果。Buck 指出:“要通過生成式 AI 和 HPC 應(yīng)用程序創(chuàng)建智能,必須使用大容量、快速的 GPU 內(nèi)存高速有效地處理大量數(shù)據(jù)?!?/p>

因此,引入 H200 將帶來進一步的性能飛躍,包括與 H100 相比,Llama 2(一個 700 億參數(shù)的 LLM)的推理速度幾乎翻倍。據(jù) Nvidia 稱,未來的軟件更新預(yù)計會帶來 H200 的額外性能領(lǐng)先優(yōu)勢和改進。

e89b36c2-b4ce-11ee-aa22-92fbcf53809c.png

e8a9464a-b4ce-11ee-aa22-92fbcf53809c.png

雖然 H200 看起來與 H100 基本相似,但其內(nèi)存的修改有明顯的增強。新的 GPU 引入了一種創(chuàng)新且更快的內(nèi)存規(guī)范,稱為 HBM3e。這將 GPU 的內(nèi)存帶寬提升至每秒 4.8 TB,比 H100 的每秒 3.35 TB 明顯增加。它將總內(nèi)存容量從前代產(chǎn)品的 80GB 擴展至 141GB。

“Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 速度更快、內(nèi)存更大,可加速生成式 AI 和大型語言模型 (LLM),同時推進 HPC 工作負載的科學(xué)計算。憑借 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 內(nèi)存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍?!痹撔酒揞^ 表示。

結(jié)合實際情況來看,OpenAI 經(jīng)常提到面臨 GPU 資源短缺,導(dǎo)致 ChatGPT 性能下降的問題。為了維持任何水平的服務(wù),該公司采取速率限制。理論上,加入H200可以緩解當前運行ChatGPT的AI語言模型的資源限制,使它們能夠有效地迎合更廣泛的客戶群。

Nvidia 還表示,它將提供多種外形規(guī)格的 H200。其中包括四路和八路配置的 Nvidia HGX H200 服務(wù)器主板,與 HGX H100 系統(tǒng)的硬件和軟件兼容。它還將在 Nvidia GH200 Grace Hopper Superchip 中提供,它將 CPU 和 GPU 組合到一個封裝中。

e8b86864-b4ce-11ee-aa22-92fbcf53809c.png

“通過這些選項,H200 可以部署在各種類型的數(shù)據(jù)中心中,包括本地、云、混合云和邊緣。NVIDIA 的 全球合作伙伴服務(wù)器制造商生態(tài)系統(tǒng) (包括華擎 Rack、華碩、戴爾科技、Eviden、技嘉、惠普企業(yè)、英格拉科技、聯(lián)想、QCT、Supermicro、緯創(chuàng)資通和 Wiwynn)可以使用 H200 更新其現(xiàn)有系統(tǒng)?!?。

據(jù)美國芯片巨頭亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)稱,除了CoreWeave、Lambda、和烏爾特爾。目前,英偉達在AI GPU市場處于領(lǐng)先地位。

然而,AWS、谷歌、微軟等主要參與者以及 AMD 等傳統(tǒng) AI 和 HPC 實體正在積極準備 其下一代處理器用于訓(xùn)練和推理。為了應(yīng)對這種競爭格局,Nvidia 加快了基于 B100 和 X100 的產(chǎn)品進度。

e8cf709a-b4ce-11ee-aa22-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    455

    文章

    50812

    瀏覽量

    423571
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4986

    瀏覽量

    103042
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47274

    瀏覽量

    238462
收藏 人收藏

    評論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    探討了人工智能如何通過技術(shù)創(chuàng)新推動能源科學(xué)的進步,為未來的可持續(xù)發(fā)展提供了強大的支持。 首先,書中通過深入淺出的語言,介紹了人工智能在能源領(lǐng)域的基本概念和技術(shù)原理。這使得我對
    發(fā)表于 10-14 09:27

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,無疑為讀者鋪設(shè)了一條探索人工智能(AI)如何深刻影響并推動科學(xué)創(chuàng)新的道路。在閱讀這一章后,我深刻感受到了人工智能技術(shù)在科學(xué)領(lǐng)域的廣泛應(yīng)用潛力以及其帶來的革命性變化,以下是我個人的學(xué)習(xí)
    發(fā)表于 10-14 09:12

    英偉達H200芯片將大規(guī)模交付

    英偉達AI GPU市場迎來新動態(tài),其H200型號上游芯片端已于第二季度下旬正式進入量產(chǎn)階段,預(yù)示著該產(chǎn)品將在第三季度后迎來大量交付。然而,英偉達Blackwell平臺的提前上市,至少領(lǐng)先H200一到兩個季度,這一變化對終端客戶的
    的頭像 發(fā)表于 07-04 10:29 ?716次閱讀

    OpenAI聯(lián)手Nvidia發(fā)布首臺Nvidia DGX H200

    OpenAI總裁兼聯(lián)合創(chuàng)始人Greg Brockman分享了他與山姆?阿爾特曼(Sam Altman)、黃仁勛以及自己的合影,他們的眼前正是這臺首次亮相的DGX H200
    的頭像 發(fā)表于 04-25 13:50 ?421次閱讀

    英偉達H200性能顯著提升,年內(nèi)將推出B200新一代AI半導(dǎo)體

    同一天,NVIDIA發(fā)布了H200的性能評估報告,表明在與美國Meta公司的大型語言模型——LLM“Llama 2”的對比中,H200使AI導(dǎo)出答案的處理速度最高提升了45%。
    的頭像 發(fā)表于 04-01 09:36 ?1414次閱讀

    英偉達H200顯卡參數(shù)是什么

    英偉達H200顯卡的參數(shù)非常出色,主要表現(xiàn)在以下幾個方面。
    的頭像 發(fā)表于 03-07 17:02 ?2729次閱讀

    英偉達H200上市時間

    英偉達H200于2023年11月13日正式發(fā)布。然而,由于HBM3e芯片供應(yīng)問題,其實際開售時間有所延遲。英偉達表示,H200產(chǎn)品預(yù)計將在2024年第二季度正式開售。因此,雖然H200
    的頭像 發(fā)表于 03-07 16:46 ?2361次閱讀

    英偉達H200帶寬狂飆

    英偉達H200帶寬的顯著提升主要得益于其強大的硬件配置和先進的技術(shù)創(chuàng)新。H200配備了高達141GB的HBM3e顯存,與前代產(chǎn)品H100相比,內(nèi)存容量提升了76%。更重要的是,
    的頭像 發(fā)表于 03-07 16:44 ?955次閱讀

    英偉達H200H800的區(qū)別

    英偉達H200H800在多個方面存在一些關(guān)鍵性的區(qū)別。
    的頭像 發(fā)表于 03-07 16:30 ?3770次閱讀

    英偉達H200算力怎么樣

    英偉達H200的算力非常強大。作為新一代AI芯片,H200在性能上有了顯著的提升,能夠處理復(fù)雜的AI任務(wù)和大數(shù)據(jù)分析。然而,具體的算力數(shù)值可能因芯片
    的頭像 發(fā)表于 03-07 16:15 ?2127次閱讀

    英偉達H200能作為普通顯卡使用嗎

    英偉達H200不能作為普通顯卡使用。H200是一款專為AI計算設(shè)計的芯片,它并不具備普通顯卡的圖形渲染能力。H200的主要用途是處理生成式人工智能
    的頭像 發(fā)表于 03-07 16:13 ?1661次閱讀

    英偉達H200顯卡價格

    英偉達H200顯卡的具體價格尚未公布。根據(jù)上一代H100顯卡的價格范圍,預(yù)計H200的單片價格將超過40000美元。由于新芯片通常定價較高,因此可以推斷
    的頭像 發(fā)表于 03-07 16:09 ?4984次閱讀

    英偉達H200H100的比較

    英偉達H200H100是兩款不同的AI芯片,它們各自具有獨特的特點和優(yōu)勢。以下是關(guān)于這兩款芯片的一些比較。
    的頭像 發(fā)表于 03-07 15:53 ?4649次閱讀

    英偉達H200參數(shù)說明

    英偉達H200是一款新一代AI芯片,于2023年11月14日正式發(fā)布,主要被設(shè)計用來處理生成式人工智能負載的海量數(shù)據(jù)。
    的頭像 發(fā)表于 03-07 15:48 ?1851次閱讀

    Stability AI推出迄今為止更小、更高效的1.6B語言模型

    Stability AI 宣布推出迄今為止最強大的小語言模型之一 Stable LM 2 1.6B。
    的頭像 發(fā)表于 01-23 10:11 ?801次閱讀
    Stability AI推出<b class='flag-5'>迄今為止</b>更小、更高效的1.6B語言模型