0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

IBM的新型模擬內存芯片能否證明AI操作的性能和能源效率呢?

半導體產(chǎn)業(yè)縱橫 ? 來源:半導體產(chǎn)業(yè)縱橫 ? 2023-12-18 10:09 ? 次閱讀

IBM 的新型模擬內存芯片證明了 AI 操作的性能和能源效率都是可能的。

8 月,由 30 名 IBM 研究科學家組成的團隊推出了一款全新芯片,旨在大幅提高耗電深度學習推理的能源效率,同時保持運算精度。這款名為 Hermes 的模擬內存芯片將數(shù)字電路與相變內存 (PCM) 相結合,因此神經(jīng)網(wǎng)絡計算可以在內存電路內進行。

這種處理器和內存配對消除了在內存和處理單元之間無休止地洗牌大量數(shù)據(jù)的需要,就像典型的人工智能加速器芯片中發(fā)生的那樣。重要的是,分析表明該芯片與計算機視覺人工智能任務的數(shù)字芯片一樣擅長,而且功耗卻低得多。

率先推出該芯片的 IBM 歐洲研究院團隊負責人 Abu Sebastian 及其同事 Manuel Le Gallo-Bourdeau 和 Vijay Narayanan 在最近的博客中明確表示,他們現(xiàn)在已經(jīng)展示了實現(xiàn)快速、低功耗模擬AI芯片的架構愿景所需的許多構建模塊。正如該團隊的一位 IBM 科學家所言,“我們的芯片仍處于研究階段,但我們現(xiàn)在將構建盡可能多的硬件,以準確了解它的功能并了解它的性能。”

耗電的人工智能

人工智能功耗問題的根源在于馮·諾依曼瓶頸,該瓶頸以現(xiàn)代計算機架構的先驅約翰·馮·諾依曼的名字命名。在這里,CPU 和內存是獨立的實體,因此數(shù)據(jù)和計算必須不斷地在兩者之間來回穿梭。此過程會產(chǎn)生瓶頸,因為處理速度通常比檢索數(shù)據(jù)或將數(shù)據(jù)寫入內存的速度更快。

長期以來,設計人員一直在使用內存緩存、流水線和分層內存方案等解決方法來應對瓶頸。最近,芯片巨頭專門開發(fā)了加速器芯片來承擔新興的人工智能處理任務。例如,英偉達已經(jīng)從其 GPU 技術中取得了長足的進步。谷歌開發(fā)了張量處理單元;英特爾提供多種解決方案,包括可針對人工智能計算進行編程FPGA;高通則為移動設備設計了人工智能加速器芯片。

盡管如此,人工智能的高能耗需求及其不斷增加的操作數(shù)量,需要一種更節(jié)能的方法,而這正是模擬內存計算似乎將發(fā)揮關鍵作用的地方。

模擬內存芯片可以通過直接在內存內執(zhí)行計算來規(guī)避馮·諾依曼瓶頸。模擬計算方案只需要幾個電阻電容器,因此可以將它們重新定位到存儲器中,消除了存儲器和處理器之間的分離,從而提高了能源效率,遠遠超過了數(shù)字芯片。

IBM 在其最新的模擬人工智能芯片中采用了這種方法。該芯片采用 14 nm CMOS 設計和制造,包含 64 個計算核心,每個核心都有自己的 PCM 陣列以及用于額外神經(jīng)網(wǎng)絡操作(例如激活和累加)的輕型數(shù)字處理器。片上通信網(wǎng)絡將核心連接在一起,芯片中心的進一步數(shù)字處理單元可以處理更苛刻的神經(jīng)網(wǎng)絡計算。

盡管使用 PCM 技術使其與眾不同,但 IBM 并不是唯一一家致力于模擬 AI 芯片的公司。例如,英特爾實驗室的研究人員一直在研究靜態(tài)隨機存取存儲器和其他技術;美國初創(chuàng)公司Mythic專注于多級閃存;來自斯坦福大學、圣母大學、加州大學圣地亞哥分校和清華大學的研究人員開發(fā)了一種神經(jīng)形態(tài)芯片,稱為 NeuRRAM,它使用電阻式隨機存取存儲器。

PCM 是 IBM 的合理選擇,因為該公司至少花了十年時間開發(fā)這些用于存儲應用的材料,包括多級 PCM 芯片。PCM 本身是一種非易失性隨機存取存儲器,加熱時會在低導電非晶相和高導電晶相之間切換。基于這些材料的設備可以利用相變,將電導的變化編碼為突觸權重,然后用于計算操作。

正如 IBM 的最新結果所示,這種連續(xù)的值(而不僅僅是數(shù)字設備中的 1 或 0)非常適合深度神經(jīng)網(wǎng)絡操作。

當與基于類似技術的其他芯片(包括 NeuRRAM 以及 Mythic 和 TSMC 開發(fā)的芯片)進行基準測試時,IBM 的技術可以執(zhí)行矩陣向量乘法(這是人工智能運算的基礎),速度至少提高 15 倍,并且能效相當。值得注意的是,在使用人工智能訓練彩色圖像數(shù)據(jù)庫 CIFAR-10 進行測試時,該芯片還被證明在圖像識別方面比其他芯片更準確,挑戰(zhàn)了模擬內存計算雖然節(jié)能但容易出現(xiàn)計算錯誤的觀念。

“相變存儲器的優(yōu)勢在于它足夠穩(wěn)定,可以進行一些相對準確的計算,”IBM 科學家說?!拔覀冮_發(fā)了精確編程的技術,并且還詳細描述了錯誤的特征。我們的精度對于神經(jīng)網(wǎng)絡來說已經(jīng)足夠了?!?/p>

英特爾實驗室研究科學家 Hechen Wang 也多年來一直致力于模擬內存計算,他同意該方法可以實現(xiàn)卓越的能源效率?!把芯咳藛T大約五年前開始研究模擬內存,現(xiàn)在 IBM、imec、GlobalFoundries、臺積電、三星和其他公司和學術團體開始研究這項技術,”他說。“如果我們想要進行非常高效的AI計算,我們需要將處理單元放入內存陣列,甚至內存單元中?!?/p>

Hechen Wang說,英特爾實驗室正在尋求內存計算的多種途徑,并探索一系列內存技術?!皩τ谀姆N記憶才是正確的方向,我們還沒有得出結論?!?/p>

盡管如此, Hechen Wang相信 IBM 和其他公司的最新模擬內存開發(fā)正在對這個“熱門”領域產(chǎn)生積極影響?!癐BM 的研究成果已經(jīng)發(fā)表在 Nature 論文上,說實話,我從來沒想過會發(fā)生這種事,”他說?!昂芏嗳碎喿x了這些出版物,我希望這些結果能夠開闊他們的視野,并吸引更多人對該領域的關注?!?/p>

下一步

自從在《自然電子》雜志上發(fā)表研究結果以來,IBM 歐洲研究人員明確表示,他們的工作證明模擬 AI 可以提供與傳統(tǒng)數(shù)字加速器相媲美的必要計算精度,而且能效更高。隨著基于人工智能的技術的興起,節(jié)能且準確的推理硬件變得至關重要,研究人員的目標是創(chuàng)建能夠執(zhí)行端到端推理操作的模擬內存芯片。

與此同時,IBM 歐洲研究院表示,它打算利用 PCM 設備可達到的高突觸密度,構建更大的芯片,能夠比競爭對手的數(shù)字加速器運行整個網(wǎng)絡操作。

IBM 科學家表示:“一旦我們真正展示了這項技術的前景,并且更多的人想要投資(該領域),那么我們就可以組建由數(shù)百名研究人員組成的團隊來從事這項工作,這樣我們就可以將芯片投入生產(chǎn)模式?!?/p>







審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19286

    瀏覽量

    229842
  • PCM
    PCM
    +關注

    關注

    1

    文章

    195

    瀏覽量

    53227
  • 人工智能
    +關注

    關注

    1791

    文章

    47279

    瀏覽量

    238493
  • 計算機視覺
    +關注

    關注

    8

    文章

    1698

    瀏覽量

    45993
  • AI芯片
    +關注

    關注

    17

    文章

    1887

    瀏覽量

    35021

原文標題:IBM 的AI芯片能否重塑深度學習推理?

文章出處:【微信號:ICViews,微信公眾號:半導體產(chǎn)業(yè)縱橫】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    IBM光學技術新進展:光電共封裝提升AI模型效率

    近日,據(jù)最新報道,IBM在光學技術領域取得了新突破,這一進展有望大幅提升數(shù)據(jù)中心訓練和運行生成式AI模型的效率。 為了實現(xiàn)這一目標,IBM推出了新一代光電共封裝(CPO)工藝。這一創(chuàng)新
    的頭像 發(fā)表于 12-18 14:26 ?330次閱讀

    虛擬內存對計算機性能的影響

    ,它允許計算機使用硬盤空間來模擬物理內存。當物理內存(RAM)不足以容納當前所有活動的程序和數(shù)據(jù)時,操作系統(tǒng)會將部分數(shù)據(jù)從RAM移動到硬盤上的一個特殊區(qū)域,稱為交換空間(swap sp
    的頭像 發(fā)表于 12-04 09:17 ?668次閱讀

    DDR內存頻率對性能的影響

    DDR內存頻率對性能的影響主要體現(xiàn)在以下幾個方面: 一、數(shù)據(jù)傳輸速度 內存條的頻率(MHz)代表每秒的傳輸速度,即內存每秒能夠執(zhí)行操作的次數(shù)
    的頭像 發(fā)表于 11-20 14:25 ?754次閱讀

    IBM推出高性能AI模型Granite 3.0

    在近日舉行的IBM年度TechXchange大會上,IBM正式推出了其最先進的AI模型家族——Granite 3.0。這款旗艦級語言模型代表了IBM
    的頭像 發(fā)表于 10-28 17:39 ?459次閱讀

    AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI能源科學讀后感

    不僅提高了能源的生產(chǎn)效率和管理水平,還為未來的可持續(xù)發(fā)展提供了有力保障。隨著技術的不斷進步和應用場景的不斷拓展,人工智能將在能源科學領域發(fā)揮更加重要的作用。 總結 《AI for Sc
    發(fā)表于 10-14 09:27

    IBM Cloud將部署英特爾Gaudi 3 AI芯片

    近日,科技巨頭IBM與英特爾宣布了一項重大合作計劃,雙方將共同在IBM Cloud平臺上部署英特爾最新的Gaudi 3 AI芯片,預計該服務將于2025年初正式上線。此次合作標志著兩家
    的頭像 發(fā)表于 09-03 15:52 ?390次閱讀

    HDS-6智能型模擬斷路器使用說明

    HDS-6智能型模擬斷路器的原理HDS-6智能型模擬斷路器采用全數(shù)字電路,時間為數(shù)字撥碼設置,可實現(xiàn)模擬斷路器跳合閘時間設置、三相/分相操作選擇、輸入信號邏輯控制等功能,從而
    的頭像 發(fā)表于 08-02 16:15 ?619次閱讀
    HDS-6智能<b class='flag-5'>型模擬</b>斷路器使用說明

    技術巔峰!探秘國內高性能模擬芯片的未來發(fā)展

    隨著科技的飛速發(fā)展和數(shù)字化轉型的深入推進,高性能模擬芯片作為連接現(xiàn)實世界與數(shù)字世界的橋梁,其重要性日益凸顯。國內高性能模擬
    的頭像 發(fā)表于 06-22 09:47 ?495次閱讀
    技術巔峰!探秘國內高<b class='flag-5'>性能</b><b class='flag-5'>模擬</b><b class='flag-5'>芯片</b>的未來發(fā)展

    先進的半導體功率元器件和模擬IC助力工業(yè)用能源設備節(jié)能

    隨著向無碳社會的推進以及能源的短缺,全球對可再生能源寄予厚望,對不斷提高能源利用效率并改進逆變器技術(節(jié)能的關鍵)提出了更高要求。 而功率元器件和
    的頭像 發(fā)表于 06-03 11:18 ?369次閱讀
    先進的半導體功率元器件和<b class='flag-5'>模擬</b>IC助力工業(yè)用<b class='flag-5'>能源</b>設備節(jié)能

    能否建議通過內存映射提高aur性能?

    內存映射顯示的。 問題:當我們映射到不同的內存單元時,ISR 函數(shù)的時序性能沒有任何改善。您能否建議通過內存映射提高 aur
    發(fā)表于 05-29 07:39

    知存科技助力AI應用落地:WTMDK2101-ZT1評估板實地評測與性能揭秘

    一、前言 隨著當今數(shù)據(jù)迅速增長,傳統(tǒng)的馮諾依曼架構內存墻正在成為計算性能進一步提升的阻礙。新一代的存內計算(IMC)和近存計算(NMC)架構有望突破這一瓶頸,顯著提升計算能力和能源效率
    發(fā)表于 05-16 16:38

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    GB200 超級芯片模塊組合而成,通過 Nvlink 鏈接,提供了超大規(guī)模的并行計算能力和極高的內存帶寬,適用于大規(guī)模的 AI 訓練、推理和高性能計算任務。 **3. **大模型訓練
    發(fā)表于 05-13 17:16

    risc-v多核芯片AI方面的應用

    得RISC-V多核芯片能夠更好地適應AI算法的不同需求,包括深度學習、神經(jīng)網(wǎng)絡等,從而提高芯片性能效率,降低成本,使
    發(fā)表于 04-28 09:20

    微軟正在研發(fā)新型網(wǎng)卡,旨在提升自研AI芯片性能

    微軟近日被曝正在秘密研發(fā)一款高性能新型網(wǎng)卡,這一創(chuàng)新旨在增強其自研的Maia AI服務器芯片的功能,并可能大幅度降低對外部芯片設計廠商如英
    的頭像 發(fā)表于 02-21 11:01 ?751次閱讀

    荷蘭AI芯片設計公司Axelera計劃推出新型汽車芯粒AI架構

    荷蘭邊緣人工智能(AI芯片設計領域的領軍企業(yè)Axelera AI Solutions正在積極開發(fā)一款新型的汽車芯粒(chiplet)內存
    的頭像 發(fā)表于 01-18 18:24 ?1830次閱讀