0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型為何成耗能大戶

現(xiàn)代電子技術(shù) ? 來源:經(jīng)濟(jì)日?qǐng)?bào) ? 2024-04-29 17:25 ? 次閱讀

隨著人工智能技術(shù)快速發(fā)展,人工智能(AI)大模型的運(yùn)行消耗問題受到越來越多關(guān)注。大模型為何成了耗能大戶?能耗問題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?如何解決能耗問題?

耗電耗水量大

人工智能大模型到底有多耗能?據(jù)斯坦福人工智能研究所發(fā)布的《2023年AI指數(shù)報(bào)告》,AI大語言模型GPT-3一次訓(xùn)練的耗電量為1287兆瓦時(shí),大概相當(dāng)于3000輛特斯拉電動(dòng)汽車共同開跑、每輛車跑20萬英里所耗電量的總和。報(bào)告同時(shí)提出,AI大語言模型GPT-3一次訓(xùn)練,相當(dāng)于排放了552噸二氧化碳。

國外研究顯示,一次標(biāo)準(zhǔn)谷歌搜索耗電0.3瓦時(shí),AI大語言模型ChatGPT響應(yīng)一次用戶請(qǐng)求耗電約2.96瓦時(shí),在AI大模型驅(qū)動(dòng)下的一次谷歌搜索耗電8.9瓦時(shí)。

除了耗電,另有研究顯示,AI大語言模型GPT-3在訓(xùn)練期間耗水近700噸,每回答20個(gè)至50個(gè)問題就要消耗500毫升水。弗吉尼亞理工大學(xué)研究指出,Meta公司在2022年使用了超過260萬立方米的水,主要作用是為數(shù)據(jù)中心提供冷卻。

據(jù)了解,人工智能大模型GPT-4的主要參數(shù)是GPT-3的20倍,計(jì)算量是GPT-3的10倍,能耗也隨之大幅增加。

華泰證券研報(bào)預(yù)測(cè),到2030年,中國與美國的數(shù)據(jù)中心總用電量將分別達(dá)到0.65萬億千瓦時(shí)至0.95萬億千瓦時(shí)、1.2萬億千瓦時(shí)至1.7萬億千瓦時(shí),是2022年的3.5倍和6倍以上。屆時(shí),AI用電量將達(dá)到2022年全社會(huì)用電量的20%和31%。

為何如此耗能

為什么人工智能大模型如此耗能?AI技術(shù)迅速發(fā)展,對(duì)芯片的需求急劇增加,進(jìn)而帶動(dòng)電力需求激增。同時(shí),對(duì)AI進(jìn)行大量訓(xùn)練,也意味著需要更強(qiáng)的算力中心和與之匹配的散熱能力。在AI快速迭代的道路上,電力和水資源的消耗也在快速增加。因?yàn)楹芏鄶?shù)據(jù)中心全年無休,發(fā)熱量巨大,大規(guī)模電耗和水耗主要來自于冷卻需求。

相關(guān)統(tǒng)計(jì)顯示,數(shù)據(jù)中心運(yùn)行成本的六成是電費(fèi),而電費(fèi)里的四成多來自冷卻散熱,相應(yīng)也會(huì)帶來巨量冷卻水的消耗。風(fēng)冷數(shù)據(jù)中心六成多的耗電量都會(huì)用在風(fēng)冷上,只有不到四成電力用在實(shí)際計(jì)算上。如今,全球數(shù)據(jù)中心市場耗電量是10年前的近10倍。

能耗問題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?英偉達(dá)首席執(zhí)行官黃仁勛曾提到,AI和算力耗能巨大,但由于計(jì)算機(jī)性能飛速增長,計(jì)算會(huì)更加高效,相當(dāng)于更節(jié)省能源。當(dāng)前,我國實(shí)施嚴(yán)格的能耗雙控政策,無論是AI大模型本身還是其應(yīng)用行業(yè),對(duì)單位GDP能耗來說均有明顯降低作用。

從整體能耗來看,AI大模型帶來的效率提升也會(huì)抵消一部分能耗增長。隨著綠電廣泛應(yīng)用,再加上我國逐步由能耗雙控向碳排放雙控政策轉(zhuǎn)變,可再生能源對(duì)未來AI大模型發(fā)展的支撐能力也會(huì)越來越強(qiáng)。

此外,相較于其他國家而言,中美等能源消費(fèi)大國和數(shù)據(jù)大國,具備更好發(fā)展AI大模型的資源條件和基礎(chǔ)。

怎樣應(yīng)對(duì)挑戰(zhàn)

據(jù)預(yù)測(cè),到2025年,AI相關(guān)業(yè)務(wù)在全球數(shù)據(jù)中心用電量中的占比將從2%增加至10%。到2030年,智能計(jì)算年耗電量將達(dá)到5000億千瓦時(shí),占全球發(fā)電總量的5%。因此,在大力發(fā)展AI大模型的同時(shí),必須提前做好相關(guān)規(guī)劃布局,以提供必要的電力和水資源等技術(shù)支撐。

有專家認(rèn)為,人工智能的未來發(fā)展與狀態(tài)和儲(chǔ)能緊密相連。因此,不應(yīng)僅關(guān)注計(jì)算力,而是需要更全面地考慮能源消耗問題。OpenAI創(chuàng)始人奧爾特曼認(rèn)為,未來AI技術(shù)取決于能源突破,更綠色的能源尤其是核聚變或更便宜的太陽能以及儲(chǔ)能的可獲得性,是人工智能發(fā)展快慢的重要因素。

為降低電力和水資源消耗,很多企業(yè)在嘗試采用各種方法為數(shù)據(jù)中心散熱。例如,微軟曾嘗試部署海下數(shù)據(jù)中心,臉書(Facebook)數(shù)據(jù)中心選址北極圈附近,阿里云千島湖數(shù)據(jù)中心使用深層湖水制冷等,我國很多企業(yè)則把數(shù)據(jù)中心布局在水電資源豐富的西南地區(qū)。

目前,可通過算法優(yōu)化、開發(fā)和使用更高效的AI專用硬件、調(diào)整神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程以優(yōu)化計(jì)算資源等技術(shù)方式來降低AI大模型的能耗,并更多采用自然冷卻、液冷、三聯(lián)供、余熱回收等新興節(jié)能技術(shù),提高制冷效率以降低數(shù)據(jù)中心能耗。從技術(shù)未來發(fā)展方向上看,光電智能芯片也有助于解決AI大模型的電耗和水耗問題。

AI大模型的發(fā)展,不能僅符合高端化、智能化的要求,更要符合綠色化的發(fā)展要求。為此,從國家和地方層面上看,為緩解AI大模型發(fā)展所帶來的電力和水資源沖擊,有必要將數(shù)據(jù)中心行業(yè)納入高耗能行業(yè)管理體系,并提前做好相關(guān)規(guī)劃布局。同時(shí),加強(qiáng)資源整合,充分發(fā)揮人工智能大模型和數(shù)據(jù)中心的效能,通過使用效能下限設(shè)置等方式,確保其自身的電力和水資源使用效率。還應(yīng)嚴(yán)格落實(shí)國家能耗雙控及碳排放雙控政策,并將其碳足跡與水足跡納入行業(yè)考核范圍,切實(shí)推動(dòng)碳足跡與水足跡逐步降低,以應(yīng)對(duì)日益增長的AI大模型電力和水資源需求。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31279

    瀏覽量

    269641
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    532

    瀏覽量

    10300
  • 可再生能源
    +關(guān)注

    關(guān)注

    1

    文章

    708

    瀏覽量

    39564
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2512

    瀏覽量

    2926

原文標(biāo)題:大模型為何成耗能大戶

文章出處:【微信號(hào):現(xiàn)代電子技術(shù),微信公眾號(hào):現(xiàn)代電子技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    THS1209 SYNC腳位的功能為何?

    第一次接觸 并列ADC 功能的IC 想請(qǐng)問一下 TI人員 關(guān)于THS1209的寫入和讀取暫存器 和 讀取DATA的腳位動(dòng)作關(guān)係 1. 當(dāng)我要寫入暫存器時(shí),其CS0、CS1、W/R和RD動(dòng)作為何
    發(fā)表于 12-25 06:46

    【「大模型啟示錄」閱讀體驗(yàn)】+開啟智能時(shí)代的新鑰匙

    那些擁有數(shù)十億甚至數(shù)千億參數(shù)的大規(guī)模模型成為了現(xiàn)實(shí)可能。Transformer 等機(jī)制模型架構(gòu)的橫空出世,徹底改變了模型訓(xùn)練的效率和性能。 我有時(shí)在想國外為何能夠在大
    發(fā)表于 12-24 13:10

    ADS1292R外掛晶振時(shí)功耗能增加多少?。?/a>

    您好,我想請(qǐng)教一下ADS1292R外掛晶振時(shí)功耗能增加多少啊
    發(fā)表于 12-17 07:53

    光電二極管輸入的偏置電流為何這么大?

    用的是光電二極管模型,輸入的偏置電流為何這么大,是固定的,但放大倍數(shù)如何求
    發(fā)表于 08-16 06:21

    esp32的整體平均功耗能到多少?

    deep-sleep模式,rtc定時(shí)5s喚醒一次,每次就啟動(dòng)ble 進(jìn)行廣播并維持1s的等待連接。如果沒有就進(jìn)入deep-sleep。 這種模式下,如果沒有連接的話,esp32的整體平均功耗能到多少?沒有用ulp。理論上應(yīng)該是官方數(shù)據(jù)10uA,但是粗略測(cè)量會(huì)高很多。請(qǐng)問還需要怎么做嗎?
    發(fā)表于 06-26 07:52

    儲(chǔ)能元件和耗能元件的定義

    在電工和電子學(xué)的世界中,儲(chǔ)能元件和耗能元件是兩大基本元素,它們各自在電路中扮演著不同的角色,對(duì)電路的功能和性能產(chǎn)生著深遠(yuǎn)的影響。本文將對(duì)這兩種元件進(jìn)行詳細(xì)的探討,包括它們的定義、特性、種類以及應(yīng)用。
    的頭像 發(fā)表于 05-16 18:07 ?2283次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應(yīng)對(duì)復(fù)雜的決策。 相應(yīng)地,我們?cè)O(shè)計(jì)了兩類任務(wù)來檢驗(yàn)大語言模型的能力。一類是感性的、無需理性能力的任務(wù),類似于人類的系統(tǒng)1,如情感分析和抽取式問答等。大語言模型在這
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型的評(píng)測(cè)

    大語言模型的評(píng)測(cè)是確保模型性能和應(yīng)用適應(yīng)性的關(guān)鍵環(huán)節(jié)。從基座模型到微調(diào)模型,再到行業(yè)模型和整體能力,每個(gè)階段都需要精確的評(píng)測(cè)來指導(dǎo)
    發(fā)表于 05-07 17:12

    儲(chǔ)能元件和耗能元件怎么區(qū)分?

    儲(chǔ)能元件和耗能元件在電子電路中起著截然不同的作用,它們的區(qū)分對(duì)于電路設(shè)計(jì)和系統(tǒng)性能至關(guān)重要。
    的頭像 發(fā)表于 05-06 16:05 ?1816次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細(xì)介紹自然語言處理預(yù)訓(xùn)練的經(jīng)典結(jié)構(gòu)Transformer,以及其工作原理,為構(gòu)建大語言
    發(fā)表于 05-05 12:17

    使用MotorControl Workbench 5.1.3生的軟件,運(yùn)行后software error,為什么?

    使用MotorControl Workbench 5.1.3生的軟件,運(yùn)行,第一次可以發(fā)波形,第二次報(bào)software error;后面沒次清除故障都是直接software error;沒有任何波形產(chǎn)生。請(qǐng)問為何會(huì)報(bào)這個(gè) 故障?
    發(fā)表于 04-25 06:17

    新火種AI|算力不足,小模型AI模型發(fā)展下個(gè)方向?

    大力出奇跡不是唯一方法,把大模型做小才是本事
    的頭像 發(fā)表于 04-23 21:20 ?221次閱讀
    新火種AI|算力不足,小<b class='flag-5'>模型</b><b class='flag-5'>成</b>AI<b class='flag-5'>模型</b>發(fā)展下個(gè)方向?

    采用STM8L152停機(jī)模式+點(diǎn)亮LCD的情況下的功耗能夠做到多低呢?

    有沒有人試驗(yàn)過,采用STM8L152停機(jī)模式+點(diǎn)亮LCD的情況下的功耗能夠做到多低呢?是多少呢?
    發(fā)表于 04-15 07:16

    模型推理顯卡選購指南:4090顯卡為何成為不二之選

    開發(fā)者非常關(guān)注的話題。 現(xiàn)在市面上加速卡型號(hào)多如牛毛,但說到適用大模型推理的顯卡,那4090顯卡絕對(duì)是現(xiàn)階段“推理王卡”般的存在。論性能不如H100,論價(jià)格不如3090,看似平平無奇的4090顯卡為何能在眾多競爭者中脫穎而出,成為大模型
    的頭像 發(fā)表于 04-11 11:00 ?807次閱讀
    大<b class='flag-5'>模型</b>推理顯卡選購指南:4090顯卡<b class='flag-5'>為何</b>成為不二之選

    AI大模型落地學(xué)習(xí)機(jī),大模型應(yīng)用學(xué)習(xí)機(jī)創(chuàng)新方向

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)大模型在終端產(chǎn)品上的落地,除了智能手機(jī)、PC之外,還有學(xué)習(xí)機(jī)。過去一段時(shí)間,隨著大模型的火熱,互聯(lián)網(wǎng)、教育公司都已經(jīng)紛紛披露大模型在教育領(lǐng)域的最新動(dòng)態(tài),并發(fā)布搭載AI
    的頭像 發(fā)表于 02-23 01:19 ?3925次閱讀