0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型太貴?找找自己的原因好吧?

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-10-07 09:25 ? 次閱讀

什么?

煉個(gè)大模型還嫌貴?

到底哪里貴了!?

大模型算力貴?哪里貴了???

爭先恐后訓(xùn)練大模型,

搞得現(xiàn)在“算力慌”“一卡難求”,

算力當(dāng)然水漲船高了!

“特供版”GPU又貴又縮水,

大家自己愿意當(dāng)“冤大頭”囤卡,

還好意思埋怨貴了?

這么多年有沒有認(rèn)真工作?

為什么這么多算力還依賴進(jìn)口!

自己為什么不能制造芯片?

有沒有在自主化上想想辦法?

解決算力難題,

廠商們可以選擇AI云服務(wù)。

在社會(huì)層面進(jìn)行算力集約,

讓算力普惠。

同時(shí)支持國產(chǎn)AI算力,

讓國內(nèi)市場活躍起來。

大模型基礎(chǔ)設(shè)施貴?哪里貴了?。?/p>

數(shù)據(jù)需要存,接入AI模型需要網(wǎng),

部署AI模型需要終端。

哪個(gè)不需要投入了!

任何一個(gè)地方出現(xiàn)短板,

就會(huì)出現(xiàn)木桶效應(yīng)!

加一加算一算,當(dāng)然不便宜了!

有時(shí)候找找自己的原因!

綜合成本那么高,

是不是盲目追求高配置了?

IT設(shè)施能不能跟上大模型發(fā)展?

是不是IT采購做得東一榔頭,西一棒槌?

有沒有做過全盤的數(shù)字化設(shè)計(jì)?

想要把基礎(chǔ)設(shè)施的綜合成本打下來,

就需要選擇和大模型

適配的存儲、網(wǎng)絡(luò)產(chǎn)品。

統(tǒng)籌規(guī)劃自己的ICT基礎(chǔ)設(shè)施,

讓大模型獲得良好的數(shù)字化土壤。

大模型數(shù)據(jù)貴?哪里貴了???

專用數(shù)據(jù)從采集、清洗到標(biāo)注、驗(yàn)證,

每一個(gè)環(huán)節(jié)都需要成本。

有的企業(yè)整理3TB數(shù)據(jù)成本就高達(dá)數(shù)十萬。

通用數(shù)據(jù)便宜!

不擔(dān)心大模型差異化問題你去買啊!

平時(shí)有沒有重視自有數(shù)據(jù)?

全員通宵埋頭標(biāo)注數(shù)據(jù)的時(shí)候,

高價(jià)買數(shù)據(jù)的時(shí)候,

就沒想想怎么能剩下一筆數(shù)據(jù)成本?

想降低數(shù)據(jù)成本,

首先就要重視自身的數(shù)據(jù)資產(chǎn),

加強(qiáng)數(shù)據(jù)資產(chǎn)的收集保存,

同時(shí)強(qiáng)化流通,

數(shù)據(jù)流通起來才有價(jià)值!

大模型運(yùn)維貴?哪里貴了?。?/p>

大模型數(shù)據(jù)規(guī)模大、迭代版本多、算力節(jié)點(diǎn)多。

多就代表復(fù)雜,復(fù)雜就代表故障率高。

一出故障要推倒重訓(xùn),

一次訓(xùn)練恢復(fù)就要一星期以上,

項(xiàng)目進(jìn)度停滯,人工和算力開銷照舊,

整體成本咔咔上漲!

運(yùn)維成本上漲,

有時(shí)候找找自己的原因!

為什么一邊抱怨人工貴,

一邊還要讓員工加班?

為什么不找找運(yùn)維“平替”?

想要找人工運(yùn)維的“平替”,

當(dāng)然就是AI運(yùn)維了 !

用AI來運(yùn)維AI,

提升運(yùn)維智能化水平,

實(shí)現(xiàn)故障精準(zhǔn)定位,快速恢復(fù)。

讓運(yùn)維能力秒變省錢超能力!

大模型人才貴?哪里貴了???

也就是應(yīng)屆生比其他T人才溢價(jià)個(gè)50%左右,

算法工程師年薪50萬起步,

多一點(diǎn)的100萬也夠了!

有時(shí)候挖一個(gè)專家,

還要把他學(xué)生、助手、

親戚七大姑八大姨都給挖過來,

1000萬起步差不多吧。

有些時(shí)候找找自身原因!

這么多年有沒有認(rèn)真工作?

自己能不能變成AI人才?

有沒有讓員工都去研究學(xué)大模型?

有沒有送自己小孩去學(xué)AI?

破解AI人才難題,

需要產(chǎn)學(xué)研協(xié)同努力,

加大人才培養(yǎng)力度,

豐富相關(guān)崗位分工,

推進(jìn)AI資質(zhì)考核標(biāo)準(zhǔn)化

校園培養(yǎng)、在職培養(yǎng)、

社會(huì)培養(yǎng)共同發(fā)展。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30894

    瀏覽量

    269083
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2450

    瀏覽量

    2705
收藏 人收藏

    評論

    相關(guān)推薦

    【「大模型啟示錄」閱讀體驗(yàn)】對大模型更深入的認(rèn)知

    。興奮的是,大模型技術(shù)的發(fā)展為我們帶來了無限可能;不安的是,我意識到自己對這一領(lǐng)域的了解還遠(yuǎn)遠(yuǎn)不夠。我開始思考,作為一名學(xué)生,我如何能夠更好地利用這些技術(shù),以及在未來的職業(yè)生涯中,我如何能夠參與到這一變革中去。 學(xué)習(xí)之路仍然很漫長啊……
    發(fā)表于 12-20 15:46

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    多個(gè)因素以確保所選模型能夠滿足企業(yè)的具體需求和目標(biāo)。首先,企業(yè)需要明確自己的客服需求和目標(biāo)。例如,是否需要24小時(shí)在線客服服務(wù)?是否需要處理復(fù)雜問題的能力?是否需要個(gè)性化服務(wù)?明確這些需求有助于企業(yè)更好
    發(fā)表于 12-17 16:53

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個(gè)復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的LLM將用
    的頭像 發(fā)表于 11-08 09:30 ?549次閱讀

    如何訓(xùn)練自己的AI大模型

    訓(xùn)練自己的AI大模型是一個(gè)復(fù)雜且耗時(shí)的過程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的AI模型
    的頭像 發(fā)表于 10-23 15:07 ?1485次閱讀

    用TINA-TI仿真LM4871模型無法有效輸出是什么原因

    TI工程師你好,我從TI官網(wǎng)上下載了一個(gè)LM4871的模型進(jìn)行仿真,但是無法有效輸出,請問是什么原因
    發(fā)表于 10-22 06:20

    DAC8568 IBIS模型轉(zhuǎn)換成spice模型無法顯示所有引腳是什么原因導(dǎo)致的?怎么解決?

    你好,下載的DAC8568 IBIS模型,在cadence中生成spice模型時(shí)無法顯示所有引腳,只有一個(gè)INPUT引腳,沒有其他引腳,導(dǎo)致無法進(jìn)行電路繪制和仿真,請問是什么原因,應(yīng)該怎么解決?
    發(fā)表于 09-09 06:14

    人臉識別模型訓(xùn)練失敗原因有哪些

    人臉識別模型訓(xùn)練失敗的原因有很多,以下是一些常見的原因及其解決方案: 數(shù)據(jù)集質(zhì)量問題 數(shù)據(jù)集是訓(xùn)練人臉識別模型的基礎(chǔ)。如果數(shù)據(jù)集存在質(zhì)量問題,將直接影響
    的頭像 發(fā)表于 07-04 09:17 ?618次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)集

    PyTorch是一個(gè)廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動(dòng)態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時(shí),數(shù)據(jù)集是不可或缺的組成部分。然而,很多時(shí)候,我們可能需要使用自己的數(shù)據(jù)集而不是現(xiàn)成
    的頭像 發(fā)表于 07-02 14:09 ?1709次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    能力,它缺乏真正的“思考”過程。對于任何輸入,大語言模型都會(huì)產(chǎn)生輸出,但這僅僅是基于計(jì)算和預(yù)測下一個(gè)Token出現(xiàn)的概率。模型并不清楚自己的優(yōu)勢或劣勢,也無法主動(dòng)進(jìn)行反思和糾正錯(cuò)誤。提示工程
    發(fā)表于 05-07 17:21

    maixcam如何無腦運(yùn)行運(yùn)行別人的模型(以安全帽模型為例)

    =333.999.0.0 該模型整個(gè)的壓縮包在該文件附件中 如何修改為自己模型應(yīng)用 從主函數(shù)代碼可以看到我導(dǎo)入了sipeed退出圖片,使用了ts.read()去讀取觸摸坐標(biāo),再次感謝Neucrack大佬,具體細(xì)節(jié)可以
    發(fā)表于 04-25 14:51

    ad19中3d模型不顯示?

    封裝庫導(dǎo)入3d模型不顯示,但導(dǎo)入3d模型后的封裝庫生成pcb文件時(shí)顯示3d模型,這是什么原因導(dǎo)致的。
    發(fā)表于 04-24 13:41

    變壓器的電壓為什么會(huì)自己升高?變壓器電壓升高的原因

    變壓器的電壓為什么會(huì)自己升高?變壓器電壓升高的原因 變壓器電壓過高解決辦法? 變壓器的電壓自升高是由多種原因引起的。在理解變壓器電壓升高的原因之前,我們首先需要了解變壓器的工作原理。
    的頭像 發(fā)表于 03-06 14:22 ?5565次閱讀

    如何優(yōu)化深度學(xué)習(xí)模型?

    因?yàn)榇蟛糠秩耸褂玫?b class='flag-5'>模型都是預(yù)訓(xùn)練模型,使用的權(quán)重都是在大型數(shù)據(jù)集上訓(xùn)練好的模型,當(dāng)然不需要自己去初始化權(quán)重了。只有沒有預(yù)訓(xùn)練模型的領(lǐng)域會(huì)
    發(fā)表于 01-29 14:25 ?2908次閱讀
    如何優(yōu)化深度學(xué)習(xí)<b class='flag-5'>模型</b>?

    教您如何精調(diào)出自己的領(lǐng)域大模型

    BERT和 GPT-3 等語言模型針對語言任務(wù)進(jìn)行了預(yù)訓(xùn)練。微調(diào)使它們適應(yīng)特定領(lǐng)域,如營銷、醫(yī)療保健、金融。在本指南中,您將了解 LLM 架構(gòu)、微調(diào)過程以及如何為 NLP 任務(wù)微調(diào)自己的預(yù)訓(xùn)練模型
    的頭像 發(fā)表于 01-19 10:25 ?1150次閱讀
    教您如何精調(diào)出<b class='flag-5'>自己</b>的領(lǐng)域大<b class='flag-5'>模型</b>