0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

李彥宏說開源模型會越來越落后,為什么很多人不認(rèn)同?

甲子光年 ? 來源:甲子光年 ? 2024-04-24 09:37 ? 次閱讀

上周,百度董事長兼CEO李彥宏對于開源大模型的一番言論引發(fā)了爭議。

李彥宏在Create 2024百度AI開發(fā)者大會上表示:“開源模型會越來越落后?!?/p>

李彥宏的解釋是,百度基礎(chǔ)模型文心4.0可根據(jù)不同需求,在效果、響應(yīng)速度和推理成本等方面靈活剪裁,生成適應(yīng)各種場景的精簡模型,并支持精調(diào)和post pretrain。相較于直接使用開源模型,文心4.0剪裁出的模型在同等尺寸下表現(xiàn)更佳,而在同等效果下成本更低,因此他預(yù)測開源模型將會越來越落后。

但很多AI從業(yè)者都不太認(rèn)同這一結(jié)論。比如獵豹移動董事長兼CEO、獵戶星空董事長傅盛很快發(fā)視頻反駁,說“開源社區(qū)將最終戰(zhàn)勝閉源”。

開源模型到底能否超越閉源模型?這個問題從去年開始就備受爭議。

去年5月,外媒曾報(bào)道谷歌流出一份文件,主題是“我們沒有護(hù)城河,OpenAI也沒有。當(dāng)我們還在爭吵時,開源已經(jīng)悄悄地?fù)屃宋覀兊娘埻搿薄?/p>

去年Meta發(fā)布開源大模型Llama 2后,Meta副總裁、人工智能部門負(fù)責(zé)人楊立昆(Yann LeCun)表示,Llama 2將改變大語言模型的市場格局。

人們對于Llama系列模型所引領(lǐng)的開源社區(qū)備受期待。但直到今天,最新發(fā)布的Llama 3仍然沒有追上最先進(jìn)的閉源模型GPT-4,盡管兩者的差距已經(jīng)很小了。

「甲子光年」采訪了多位AI從業(yè)者,一個普遍的反饋是,討論開源好還是閉源好,本身是由立場決定的,也不簡簡單單是一個二元對立的問題。

開源與閉源并非一個技術(shù)問題,更多是一個商業(yè)模式的問題。然而,大模型當(dāng)前的發(fā)展現(xiàn)狀是,不論是開源還是閉源,都還沒有找到切實(shí)可行的商業(yè)模式。

所以,未來到底會如何發(fā)展呢?

1.差距沒有拉大,而是在縮小

開源模型與閉源模型到底誰更強(qiáng)?不妨先看一下客觀的數(shù)據(jù)排名情況。

大模型領(lǐng)域最權(quán)威的榜單是大模型競技場(LLM Arena),采用了國際象棋一直采用了ELO積分體系。它的基本規(guī)則是,讓用戶向兩個匿名模型(例如 ChatGPT、Claude、Llama)提出任何問題,并投票給回答更好的一個?;卮鸶玫哪P蛯@得積分,最終的排名由累計(jì)積分的高低來確定。Arean ELO收集了50萬人的投票數(shù)據(jù)。

4bf6c3c4-0175-11ef-a297-92fbcf53809c.png

大模型排行榜,圖片來自LLM Arena截圖

在LLM Arena榜單上,OpenAI的GPT-4長期霸榜第一。Anthropic最新發(fā)布的Claude 3曾短期取代GPT-4取得第一名的桂冠,但OpenAI很快發(fā)布最新版本的GPT-4 Turbo,重新奪回第一的寶座。

LLM Arena排名前十的模型基本上被閉源模型壟。能夠擠進(jìn)前十名榜單的開源模型只有兩個:一是Meta上周剛剛發(fā)布的LLama 3 70B,排名第五,也是表現(xiàn)最好的開源模型;二是“Transformer八子”之一的Aidan Gomez創(chuàng)立的Cohere近期發(fā)布的Command R+,排名第七。值得一提的是,阿里發(fā)布的開源模型Qwen1.5-72B-Chat,排名第十二,是國內(nèi)表現(xiàn)最好的開源模型。

從絕對排名上看,閉源模型仍然遙遙領(lǐng)先開源模型。但若從兩者的差距來看,并非李彥宏所說的越來越大,而是越來越小。

4bfda0b8-0175-11ef-a297-92fbcf53809c.png

閉源模型與開源模型的差距,圖片來自X

昆侖萬維董事長兼CEO方漢此前曾對「甲子光年」表示,開源模型與閉源模型的差距已經(jīng)從落后2年追到僅落后4~6個月了。

什么因素會影響開源和閉源模型的能力差異?

微博新技術(shù)研發(fā)負(fù)責(zé)人張俊林認(rèn)為,模型能力增長曲線的平滑或陡峭程度比較重要。如果模型能力增長曲線越陡峭(單位時間內(nèi),模型各方面能力的增長數(shù)量,越快就類似物體運(yùn)動的“加速度”越大),則意味著短時間內(nèi)需要投入越大的計(jì)算資源,這種情況下閉源模型相對開源模型是有優(yōu)勢的,主要是資源優(yōu)勢導(dǎo)致的模型效果優(yōu)勢。

反過來,如果模型能力增長曲線越平緩,則意味著開源和閉源模型的差異會越小,追趕速度也越快。這種由模型能力增長曲線陡峭程度決定的開源閉源模型的能力差異,可以稱之為模型能力的“加速度差”。

張俊林認(rèn)為,往后多看幾年,開源與閉源的能力是縮小還是增大,取決于在“合成數(shù)據(jù)”方面的技術(shù)進(jìn)展。如果“合成數(shù)據(jù)”技術(shù)在未來兩年能獲得突破,則兩者差距是有可能拉大的;如果不能突破,則開源和閉源模型能力會相當(dāng)。

所以,“合成數(shù)據(jù)”是未來兩年大語言模型最關(guān)鍵的決定性的技術(shù),很可能沒有之一。

2.開源模型的“真假開源”

人們對于開源模型的期待,很大程度上就在于“開源”兩個字。

開源是軟件行業(yè)蓬勃發(fā)展的決定性力量。正如360集團(tuán)創(chuàng)始人周鴻祎近期在哈佛大學(xué)演講中提到的那樣:“沒有開源就沒有Linux,沒有PHP,沒有MySQL,甚至沒有互聯(lián)網(wǎng)。包括在人工智能的發(fā)展上,如果沒有當(dāng)初谷歌開源Transformer,就不會有OpenAI和GPT。我們都是受益于開源成長起來的個人和公司。”

但是,這一次的開源模型可能要讓很多開源信徒失望了。

去年Llama 2發(fā)布后不久,就有批評聲音稱,Meta其實(shí)是在“假開源”。

比如,開源友好型風(fēng)險(xiǎn)投資公司RedPoint的董事總經(jīng)理Erica Brescia表示:“誰能向我解釋一下,如果Llama 2實(shí)際上沒有使用OSI(開放源碼計(jì)劃)批準(zhǔn)的許可證,也不符合OSD(開放源碼定義),Meta公司和微軟公司又如何稱Llama 2為開放源碼?他們是在故意挑戰(zhàn)OSS(開放源碼軟件)的定義嗎?”?

的確,Llama 2并沒有遵循上述協(xié)議,而是自定義了一套“開源規(guī)則”,包括禁止使用Llama 2去訓(xùn)練其它語言模型,如果該模型用于每月用戶超過7億的應(yīng)用程序和服務(wù),則需要獲得Meta的特殊許可證。

Llama 2雖然自稱為開源模型,但僅僅開放了模型權(quán)重——也就是訓(xùn)練之后的參數(shù),但訓(xùn)練數(shù)據(jù)、訓(xùn)練代碼等關(guān)鍵信息都未開放。

零一萬物開源負(fù)責(zé)人林旅強(qiáng)告訴「甲子光年」,現(xiàn)在說的開源模型,對比開源軟件來說,是一種介于閉源與開源的中間狀態(tài),開發(fā)者可以在其基礎(chǔ)上做微調(diào)、做RAG,但又無法像開源軟件那樣對模型本身做修改,更無法得到其訓(xùn)練源數(shù)據(jù)。

在“真開源”的開源軟件領(lǐng)域,一個顯著的特點(diǎn)是軟件源代碼共享,開源社區(qū)的開發(fā)者不僅可以反饋Bug,而且可以直接貢獻(xiàn)代碼。 比如,國產(chǎn)開源數(shù)據(jù)庫TiDB就分享過一組數(shù)據(jù),在每年更新的40%的代碼中,有40%是由外部貢獻(xiàn)者貢獻(xiàn)的。

但由于大模型的算法黑盒,僅僅開放模型權(quán)重的“半開源”,導(dǎo)致了一個結(jié)果:用Llama 2的開發(fā)者再多,也不會幫助Meta提升任何Llama 3的能力和Know-how,Meta也無法靠Llama 2獲取任何的數(shù)據(jù)飛輪。

Meta想要訓(xùn)練更強(qiáng)的Llama 3,還是只能靠自己團(tuán)隊(duì)內(nèi)部的人才、數(shù)據(jù)、GPU資源來做,還是需要做實(shí)驗(yàn)(比如Scailing Law)、收集更多的優(yōu)質(zhì)數(shù)據(jù)、建立更大的計(jì)算集群。這本質(zhì)上與OpenAI訓(xùn)練閉源的GPT-4無異。

正如李彥宏在百度內(nèi)部信中所言,開源模型并不能像開源軟件那樣做到“眾人拾柴火焰高”。

今天,很多開源模型都注意到了這個問題。比如谷歌在發(fā)布開源模型Gemma的時候,谷歌特意將其命名為“開放模型(Open Model)”而非“開源模型(Open Source Model)”。谷歌表示:開放模型具有模型權(quán)重的免費(fèi)訪問權(quán)限,但使用條款、再分發(fā)和變體所有權(quán)根據(jù)模型的具體使用條款而變化,這些條款可能不基于開源許可證。

昆侖萬維AI Infra負(fù)責(zé)人成誠在知乎上對于開源模型做了以下分級:

僅模型開源(技術(shù)報(bào)告只列舉了 Evaluation)。主要利好做應(yīng)用的公司(繼續(xù)訓(xùn)練和微調(diào))和普通用戶(直接部署) ?

技術(shù)報(bào)告開源訓(xùn)練過程。比較詳盡的描述了模型訓(xùn)練的關(guān)鍵細(xì)節(jié)。利好算法研究。

訓(xùn)練代碼開源/技術(shù)報(bào)告開源全部細(xì)節(jié)。包含了數(shù)據(jù)配比的核心關(guān)鍵信息。這些信息價(jià)值連城,是原本需要耗費(fèi)很多GPU資源才能得到的Know-how。

全量訓(xùn)練數(shù)據(jù)開源。其他有算力資源的團(tuán)隊(duì)可以基于訓(xùn)練數(shù)據(jù)和代碼完全復(fù)現(xiàn)該模型。訓(xùn)練數(shù)據(jù)可以說是大模型團(tuán)隊(duì)最核心的資產(chǎn)。

數(shù)據(jù)清洗框架和流程開源。從源頭的原始數(shù)據(jù)(比如CC網(wǎng)頁、PDF電子書等)到 可訓(xùn)練的數(shù)據(jù)的清洗過程也開源, 其他團(tuán)隊(duì)不僅可以基于此清洗框架復(fù)現(xiàn)數(shù)據(jù)預(yù)處理過程,還可以通過搜集更多的源(比如基于搜索引擎抓取的全量網(wǎng)頁)來擴(kuò)展自己的數(shù)據(jù)規(guī)模,得到比原始模型更強(qiáng)的基座模型。

他表示,實(shí)際上大部分的模型開源諸如LLama2、Mistral、Qwen等,只做到Level-1, 像DeepSeek可以做到Level-2。 而Level-4及以上的開源一個都沒有。至今沒有一家公司開源自己的全部訓(xùn)練數(shù)據(jù)和數(shù)據(jù)清洗代碼,以至于開源模型無法被第三方完整復(fù)現(xiàn)。

這樣做的結(jié)果是: 掌握著模型進(jìn)步的核心機(jī)密(數(shù)據(jù)、配比)被大模型公司牢牢掌握在自己手里,除了大模型公司自己的團(tuán)隊(duì),沒有任何其他來自開源社區(qū)的力量可以幫助其提升下一次訓(xùn)練模型的能力。

因此,這就回到一個關(guān)鍵問題:如果開源不能借助外部力量幫助提升模型性能,為什么還要開源?

3.模型開源的意義是什么?

開源還是閉源,本身并不決定模型性能的高低。閉源模型并非因?yàn)殚]源而領(lǐng)先,開源模型也并非因?yàn)殚_源而落后。甚至恰恰相反,模型是因?yàn)轭I(lǐng)先才選擇閉源,因?yàn)椴粔蝾I(lǐng)先不得不選擇開源。

因此,如果一家公司做出了性能很強(qiáng)的模型,它就有可能不再開源了。

比如法國的明星創(chuàng)業(yè)公司Mistral,其開源的最強(qiáng)7B模型Mistral-7B和首個開源MoE模型8x7B(MMLU 70)是開源社區(qū)聲量最大的模型之一。 但是,Mistral后續(xù)訓(xùn)練的Mistral-Medium(MMLU-75)、Mistral-Large(MMLU-81) 均是閉源模型。

目前性能最好的閉源模型與性能最好的開源模型都是由大公司所主導(dǎo),而大公司里又屬M(fèi)eta的開源決心最大。如果OpenAI不開源是從商業(yè)回報(bào)的角度來考慮,那么Meta選擇開源讓用戶免費(fèi)試用的目的又是什么呢?

在上一季度的財(cái)報(bào)會上,扎克伯格對這件事的回應(yīng)是,Meta開源其AI技術(shù)是出于推動技術(shù)創(chuàng)新、提升模型質(zhì)量、建立行業(yè)標(biāo)準(zhǔn)、吸引人才、增加透明度和支持長期戰(zhàn)略的考慮。

具體來說,開源帶來了諸多戰(zhàn)略好處。

首先,開源軟件通常會更安全,更可靠,而且會由于社區(qū)提供的持續(xù)反饋和審查而變得更高效。這點(diǎn)非常重要,因?yàn)榘踩茿I領(lǐng)域的最關(guān)鍵議題之一。

其次,開源軟件會時常成為行業(yè)標(biāo)準(zhǔn)。而當(dāng)其他企業(yè)基于Meta的技術(shù)棧建立標(biāo)準(zhǔn)時,新創(chuàng)新就會更容易融入Meta的產(chǎn)品中。這種微妙的優(yōu)勢,就是巨大的競爭優(yōu)勢。

再次,開源在開發(fā)者中非常受歡迎。因?yàn)?a target="_blank">科技工作者們渴望參與到廣泛采納的開放系統(tǒng)中,這就會讓Meta吸引更多頂尖人才,從而在新興技術(shù)領(lǐng)域保持領(lǐng)先地位。同時,由于Meta具有獨(dú)特的數(shù)據(jù)和產(chǎn)品集成,開源Llama基礎(chǔ)設(shè)施并不會削弱Meta的核心競爭力。

Meta是大公司中開源決心最大的公司,也是收益最大的公司。盡管訓(xùn)練大模型需要耗費(fèi)幾千億美元,但自從2023年把業(yè)務(wù)重心聚焦在開源大模型上以來,Meta的股價(jià)已經(jīng)上漲了大約272%。Meta不僅從開源中收獲了名聲,也收獲了巨大的財(cái)務(wù)回報(bào)。

4c090318-0175-11ef-a297-92fbcf53809c.jpg

Meta股價(jià)走勢圖,圖片來自X


Meta最新發(fā)布的Llama 3也是開源模型。除了8B與70B兩個較小參數(shù)的模型,正在訓(xùn)練中的Llama 3 400B大概率也會是開源模型,而且有望成為第一個超越GPT-4的開源模型。

4.閉源to C,開源to B

不論開源模型還是閉源模型,都需要找到合適的商業(yè)模式。

今天大模型行業(yè)逐漸形成的一個趨勢是,閉源模型更傾向做to C,開源模型更傾向于做to B。

月之暗面創(chuàng)始人楊植麟曾表示,要想做to C領(lǐng)域的Super App,就必須用自研(閉源)模型,因?yàn)椤爸挥凶匝心P筒拍茉谟脩趔w驗(yàn)上產(chǎn)生差異化”。

楊植麟認(rèn)為,開源模型本質(zhì)上是一種to B的獲客工具,或者是在Super App之外的長尾應(yīng)用,才可能基于開源模型去發(fā)揮數(shù)據(jù)的優(yōu)勢或場景的優(yōu)勢。

但開源模型無法構(gòu)建產(chǎn)品壁壘。比如,在海外有幾百個基于開源擴(kuò)散模型Stable Diffusion的應(yīng)用出現(xiàn),但最后其實(shí)沒有任何一個跑出來。

其次,無法在開源技術(shù)的基礎(chǔ)上通過數(shù)據(jù)的虹吸效應(yīng)讓模型持續(xù)地優(yōu)化,因?yàn)殚_源模型本身是分布式部署,沒有一個集中的地方接收數(shù)據(jù)。

相比之下,開源模型更加適合在to B領(lǐng)域落地。

零一萬物開源負(fù)責(zé)人林旅強(qiáng)告訴「甲子光年」,toB是一單一單直接從客戶身上賺錢,提供的不是產(chǎn)品,而是服務(wù)和解決方案,而且是一個定制化的服務(wù)。做服務(wù)是用開源還是閉源?To B的客戶肯定首選開源模型,因?yàn)椴粌H能省下授權(quán)費(fèi)用,還有更高的定制空間。

開源模型往往被當(dāng)成一種最便宜的獲得銷售線索的手段。廠商可通過幾十B或以下規(guī)模的開源模型擴(kuò)大用戶群體,以獲取銷售線索、證明技術(shù)實(shí)力。如果客戶有更多定制化需求,模型廠商也可以提供更多的服務(wù)。

同時,開源與閉源并非一個單選題,很多公司都采用了開源與閉源雙輪驅(qū)動的戰(zhàn)略,比如智譜AI、百川智能、零一萬物等等。

王小川就認(rèn)為,從to B角度,開源閉源其實(shí)都需要。未來80%的企業(yè)會用到開源的大模型,因?yàn)殚]源沒有辦法對產(chǎn)品做更好的適配,或者成本特別高,閉源可以給剩下的20%提供服務(wù)。二者不是競爭關(guān)系,而是在不同產(chǎn)品中互補(bǔ)的關(guān)系。”

不論開源還是閉源,大模型商業(yè)化面臨的根本問題是,如何降低推理成本。只有降低了推理成本,大模型才有可能真正大規(guī)模落地。

今天,開源與閉源陣營分別有自己的支持者。但如果參考iOS與安卓操作系統(tǒng)的發(fā)展軌跡來看,彼此之間的良性競爭大大促進(jìn)了產(chǎn)品的迭代與用戶體驗(yàn)的升級。這才是開閉源之爭最終的價(jià)值。


審核編輯:劉清
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48434

    瀏覽量

    244738
  • 李彥宏
    +關(guān)注

    關(guān)注

    2

    文章

    95

    瀏覽量

    14746
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    15856
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2929

    瀏覽量

    3679

原文標(biāo)題:李彥宏說開源模型會越來越落后,為什么很多人不認(rèn)同?|甲子光年

文章出處:【微信號:jazzyear,微信公眾號:甲子光年】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    當(dāng)我問DeepSeek:為什么傳感器技術(shù)越來越重要

    為什么傳感器技術(shù)越來越重要 我們一起來看看 ????DeepSeek是怎么說的 為什么傳感器技術(shù)越來越重要? ? 傳感器:數(shù)字世界的感官,智能時代的基石…… 在這個數(shù)字化的世界里,
    的頭像 發(fā)表于 03-01 15:58 ?237次閱讀

    :DeepSeek啟示我們應(yīng)將頂尖模型開源

    ,百度董事長兼 CEO ,移動生態(tài)事業(yè)群總裁羅戎,智能云事業(yè)群總裁沈抖,代理 CFO 何俊杰等高管出席隨后召開的財(cái)報(bào)電話會議,解讀財(cái)報(bào)要點(diǎn)并回答分析師提問。 摘錄部分內(nèi)容如下: 花旗銀行分析師 Alicia Yap:Dee
    的頭像 發(fā)表于 02-20 10:38 ?412次閱讀
    <b class='flag-5'>李</b><b class='flag-5'>彥</b><b class='flag-5'>宏</b>:DeepSeek啟示我們應(yīng)將頂尖<b class='flag-5'>模型</b><b class='flag-5'>開源</b>

    :百度蘿卜快跑2025年將大幅擴(kuò)張

    在百度近期舉行的業(yè)績會上,公司創(chuàng)始人透露了一個令業(yè)界矚目的消息:2025年將是百度蘿卜快跑業(yè)務(wù)的重要擴(kuò)張之年。這一戰(zhàn)略決策不僅彰顯了百度在自動駕駛領(lǐng)域的堅(jiān)定信心和雄厚實(shí)力,也預(yù)示著蘿卜快跑即將
    的頭像 發(fā)表于 02-19 14:15 ?479次閱讀

    百度稱自動駕駛比人類司機(jī)安全十倍

    在近日于阿聯(lián)酋迪拜開幕的“世界政府峰會”上,百度創(chuàng)始人發(fā)表了關(guān)于自動駕駛技術(shù)的看法。他表示,隨著技術(shù)的飛速進(jìn)步,自動駕駛的安全性已經(jīng)遠(yuǎn)超人類司機(jī),其安全性可以達(dá)到人類司機(jī)的十倍。
    的頭像 發(fā)表于 02-13 16:10 ?309次閱讀

    稱大模型成本每年降低90%

    在近日于阿聯(lián)酋迪拜舉行的World Governments Summit 2025峰會上,百度創(chuàng)始人與阿聯(lián)酋人工智能部長奧馬爾·蘇丹·奧拉馬(Omar Sultan AI Olama)進(jìn)行了
    的頭像 發(fā)表于 02-12 14:48 ?514次閱讀

    :自動駕駛比人開車安全十倍

    近日,“世界政府峰會”在阿聯(lián)酋迪拜隆重開幕。百度創(chuàng)始人在主論壇上與阿聯(lián)酋AI部長奧馬爾·蘇丹·奧拉馬進(jìn)行了深入對談。在這次對談中,
    的頭像 發(fā)表于 02-12 09:08 ?703次閱讀

    談人工智能:長期重構(gòu)社會的力量

    強(qiáng)調(diào),百度在研發(fā)資源上持續(xù)投入于基礎(chǔ)能力建設(shè),盡管這一領(lǐng)域在外界看來可能較為基礎(chǔ),但百度堅(jiān)信這是推動人工智能發(fā)展的關(guān)鍵所在。然而,他也指出,當(dāng)前基礎(chǔ)模型的迭代速度過快,給應(yīng)用
    的頭像 發(fā)表于 11-15 15:22 ?571次閱讀

    :大模型行業(yè)消除幻覺,iRAG技術(shù)引領(lǐng)文生圖新紀(jì)元

    在近日舉辦的百度世界大會上,百度創(chuàng)始人分享了關(guān)于大模型行業(yè)的最新觀察。他指出,過去24個月里,大模型行業(yè)經(jīng)歷了顯著的變化,其中最引人注
    的頭像 發(fā)表于 11-14 11:39 ?524次閱讀

    宣布:百度文心大模型日調(diào)用量超15億

    在百度世界2024大會上,百度公司創(chuàng)始人宣布了一項(xiàng)令人矚目的數(shù)據(jù):百度文心大模型的日調(diào)用量已經(jīng)超過15億次。這一數(shù)據(jù)不僅彰顯了百度在人工智能領(lǐng)域的領(lǐng)先地位,也預(yù)示著人工智能技術(shù)的
    的頭像 發(fā)表于 11-12 10:40 ?436次閱讀

    人民郵電報(bào):“開源”到底是什么?為啥熱度越來越高?

    ? ? ? 本文轉(zhuǎn)載自人民郵電報(bào) 這些年,“開源”這個詞越來越火,開源AI大模型開源數(shù)據(jù)庫、開源
    的頭像 發(fā)表于 10-17 14:21 ?3269次閱讀
    人民郵電報(bào):“<b class='flag-5'>開源</b>”到底是什么?為啥熱度<b class='flag-5'>越來越</b>高?

    :并非只需學(xué)習(xí)AI專業(yè)才能有所作為

    據(jù)8月19日消息,在28屆百度Hackathon(黑客馬拉松)活動接受采訪時指出,在AI時代,年輕人并非只需要學(xué)習(xí)AI專業(yè)才能有所作為。
    的頭像 發(fā)表于 08-19 15:10 ?571次閱讀

    我們的城市為什么越來越熱?

    全球氣候在變暖,我們焚燒石油,煤炭等化石燃料,產(chǎn)生了大量二氧化碳等溫室氣體,導(dǎo)致全球氣候變暖,尤其大陸氣溫升高,城市變得越來越熱。圖:上海前灘的夜晚,被太陽曬熱的建筑熱島效應(yīng)夏天天太熱,在陽光
    的頭像 發(fā)表于 08-03 08:14 ?748次閱讀
    我們的城市為什么<b class='flag-5'>越來越</b>熱?

    2024世界人工智能大會,大咖們都在關(guān)注這件事

    “沒有應(yīng)用,光有基礎(chǔ)模型,不管是開源還是閉源都一文不值?!?在近期閉幕的2024世界人工智能大會(WAIC)上,各業(yè)界大咖們圍繞大模型和AI應(yīng)用進(jìn)行了大大小小數(shù)十場的唇槍舌戰(zhàn),為越來越
    的頭像 發(fā)表于 07-09 09:28 ?686次閱讀
    2024世界人工智能大會,大咖們都在關(guān)注這件事

    現(xiàn)身法國談AI發(fā)展 為中國AI“代言”

    發(fā)展更偏向應(yīng)用驅(qū)動,“認(rèn)為中國走的是一種更加偏向于應(yīng)用驅(qū)動的方式”。 在與陽獅集團(tuán)監(jiān)
    的頭像 發(fā)表于 05-24 12:11 ?1123次閱讀

    率隊(duì)拜訪中國石油,共話油氣行業(yè)智能化

    5月6日,百度創(chuàng)始人、董事長兼首席執(zhí)行官帶隊(duì)在北京拜訪中國石油天然氣集團(tuán)有限公司(以下簡稱“中國石油”),并與中國石油集團(tuán)董事長、黨組書記戴厚良舉行會談。
    的頭像 發(fā)表于 05-07 14:05 ?522次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品