0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI 發(fā)展的理想路線是什么?引學(xué)者熱議

MqC7_CAAI_1981 ? 來源:YXQ ? 2019-03-21 14:32 ? 次閱讀

近幾年來,隨著深度學(xué)習(xí)的學(xué)術(shù)研究和工業(yè)應(yīng)用都越發(fā)火熱,大多數(shù)研究者們開始形成一個(gè)共識(shí),那就是「未來的通用人工智能(AGI)一定不會(huì)是多層神經(jīng)網(wǎng)絡(luò)」。邏輯推理、高層次概念抽象、小樣本多任務(wù)學(xué)習(xí)等等重要的智慧組成部分在多層神經(jīng)網(wǎng)絡(luò)上都欠奉,整個(gè)領(lǐng)域逐漸形成這樣的認(rèn)知就理所當(dāng)然了。

但近幾天的一篇文章揭示了另一個(gè)真正有爭(zhēng)議的問題:關(guān)于 AI 研究的方法論,是要「設(shè)計(jì)會(huì)學(xué)習(xí)的、能利用大規(guī)模計(jì)算能力的方法(元算法),即便我們現(xiàn)在的計(jì)算能力還不足以支持這樣的方法,但我們靜等算力發(fā)展就好」,還是「想辦法把人類的知識(shí)直接做成模型的一部分,這才是原理化、結(jié)構(gòu)化的做法」。這個(gè)問題形成了不小的討論,許多知名學(xué)者都發(fā)表了自己的意見。

強(qiáng)化學(xué)習(xí)開路人首先發(fā)難

Richard Sutton 是強(qiáng)化學(xué)習(xí)領(lǐng)域的開拓者,有「強(qiáng)化學(xué)習(xí)之父」之稱。Richard Sutton是如今鼎鼎大名的 DeepMind 研究科學(xué)家、AlphaGo 主程序員 David Silver 的老師,他本人如今也在 DeepMind 工作。

3 月 13 日,Richard Sutton 在自己的個(gè)人主頁incompleteideas.net 發(fā)表了一篇博客,名為「The Bitter Lesson」(苦澀的教訓(xùn))。我們把全文編譯如下。

AI 研究這七十年的發(fā)展中,我們學(xué)到的最有用的一課是,能夠充分利用計(jì)算能力的通用方法最終往往是效果最好的,而且要比其他方法的表現(xiàn)高出一大截。這個(gè)結(jié)論背后最重要的原因是由于摩爾定律,或者說,摩登定律的實(shí)際影響是讓每單位計(jì)算能力的價(jià)格指數(shù)級(jí)地降低。大多數(shù) AI 研究進(jìn)行的時(shí)候都默認(rèn)了智能體可以使用的資源是固定的(在這種情況下,能繼續(xù)提高智能體表現(xiàn)的方法并不多,借助人類的知識(shí)就是其中一種);但是,只需要不長(zhǎng)的時(shí)間,比如只比一個(gè)一般的研究進(jìn)行的時(shí)間再長(zhǎng)一點(diǎn),我們就一定會(huì)有更多的計(jì)算資源可以拿來用。研究人員們總是想要找到能在短期內(nèi)帶來提升的方法,所以他們的成果往往是想辦法把他們已經(jīng)掌握的人類知識(shí)利用起來;但是長(zhǎng)期來看,真正重要的事情是利用更多的計(jì)算能力。這兩種路線其實(shí)并不是對(duì)立的,但是在實(shí)踐中大家往往只做其中一個(gè),就好像在心里做出了承諾必須要一條路走到黑一樣。選擇了利用人類知識(shí)這條路的研究人員們就免不了會(huì)讓方法變得復(fù)雜,更復(fù)雜的方法也就更不容易像通用方法那樣使用更多的計(jì)算資源。有很多 AI 研究人員都是做了很久研究之后才學(xué)到這個(gè)教訓(xùn)。下面我給大家講幾個(gè)比較重大的例子,希望大家看過之后都能有些收獲。

在用計(jì)算機(jī)下國(guó)際象棋的嘗試中,1997 年擊敗人類國(guó)際象棋冠軍卡斯帕洛夫的方法,就是基于大規(guī)模深度搜索的。當(dāng)時(shí)大多數(shù)計(jì)算機(jī)下棋的研究人員選擇的方法都嘗試運(yùn)用人類對(duì)棋盤上特殊結(jié)構(gòu)的理解,所以當(dāng)他們看到大規(guī)模深度搜索的方法首先擊敗了人類的時(shí)候,他們都不免有些驚愕和沮喪。不過他們也并沒有立即就認(rèn)輸,面對(duì)著依靠專門的軟硬件+簡(jiǎn)單的搜索就能得到高超表現(xiàn)的方法,他們聲稱「暴力搜索」也許這次勝利了,但這并不是一種通用的策略,而且人類也不是這樣下棋的。他們希望某個(gè)基于人類知識(shí)的系統(tǒng)可以突然出現(xiàn)并勝出,但遺憾的是這樣的事情并沒有發(fā)生。

計(jì)算機(jī)下圍棋的研究里也出現(xiàn)過類似的故事,只不過時(shí)間上要遲 20 年左右。研究人員們起初投入了大量的時(shí)間精力研究如何利用人類的知識(shí),或者是利用棋局中的特殊特征,以避免使用暴力搜索。顯然最終他們的努力仍然白費(fèi)了,而且這次還要更糟糕一點(diǎn),一旦基于搜索的方法開始大規(guī)模、高效地使用起來,那些方法就再也沒有追上的機(jī)會(huì)。同等重要的是一種新方法開始得到使用:通過自我對(duì)弈的過程,學(xué)習(xí)價(jià)值函數(shù)(很多其它的游戲/比賽中也有這樣的做法,只不過在 1997 年的那個(gè)國(guó)際象棋程序里沒有很多運(yùn)用)?!缸晕覍?duì)弈學(xué)習(xí)」,以及「學(xué)習(xí)」這件事總地來說,其實(shí)就像是一種搜索,它能讓大規(guī)模計(jì)算能力更好地發(fā)揮作用。在 AI 研究中,搜索和學(xué)習(xí)是能夠利用大規(guī)模計(jì)算能力的最重要的兩類技術(shù)。下圍棋的研究就和下象棋的研究一樣,大家一開始都是直接嘗試如何運(yùn)用人類的理解(這樣就不需要那么多搜索),然后直到后來他們開始擁抱搜索和學(xué)習(xí)的時(shí)候才獲得了巨大的成功。

語音識(shí)別領(lǐng)域,早在 1970 年代就有 DARPA 贊助的語音識(shí)別競(jìng)賽。當(dāng)時(shí)參加比賽的很多都是利用人類知識(shí)的方法——單詞知識(shí)、音節(jié)、人聲的頻率特征,等等;同時(shí)也有新一些的方法,它們?cè)诒举|(zhì)上更像統(tǒng)計(jì)學(xué)的方法,而且也需要更多的計(jì)算,基于的理論是隱馬爾可夫模型(HMMs)。再一次,基于統(tǒng)計(jì)的方法勝過了基于人類知識(shí)的方法。在這之后的幾十年中,自然語言處理領(lǐng)域逐漸發(fā)生了巨大的變化,基于統(tǒng)計(jì)學(xué)和計(jì)算的方法逐漸占據(jù)了主導(dǎo)地位。近幾年出現(xiàn)的用于語音識(shí)別的深度學(xué)習(xí)方法更是這個(gè)方向上的堅(jiān)定一步。深度學(xué)習(xí)對(duì)人類知識(shí)的依賴更小、使用的計(jì)算能力更多,再加上是在非常大的訓(xùn)練數(shù)據(jù)集上學(xué)習(xí)的,最終得到的語音識(shí)別系統(tǒng)的表現(xiàn)也有了大跨度的飛躍。在游戲中也是一樣,研究人員們總是先嘗試?yán)斫庾约旱乃伎挤绞?,然后?jù)此設(shè)計(jì)系統(tǒng)。他們很努力地嘗試把自己的知識(shí)融入到系統(tǒng)中,但是最終結(jié)果表明這樣的做法并沒有什么好處,也浪費(fèi)了研究者自己的大量時(shí)間精力;而同時(shí),通過摩爾定律,大規(guī)模計(jì)算能力變得觸手可及,我們也有了新的方式讓這些計(jì)算能力派上用場(chǎng)。

計(jì)算機(jī)視覺領(lǐng)域也有類似的模式。早期的方法認(rèn)為視覺任務(wù)是尋找邊緣,或者是泛化的圓柱體,或者是一些 SIFT 特征。如今這些方法都扔進(jìn)垃圾堆了?,F(xiàn)代深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)只需要一個(gè)卷積的概念和某幾種變種,然后就可以獲得好得多的表現(xiàn)。

這是一個(gè)很大的教訓(xùn)。但是作為一個(gè)領(lǐng)域,我們還沒能完全吸取這個(gè)教訓(xùn),因?yàn)槲覀冞€在持續(xù)地犯相同的錯(cuò)誤。為了能看清這點(diǎn),以及有效地避免這種錯(cuò)誤,我們要能夠理解這些錯(cuò)誤的誘人之處。我們必須要學(xué)到這個(gè)苦澀的教訓(xùn),那就是我們對(duì)自己的思考方式的了解,長(zhǎng)期看來是行不通的。對(duì)于過往歷史的觀察已經(jīng)表明了:

AI 研究人員總是會(huì)嘗試把知識(shí)構(gòu)建到他們的智能體中;

短期總是可以看到回報(bào)的,這對(duì)研究者當(dāng)事人來說是好的;

長(zhǎng)期看來這會(huì)延緩甚至阻止更大的進(jìn)步產(chǎn)生;

真正的突破性進(jìn)展最終來自完全相反的方向,那就是基于大規(guī)模計(jì)算能力的搜索和學(xué)習(xí)。

雖然最終取得了成功,但這條路上布滿了苦澀,而且成功的果實(shí)也無法完全消化,因?yàn)槌晒Ξ吘共⒉粊碓从谌藗兏矚g的、更以人為中心的途徑。

在這個(gè)苦澀的教訓(xùn)中我們應(yīng)該學(xué)到一件事,那就是通用目標(biāo)方法含有巨大的力量,隨著可用的計(jì)算能力變多,這些方法的表現(xiàn)可以變得越來越好。搜索和學(xué)習(xí)這兩種方法的表現(xiàn)隨著計(jì)算能力增加而變好的程度簡(jiǎn)直是沒有上限的。

還有一件事需要我們學(xué)到,那就是人類思維的真正內(nèi)容是極其復(fù)雜、無法描述的。我們需要停止嘗試尋找更簡(jiǎn)單的方法理解我們自己的思維,比如用簡(jiǎn)單的方法理解空間、物體、多智能體、對(duì)稱性,等等。所有這些都是無窮多樣的、本征復(fù)雜的外部環(huán)境的一部分。我們沒辦法嘗試把這些元素構(gòu)建成為系統(tǒng)的一部分,因?yàn)樗鼈兊膹?fù)雜性本來就是無窮高的。相反地,我們應(yīng)該做的是,構(gòu)建那些可以自己尋找并捕捉這種任意復(fù)雜性的元方法。這些方法的關(guān)鍵點(diǎn)是它們能夠找到好的近似,但是尋找近似的過程也是這些方法自己執(zhí)行,而不是我們(通過增加人類知識(shí)的方法)替他們完成。我們希望智能體可以像我們一樣探索發(fā)現(xiàn),而不是直接包括我們已經(jīng)探索發(fā)現(xiàn)好的。把我們已知的東西放在里面,只會(huì)更難看到真正的探索發(fā)現(xiàn)過程是如何發(fā)生的。

AI 研究學(xué)者們反應(yīng)不一

Richard Sutton 的文章發(fā)表后在 Twitter 上的 AI 學(xué)者圈子里引發(fā)了熱烈的討論,贊同和反對(duì)的聲音都有很多。

贊同的包括:

谷歌大腦研究員 David Ha轉(zhuǎn)推評(píng)論:(Sutton「苦澀的教訓(xùn)」文章)這就像擴(kuò)大簡(jiǎn)單的隨機(jī)搜索的規(guī)模就可以避免使用集成了領(lǐng)域知識(shí)的難搞的強(qiáng)化學(xué)習(xí)算法。(雷鋒網(wǎng) AI 科技評(píng)論注:David Ha 近期就在關(guān)注一些簡(jiǎn)單的隨機(jī)搜索獲得比強(qiáng)化學(xué)習(xí)更好表現(xiàn)的論文)。我得到的收獲是,往往是那些可以拓展規(guī)模的方法才能夠經(jīng)受時(shí)間考驗(yàn)。能夠拓展的系統(tǒng)具有簡(jiǎn)單、優(yōu)雅的設(shè)計(jì),也便于理解。設(shè)計(jì)這樣的系統(tǒng)也需要更高的人類智慧。如果研究 AI 的人有時(shí)候可以思考得不那么像科學(xué)家或者工程師,而是更像設(shè)計(jì)師或者藝術(shù)家的話,他們可能會(huì)有新的收獲。AI 研究有時(shí)候更像藝術(shù)而不是科學(xué)(也有人說像「煉丹」)。

OpenAI CTO Greg Brockman轉(zhuǎn)發(fā)評(píng)論:Sutton 的這篇文章觀察了歷史上反復(fù)發(fā)生的事情,發(fā)現(xiàn) AI 計(jì)算規(guī)模的增加總是可以擊敗那些自以為精妙的設(shè)計(jì)(而且他也解釋了為什么這個(gè)事實(shí)很難讓人接受)

特斯拉 AI 總監(jiān)Andrej Karpathy:推薦閱讀 Sutton 的這篇關(guān)于算法中的領(lǐng)域知識(shí)能否持久的文章。實(shí)際上如果你翻翻老的 AI 雜志也能很明顯地看到這點(diǎn)。

反對(duì)的聲音有:

牛津大學(xué)計(jì)算機(jī)科學(xué)學(xué)院教授 Shimon Whiteson發(fā)表長(zhǎng)推特:

Richard Sutton 發(fā)表了一篇新博客「苦澀的教訓(xùn)」,我表示強(qiáng)烈反對(duì)。他在文中說道,AI 領(lǐng)域的歷史告訴我們,對(duì)計(jì)算能力的應(yīng)用最后總是能夠勝過對(duì)人類知識(shí)的應(yīng)用。我覺得這是對(duì)歷史的故意曲解。

確實(shí)有很多嘗試把人類知識(shí)集成到 AI 中的嘗試最終失敗了,但同時(shí)隨著計(jì)算力(以及錢、存儲(chǔ)空間、能源、數(shù)據(jù))變得越來越充裕,很多其它的方法也被拋棄了。然而,如今我們得到的成功的方法僅僅歸功于有充足的資源是不對(duì)的,其中還有很多我們保留下來的人類知識(shí)。要是沒有卷積、LSTM、ReLU、批歸一化等等人類開發(fā)出的技術(shù),我們還怎么做深度學(xué)習(xí)?即便是圍棋,也需要有“這是一個(gè)靜態(tài)、零和、完全可觀察博弈”的先驗(yàn)知識(shí)。

所以 AI 的歷史并不是一部集成人類知識(shí)的失敗史,恰恰相反,如今 AI 的成功正是因?yàn)榱粝铝擞杏玫娜祟愔R(shí),而且這個(gè)過程也是完全正常的科研策略體現(xiàn):我們嘗試了各種各樣的東西,我們丟棄了其中不成功的 99%;但正是最后剩下的那 1% 對(duì)現(xiàn)代 AI 來說無比關(guān)鍵,我們能充分利用大規(guī)模計(jì)算能力也正是依靠它們。

Sutton 說,因?yàn)槭澜缡潜菊鲝?fù)雜的,所以我們不應(yīng)該嘗試在系統(tǒng)里集成先驗(yàn)知識(shí)。但我得出的是相反的結(jié)論,對(duì)于 Sutton 提出的我們所依賴的搜索和學(xué)習(xí)方法來說,如此高的復(fù)雜性是難以處理的,只有通過適當(dāng)?shù)南闰?yàn)知識(shí)、正確的歸納偏倚,我們才能更好地對(duì)付這樣的復(fù)雜性。

他還說「現(xiàn)代深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)只需要一個(gè)卷積的概念和某幾種變種,然后就可以獲得好得多的表現(xiàn)」。他句子里的「只需要」就已經(jīng)表明了他這句話說得有多么不負(fù)責(zé)任。沒有這些卷積和變體的深度學(xué)習(xí)確實(shí)無法成功,但這些已經(jīng)是最基礎(chǔ)的東西,也足夠通用了。這樣說起來,他的文章討論的「要不要集成人類知識(shí)」(因?yàn)轱@然大家的答案是要),但其實(shí)他避開了那個(gè)真正的問題,那就是「什么樣的知識(shí)是值得集成的,我們要在何時(shí)、如何運(yùn)用它」。

Sutton 說,「我們希望智能體可以像我們一樣探索發(fā)現(xiàn),而不是直接包括我們已經(jīng)探索發(fā)現(xiàn)好的」。這話沒錯(cuò),但我們?nèi)祟惿瞄L(zhǎng)探索發(fā)現(xiàn)的原因正是因?yàn)槲覀兩鷣砭陀羞m當(dāng)?shù)臍w納偏倚。回看 AI 歷史,我覺得我們獲得的是「甜蜜的教訓(xùn)」,雖然找到正確的歸納偏倚很難,但是這種做法讓我們有能力處理其他方法束手無策的問題。

也有中立的發(fā)聲:

康奈爾大學(xué)博士、MIT 博士后、機(jī)器學(xué)習(xí)量化分析師 Seth Stafford轉(zhuǎn)推評(píng)論 Shimon Whiteson 的長(zhǎng)推特:Richard Sutton 和 Shimon Whiteson 觀點(diǎn)的區(qū)別是,把人類的知識(shí)集成到模型里所增加的價(jià)值是否符合我們希望的「原則性」的方法。Sutton 的苦澀的教訓(xùn)是,針對(duì)單個(gè)任務(wù)的技巧是不行的;但 Whiteson 認(rèn)為更深入的(原則性更強(qiáng)的)方法是可以的。

高通 AI 研究院 深度學(xué)習(xí)研究員 Taco Cohen轉(zhuǎn)推評(píng)論:大家仔細(xì)看看這個(gè)。不要再浪費(fèi)時(shí)間考慮那些領(lǐng)域?qū)S玫募记闪恕:煤米鲆蛔銎交?、關(guān)系模型、成分性、等方差不等方差、局部性、穩(wěn)定性、層次性、因果性等等抽象和通用的歸納偏倚。仔細(xì)考慮考慮如今的 AI 里到底缺的是什么。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30898

    瀏覽量

    269130

原文標(biāo)題:AI 發(fā)展的理想路線是什么?學(xué)者們?yōu)榱诉@個(gè)爭(zhēng)起來了

文章出處:【微信號(hào):CAAI-1981,微信公眾號(hào):中國(guó)人工智能學(xué)會(huì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    RISC-V在AI領(lǐng)域的發(fā)展前景怎么樣?

    隨著人工智能的不斷發(fā)展,現(xiàn)在的視覺機(jī)器人,無人駕駛等智能產(chǎn)品的不斷更新迭代,發(fā)現(xiàn)ARM占用很大的市場(chǎng)份額,推出的ARM Cortex M85性能也是杠杠的,不知道RISC-V在AI領(lǐng)域有哪些參考方案?
    發(fā)表于 10-25 19:13

    從小鵬、理想、蔚來布局看自動(dòng)駕駛發(fā)展趨勢(shì)

    編者語: 「智駕最前沿」微信公眾號(hào)后臺(tái)回復(fù): C-0574 ,獲取本文參考報(bào)告:《開源證券:從小鵬、理想、蔚來布局,看自動(dòng)駕駛發(fā)展趨勢(shì)》pdf下載方式。 隨著智能駕駛技術(shù)在全球范圍內(nèi)快速發(fā)展
    的頭像 發(fā)表于 10-22 09:11 ?474次閱讀
    從小鵬、<b class='flag-5'>理想</b>、蔚來布局看自動(dòng)駕駛<b class='flag-5'>發(fā)展</b>趨勢(shì)

    【免費(fèi)領(lǐng)取】AI人工智能學(xué)習(xí)資料(學(xué)習(xí)路線圖+100余講課程+虛擬仿真平臺(tái)體驗(yàn)+項(xiàng)目源碼+AI論文)

    想要深入學(xué)習(xí)AI人工智能嗎?現(xiàn)在機(jī)會(huì)來了!我們?yōu)槌?b class='flag-5'>學(xué)者們準(zhǔn)備了一份全面的資料包,包括學(xué)習(xí)路線、100余講視頻課程、AI在線實(shí)驗(yàn)平合體驗(yàn)、項(xiàng)目源碼、A
    的頭像 發(fā)表于 09-27 15:50 ?372次閱讀
    【免費(fèi)領(lǐng)取】<b class='flag-5'>AI</b>人工智能學(xué)習(xí)資料(學(xué)習(xí)<b class='flag-5'>路線</b>圖+100余講課程+虛擬仿真平臺(tái)體驗(yàn)+項(xiàng)目源碼+<b class='flag-5'>AI</b>論文)

    簡(jiǎn)述邊緣計(jì)算的持續(xù)發(fā)展

    從今年四月德國(guó) embedded world 展會(huì)上的主題就不難看出,邊緣人工智能 (AI) 及物聯(lián)網(wǎng)中關(guān)于 AI 應(yīng)用程序的持續(xù)發(fā)展成為了
    的頭像 發(fā)表于 09-14 09:43 ?391次閱讀

    OpenAI硬件負(fù)責(zé)人AI基礎(chǔ)設(shè)施擴(kuò)展與節(jié)能方案

    強(qiáng)調(diào),OpenAI的一個(gè)核心洞察是,通過擴(kuò)大規(guī)模能夠顯著提升AI的性能與實(shí)用性,這一觀點(diǎn)為當(dāng)前AI領(lǐng)域的發(fā)展指明了方向。
    的頭像 發(fā)表于 09-02 16:20 ?543次閱讀

    開啟全新AI時(shí)代 智能嵌入式系統(tǒng)快速發(fā)展——“第六屆國(guó)產(chǎn)嵌入式操作系統(tǒng)技術(shù)與產(chǎn)業(yè)發(fā)展論壇”圓滿結(jié)束

    嵌入式系統(tǒng)是電子信息產(chǎn)業(yè)的基礎(chǔ),是智能系統(tǒng)的核心。大模型催生AI走入千家萬戶、喚醒端側(cè)AI的需求爆發(fā)。以機(jī)器人、無人駕駛和智能制造為代表的智能嵌入式系統(tǒng)快速發(fā)展,操作系統(tǒng)在機(jī)器人和智能駕駛為代表
    發(fā)表于 08-30 17:24

    NVIDIA AI芯片Blackwell推遲發(fā)布,公司強(qiáng)調(diào)Hopper需求強(qiáng)勁

    據(jù)8月5日最新消息,NVIDIA新款AI芯片Blackwell因被曝存在設(shè)計(jì)缺陷而推遲發(fā)布的消息,迅速在業(yè)界引發(fā)了廣泛討論與關(guān)注。面對(duì)這一市場(chǎng)傳聞,NVIDIA官方迅速作出回應(yīng),強(qiáng)調(diào)其旗艦產(chǎn)品
    的頭像 發(fā)表于 08-05 15:05 ?577次閱讀

    2024學(xué)習(xí)生成式AI的最佳路線

    本文深入探討了2024年最佳生成式AI路線圖的細(xì)節(jié),引領(lǐng)我們穿越動(dòng)態(tài)進(jìn)展、新興趨勢(shì)以及定義這一尖端領(lǐng)域的變革應(yīng)用。引言在日新月異的人工智能領(lǐng)域,生成式AI猶如創(chuàng)新的燈塔,不斷拓展創(chuàng)造力與智慧的邊界
    的頭像 發(fā)表于 07-26 08:28 ?568次閱讀
    2024學(xué)習(xí)生成式<b class='flag-5'>AI</b>的最佳<b class='flag-5'>路線</b>圖

    原來這才是【生成式AI】!!

    隨著ChatGPT、文心一言等AI產(chǎn)品的火爆,生成式AI已經(jīng)成為了大家茶余飯后的話題??墒?,為什么要在AI前面加上“生成式”這三個(gè)字呢?
    的頭像 發(fā)表于 06-05 08:04 ?290次閱讀
    原來這才是【生成式<b class='flag-5'>AI</b>】??!

    英飛凌為AI數(shù)據(jù)中心提供先進(jìn)的高能效電源裝置產(chǎn)品路線

    英飛凌科技股份公司已翻開AI系統(tǒng)能源供應(yīng)領(lǐng)域的新篇章,發(fā)布了電源裝置(PSU)產(chǎn)品路線圖。該路線圖在優(yōu)先考慮能源效率前提下,專為滿足AI數(shù)據(jù)中心當(dāng)前和未來的能源需求而設(shè)計(jì)。
    發(fā)表于 06-03 18:24 ?631次閱讀
    英飛凌為<b class='flag-5'>AI</b>數(shù)據(jù)中心提供先進(jìn)的高能效電源裝置產(chǎn)品<b class='flag-5'>路線</b>圖

    理想汽車,中國(guó)首個(gè)AI智能座艙能力A級(jí)認(rèn)證!

    理想汽車,中國(guó)首個(gè)AI智能座艙能力A級(jí)認(rèn)證!
    的頭像 發(fā)表于 05-29 18:10 ?1107次閱讀
    <b class='flag-5'>理想</b>汽車,中國(guó)首個(gè)<b class='flag-5'>AI</b>智能座艙能力A級(jí)認(rèn)證!

    王力新一代AI靈犀系列旗艦新品震撼發(fā)布,遙感技術(shù)3.0行業(yè)

    AI靈犀,前“鎖”未見。5月21日,全國(guó)安防門鎖首家上市企業(yè)王力新一代AI靈犀系列旗艦新品全球發(fā)布會(huì)在中國(guó)永康隆重舉行。王力董事長(zhǎng)王躍斌、王力研究院執(zhí)行院長(zhǎng)徐念龍博士等公司領(lǐng)導(dǎo),中國(guó)建筑裝飾材料協(xié)會(huì)
    的頭像 發(fā)表于 05-22 13:35 ?320次閱讀

    華為Pura70 Ultra手機(jī)AI消除功能公眾

    然而,近日有網(wǎng)友在網(wǎng)絡(luò)平臺(tái)展示利用該手機(jī)圖庫里的AI消除功能,對(duì)照片中女性胸部衣物進(jìn)行涂抹的操作,該功能成功地將涂抹區(qū)域進(jìn)行了修補(bǔ),生成了相應(yīng)的畫面,從而引起廣泛關(guān)注。隨后,官方已修復(fù)此問題。
    的頭像 發(fā)表于 04-26 15:18 ?1169次閱讀

    吉利多款轎車與小米SU7撞期,行業(yè),楊學(xué)良發(fā)聲

    領(lǐng)克于較近發(fā)布的07 EM-P引發(fā)網(wǎng)絡(luò),某位博主甚至言辭激烈,稱此舉直接讓小米SU7多添一位競(jìng)爭(zhēng)對(duì)手。然而吉利控股集團(tuán)高級(jí)副總裁楊學(xué)良在后續(xù)的轉(zhuǎn)發(fā)聲明中提出希望公眾避免將吉利新車與小米SU7進(jìn)行類比或?qū)α?/div>
    的頭像 發(fā)表于 03-10 10:50 ?1411次閱讀

    理想汽車組建全新AI技術(shù)委員會(huì)

    理想汽車近日宣布,已組建全新的AI技術(shù)委員會(huì),以加強(qiáng)人工智能技術(shù)的研發(fā)和應(yīng)用。這一舉措標(biāo)志著理想汽車在人工智能領(lǐng)域的戰(zhàn)略布局邁出了重要一步。
    的頭像 發(fā)表于 01-15 15:27 ?810次閱讀