0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4兩句話復(fù)刻DeepMind最快排序算法?

AI智勝未來 ? 來源:新智元 ? 2023-06-12 17:04 ? 次閱讀

【導(dǎo)讀】網(wǎng)友用GPT-4復(fù)現(xiàn)了AlphaDev的排序算法優(yōu)化,讓DeepMind的新論文看起來沒有那么耀眼了。

前幾天,Google DeepMind基于AlphaZero開發(fā)了一種新算法——AlphaDev。

據(jù)稱,這個(gè)算法可以創(chuàng)造出比人類編寫的算法快3倍的排序算法。

消息剛出的時(shí)候,很多網(wǎng)友都認(rèn)為這是機(jī)器學(xué)習(xí)領(lǐng)域的重大突破。

但經(jīng)過一段時(shí)間的發(fā)酵之后,部分網(wǎng)友對(duì)AlphaDev取得的成就的評(píng)價(jià)似乎出現(xiàn)了分歧。

先是一位推特網(wǎng)友表示,用GPT-4也成功地發(fā)現(xiàn)了和AlphaDev發(fā)現(xiàn)的幾乎一樣的算法。

a678513a-08f8-11ee-962d-dac502259ad0.png

然后不少網(wǎng)友也在討論,覺得AlphaDev取得的實(shí)際成果和他們自己吹的「歷史性突破」差距過大。

網(wǎng)友的這些討論甚至把馬庫斯也引來圍觀看熱鬧了。

a68519b0-08f8-11ee-962d-dac502259ad0.png

此外,馬院士也回復(fù)了用GPT-4發(fā)現(xiàn)算法的網(wǎng)友,「推特老板到此一游」

a69b08f6-08f8-11ee-962d-dac502259ad0.png

GPT-4也能「發(fā)現(xiàn)」同樣的算法

現(xiàn)在我們來看看這位用GPT-4發(fā)現(xiàn)和AlphaDev幾乎一樣算法的網(wǎng)友到底是怎么做到的。

他把自己的Prompt和GPT-4的回復(fù)都Po了出來。

順便問了一句,我這東西能發(fā)Nature嗎?

網(wǎng)友的提示詞有兩個(gè)部分,第一個(gè)部分讓GPT-4針對(duì)這段排序算法進(jìn)行優(yōu)化,標(biāo)注出哪段指令可以刪除,再一步一步解釋原因,然后回頭再驗(yàn)證一遍。

a70031cc-08f8-11ee-962d-dac502259ad0.png

a719abde-08f8-11ee-962d-dac502259ad0.png

a728295c-08f8-11ee-962d-dac502259ad0.png

a74109ea-08f8-11ee-962d-dac502259ad0.png

然后他又給了第二部分提示詞,讓GPT-4根據(jù)上面的提示詞繼續(xù)做,讓Temperature=0(保持結(jié)果的一致性)。

a74b1a2a-08f8-11ee-962d-dac502259ad0.png

a766c694-08f8-11ee-962d-dac502259ad0.png

a7708f1c-08f8-11ee-962d-dac502259ad0.png

最后GPT-4還小小地總結(jié)了一下。

認(rèn)為刪除「mov S P」,再把刪除后代碼的P用S替換一下就行。

AlphaDev發(fā)現(xiàn)的算法

如下圖示例,原始sort3實(shí)現(xiàn),有min(A, B, C),使用AlphaDev Swap Move,AlphaDev發(fā)現(xiàn),你只需要min(A, B)。

a7a56d40-08f8-11ee-962d-dac502259ad0.png

對(duì)比網(wǎng)友用GPT-4的優(yōu)化內(nèi)容,只能說是一模一樣!

不知道是GPT-4過于強(qiáng)大,還是說AlphaDev確實(shí)也就那樣?

AlphaDev被吹得有些過頭了?

馬庫斯也在推特上轉(zhuǎn)載了一段YC社區(qū)網(wǎng)友對(duì)于AlphaDev發(fā)現(xiàn)的算法這個(gè)事比較刻薄評(píng)價(jià)。

a7e093ca-08f8-11ee-962d-dac502259ad0.png

YC社區(qū)的用戶orlp指出,他們能夠在某個(gè)libc++算法上取得70%的改進(jìn)主要是因?yàn)檫@個(gè)庫在過去10年中沒有得到積極開發(fā)。

此外,DeepMind的改進(jìn)能起作用其實(shí)是因?yàn)閹毂旧碓跓o分支排序網(wǎng)絡(luò)的高效實(shí)現(xiàn)方面存在一些問題。

a8006b78-08f8-11ee-962d-dac502259ad0.png

其他用戶指出,這種觀點(diǎn)「過于極端」了,算法能夠自動(dòng)生成新的排序算法已經(jīng)是很了不起的一件事了。

orlp回復(fù)說,雖然該算法確實(shí)能夠自動(dòng)生成良好的代碼,但它遠(yuǎn)未達(dá)到革命性或改進(jìn)現(xiàn)有技術(shù)水平的程度。

a80a3810-08f8-11ee-962d-dac502259ad0.png

a820021c-08f8-11ee-962d-dac502259ad0.png

網(wǎng)友主要的觀點(diǎn)認(rèn)為算法并沒有找到全新的排序方法,而只是對(duì)代碼進(jìn)行了優(yōu)化。

但是,其實(shí)已經(jīng)存在「超級(jí)優(yōu)化器」的程序能夠以不同的原理實(shí)現(xiàn)類似的效果。

a8330e34-08f8-11ee-962d-dac502259ad0.png

論文地址:https://courses.cs.washington.edu/courses/cse501/15sp/papers/massalin.pdf

而且在GitHub上也有項(xiàng)目已經(jīng)完成了更加快速的排列網(wǎng)絡(luò)的自動(dòng)搜索,效果似乎比AlphaDev的算法還要好。

項(xiàng)目地址:https://github.com/bertdobbelaere/SorterHunter

不少國內(nèi)網(wǎng)友還是選擇相信AlphaDev,搞不好是因?yàn)镚PT-4抄得快,不一定是原創(chuàng)

a847a0f6-08f8-11ee-962d-dac502259ad0.jpg

不過確實(shí)有些讀者認(rèn)為,這類改進(jìn)確實(shí)意義不算特別大。

a85c0190-08f8-11ee-962d-dac502259ad0.jpg

a867d948-08f8-11ee-962d-dac502259ad0.jpg


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4626

    瀏覽量

    93153
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    356

    瀏覽量

    15454
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    10901

原文標(biāo)題:GPT-4兩句話復(fù)刻DeepMind最快排序算法?馬庫斯:過于諷刺

文章出處:【微信號(hào):AI智勝未來,微信公眾號(hào):AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場(chǎng)技術(shù)競(jìng)賽中,Llama 3和GPT-4作為個(gè)備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?411次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對(duì)提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?516次閱讀

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯(cuò)

    基于GPT-4的模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯(cuò)誤而設(shè)計(jì),其獨(dú)特的作用在于,讓人們能夠用GPT-4來查找GPT-4的錯(cuò)誤。
    的頭像 發(fā)表于 06-29 09:55 ?571次閱讀

    OpenAI API Key獲?。洪_發(fā)人員申請(qǐng)GPT-4 API Key教程

    ? OpenAI的GPT-4模型因其卓越的自然語言理解和生成能力,成為了許多開發(fā)者的首選工具。獲取GPT-4 API Key并將其應(yīng)用于項(xiàng)目,如開發(fā)一個(gè)ChatGPT聊天應(yīng)用,不僅是實(shí)踐人工智能技術(shù)
    的頭像 發(fā)表于 06-24 17:40 ?2479次閱讀
    OpenAI API Key獲?。洪_發(fā)人員申請(qǐng)<b class='flag-5'>GPT-4</b> API Key教程

    開發(fā)者如何調(diào)用OpenAI的GPT-4o API以及價(jià)格詳情指南

    ,高達(dá)每分鐘1000萬字符。 速度 :GPT-4o的速度是GPT-4 Turbo的倍。 視覺能力 :在視覺能力相關(guān)的評(píng)估中,GPT-4o表現(xiàn)優(yōu)于G
    的頭像 發(fā)表于 05-29 16:00 ?1.2w次閱讀
    開發(fā)者如何調(diào)用OpenAI的<b class='flag-5'>GPT-4</b>o API以及價(jià)格詳情指南

    GPT-4人工智能模型預(yù)測(cè)公司未來盈利勝過人類分析師

    據(jù)悉,本次研究中,研究人員僅向GPT-4提供了匿名的財(cái)務(wù)數(shù)據(jù),包括資產(chǎn)負(fù)債表和損益表,并要求其預(yù)測(cè)未來盈利增長。盡管未獲得其他信息,GPT-4仍能達(dá)到60%的準(zhǔn)確度,遠(yuǎn)超人類分析師的平均水平(53%-57%)。
    的頭像 發(fā)表于 05-27 16:41 ?633次閱讀

    OpenAI全新GPT-4o能力炸場(chǎng)!速度快/成本低,能讀懂人類情緒

    ”的意思。GPT-4o文本、推理、編碼能力達(dá)到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的倍,但成本僅為GPT-4
    的頭像 發(fā)表于 05-15 00:15 ?7877次閱讀

    OpenAI計(jì)劃宣布ChatGPT和GPT-4更新

    人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI近日宣布,將于5月13日進(jìn)行一場(chǎng)產(chǎn)品更新直播,屆時(shí)將揭曉ChatGPT和GPT-4的新進(jìn)展。這一消息立即引發(fā)了外界對(duì)OpenAI下一項(xiàng)重大技術(shù)發(fā)布的廣泛猜測(cè)和期待。
    的頭像 發(fā)表于 05-13 11:06 ?613次閱讀

    阿里云發(fā)布通義千問2.5大模型,多項(xiàng)能力超越GPT-4

    阿里云隆重推出了通義千問 2.5 版,宣稱其“技術(shù)進(jìn)步,全面超越GPT-4”,尤其是在中文環(huán)境中的多種任務(wù)(如文本理解、文本生成、知識(shí)問答及生活建議、臨時(shí)聊天及對(duì)話以及安全風(fēng)險(xiǎn)評(píng)估)方面表現(xiàn)出色,超越了GPT-4。
    的頭像 發(fā)表于 05-09 14:17 ?994次閱讀

    商湯科技發(fā)布5.0多模態(tài)大模型,綜合能力全面對(duì)標(biāo)GPT-4 Turbo

    商湯科技發(fā)布5.0多模態(tài)大模型,綜合能力全面對(duì)標(biāo)GPT-4 Turbo 4月23日,商湯科技董事長兼CEO徐立在2024商湯技術(shù)交流日上發(fā)布了行業(yè)首個(gè)云、端、邊全棧大模型產(chǎn)品矩陣,能夠滿足不同規(guī)模
    的頭像 發(fā)表于 04-24 16:49 ?1148次閱讀

    OpenAI推出Vision模型版GPT-4 Turbo,融合文本與圖像理解

    據(jù)悉,此模型沿用GPT-4 Turbo系列特有的12.8萬token窗口規(guī)模及截至2023年12月的知識(shí)庫架構(gòu),其創(chuàng)新亮點(diǎn)則是強(qiáng)大的視覺理解功能。
    的頭像 發(fā)表于 04-10 10:49 ?430次閱讀

    微軟Copilot全面更新為OpenAI的GPT-4 Turbo模型

    起初,Copilot作為Bing Chat AI助手推出,初期采用GPT-3.5模型,隨后升級(jí)至GPT-4取得顯著進(jìn)步,如今再次更新至性能卓越的GPT-4 Turbo模型,這無疑將使得Copilot功能再上新臺(tái)階。
    的頭像 發(fā)表于 03-13 13:42 ?764次閱讀

    新火種AI|秒殺GPT-4,狙殺GPT-5,橫空出世的Claude 3振奮人心!

    GPT-4被拉下神壇, Claude 3很可能對(duì)GPT-4實(shí)現(xiàn)全方位的碾壓 。 Anthropic發(fā)布3個(gè)模型,全方位實(shí)現(xiàn)
    的頭像 發(fā)表于 03-06 22:22 ?695次閱讀
    新火種AI|秒殺<b class='flag-5'>GPT-4</b>,狙殺<b class='flag-5'>GPT</b>-5,橫空出世的Claude 3振奮人心!

    OpenAI推出ChatGPT新功能:朗讀,支持37種語言,兼容GPT-4GPT-3

    據(jù)悉,“朗讀”功能支持37種語言,且能夠自主識(shí)別文本類型并對(duì)應(yīng)相應(yīng)的發(fā)音。值得關(guān)注的是,該功能對(duì)GPT-4以及GPT-3.5版本的ChatGPT均適用。此舉彰顯了OpenAI致力于“多模態(tài)交互”(multimodal capabilities)的方向
    的頭像 發(fā)表于 03-05 15:48 ?987次閱讀

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude 3系列在推理、數(shù)學(xué)、編碼、多語言理解和視覺方面全面超越了包括GPT-4在內(nèi)的所有大型模型,重新樹立了行業(yè)基準(zhǔn)。
    的頭像 發(fā)表于 03-05 09:58 ?689次閱讀