0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌DeepMind被曝抄襲開源成果,論文還中了頂流會議

卡奧斯開源社區(qū) ? 來源:jf_92107760 ? 作者:jf_92107760 ? 2024-07-16 18:29 ? 次閱讀

卡奧斯智能交互引擎是卡奧斯基于海爾近40年工業(yè)生產(chǎn)經(jīng)驗積累和卡奧斯7年工業(yè)互聯(lián)網(wǎng)平臺建設(shè)的最佳實踐,基于大語言模型和RAG技術(shù),集合海量工業(yè)領(lǐng)域生態(tài)資源方優(yōu)質(zhì)產(chǎn)品和知識服務,旨在通過智能搜索、連續(xù)交互,實時生成個性化的內(nèi)容和智能化產(chǎn)品推薦,為用戶提供快速、可靠的交互式搜索服務,首創(chuàng)了聚焦工業(yè)領(lǐng)域的智能交互引擎。

詳情戳:卡奧斯智能交互引擎

大模型圈再曝抄襲大瓜,這回,“被告”還是大名鼎鼎的谷歌DeepMind

“原告”直接怒噴:他們就是把我們的技術(shù)報告洗了一遍!

具體是這么個事兒:

谷歌DeepMind一篇中了頂流新生代會議CoLM 2024的論文被掛了,瓜主直指其抄襲了一年前就掛在arXiv上的一項研究。開源的那種。

wKgZomaU9T2AXrHoAAG1BeKSfaU834.jpg

兩篇論文探討的都是一種規(guī)范模型文本生成結(jié)構(gòu)的方法。

抓馬的是,谷歌DeepMind這篇論文中確實明晃晃寫著引用了“原告”的論文。

wKgaomaU9T2AHYavAAFhm5uvStU696.jpg

然鵝,即便是標明了引用,“原告”的兩位論文作者Brandon T. Willard(布蘭登)和R′emi Louf(雷米)還是堅稱谷歌抄襲,并認為:

谷歌對兩者差異性的表述“簡直荒謬”。

wKgZomaU9T6AOkr6AAC_JZhIQ10286.jpg

而不少網(wǎng)友看過論文后也緩緩打出一個問號:CoLM是怎么審的稿?

wKgaomaU9T6AbYBCAAB8wssMOrU153.jpg

唯一區(qū)別是換了概念?

wKgZomaU9T-AD2jWAAD3NA3mVs8991.jpg

趕緊瞅一眼論文對比……

兩篇論文的比較

先淺看一眼兩篇論文的摘要對比。

谷歌DeepMind的論文說的是,tokenization給約束語言模型輸出帶來了麻煩,他們引入自動機理論來解決這些問題,核心是避免在每個解碼步驟遍歷所有邏輯值(logits)。

該方法只需要訪問每個token的解碼邏輯值,計算與語言模型的大小無關(guān),高效且易用于幾乎所有語言模型架構(gòu)。

而“原告”的說法大致是:

提出了一個高效框架,通過在語言模型的詞匯表上構(gòu)建索引,來大幅提升約束文本生成的效率。簡單來說,就是通過索引避免對全部邏輯值的遍歷。

同樣“不依賴于具體模型”。

方向上確實大差不差,我們還是接著來看看更多詳細內(nèi)容。

我們用谷歌Gemini 1.5 Pro分別總結(jié)了兩篇論文的主要內(nèi)容,并接著讓Gemini來比較兩者的異同。

對于“被告”谷歌這篇論文,Gemini總結(jié)其方法是將detokenization重新定義為有限狀態(tài)轉(zhuǎn)換器(FST)操作。

wKgZomaU9UCATA06AAEjH_XH-c4672.jpg

將此FST與表示目標形式語言的自動機組合,這種自動機可以用正則表達式或語法來表示。

通過以上結(jié)合,生成一個基于token的自動機,用于在解碼過程中約束語言模型,確保其輸出的文本符合預設(shè)的形式語言規(guī)范。

此外,谷歌論文中還進行了一系列正則表達式擴展,這些擴展通過使用特別命名的捕獲組來編寫,顯著提升了系統(tǒng)處理文本時的效率和表達能力。

而對于“原告”論文,Gemini總結(jié)其方法的核心是將文本生成問題重新定義為有限狀態(tài)機(FSM)之間的轉(zhuǎn)換。

“原告”的具體方法是:

利用正則表達式或上下文無關(guān)文法構(gòu)建FSM,并將其用于指導文本生成過程。

通過構(gòu)建詞匯表索引,高效地確定每個步驟中的有效詞,避免遍歷整個詞匯表。

wKgaomaU9UCAZvnjAAC44-JgvY0844.jpg

Gemini列出了兩篇論文的共同點。

wKgZomaU9UGAc8cuAAEv1Efok08682.jpg

至于兩者的區(qū)別,有點像前頭那位網(wǎng)友說的,簡單總結(jié)就是:谷歌將詞匯表定義為了一個FST。

前面也說到了,谷歌在“Related work”中將原告論文列為“最相關(guān)”的一項工作:

最相關(guān)的研究是Outlines(Willard&Louf, 2023),該研究同樣采用有限狀態(tài)自動機(FSA)和下推自動機(PDA)作為約束手段——我們的方法是在2023年初獨立開發(fā)的。

谷歌認為兩者的差異在于,Outlines的方法基于一種特制的“索引”操作,需要手動擴展到新的應用場景。相比之下,谷歌使用自動機理論徹底重新定義了整個過程,使得應用FSA和泛化到PDA變得更加容易。

另一個區(qū)別是,谷歌定義了擴展以支持通配符匹配,并提高了可用性。

wKgZomaU9UOAZnUeAAKK56mr1Is974.jpg

谷歌緊接著在介紹下面的兩項相關(guān)工作中,也都提到了Outlines。

一項是Yin等人(2024年)通過增加“壓縮”文本段到預填充的功能,擴展了Outlines。

另一項是Ugare等人(2024年)近期提出的一個系統(tǒng),名為SynCode。它也利用FSA,但采用LALR和LR解析器而非PDA處理語法。

與Outlines類似,該方法依賴于定制算法。

但吃瓜群眾們顯然不是很買賬:

CoLM的評審們應該注意。我不認為這看上去是各自獨立的“同期工作”。

wKgaomaU9UOAVJwBAACdvxU0w0Q229.jpg

網(wǎng)友:這事兒不罕見…

這件事一發(fā)酵,不少網(wǎng)友都怒了,抄襲可恥,更何況“科技巨頭剽竊小團隊的工作成果不是第一次了”。

順便一提,布蘭登和雷米發(fā)布原告論文的時候都在給Normal Computing遠程工作,這家AI Infra公司成立于2022年。

哦對了,Normal Computing的創(chuàng)始團隊有一部分就來自Google Brain……

另外,布蘭登和雷米現(xiàn)在合伙出來創(chuàng)業(yè)了,新公司名叫.txt,官網(wǎng)信息顯示,其目標是提供快速可靠的信息提取模型。并且官網(wǎng)掛出的GitHub主頁,就是Outlines倉庫。

說回到網(wǎng)友這邊,更讓大家伙兒生氣的是,“這種情況已經(jīng)變得普遍”。

一位來自荷蘭代爾夫特理工大學的博士后分享了自己的遭遇:

去年10月我們完成了一項工作,最近有篇已被接收的論文采用了相同的思路和概念,但甚至沒有引用我們的論文。

wKgZomaU9USAPf8yAADM_7JeHkE383.jpg

還有一位美國東北大學的老哥更慘,這種情況他遭遇過兩次,下手的還都是同一個組。并且對面那位第一作者還給他的GitHub加過星標……

wKgaomaU9UWACmbpAAERKhJDwLU533.jpg

不過,也有網(wǎng)友表達了不同的意見:

如果說發(fā)個博客文章或未經(jīng)評估的預印本論文就算占坑了,那人人都會占坑,不是嗎?

wKgZomaU9UWACO1JAADRIh2Cfds649.jpg

對此,雷米怒懟:

好家伙,發(fā)布預印本論文并開源代碼 = 占坑;
寫篇數(shù)學論文,甚至不需要任何偽代碼 = 好工作???

wKgaomaU9UaABzdPAABlSXcp86U685.jpg

布蘭登老哥也表示yue了:

開源代碼并撰寫相關(guān)論文是“占坑”,復制別人的工作卻說“我更早有了這個想法”且投稿了會議反而不是啦?真惡心。

wKgaomaU9UmAKX0jAACKdiKAIos415.jpg

瓜就先吃到這里,對此你有什么想法?不妨在評論區(qū)繼續(xù)討論~

兩篇論文戳這里:
谷歌DeepMind論文:https://arxiv.org/abs/2407.08103v1
原告論文:https://arxiv.org/abs/2307.09702

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6223

    瀏覽量

    107520
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    11368
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1587

    瀏覽量

    8795
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    后摩智能四篇論文入選三大國際

    2025 年上半年,繼年初 AAAI、ICLR、DAC 三大國際會收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國際
    的頭像 發(fā)表于 05-29 15:37 ?151次閱讀

    云知聲四篇論文入選自然語言處理會ACL 2025

    結(jié)果正式公布。云知聲在此次國際學術(shù)盛會中表現(xiàn)卓越,共有4篇論文接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識溯源、圖文音多
    的頭像 發(fā)表于 05-26 14:15 ?240次閱讀
    云知聲四篇<b class='flag-5'>論文</b>入選自然語言處理<b class='flag-5'>頂</b>會ACL 2025

    開源小滿社區(qū)首期技術(shù)交流會順利舉行

    近日,開源小滿(EasyXMen)社區(qū)第1期技術(shù)交流會在上海順利舉行。本次會議以“小滿社區(qū)軟件功能及治理方案”為主題,來自整車廠、零部件供應商、軟件企業(yè)、芯片企業(yè)、高校及行業(yè)組織等31家單位的48位代表齊聚一堂,共同探討
    的頭像 發(fā)表于 03-06 10:25 ?378次閱讀

    后摩智能5篇論文入選國際

    2025年伊始,后摩智能在三大國際會(AAAI、ICLR、DAC)中斬獲佳績,共有5篇論文收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?606次閱讀
    后摩智能5篇<b class='flag-5'>論文</b>入選國際<b class='flag-5'>頂</b>會

    谷歌公司立案調(diào)查 谷歌股價暴跌 谷歌母公司Alphabet跌8%

    ,要求其改變市場壟斷現(xiàn)狀。去年8月,谷歌在美國遭遇重創(chuàng),聯(lián)邦法官認定其搜索業(yè)務違反了美國反壟斷法。這一判決為谷歌帶來了諸多限制性的建議,如美國司法部建議聯(lián)邦法院要求谷歌出售其核心的C
    的頭像 發(fā)表于 02-06 16:23 ?1417次閱讀

    芯翼信息科技將出席ISSCC 2025會議

    作為中國大陸唯一入選的公司,芯翼信息科技將于2月中旬在ISSCC 2025會議期間進行論文演講以及產(chǎn)品演示,向全球展示其硬核科技創(chuàng)新成果。
    的頭像 發(fā)表于 02-06 15:22 ?654次閱讀

    谷歌加速AI部門整合:AI Studio團隊并入DeepMind

    近日,谷歌正緊鑼密鼓地推進其人工智能(AI)部門的整合工作。據(jù)谷歌AI Studio主管Logan Kilpatrick在領(lǐng)英頁面上的透露,谷歌已將AI Studio團隊整體轉(zhuǎn)移至DeepMi
    的頭像 發(fā)表于 01-13 14:40 ?604次閱讀

    OpenAI從谷歌DeepMind挖角三名高級工程師

    近日,據(jù)Wired最新報道,OpenAI在人才爭奪戰(zhàn)中取得了顯著成果,成功從競爭對手谷歌DeepMind“挖角”了三名高級計算機視覺和機器學習領(lǐng)域的專家。 據(jù)悉,這三名工程師分別是Lucas
    的頭像 發(fā)表于 12-04 14:13 ?588次閱讀

    NVIDIA Research在ECCV 2024上展示多項創(chuàng)新成果

    在米蘭舉行的歐洲計算機視覺國際會議 (ECCV) 上,NVIDIA Research 展示了多項突破性的創(chuàng)新成果,共發(fā)表了 14 篇論文。
    的頭像 發(fā)表于 11-19 15:07 ?667次閱讀

    VCA821輸出底部怎么解決?

    VCA821輸出底部 輸出最大60mVpp,在變大就會失真
    發(fā)表于 08-23 07:48

    谷歌Pixel 9系列AI功能搶眼,蘋果指AI領(lǐng)域落后

    8月15日,谷歌意外提前揭曉了其新品發(fā)布會,借助Pixel 9系列手機搭載的Gemini AI技術(shù),在蘋果iPhone 16系列發(fā)布前夕搶占了科技頭條。此舉不僅展示了谷歌在人工智能領(lǐng)域的最新成果,
    的頭像 發(fā)表于 08-15 15:31 ?848次閱讀

    地平線科研論文入選國際計算機視覺會ECCV 2024

    近日,地平線兩篇論文入選國際計算機視覺會ECCV 2024,自動駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1322次閱讀
    地平線科研<b class='flag-5'>論文</b>入選國際計算機視覺<b class='flag-5'>頂</b>會ECCV 2024

    芯動力科技論文入選ISCA 2024,與國際巨頭同臺交流研究成果

    布宜諾斯艾利斯舉行的ISCA 2024會議上發(fā)表演講,與Intel、AMD等國際知名企業(yè)同臺交流。 本屆ISCA共收到來自全球423篇高質(zhì)量論文投稿,經(jīng)過嚴謹?shù)脑u審流程
    的頭像 發(fā)表于 07-18 11:16 ?981次閱讀
    芯動力科技<b class='flag-5'>論文</b>入選ISCA 2024,與國際巨頭同臺交流研究<b class='flag-5'>成果</b>

    谷歌借助Gemini AI系統(tǒng)深化對機器人的訓練

    7月12日,國際科技界傳來新動態(tài),谷歌正借助其先進的Gemini AI系統(tǒng),深化對旗下機器人的訓練,旨在顯著提升它們的導航能力和任務執(zhí)行能力。DeepMind機器人團隊最新發(fā)布的研究論文,詳細闡述
    的頭像 發(fā)表于 07-12 16:29 ?866次閱讀

    斯坦福團隊抄襲國產(chǎn)大模型,主要責任人失聯(lián)

    電子發(fā)燒友網(wǎng)報道(文/吳子鵬)近日,斯坦福大學AI團隊主導的Llama3-V開源模型證實套殼抄襲國內(nèi)清華與面壁智能的開源模型“小鋼炮”MiniCPM-Llama3-V 2.5。該事件
    的頭像 發(fā)表于 06-05 00:10 ?2912次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品