0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI用GPT-4解釋了GPT-2三十萬(wàn)個(gè)神經(jīng)元:智慧原來(lái)是這個(gè)樣子

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2023-05-15 09:40 ? 次閱讀

這就是 GPT 的「抽象」,和人類(lèi)的抽象不太一樣。

雖然 ChatGPT 似乎讓人類(lèi)正在接近重新創(chuàng)造智慧,但迄今為止,我們從來(lái)就沒(méi)有完全理解智能是什么,不論自然的還是人工的。

認(rèn)識(shí)智慧的原理顯然很有必要,如何理解大語(yǔ)言模型的智力?OpenAI 給出的解決方案是:?jiǎn)枂?wèn) GPT-4 是怎么說(shuō)的。

5 月 9 日,OpenAI 發(fā)布了最新研究,其使用 GPT-4 自動(dòng)進(jìn)行大語(yǔ)言模型中神經(jīng)元行為的解釋,獲得了很多有趣的結(jié)果。

a16b5aec-f2b5-11ed-90ce-dac502259ad0.gif

可解釋性研究的一種簡(jiǎn)單方法是首先了解 AI 模型各個(gè)組件(神經(jīng)元和注意力頭)在做什么。傳統(tǒng)的方法是需要人類(lèi)手動(dòng)檢查神經(jīng)元,以確定它們代表數(shù)據(jù)的哪些特征。這個(gè)過(guò)程很難擴(kuò)展,將它應(yīng)用于具有數(shù)百或數(shù)千億個(gè)參數(shù)神經(jīng)網(wǎng)絡(luò)的成本過(guò)于高昂。

所以 OpenAI 提出了一種自動(dòng)化方法 —— 使用 GPT-4 來(lái)生成神經(jīng)元行為的自然語(yǔ)言解釋并對(duì)其進(jìn)行評(píng)分,并將其應(yīng)用于另一種語(yǔ)言模型中的神經(jīng)元 —— 此處他們選擇了 GPT-2 為實(shí)驗(yàn)樣本,并公開(kāi)了這些 GPT-2 神經(jīng)元解釋和分?jǐn)?shù)的數(shù)據(jù)集。

a19f7200-f2b5-11ed-90ce-dac502259ad0.png

論文地址:https://openaipublic.blob.core.windows.net/neuron-explainer/paper/index.html

GPT-2 神經(jīng)元圖:https://openaipublic.blob.core.windows.net/neuron-explainer/neuron-viewer/index.html

代碼與數(shù)據(jù)集:https://github.com/openai/automated-interpretability

這項(xiàng)技術(shù)讓人們能夠利用 GPT-4 來(lái)定義和自動(dòng)測(cè)量 AI 模型的可解釋性這個(gè)定量概念:它用來(lái)衡量語(yǔ)言模型使用自然語(yǔ)言壓縮和重建神經(jīng)元激活的能力。由于定量的特性,我們現(xiàn)在可以衡量理解神經(jīng)網(wǎng)絡(luò)計(jì)算目標(biāo)的進(jìn)展了。

OpenAI 表示,利用他們?cè)O(shè)立的基準(zhǔn),用 AI 解釋 AI 的分?jǐn)?shù)能達(dá)到接近于人類(lèi)的水平。

a1b7f23a-f2b5-11ed-90ce-dac502259ad0.png

OpenAI 聯(lián)合創(chuàng)始人 Greg Brockman 也表示,我們邁出了使用 AI 進(jìn)行自動(dòng)化對(duì)齊研究的重要一步。

具體方法

使用 AI 解釋 AI 的方法包括在每個(gè)神經(jīng)元上運(yùn)行三個(gè)步驟:

步驟一:用 GPT-4 生成解釋

a1e04ae6-f2b5-11ed-90ce-dac502259ad0.jpg

給定一個(gè) GPT-2 神經(jīng)元,通過(guò)向 GPT-4 展示相關(guān)文本序列和激活來(lái)生成對(duì)其行為的解釋。

模型生成的解釋:對(duì)電影、角色和娛樂(lè)的引用。

步驟二:使用 GPT-4 進(jìn)行模擬

再次使用 GPT-4,模擬被解釋的神經(jīng)元會(huì)做什么。

a21331f4-f2b5-11ed-90ce-dac502259ad0.jpg

步驟三:對(duì)比

根據(jù)模擬激活與真實(shí)激活的匹配程度對(duì)解釋進(jìn)行評(píng)分 —— 在這個(gè)例子上,GPT-4 的得分為 0.34。

a23720b4-f2b5-11ed-90ce-dac502259ad0.jpg

a24ba606-f2b5-11ed-90ce-dac502259ad0.jpg

主要發(fā)現(xiàn)

使用自己的評(píng)分方法,OpenAI 開(kāi)始衡量他們的技術(shù)對(duì)網(wǎng)絡(luò)不同部分的效果,并嘗試針對(duì)目前解釋不清楚的部分改進(jìn)技術(shù)。例如,他們的技術(shù)對(duì)較大的模型效果不佳,可能是因?yàn)楹竺娴膶痈y解釋。

a26961d2-f2b5-11ed-90ce-dac502259ad0.jpg

OpenAI 表示,雖然他們的絕大多數(shù)解釋得分不高,但他們相信自己現(xiàn)在可以使用 ML 技術(shù)來(lái)進(jìn)一步提高他們產(chǎn)生解釋的能力。例如,他們發(fā)現(xiàn)以下方式有助于提高分?jǐn)?shù):

迭代解釋。他們可以通過(guò)讓 GPT-4 想出可能的反例,然后根據(jù)其激活情況修改解釋來(lái)提高分?jǐn)?shù)。

使用更大的模型來(lái)進(jìn)行解釋。隨著解釋模型(explainer model)能力的提升,平均得分也會(huì)上升。然而,即使是 GPT-4 給出的解釋也比人類(lèi)差,這表明還有改進(jìn)的余地。

改變被解釋模型(explained model)的架構(gòu)。用不同的激活函數(shù)訓(xùn)練模型提高了解釋分?jǐn)?shù)。

OpenAI 表示,他們正在將 GPT-4 編寫(xiě)的對(duì) GPT-2 中的所有 307,200 個(gè)神經(jīng)元的解釋的數(shù)據(jù)集和可視化工具開(kāi)源。同時(shí),他們還提供了使用 OpenAI API 上公開(kāi)可用的模型進(jìn)行解釋和評(píng)分的代碼。他們希望研究界能夠開(kāi)發(fā)出新的技術(shù)來(lái)生成更高分的解釋,同時(shí)開(kāi)發(fā)出更好的工具來(lái)通過(guò)解釋探索 GPT-2。

他們發(fā)現(xiàn),有超過(guò) 1000 個(gè)神經(jīng)元的解釋得分至少為 0.8 分,這意味著根據(jù) GPT-4,它們占據(jù)了神經(jīng)元的大部分頂級(jí)激活行為。這些得到很好解釋的神經(jīng)元中的大多數(shù)都不是很有趣。然而,他們也發(fā)現(xiàn)了許多有趣但 GPT-4 并不理解的神經(jīng)元。OpenAI 希望隨著解釋的改進(jìn),他們可能會(huì)迅速發(fā)現(xiàn)對(duì)模型計(jì)算的有趣的定性理解。

以下是一些不同層神經(jīng)元被激活的例子,更高的層更抽象:

a2850e82-f2b5-11ed-90ce-dac502259ad0.jpg

a29b6074-f2b5-11ed-90ce-dac502259ad0.jpg

a2b60bcc-f2b5-11ed-90ce-dac502259ad0.jpg

a2cc3a82-f2b5-11ed-90ce-dac502259ad0.jpg

看起來(lái),GPT 理解的概念和人類(lèi)不太一樣?

OpenAI 未來(lái)工作

目前,該方法還存在一些局限性,OpenAI 希望在未來(lái)的工作中可以解決這些問(wèn)題:

該方法專注于簡(jiǎn)短的自然語(yǔ)言解釋,但神經(jīng)元可能具有非常復(fù)雜的行為,因而用簡(jiǎn)潔地語(yǔ)言無(wú)法描述;

OpenAI 希望最終自動(dòng)找到并解釋整個(gè)神經(jīng)回路實(shí)現(xiàn)復(fù)雜的行為,神經(jīng)元和注意力頭一起工作。目前的方法只是將神經(jīng)元的行為解釋為原始文本輸入的函數(shù),而沒(méi)有說(shuō)明其下游影響。例如,一個(gè)在周期(period)上激活的神經(jīng)元可以指示下一個(gè)單詞應(yīng)該以大寫(xiě)字母開(kāi)頭,或者增加句子計(jì)數(shù)器;

OpenAI 解釋了神經(jīng)元的這種行為,卻沒(méi)有試圖解釋產(chǎn)生這種行為的機(jī)制。這意味著即使是得高分的解釋在非分布(out-of-distribution)文本上也可能表現(xiàn)很差,因?yàn)樗鼈冎皇敲枋隽艘环N相關(guān)性;

整個(gè)過(guò)程算力消耗極大。

最終,OpenAI 希望使用模型來(lái)形成、測(cè)試和迭代完全一般的假設(shè),就像可解釋性研究人員所做的那樣。此外,OpenAI 還希望將其最大的模型解釋為一種在部署前后檢測(cè)對(duì)齊和安全問(wèn)題的方法。然而,在這之前,還有很長(zhǎng)的路要走。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    363

    瀏覽量

    18484
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    533

    瀏覽量

    10303
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    354

    瀏覽量

    15446
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1106

    瀏覽量

    6603

原文標(biāo)題:OpenAI用GPT-4解釋了GPT-2三十萬(wàn)個(gè)神經(jīng)元:智慧原來(lái)是這個(gè)樣子

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    OpenAI宣布,發(fā)布7.74億參數(shù)GPT-2語(yǔ)言模型

    就在本周,OpenAI宣布,發(fā)布7.74億參數(shù)GPT-2語(yǔ)言模型,15.58億的完整模型也有望于幾個(gè)月內(nèi)發(fā)布,并將GPT-2這6個(gè)月的進(jìn)展
    的頭像 發(fā)表于 09-01 09:10 ?3026次閱讀

    GPT-4發(fā)布!多領(lǐng)域超越“人類(lèi)水平”,專家:國(guó)內(nèi)落后2-3年

    電子發(fā)燒友網(wǎng)報(bào)道(文/吳子鵬)北京時(shí)間3月15日凌晨,人工智能研究公司OpenAI正式發(fā)布其下一代大型語(yǔ)言模型GPT-4。目前,ChatGPT的Plus訂閱用戶已經(jīng)可以使用GPT-4
    的頭像 發(fā)表于 03-16 01:58 ?4738次閱讀
    <b class='flag-5'>GPT-4</b>發(fā)布!多領(lǐng)域超越“人類(lèi)水平”,專家:國(guó)內(nèi)落后<b class='flag-5'>2</b>-3年

    ChatGPT升級(jí) OpenAI史上最強(qiáng)大模型GPT-4發(fā)布

    ChatGPT升級(jí) 史上最強(qiáng)大模型GPT-4發(fā)布 OpenAI正式推出了ChatGPT升級(jí)版本,號(hào)稱史上最強(qiáng)大模型GPT-4發(fā)布。OpenAI期待G
    的頭像 發(fā)表于 03-15 18:15 ?2843次閱讀

    GPT-4是這樣搞電機(jī)的

    GPT-4寫(xiě)電機(jī)基礎(chǔ)程序沒(méi)問(wèn)題
    的頭像 發(fā)表于 04-17 09:41 ?1051次閱讀
    <b class='flag-5'>GPT-4</b>是這樣搞電機(jī)的

    GPT-4處于一個(gè)什么樣的編碼地位

    發(fā)布的 GPT-4 Developer Livestream(https://www.youtube.com/watch?v=outcGtbnMuQ)視頻中,我們親眼見(jiàn)證 OpenAI CTO
    的頭像 發(fā)表于 06-16 10:42 ?805次閱讀
    <b class='flag-5'>GPT-4</b>處于一<b class='flag-5'>個(gè)</b>什么樣的編碼地位

    人工通用智能的火花:GPT-4的早期實(shí)驗(yàn)

    ],是使用前所未有 的計(jì)算和數(shù)據(jù)規(guī)模訓(xùn)練出來(lái)的。在本文中,我們報(bào)告了我們對(duì)GPT-4早期版本的調(diào)查,當(dāng)時(shí)它還在OpenAI 的積極開(kāi)發(fā)中。我們認(rèn)為,(這個(gè)早期版本的)GPT-4是新一批
    發(fā)表于 06-20 15:49 ?1次下載

    OpenAI宣布GPT-4 API全面開(kāi)放使用!

    OpenAI 在博客文章中寫(xiě)道:“自 3 月份以來(lái),數(shù)百萬(wàn)開(kāi)發(fā)者請(qǐng)求訪問(wèn) GPT-4 API,并且利用 GPT-4 的創(chuàng)新產(chǎn)品范圍每天都在增長(zhǎng)?!?“我們?cè)O(shè)想基于對(duì)話的模型未來(lái)可以支持任何用例?!?/div>
    的頭像 發(fā)表于 07-12 14:55 ?1281次閱讀

    GPT-3.5 vs GPT-4:ChatGPT Plus 值得訂閱費(fèi)嗎 國(guó)內(nèi)怎么付費(fèi)?

    每月20美元)更智能、更準(zhǔn)確。 OpenAIGPT-4描述為“比其前身GPT-3.5先進(jìn)10倍”。 自從OpenAI的大語(yǔ)言模型(LLM)GPT-
    的頭像 發(fā)表于 08-02 12:09 ?4318次閱讀
    <b class='flag-5'>GPT</b>-3.5 vs <b class='flag-5'>GPT-4</b>:ChatGPT Plus 值得訂閱費(fèi)嗎 國(guó)內(nèi)怎么付費(fèi)?

    GPT-4沒(méi)有推理能力嗎?

    今年三月,OpenAI 重磅發(fā)布 GPT-4 大模型,帶來(lái)了比 ChatGPT 背后 GPT-3.5 更強(qiáng)的推理、計(jì)算、邏輯能力,也引發(fā)了全民使用的熱潮。在各行各領(lǐng)域研究人員、開(kāi)發(fā)者
    的頭像 發(fā)表于 08-11 14:20 ?925次閱讀
    <b class='flag-5'>GPT-4</b>沒(méi)有推理能力嗎?

    OpenAI最新大模型曝光!劍指多模態(tài),GPT-4之后最大升級(jí)!

    目前為止,OpenAI還沒(méi)有對(duì)爆料中的傳聞做出回應(yīng),但此前發(fā)布過(guò)多模態(tài)模型測(cè)試。CEO奧特曼在回應(yīng)有關(guān)GPT-5的傳聞時(shí),也暗示過(guò)GPT-4“正在增強(qiáng)”。
    的頭像 發(fā)表于 09-20 17:34 ?1249次閱讀
    <b class='flag-5'>OpenAI</b>最新大模型曝光!劍指多模態(tài),<b class='flag-5'>GPT-4</b>之后最大升級(jí)!

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價(jià)格大降2/3

    構(gòu)建各種各樣的例;有超過(guò)92%的財(cái)富世界500強(qiáng)企業(yè)以我們的產(chǎn)品為基礎(chǔ);GPT的周活躍用戶達(dá)到大約1億?!?OpenAI的重點(diǎn)來(lái)了: OpenAI發(fā)布
    的頭像 發(fā)表于 11-07 18:20 ?2840次閱讀
    ChatGPT重磅更新 <b class='flag-5'>OpenAI</b>發(fā)布<b class='flag-5'>GPT-4</b> Turbo模型價(jià)格大降<b class='flag-5'>2</b>/3

    OpenAI發(fā)布的GPT-4 Turbo版本ChatGPT plus有什么功能?

    GPT-4的最新版本。OpenAI憑借承諾增強(qiáng)功能和成本效率的模型實(shí)現(xiàn)巨大飛躍,為人工智能行業(yè)樹(shù)立了新標(biāo)準(zhǔn)。 我們來(lái)看看OpenAI帶來(lái)了什么: 文本和圖像理解
    的頭像 發(fā)表于 12-05 17:57 ?2569次閱讀
    <b class='flag-5'>OpenAI</b>發(fā)布的<b class='flag-5'>GPT-4</b> Turbo版本ChatGPT plus有什么功能?

    ChatGPT plus有什么功能?OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能

    OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能分析解答 在最近的OpenAI DevDay上,該組織發(fā)布一項(xiàng)備受期待的公告:推出
    的頭像 發(fā)表于 12-13 09:19 ?1190次閱讀
    ChatGPT plus有什么功能?<b class='flag-5'>OpenAI</b> 發(fā)布 <b class='flag-5'>GPT-4</b> Turbo 目前我們所知道的功能

    OpenAI API Key獲?。洪_(kāi)發(fā)人員申請(qǐng)GPT-4 API Key教程

    ? OpenAIGPT-4模型因其卓越的自然語(yǔ)言理解和生成能力,成為了許多開(kāi)發(fā)者的首選工具。獲取GPT-4 API Key并將其應(yīng)用于項(xiàng)目,如開(kāi)發(fā)一個(gè)ChatGPT聊天應(yīng)用,不僅是實(shí)
    的頭像 發(fā)表于 06-24 17:40 ?2462次閱讀
    <b class='flag-5'>OpenAI</b> API Key獲?。洪_(kāi)發(fā)人員申請(qǐng)<b class='flag-5'>GPT-4</b> API Key教程

    OpenAI推出新模型CriticGPT,GPT-4自我糾錯(cuò)

    基于GPT-4的模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯(cuò)誤而設(shè)計(jì),其獨(dú)特的作用在于,讓人們能夠用GPT-4來(lái)查找GPT-4的錯(cuò)誤。
    的頭像 發(fā)表于 06-29 09:55 ?569次閱讀