0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

ETH提出RecurrentGPT實現(xiàn)交互式超長文本生成

深度學習自然語言處理 ? 來源:機器之心 ? 2023-05-29 14:34 ? 次閱讀

如今大型語言模型(如 ChatGPT)風靡全球,其最重要的應用之一就是輔助用戶完成各種日常寫作,如撰寫電子郵件,創(chuàng)作博客文章,都能得到它的有力支持。但是目前包括 ChatGPT 在內(nèi)的各種大語言模型在長內(nèi)容創(chuàng)作領域,如小說,劇本,長篇文案等領域卻顯得力不從心。

近期,來自蘇黎世聯(lián)邦理工和波形智能的團隊發(fā)布了 RecurrentGPT,一種讓大語言模型 (如 ChatGPT 等) 能夠模擬 RNN/LSTM,通過 Recurrent Prompting 來實現(xiàn)交互式超長文本生成,讓利用 ChatGPT 進行長篇小說創(chuàng)作成為了可能。

3bb3251c-fd33-11ed-90ce-dac502259ad0.gif

圖 1 RecurrentGPT 使用示意圖。

3c7d38d4-fd33-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/abs/2305.13304

項目地址:https://github.com/aiwaves-cn/RecurrentGPT

在線 Demo:https://www.aiwaves.org/recurrentgpt (長篇小說寫作) https://www.aiwaves.org/interactivefiction (交互式小說)

基于 Transformer 的大語言模型最明顯的限制之一就是輸入和輸出的長度限制。雖然輸入端的長度限制可以通過 VectorDB 等方式緩解,輸出內(nèi)容的長度限制始終是限制 ChatGPT 等大語言模型廣泛應用于長內(nèi)容生成的關鍵障礙。為解決這一問題,過去很多研究試圖使用基于向量化的 State 或 Memory 來讓 Transformer 可以進行循環(huán)計算。這樣的方法雖然在長文本建模上展現(xiàn)了一定的優(yōu)勢,但是卻要求使用者擁有并可以修改模型的結(jié)構(gòu)和參數(shù),這在目前閉源模型遙遙領先的大語言模型時代中是不符合實際的。

RecurrentGPT 則另辟蹊徑,是利用大語言模型進行交互式長文本生成的首個成功實踐。它利用 ChatGPT 等大語言模型理解自然語言指令的能力,通過自然語言模擬了循環(huán)神經(jīng)網(wǎng)絡(RNNs)的循環(huán)計算機制。

如圖 2 所示,在每一個時間步中,RecurrentGPT 會接收上一個時間步生成的內(nèi)容、最近生成內(nèi)容的摘要(短期記憶),歷史生成內(nèi)容中和當前時間步最相關的內(nèi)容 (長期記憶),以及一個對下一步生成內(nèi)容的梗概。RecurrentGPT 根據(jù)這些內(nèi)容生成一段內(nèi)容,更新其長短時記憶,并最后生成幾個對下一個時間步中生成內(nèi)容的規(guī)劃,并將當前時間步的輸出作為下一個時間步的輸入。這樣的循環(huán)計算機制打破了常規(guī)Transformer 模型在生成長篇文本方面的限制,從而實現(xiàn)任意長度文本的生成,而不遺忘過去的信息。

3c9ec85a-fd33-11ed-90ce-dac502259ad0.png

圖 2 RecurrentGPT 基本結(jié)構(gòu)示意。

具體來講。作者們設計了如圖 2 所示的 prompt 去指導和規(guī)范循環(huán)的生成:

3cd1b620-fd33-11ed-90ce-dac502259ad0.png

圖 3: RecurrentGPT Prompt 設計。

首先指明任務,比如寫小說,并說明在輸入部分會給出的內(nèi)容:上一步生成的段落(圖中 Ot-1)、當前維持的近期生成內(nèi)容的摘要,即短期記憶(圖中 ht-1),所有生成內(nèi)容中和當前時間步相關程度最高的幾個段落,即短期記憶(圖中 ct-1),以及對接下來生成內(nèi)容的規(guī)劃(圖中 xt-1)。

接著在 prompt 中給 ChatGPT 提出要求:首先基于當前的輸入生成一個新的段落,接著對維護的短期記憶進行修改,同時在對短期記憶修改時作者們指示大語言模型首先分析短期記憶中哪些內(nèi)容對于后續(xù)創(chuàng)作不再重要以及新生成的內(nèi)容中哪些會對后續(xù)生成有所影響,之后相應地在地短期記憶庫中去去除無用的信息并增添新的信息,從而保持短期記憶不會因為迭代的輪數(shù)增加而變得過長。最后要求 ChatGPT 基于當前的情節(jié)鋪設,給出三個邏輯順承又有趣的新的情節(jié)的規(guī)劃。

在提出要求后,作者在結(jié)尾再次精心設計了 prompt 來規(guī)范 ChatGPT 的輸出,并重申了當前小說寫作的情景。這個好處是讓 ChatGPT 生成的內(nèi)容更具備像小說那樣的細節(jié),而不是在每一輪的迭代中,快速地完成情節(jié)的敘述。

3d1b0ef6-fd33-11ed-90ce-dac502259ad0.png

圖 4 RecurrentGPT Demo

在實際使用中,內(nèi)容創(chuàng)作者只需先選擇一個主題,然后簡單地描述一下要生成的內(nèi)容的背景設定和大綱,剩下的工作就可以交給 RecurrentGPT。每一個它將自動生成第一段,并提供幾個可能的選項(plan)供創(chuàng)作者繼續(xù)寫故事。創(chuàng)作者可以選擇一個選項、對某個選項進行修改或者自己編輯一個新的選項。這個流程能顯著提高內(nèi)容創(chuàng)作者的效率。

這個新的長文本生成范式將帶給所有內(nèi)容創(chuàng)作者和讀者一種全新的體驗。首先,相比現(xiàn)有的方法,RecurrentGPT 有更強的可解釋性,因為用戶可以觀察和編輯自然語言記憶,這使得用戶可以更清晰地理解這個框架是如何工作的。其次,用戶可以直接影響生成內(nèi)容的方向,讓整個寫作過程變得更加有趣。

除了作為 AI 內(nèi)容生成 (AIGC) 的工具以外,RecurrentGPT 可以直接作為交互式小說,直接與消費者互動,跳過了內(nèi)容創(chuàng)作者使用 AI 進行內(nèi)容創(chuàng)作的步驟。這讓消費者的體驗更直接有趣,并且?guī)砀S富的可能性。作者們將這樣的生成式 AI 的使用范式稱之為 (AI as Content, AIAC), 也就是 “AI 即內(nèi)容”。而 RecurrentGPT 則是通往這個范式的第一步。

在實驗中,作者們將 RecurrentGPT 與之前的 SoTA 長文本生成方法,在統(tǒng)一使用 ChatGPT 作為基座模型的情況下,在長文本(6000 單詞)和較長文本(3000 單詞)的設定下進行 pair-wise 的人工比較。

3d7b3358-fd33-11ed-90ce-dac502259ad0.png

圖 5 RecurrentGPT 實驗結(jié)果。

在上述一系列測試中,RecurrentGPT 無論是在科幻、浪漫、幻想、恐怖、神秘還是驚悚小說的生成上,都被人類讀者認為更有趣和連貫。

總結(jié)

研究人員提出了 RecurrentGPT,用基于自然語言的組件取代了 RNN 中向量化的結(jié)構(gòu),并且用基于自然語言的 Prompt 模擬了 RNN 的循環(huán)計算圖,從而實現(xiàn) Recurrent Prompting,讓 ChatGPT 等大語言模型模擬 RNN 的循環(huán)計算機制,生成有趣并連貫的長內(nèi)容。

該項目已經(jīng)在 GitHub 上開源,并提供了基于 Gradio 的網(wǎng)頁 UI,方便每一個用戶去使用和調(diào)教自己的長內(nèi)容創(chuàng)作助手。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4777

    瀏覽量

    100966
  • 自然語言
    +關注

    關注

    1

    文章

    289

    瀏覽量

    13370
  • ChatGPT
    +關注

    關注

    29

    文章

    1566

    瀏覽量

    7868

原文標題:ChatGPT能寫長篇小說了,ETH提出RecurrentGPT實現(xiàn)交互式超長文本生成

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于GAC模型實現(xiàn)交互式圖像分割的改進算法

    基于GAC模型實現(xiàn)交互式圖像分割的改進算法提出了一種改進的交互式圖像分割算法。采用全變分去噪模型對圖像進行預處理,在去除噪聲的同時更好地保護了邊緣;
    發(fā)表于 09-19 09:19

    AD9中交互式布局如何實現(xiàn)。

    `在看《Altium designer PCB畫板速成教材 》時,看到交互式布局。感覺這么做確實效率會大大的提高,但是我沒看明白是怎么實現(xiàn)的,請大家?guī)兔?。先謝謝了。。`
    發(fā)表于 11-23 10:05

    【分享】在AD中生成交互式BOM的工具InteractiveHtmlBomForAD

    InteractiveHtmlBom是Kicad中非常漂亮的一個插件,可以生成交互式Bom,對手焊黨來說非常實用,因為平常是在用AD畫圖,所以嘗試將這個插件移植到AD中,當然這里只實現(xiàn)了基本的功能
    發(fā)表于 03-02 18:58

    什么是IPTV(交互式網(wǎng)絡電視)

    什么是IPTV(交互式網(wǎng)絡電視) IPTV(InternetProtocolTVorInteractivePersonalTV)也叫交互式網(wǎng)絡電視,是利用寬帶網(wǎng)的基礎設施,以家用電視機或
    發(fā)表于 10-27 08:52 ?7561次閱讀

    選購交互式白板的心得

    選購交互式白板的心得   在選購交互式白板的過程中,許多人對于交互式白板的硬件、軟件、服務都不可能做到面面俱到,于
    發(fā)表于 02-09 10:00 ?728次閱讀

    交互式語音識別系統(tǒng)研究

    為了實現(xiàn)大詞匯量連續(xù)語音識別技術的實際應用,本文提出交互式語音識別的概念并著重研究其中的各項關鍵技術。所謂的交互式語音識別,是指為語音識別系統(tǒng)配置一位操作員,該
    發(fā)表于 05-28 16:30 ?94次下載
    <b class='flag-5'>交互式</b>語音識別系統(tǒng)研究

    WebServer的嵌入實現(xiàn)交互式設計_高翔峰

    WebServer的嵌入實現(xiàn)交互式設計_高翔峰
    發(fā)表于 03-19 11:28 ?1次下載

    基于層次交互式主題建模

    .針對這一問題,提出了一個交互式可視分析系統(tǒng),幫助用戶對主題模型進行交互修正.首先對層次狄利克雷過程進行了改進,使其支持單詞約束;然后,使用矩陣視圖對主題模型進行展示,并使用語義相關的詞云布局幫助用戶尋找
    發(fā)表于 01-14 14:06 ?0次下載

    基于生成對抗網(wǎng)絡的深度文本生成模型

    評論,對音樂作品自動生成評論可以在一定程度上解決此問題。在在線唱歌平臺上的評論文本與音樂作品的表現(xiàn)評級存在一定的關系。因此,研究考慮音樂作品評級信息的評論文本自動生成的方為此
    發(fā)表于 04-12 13:47 ?15次下載
    基于<b class='flag-5'>生成</b><b class='flag-5'>式</b>對抗網(wǎng)絡的深度<b class='flag-5'>文本生成</b>模型

    文本生成任務中引入編輯方法的文本生成

    4. FELIX FELIX是Google Research在“FELIX: Flexible Text Editing Through Tagging and Insertion”一文中提出文本生成
    的頭像 發(fā)表于 07-23 16:56 ?1758次閱讀
    <b class='flag-5'>文本生成</b>任務中引入編輯方法的<b class='flag-5'>文本生成</b>

    受控文本生成模型的一般架構(gòu)及故事生成任務等方面的具體應用

    來自:哈工大訊飛聯(lián)合實驗室 本期導讀:本文是對受控文本生成任務的一個簡單的介紹。首先,本文介紹了受控文本生成模型的一般架構(gòu),點明了受控文本生成模型的特點。然后,本文介紹了受控文本生成
    的頭像 發(fā)表于 10-13 09:46 ?3572次閱讀
    受控<b class='flag-5'>文本生成</b>模型的一般架構(gòu)及故事<b class='flag-5'>生成</b>任務等方面的具體應用

    基于GPT-2進行文本生成

    文本生成是自然語言處理中一個重要的研究領域,具有廣闊的應用前景。國內(nèi)外已經(jīng)有諸如Automated Insights、Narrative Science以及“小南”機器人和“小明”機器人等文本生成
    的頭像 發(fā)表于 04-13 08:35 ?4807次閱讀

    基于VQVAE的長文本生成 利用離散code來建模文本篇章結(jié)構(gòu)的方法

    寫在前面 近年來,多個大規(guī)模預訓練語言模型 GPT、BART、T5 等被提出,這些預訓練模型在自動文摘等多個文本生成任務上顯著優(yōu)于非預訓練語言模型。但對于開放生成任務,如故事
    的頭像 發(fā)表于 12-01 17:07 ?1778次閱讀

    面向結(jié)構(gòu)化數(shù)據(jù)的文本生成技術研究

    今天我們要講的文本生成是現(xiàn)在最流行的研究領域之一。文本生成的目標是讓計算機像人類一樣學會表達,目前看基本上接近實現(xiàn)。這些突然的技術涌現(xiàn),使得計算機能夠撰寫出高質(zhì)量的自然文本,滿足特定的
    的頭像 發(fā)表于 06-26 14:39 ?653次閱讀
    面向結(jié)構(gòu)化數(shù)據(jù)的<b class='flag-5'>文本生成</b>技術研究

    如何使用 Llama 3 進行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進行文本生成,可以通過以下幾種方式實現(xiàn),取決于你是否愿意在本地運行模型或者使用現(xiàn)成的API
    的頭像 發(fā)表于 10-27 14:21 ?495次閱讀