0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TaD+RAG-緩解大模型“幻覺”的組合新療法

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2024-07-16 15:01 ? 次閱讀

TaD:任務(wù)感知解碼技術(shù)(Task-aware Decoding,簡稱TaD),京東聯(lián)合清華大學(xué)針對大語言模型幻覺問題提出的一項(xiàng)技術(shù),成果收錄于IJCAI2024。

RAG:檢索增強(qiáng)生成技術(shù)(Retrieval-augmented Generation,簡稱RAG),是業(yè)內(nèi)解決LLM幻覺問題最有效的系統(tǒng)性方案。

1. 背景介紹

近來,以ChatGPT為代表的生成式大語言模型(Large Language Model,簡稱LLM)掀起了新一輪AI熱潮,并迅速席卷了整個(gè)社會(huì)的方方面面。得益于前所未有的模型規(guī)模、訓(xùn)練數(shù)據(jù),以及引入人類反饋的訓(xùn)練新范式,LLM在一定程度上具備對人類意圖的理解和甄別能力,可實(shí)現(xiàn)生動(dòng)逼真的類人對話互動(dòng),其回答的準(zhǔn)確率、邏輯性、流暢度都已經(jīng)無限接近人類水平。此外,LLM還出現(xiàn)了神奇的“智能涌現(xiàn)”現(xiàn)象,其產(chǎn)生的強(qiáng)大的邏輯推理、智能規(guī)劃等能力,已逐步應(yīng)用到智能助理、輔助創(chuàng)作、科研啟發(fā)等領(lǐng)域。京東在諸多核心業(yè)務(wù)如AI搜索、智能客服、智能導(dǎo)購、創(chuàng)意聲稱、推薦/廣告、風(fēng)控等場景下,均對LLM的落地應(yīng)用進(jìn)行了深入探索。這一舉措提升了業(yè)務(wù)效率,增強(qiáng)了用戶體驗(yàn)。

盡管具備驚艷的類人對話能力,大語言模型的另外一面——不準(zhǔn)確性,卻逐漸成為其大規(guī)模落地的制約和瓶頸。通俗地講,LLM生成不準(zhǔn)確、誤導(dǎo)性或無意義的信息被稱為“幻覺”,也就是常說的“胡說八道”。當(dāng)然也有學(xué)者,比如OpenAI的CEO Sam Altman,將LLM產(chǎn)生的“幻覺”視為“非凡的創(chuàng)造力”。但是在大多數(shù)場景下,模型提供正確回答的能力至關(guān)重要,因此幻覺常常被認(rèn)為是一種缺陷;尤其是在一些對輸出內(nèi)容準(zhǔn)確性要求較高的場景下,比如醫(yī)療診斷、法律咨詢、工業(yè)制造、售后客服等,幻覺問題導(dǎo)致的后果往往是災(zāi)難性的。

本文主要探索針對LLM幻覺問題的解決方案。

2. 相關(guān)調(diào)研

眾所周知,大語言模型的本質(zhì)依然是語言模型(Language Model,簡稱LM),該模型可通過計(jì)算句子概率建模自然語言概率分布。具體而言,LM基于統(tǒng)計(jì)對大量語料進(jìn)行分析,按順序預(yù)測下一個(gè)特定字/詞的概率。LLM的主要功能是根據(jù)輸入文本生成連貫且上下文恰當(dāng)?shù)幕貜?fù),即生成與人類語言和寫作的模式結(jié)構(gòu)極為一致的文本。注意到,LLM并不擅長真正理解或傳遞事實(shí)信息。故而其幻覺不可徹底消除。亞利桑那州立大學(xué)教授Subbarao Kambhampati認(rèn)為:LLM所生成的全都是幻覺,只是有時(shí)幻覺碰巧和你的現(xiàn)實(shí)一致而已。新加坡國立大學(xué)計(jì)算學(xué)院的Ziwei Xu和Sanjay Jain等也認(rèn)為LLM的幻覺無法完全消除[1]。

雖然幻覺問題無法徹底消除,但依然可以進(jìn)行優(yōu)化和緩解,業(yè)內(nèi)也有不少相關(guān)的探索。有研究[2]總結(jié)了LLM產(chǎn)生幻覺的三大來源:數(shù)據(jù)、訓(xùn)練和推理,并給出了對應(yīng)的緩解策略。

2.1 數(shù)據(jù)引入的幻覺

“病從口入”,訓(xùn)練數(shù)據(jù)是LLM的糧食,數(shù)據(jù)缺陷是使其致幻的一大原因。數(shù)據(jù)缺陷既包括數(shù)據(jù)錯(cuò)誤、缺失、片面、過期等,也包括由于領(lǐng)域數(shù)據(jù)不足所導(dǎo)致的模型所捕獲的事實(shí)知識利用率較低等問題。以下是針對訓(xùn)練數(shù)據(jù)類幻覺的一些技術(shù)方案:

數(shù)據(jù)清洗

針對數(shù)據(jù)相關(guān)的幻覺,最直接的方法就是收集更多高質(zhì)量的事實(shí)數(shù)據(jù),并進(jìn)行數(shù)據(jù)清理。訓(xùn)練數(shù)據(jù)量越大、質(zhì)量越高,最終訓(xùn)練得到的LLM出現(xiàn)幻覺的可能性就可能越小[3]。但是,訓(xùn)練數(shù)據(jù)總有一定的覆蓋范圍和時(shí)間邊界,不可避免地形成知識邊界,單純從訓(xùn)練數(shù)據(jù)角度解決幻覺問題,并不是一個(gè)高性價(jià)比的方案。

針對“知識邊界”問題,有兩種主流方案:一種是知識編輯,即直接編輯模型參數(shù)彌合知識鴻溝。另一種是檢索增強(qiáng)生成(Retrieval-augmented Generation,簡稱RAG),保持模型參數(shù)不變,引入第三方獨(dú)立的知識庫。

知識編輯

知識編輯有兩種方法:1)編輯模型參數(shù)的方法可以細(xì)粒度地調(diào)整模型的效果,但難以實(shí)現(xiàn)知識間泛化能力,且不合理的模型編輯可能會(huì)導(dǎo)致模型產(chǎn)生有害或不適當(dāng)?shù)妮敵鯷4];2)外部干預(yù)的方法(不編輯模型參數(shù))對大模型通用能力影響較小,但需要引入一個(gè)單獨(dú)的模塊,且需要額外的資源訓(xùn)練這個(gè)模塊。

如何保持原始LLM能力不受影響的前提下,實(shí)現(xiàn)知識的有效更新,是LLM研究中的重要挑戰(zhàn)[2]。鑒于知識編輯技術(shù)會(huì)給用戶帶來潛在風(fēng)險(xiǎn),無論學(xué)術(shù)界還是業(yè)界都建議使用包含明確知識的方法,比如RAG。

檢索增強(qiáng)生成(RAG)

RAG引入信息檢索過程,通過第三方數(shù)據(jù)庫中檢索相關(guān)信息來增強(qiáng)LLM的生成過程,從而提高準(zhǔn)確性和魯棒性,降低幻覺。由于接入外部實(shí)時(shí)動(dòng)態(tài)數(shù)據(jù),RAG在理論上沒有知識邊界的限制,且無需頻繁進(jìn)行LLM的訓(xùn)練,故已經(jīng)成為LLM行業(yè)落地最佳實(shí)踐方案。下圖1為RAG的一個(gè)標(biāo)準(zhǔn)實(shí)現(xiàn)方案[11],用戶的Query首先會(huì)經(jīng)由信息檢索模塊處理并召回相關(guān)文檔;隨后RAG方法將Prompt、用戶query和召回文檔一起輸入LLM,最終由LLM生成最終的答案。

圖1. RAG架構(gòu)圖

wKgZomaWGrWAeQ3pAAhsPvcXsXM866.png

RAG借助信息檢索,引入第三方事實(shí)知識,大大緩解了單純依靠LLM生成答案而產(chǎn)生的幻覺,但由LLM生成的最終輸出仍然有較大概率產(chǎn)生幻覺。因此,緩解LLM本身的幻覺,對整個(gè)RAG意義重大。

2.2 模型訓(xùn)練引入的幻覺

LLM的整個(gè)訓(xùn)練過程,都可能會(huì)引入幻覺。首先,LLM通常是transformer結(jié)構(gòu)的單向語言模型,通過自回歸的方式建模目標(biāo),天然存在單向表示不足、注意力缺陷[6]、曝光偏差[7]等問題;其次,在文本對齊階段,無論是監(jiān)督微調(diào)(SFT)還是人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),都有可能出現(xiàn)有標(biāo)注數(shù)據(jù)超出LLM知識邊界、或者與LLM內(nèi)在知識不一致的問題;這一系列對齊問題很可能放大LLM本身的幻覺風(fēng)險(xiǎn)[8]。

對于訓(xùn)練過程引入的幻覺,可以通過優(yōu)化模型結(jié)構(gòu)、注意力機(jī)制、訓(xùn)練目標(biāo)、改進(jìn)偏好模型等一系列手段進(jìn)行緩解。但這些技術(shù)都缺乏通用性,難以在現(xiàn)有的LLM上進(jìn)行遷移,實(shí)用性不高。

2.3 推理過程引入的幻覺

推理過程引入的幻覺,一方面源自于解碼策略的抽樣隨機(jī)性,它與幻覺風(fēng)險(xiǎn)的增加呈正相關(guān),尤其是采樣溫度升高導(dǎo)致低頻token被采樣的概率提升,進(jìn)一步加劇了幻覺風(fēng)險(xiǎn)[9]。另一方面,注意力缺陷如上下文注意力不足、Softmax瓶頸導(dǎo)致的不完美解碼都會(huì)引入幻覺風(fēng)險(xiǎn)。

層對比解碼(DoLa)

針對推理過程解碼策略存在的缺陷,一項(xiàng)具有代表性且較為有效的解決方案是層對比解碼(Decoding by Contrasting Layers, 簡稱DoLa)[9]。模型可解釋性研究發(fā)現(xiàn),在基于Transformer的語言模型中,下層transformer編碼“低級”信息(詞性、語法),而上層中包含更加“高級”的信息(事實(shí)知識)[10]。DoLa主要通過強(qiáng)調(diào)較上層中的知識相對于下層中的知識的“進(jìn)步”,減少語言模型的幻覺。具體地,DoLa通過計(jì)算上層與下層之間的logits差,獲得輸出下一個(gè)詞的概率。這種對比解碼方法可放大LLM中的事實(shí)知識,從而減少幻覺。

圖2. DoLa示意圖

wKgaomaWGraAE16WAAKK4ltDQmY480.png

上圖2是DoLa的一個(gè)簡單直觀的示例?!癝eattle”在所有層上都保持著很高的概率,可能僅僅因?yàn)樗且粋€(gè)從語法角度上講比較合理的答案。當(dāng)上層通過層對比解碼注入更多的事實(shí)知識后,正確答案“Olympia”的概率會(huì)增加??梢姡瑢訉Ρ冉獯a(DoLa)技術(shù)可以揭示真正的答案,更好地解碼出LLM中的事實(shí)知識,而無需檢索外部知識或進(jìn)行額外微調(diào)。此外,DoLa還有動(dòng)態(tài)層選擇策略,保證最上層和中間層的輸出差別盡可能大。

可見,DoLa的核心思想是淡化下層語言/語法知識,盡可能放大事實(shí)性知識,但這可能導(dǎo)致生成內(nèi)容存在語法問題;在實(shí)驗(yàn)中還發(fā)現(xiàn)DoLa會(huì)傾向于生成重復(fù)的句子,尤其是長上下文推理場景。此外,DoLa不適用有監(jiān)督微調(diào),限制了LLM的微調(diào)優(yōu)化。

3. 技術(shù)突破

通過以上分析,RAG無疑是治療LLM幻覺的一副妙方,它如同LLM的一個(gè)強(qiáng)大的外掛,讓其在處理事實(shí)性問題時(shí)如虎添翼。但RAG的最終輸出仍然由LLM生成,緩解LLM本身的幻覺也極為重要,而目前業(yè)內(nèi)針對LLM本身幻覺的技術(shù)方案存在成本高、實(shí)用落地難、易引入潛在風(fēng)險(xiǎn)等問題。

鑒于此,京東零售聯(lián)合清華大學(xué)進(jìn)行相關(guān)探索,提出任務(wù)感知解碼(Task-aware Decoding,簡稱TaD)技術(shù)[12](成果收錄于IJCAI2024),可即插即用地應(yīng)用到任何LLM上,通過對比有監(jiān)督微調(diào)前后的輸出,緩解LLM本身的幻覺。該方法通用性強(qiáng),在多種不同LLM結(jié)構(gòu)、微調(diào)方法、下游任務(wù)和數(shù)據(jù)集上均有效,具有廣泛的適用場景。

任務(wù)感知解碼(TaD)技術(shù)

關(guān)于LLM知識獲取機(jī)制的一些研究表明,LLM的輸出并不能總是準(zhǔn)確反映它們所擁有的知識,即使一個(gè)模型輸出錯(cuò)誤,它仍然可能擁有正確的知識[13]。此項(xiàng)工作主要探索LLM在保留預(yù)訓(xùn)練學(xué)到的公共知識的同時(shí),如何更好地利用微調(diào)過程中習(xí)得的下游任務(wù)特定領(lǐng)域知識,進(jìn)而提升其在具體任務(wù)中的效果,緩解LLM幻覺。

TaD的基本原理如圖3所示。微調(diào)前LLM和微調(diào)后LLM的輸出詞均為“engage”,但深入探究不難發(fā)現(xiàn)其相應(yīng)的預(yù)測概率分布發(fā)生了明顯的改變,這反映了LLM在微調(diào)期間試圖將其固有知識盡可能地適應(yīng)下游任務(wù)的特定領(lǐng)域知識。具體而言,經(jīng)過微調(diào),更加符合用戶輸入要求(“專業(yè)的”)的詞“catalyze”的預(yù)測概率明顯增加,而更通用的反映預(yù)訓(xùn)練過程習(xí)得的知識卻不能更好滿足下游任務(wù)用戶需求的詞“engage”的預(yù)測概率有所降低。TaD巧妙利用微調(diào)后LLM與微調(diào)前LLM的輸出概率分布的差異來構(gòu)建知識向量,得到更貼切的輸出詞“catalyze”,進(jìn)而增強(qiáng)LLM的輸出質(zhì)量,使其更符合下游任務(wù)偏好,改善幻覺。

圖3. TaD原理圖

wKgZomaWGreAMSJrAAOb_6t1gMM832.png

知識向量

為了直觀理解LLM在微調(diào)階段學(xué)習(xí)到的特定領(lǐng)域知識,我們引入知識向量的概念,具體如圖4所示。微調(diào)前LLM的輸出條件概率分布為pθ,微調(diào)后LLM的輸出條件概率分布為 p?。知識向量反應(yīng)了微調(diào)前后LLM輸出詞的條件概率分布變化,也代表著LLM的能力從公共知識到下游特定領(lǐng)域知識的適應(yīng)?;赥aD技術(shù)構(gòu)建的知識向量可強(qiáng)化LLM微調(diào)過程中習(xí)得的領(lǐng)域特定知識,進(jìn)一步改善LLM幻覺。

圖4. 知識向量

wKgaomaWGriAU0WCAAFSxBzLxSM601.png

特別地,當(dāng)微調(diào)數(shù)據(jù)較少時(shí),LLM的輸出條件概率分布遠(yuǎn)遠(yuǎn)達(dá)不到最終訓(xùn)練目標(biāo)。在此情形下,TaD技術(shù)增強(qiáng)后的知識向量可以加強(qiáng)知識對下游任務(wù)的適應(yīng),在訓(xùn)練數(shù)據(jù)稀缺場景下帶來更顯著的效果提升。

實(shí)驗(yàn)結(jié)果

1)針對不同的LLM,采用LoRA、AdapterP等方式、在不同的任務(wù)上進(jìn)行微調(diào),實(shí)驗(yàn)結(jié)果如下表1和表2所示。注意到,TaD技術(shù)均取得了明顯的正向效果提升。

表1. Multiple Choices和CBQA任務(wù)結(jié)果

wKgZomaWGrqAHf2cAAQcBFlCcO4308.png

表2. 更具挑戰(zhàn)性的推理任務(wù)結(jié)果

wKgaomaWGsCAc8otAAMJWjQz2RA158.png

2)相比較其他對比解碼技術(shù),TaD技術(shù)在絕大部分場景下效果占優(yōu),具體如表3所示。需要特別強(qiáng)調(diào)的一點(diǎn)是,其他技術(shù)可能會(huì)導(dǎo)致LLM效果下降,TaD未表現(xiàn)上述風(fēng)險(xiǎn)。

表3. 不同對比解碼技術(shù)結(jié)果

wKgZomaWGsKAU9mMAALByga_41g758.png

3)針對不同比例的訓(xùn)練樣本進(jìn)行實(shí)驗(yàn),發(fā)現(xiàn)一個(gè)非常有趣的結(jié)果:訓(xùn)練樣本越少,TaD技術(shù)帶來的收益越大,具體如表4所示。因此,即使在有限的訓(xùn)練數(shù)據(jù)下,TaD技術(shù)也可以將LLM引導(dǎo)到正確的方向。由此可見,TaD技術(shù)能夠在一定程度上突破訓(xùn)練數(shù)據(jù)有限情形下LLM的效果限制。

表4. 不同數(shù)據(jù)比例下的結(jié)果

wKgaomaWGsOAZqXcAAESKabkYJ8321.png

可見,TaD可以即插即用,適用于不同LLM、不同微調(diào)方法、不同下游任務(wù),突破了訓(xùn)練數(shù)據(jù)有限的瓶頸,是一項(xiàng)實(shí)用且易用的改善LLM自身幻覺的技術(shù)。

4. 落地案例

自從以ChatGPT為代表的LLM誕生之后,針對其應(yīng)用的探索一直如火如荼,然而其幻覺已然成為限制落地的最大缺陷。綜上分析,目前檢索增強(qiáng)生成(RAG)+低幻覺的LLM是緩解LLM幻覺的最佳組合療法。在京東通用知識問答系統(tǒng)的構(gòu)建中,我們通過TaD技術(shù)實(shí)現(xiàn)低幻覺的LLM,系統(tǒng)層面基于RAG注入自有事實(shí)性知識,具體方案如圖5所示,最大程度緩解了LLM的生成幻覺 。

圖5. TaD+RAG的知識問答系統(tǒng)

wKgZomaWGsSAJah5AAEm_E-F888876.png

目前知識問答系統(tǒng)已經(jīng)接入京東6000+業(yè)務(wù)場景,為用戶提供準(zhǔn)確、高效、便捷的知識性問答,大大節(jié)省了運(yùn)營、運(yùn)維等人力開銷。

5. 思考與展望

如果LLM依然按照語言模型的模式發(fā)展,那么其幻覺就無法徹底消除。目前業(yè)內(nèi)還沒有一種超脫語言模型范疇,且可以高效完成自然語言相關(guān)的任務(wù)新的模型結(jié)構(gòu)。因此,緩解LLM的生成幻覺,仍然是未來一段時(shí)期的探索路徑。以下是我們在系統(tǒng)、知識、LLM三個(gè)層面的一些簡單的思考,希望能夠拋磚引玉。

系統(tǒng)層面——RAG+Agent+More的復(fù)雜系統(tǒng)

RAG技術(shù)確實(shí)在一些常見的自然語言處理任務(wù)中發(fā)揮出色的作用,尤其是針對簡單問題和小型文檔集。但是遇到一些復(fù)雜的問題和大型文檔集時(shí),RAG技術(shù)就顯得力不從心。近期有一些研究認(rèn)為RAG+Agent才是未來的趨勢[14],Agent能夠輔助理解并規(guī)劃復(fù)雜的任務(wù)。我們認(rèn)為可能未來的系統(tǒng)可能不僅僅局限于Agent和RAG,可能還要需要多種多樣的內(nèi)外工具調(diào)用、長短期記憶模塊、自我學(xué)習(xí)模塊......

知識層面——與LLM深度融合的注入方式

任何一個(gè)深度模型都會(huì)存在知識邊界的問題,LLM也不例外。RAG通過檢索的方式召回外部知識,以Prompt的形式送入LLM進(jìn)行最終的理解和生成,一定程度上緩解LLM知識邊界問題。但是這種知識注入的方式和LLM生成的過程是相對割裂的。即便已經(jīng)召回了正確的知識,LLM也可能因?yàn)楸旧碇R邊界問題生成錯(cuò)誤的回答。因此探索如何實(shí)現(xiàn)外部知識和LLM推理的深度融合,或許是未來的一個(gè)重要的課題。

LLM層面——低幻覺LLM

LLM本身的幻覺是問題的根本和瓶頸,我們認(rèn)為隨著LLM更廣泛的應(yīng)用,類似TaD可緩解LLM本身幻覺的探索一定會(huì)成為業(yè)內(nèi)的更大的研究熱點(diǎn)。

6. 結(jié)語

緩解LLM幻覺一定是個(gè)復(fù)雜的系統(tǒng)問題,我們可以綜合不同的技術(shù)方案、從多個(gè)層級協(xié)同去降低LLM的幻覺。雖然現(xiàn)有方案無法保證從根本上解決幻覺,但隨著不斷探索,我們堅(jiān)信業(yè)內(nèi)終將找到限制LLM幻覺的更有效的方案,也期待屆時(shí)LLM相關(guān)應(yīng)用的再次爆發(fā)式增長。

京東零售一直走在AI技術(shù)探索的前沿,隨著公司在AI領(lǐng)域的不斷投入和持續(xù)深耕,我們相信京東必將產(chǎn)出更多先進(jìn)實(shí)用的技術(shù)成果,為行業(yè)乃至整個(gè)社會(huì)帶來深遠(yuǎn)持久的影響。


【參考文獻(xiàn)】

[1] Hallucination is Inevitable: An Innate Limitation of Large Language Models

[2] A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions

[3] Unveiling the Causes of LLM Hallucination and Overcoming LLM Hallucination

[4] Editing Large Language Models: Problems, Methods, and Opportunities

[5] ACL 2023 Tutorial: Retrieval-based Language Models and Applications

[6] Theoretical Limitations of Self-Attention in Neural Sequence Models

[7] Sequence level training with recurrent neural networks.

[8] Discovering language model behaviors with model-written evaluations

[9] Dola: Decoding by contrasting layers improves factuality in large language models

[10] Bert rediscovers the classical nlp pipeline

[11] Retrieval-Augmented Generation for Large Language Models: A Survey

[12] TaD: A Plug-and-Play Task-Aware Decoding Method toBetter Adapt LLM on Downstream Tasks

[13] Inference-time intervention: Eliciting truthful answers from a language model

[14] Beyond RAG: Building Advanced Context-Augmented LLM Applications

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30851

    瀏覽量

    269028
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1560

    瀏覽量

    7641
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2442

    瀏覽量

    2692
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    287

    瀏覽量

    331
收藏 人收藏

    評論

    相關(guān)推薦

    【書籍評測活動(dòng)NO.52】基于大模型RAG應(yīng)用開發(fā)與優(yōu)化

    Agenerated,檢索增強(qiáng)生成)與Agent(AI智能體)。本篇小棗君首先嘗試用通俗易懂的語言幫助大家認(rèn)識RAG這一重要應(yīng)用形式。 01 了解大模型的“幻覺” 在了解為什么出現(xiàn)RAG
    發(fā)表于 12-04 10:50

    人類新療法的第一項(xiàng)研究證明了這是一種無創(chuàng)、無害的癌癥殺手

    點(diǎn)擊上方“IEEE電氣電子工程師學(xué)會(huì)”即可訂閱公眾號。網(wǎng)羅全球科技前沿動(dòng)態(tài),為科研創(chuàng)業(yè)打開腦洞。對人類新療法
    的頭像 發(fā)表于 08-10 10:32 ?2285次閱讀

    新興的人工智能(AI)技術(shù)具有加速和轉(zhuǎn)變對分子療法的搜索的潛力

    當(dāng)前的Covid-19危機(jī)凸顯了對快速發(fā)現(xiàn)新興疾病的新療法的需求。但是,調(diào)整大規(guī)模的實(shí)驗(yàn)工作以適應(yīng)不斷變化的環(huán)境不可能一overnight而就。對敏捷性的緊迫呼吁表明,我們需要采取新的方法來搜索和識別分子療法療法
    發(fā)表于 06-08 11:19 ?541次閱讀

    基于磁共振成像的心房顫動(dòng)新療法

    研究人員開發(fā)了一種基于磁共振成像的新療法來探測和評估經(jīng)歷了心房顫動(dòng)治療的患者在左心房壁上的傷害
    發(fā)表于 07-21 15:03 ?712次閱讀

    模型現(xiàn)存的10個(gè)問題和挑戰(zhàn)

    來源:Coggle數(shù)據(jù)科學(xué)大模型現(xiàn)存的問題和挑戰(zhàn)這篇文章介紹了關(guān)于大型語言模型(LLMs)研究中的十個(gè)主要方向和問題:1.減少和度量幻覺幻覺指的是AI
    的頭像 發(fā)表于 09-04 16:42 ?1740次閱讀
    大<b class='flag-5'>模型</b>現(xiàn)存的10個(gè)問題和挑戰(zhàn)

    最新研究綜述——探索基礎(chǔ)模型中的“幻覺”現(xiàn)象

    這種“幻覺”現(xiàn)象可能是無意中產(chǎn)生的,它可以由多種因素導(dǎo)致,包括訓(xùn)練數(shù)據(jù)集中存在的偏見、模型不能獲取最新的信息,或是其在理解和生成準(zhǔn)確回應(yīng)時(shí)的固有限制。為了確保我們可以安全、有效地利用基礎(chǔ)模型,特別是在新聞、醫(yī)療和法律等需要事實(shí)準(zhǔn)
    的頭像 發(fā)表于 09-22 16:57 ?626次閱讀

    幻覺降低30%!首個(gè)多模態(tài)大模型幻覺修正工作Woodpecker

    視覺幻覺是常見于多模態(tài)大語言模型 (Multimodal Large Language Models, MLLMs) 的一個(gè)典型問題,它指的是"模型輸出的描述與圖片內(nèi)容不相符"
    的頭像 發(fā)表于 10-30 11:05 ?497次閱讀
    <b class='flag-5'>幻覺</b>降低30%!首個(gè)多模態(tài)大<b class='flag-5'>模型</b><b class='flag-5'>幻覺</b>修正工作Woodpecker

    全球首款支持 8K(8192)輸入長度的開源向量模型發(fā)布

    在大模型時(shí)代,向量模型的重要性進(jìn)一步增強(qiáng)。尤其是在檢索增強(qiáng)生成(RAG)場景中,它成為了一個(gè)核心組件,用于解決大模型的上下文長度限制、幻覺
    的頭像 發(fā)表于 11-02 14:53 ?932次閱讀
    全球首款支持 8K(8192)輸入長度的開源向量<b class='flag-5'>模型</b>發(fā)布

    LLM的幻覺問題最新綜述

    幻覺被描述為無意義或不忠實(shí)于所提供源內(nèi)容的生成內(nèi)容。根據(jù)與源內(nèi)容的矛盾,這些幻覺又進(jìn)一步分為內(nèi)在幻覺和外在幻覺。在LLMs中,幻覺的范圍包含
    的頭像 發(fā)表于 11-22 17:40 ?1094次閱讀
    LLM的<b class='flag-5'>幻覺</b>問題最新綜述

    阿里云推出企業(yè)級大模型RAG系統(tǒng)

    在國際AI大數(shù)據(jù)峰會(huì)上,阿里云重磅推出了企業(yè)級大模型檢索增強(qiáng)生成(RAG)解決方案。這一解決方案旨在為企業(yè)提供更強(qiáng)大、更智能的大模型應(yīng)用工具,幫助企業(yè)更有效地利用大數(shù)據(jù)和人工智能技術(shù)。
    的頭像 發(fā)表于 02-05 09:54 ?1184次閱讀

    利用知識圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動(dòng)的RAG系統(tǒng)(下)

    對于語言模型(LLM)幻覺,知識圖譜被證明優(yōu)于向量數(shù)據(jù)庫。知識圖譜提供更準(zhǔn)確、多樣化、有趣、邏輯和一致的信息,減少了LLM中出現(xiàn)幻覺的可能性。
    的頭像 發(fā)表于 02-22 14:13 ?1210次閱讀
    利用知識圖譜與Llama-Index技術(shù)構(gòu)建大<b class='flag-5'>模型</b>驅(qū)動(dòng)的<b class='flag-5'>RAG</b>系統(tǒng)(下)

    什么是RAG,RAG學(xué)習(xí)和實(shí)踐經(jīng)驗(yàn)

    高級的RAG能很大程度優(yōu)化原始RAG的問題,在索引、檢索和生成上都有更多精細(xì)的優(yōu)化,主要的優(yōu)化點(diǎn)會(huì)集中在索引、向量模型優(yōu)化、檢索后處理等模塊進(jìn)行優(yōu)化
    的頭像 發(fā)表于 04-24 09:17 ?890次閱讀
    什么是<b class='flag-5'>RAG</b>,<b class='flag-5'>RAG</b>學(xué)習(xí)和實(shí)踐經(jīng)驗(yàn)

    阿里達(dá)摩院提出“知識鏈”框架,降低大模型幻覺

    近日,阿里巴巴達(dá)摩院(湖畔實(shí)驗(yàn)室)攜手新加坡南洋理工大學(xué)等研究機(jī)構(gòu),共同推出了大模型知識鏈(CoK)框架。該框架不僅可實(shí)時(shí)檢索異構(gòu)知識源,還能逐步糾正推理錯(cuò)誤,有效提高了大模型在回答知識型問題時(shí)的準(zhǔn)確率,并顯著降低了所謂的“幻覺
    的頭像 發(fā)表于 05-10 11:46 ?693次閱讀

    RAG的概念及工作原理

    檢索增強(qiáng)型生成(RAG)系統(tǒng)正在重塑我們處理AI驅(qū)動(dòng)信息的方式。作為架構(gòu)師,我們需要理解這些系統(tǒng)的基本原理,從而有效地發(fā)揮它們的潛力。 什么是RAG? 總體而言,RAG系統(tǒng)通過將大型語言模型
    的頭像 發(fā)表于 12-17 13:41 ?167次閱讀
    <b class='flag-5'>RAG</b>的概念及工作原理

    借助浪潮信息元腦企智EPAI高效創(chuàng)建大模型RAG

    面對大量不斷迭代的新知識,大模型必須“終身學(xué)習(xí)”才能滿足實(shí)際應(yīng)用的需求。RAG(Retrieval-augmented Generation,檢索增強(qiáng)生成)讓生成式大模型能夠利用外部的知識源來增強(qiáng)
    的頭像 發(fā)表于 12-19 14:32 ?181次閱讀
    借助浪潮信息元腦企智EPAI高效創(chuàng)建大<b class='flag-5'>模型</b><b class='flag-5'>RAG</b>