0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA文本嵌入模型NV-Embed的精度基準(zhǔn)

NVIDIA英偉達(dá) ? 來源:NVIDIA英偉達(dá) ? 2024-08-23 16:54 ? 次閱讀

NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分?jǐn)?shù)創(chuàng)下了嵌入準(zhǔn)確率的新紀(jì)錄海量文本嵌入基準(zhǔn)測(cè)試(MTEB)涵蓋 56 項(xiàng)嵌入任務(wù)。

NV-Embed 等高度準(zhǔn)確有效的模型是將大量數(shù)據(jù)轉(zhuǎn)化為可操作見解的關(guān)鍵。NVIDIA 通過 NVIDIA API 目錄提供性能一流的模型。

由 LLM 提供支持的“與您的數(shù)據(jù)對(duì)話”流程嚴(yán)重依賴 embedding model,例如 NV-Embed,它通過將英語單詞轉(zhuǎn)換為文本中信息的壓縮數(shù)學(xué)表示形式來創(chuàng)建非結(jié)構(gòu)化文本的語義表示。這種表示通常存儲(chǔ)在 vector database 中,以便日后使用。

當(dāng)用戶提出問題時(shí),系統(tǒng)會(huì)對(duì)問題的數(shù)學(xué)表征和所有基礎(chǔ)數(shù)據(jù)塊進(jìn)行比較,以檢索最有用的信息來回答用戶的問題。

請(qǐng)注意,此特定模型只能用于非商業(yè)用途。

分解基準(zhǔn)

在討論模型的準(zhǔn)確率數(shù)字之前,討論基準(zhǔn)測(cè)試很重要。本節(jié)簡要介紹有關(guān)理解基準(zhǔn)測(cè)試的詳細(xì)信息。我們的深入探討評(píng)估適用于企業(yè)級(jí) RAG 的 Retriever 是獲取更多信息的絕佳資源。

了解嵌入模型的指標(biāo)

從我們將討論的基準(zhǔn)測(cè)試指標(biāo)開始,主要有兩個(gè)注意事項(xiàng):

Normalized Discounted Cumulative Gain(NDCG)是一個(gè)排名感知指標(biāo),用于衡量檢索到的信息的相關(guān)性和順序。簡言之,如果我們有 1,000 個(gè) chunks 并檢索 10 (NDCG@10),那么當(dāng)最相關(guān)的 chunk 排名第一、第二相關(guān)的 chunk 排名第二,以此類推,直到第十個(gè)最相關(guān)的 chunk 位于第 10 位時(shí),才會(huì)給出理想的分?jǐn)?shù)。

Recall是一個(gè)與排名無關(guān)的指標(biāo),用于測(cè)量檢索到的相關(guān)結(jié)果的百分比。在這種情況下,如果我們有 1,000 個(gè)數(shù)據(jù)塊并檢索 10 個(gè)數(shù)據(jù)塊(Recall@10),則如果選擇了前 10 個(gè)最相關(guān)的數(shù)據(jù)塊,則無論這些數(shù)據(jù)塊的排名順序如何,都將獲得完美分?jǐn)?shù)。

大多數(shù)基準(zhǔn)測(cè)試都報(bào)告 NDCG@10,但由于大多數(shù)企業(yè)級(jí)檢索增強(qiáng)生成(RAG)流程,我們建議使用 Recall@5。

什么是 MTEB 和 Beir?

檢索流程的核心功能是將問題的語義表示與各種數(shù)據(jù)點(diǎn)進(jìn)行比較。這自然會(huì)引導(dǎo)開發(fā)者提出幾個(gè)后續(xù)問題:

相同的表示是否可以用于不同的任務(wù)?

如果我們縮小一項(xiàng)任務(wù)的范圍,該模型是否擅長表示不同類型的問題或理解不同領(lǐng)域?

為了回答這些問題,我們研究了有關(guān)檢索的文獻(xiàn)中最常見的兩個(gè)基準(zhǔn)測(cè)試。

MTEB:此基準(zhǔn)測(cè)試涵蓋 56 項(xiàng)不同的任務(wù),包括檢索、分類、重新排名、聚類、總結(jié)等。根據(jù)您的目標(biāo),您可以查看代表您用例的精確任務(wù)子集。

BEIR:該基準(zhǔn)測(cè)試專注于檢索任務(wù),并以不同類型和領(lǐng)域的問題(例如 fact-checking、biomedical questions 或檢測(cè)重復(fù)性問題)的形式增加了復(fù)雜性。MTEB 在很大程度上是 BEIR 基準(zhǔn)測(cè)試的超集,因此我們?cè)诖蠖鄶?shù)討論中將專注于 MTEB。

NV-Embed 模型精度基準(zhǔn)

現(xiàn)在我們已經(jīng)討論了基礎(chǔ)基準(zhǔn)測(cè)試和指標(biāo),我們來看看新模型 NV-Embed 的執(zhí)行情況。

wKgZombITkiAawvbAADbHOD8Z6Y785.png

圖 1. MTEB 基準(zhǔn)測(cè)試中排名前 5 的模型

平均而言,NV-Embed 模型在 56 個(gè)任務(wù)中的跟蹤準(zhǔn)確度最佳,NDCG@10 分為 69.32(參見圖 1)。

雖然 NV-Embed 涵蓋了大多數(shù)模型架構(gòu)和訓(xùn)練細(xì)節(jié),準(zhǔn)確率達(dá)到 69.32,以下總結(jié)了主要改進(jìn)。

新的 latent attention layer。我們引入了 latent attention layer,該層能夠簡化模型將一系列詞(tokens sequence)的數(shù)學(xué)表示(embeddings)的過程。通常情況下,對(duì)于基于 BERT 的模型,這是通過求平均值來完成的,對(duì)于僅解碼器的模型,則是通過關(guān)注 End-of-Sequence-Token()來完成的。

兩階段學(xué)習(xí)過程。在第一階段,使用 in-batch 負(fù)例對(duì)和 hard 負(fù)例對(duì)進(jìn)行 contrastive 學(xué)習(xí)。簡而言之,使用證據(jù)對(duì)和問題對(duì)。證據(jù)似乎回答了這些對(duì)中的問題,但如果您仔細(xì)觀察,您會(huì)發(fā)現(xiàn)缺少基本信息。在第二階段,來自非檢索任務(wù)的數(shù)據(jù)混合在一起以進(jìn)行 contrastive 學(xué)習(xí),并且禁用 in-batch 負(fù)例訓(xùn)練。

現(xiàn)在自然而然的問題是,“這對(duì)我的企業(yè)檢索工作負(fù)載的轉(zhuǎn)換效果有多好?!?/p>

答案是,它取決于數(shù)據(jù)的性質(zhì)和領(lǐng)域。對(duì)于每個(gè)基準(zhǔn)測(cè)試,您必須評(píng)估單個(gè)數(shù)據(jù)集的相關(guān)性一般檢索用例。

我們的關(guān)鍵要點(diǎn)是,雖然 19 個(gè)數(shù)據(jù)集構(gòu)成了 BEIR 基準(zhǔn)測(cè)試,但數(shù)據(jù)集 Quora 其中包含超出常規(guī)檢索任務(wù)的問題。因此,我們建議查看更能代表工作負(fù)載的數(shù)據(jù)集子集,例如 Natural Questions 和 HotPotQA 數(shù)據(jù)集。有關(guān)上下文,請(qǐng)參閱以下代碼段。

Quora 示例數(shù)據(jù)集的數(shù)據(jù)對(duì)專注于檢索 Quora 上提出的其他類似問題。

Input:Which question should I ask on Quora?
Target:What are good questions to ask on Quora?

HotpotQA 示例問題通道對(duì)

Input-Question:Were Scott Derrickson and Ed Wood of the same nationality?

Target-Chunk:Scott Derrickson (born July 16, 1966) is an American director, screenwriter and producer. He lives in Los Angeles, California. He is best known for directing horror films such as “Sinister”, “The Exorcism of Emily Rose”, and “Deliver Us From Evil”, as well as the 2016 Marvel Cinematic Universe installment, “Doctor Strange.”

NQ 示例常規(guī)問題通道對(duì)

Input-Question: What is non-controlling interest on the balance sheet?


Target-Chunk:In accounting, minority interest (or non-controlling interest) is the portion of a subsidiary corporation’s stock that is not owned by the parent corporation. The magnitude of the minority interest in the subsidiary company is generally less than 50% of outstanding shares, or the corporation would generally cease to be a subsidiary of the parent.[1]

wKgZombITlmAJH_MAABzKAkWlTs997.png

圖 2. HotPotQA 和 NQ 上來自 MTEB 的前三個(gè)嵌入模型,它們很好地代表了通用檢索用例

在圖 2 中,NV-Embed 模型最適合用于表示這些用例的數(shù)據(jù)集。我們鼓勵(lì)您對(duì)自己的數(shù)據(jù)重復(fù)此評(píng)估。如果您沒有要測(cè)試的干凈數(shù)據(jù),我們建議找到表示您用例的子集。

立即開始原型設(shè)計(jì)

通過 API 目錄體驗(yàn) NV-Embed 模型。

此外,使用 NVIDIA NeMo Retriever 微服務(wù)集合,該集合旨在使組織能夠?qū)⒆远x模型無縫連接到各種業(yè)務(wù)數(shù)據(jù),并提供高度準(zhǔn)確的響應(yīng)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4985

    瀏覽量

    103032
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1499

    瀏覽量

    61991
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3241

    瀏覽量

    48832

原文標(biāo)題:NVIDIA 文本嵌入模型位列 MTEB 排行榜榜首

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    是否有來自NVIDIA基準(zhǔn)測(cè)試

    是否會(huì)有來自NVIDIA基準(zhǔn)測(cè)試,以檢查我是否完全正確實(shí)現(xiàn)了這些卡,以及我的調(diào)整是否正確?以上來自于谷歌翻譯以下為原文Will there be Benchmarks from NVIDIA
    發(fā)表于 09-29 14:28

    NVIDIA 在首個(gè)AI推理基準(zhǔn)測(cè)試中大放異彩

    Turing GPU、Xavier芯片系統(tǒng)在MLPerf基準(zhǔn)測(cè)試中展現(xiàn)了巨大優(yōu)勢(shì) 加利福尼亞州圣克拉拉市 —— 2019年11月6日 ——相信很多關(guān)注AI的人都知道,NVIDIA GPU曾于去年12
    發(fā)表于 11-08 19:44

    NVIDIA Jetson的相關(guān)資料分享

    Jetson概述爆炸式增長的AI模型的復(fù)雜性專為自主機(jī)器開發(fā)人員設(shè)計(jì)的AI計(jì)算板加快AI處理的SDK“JetPack”概述NVIDIA Jetson是NVIDIA公司嵌入式單板計(jì)算機(jī)的
    發(fā)表于 11-09 08:26

    在Ubuntu上使用Nvidia GPU訓(xùn)練模型

    問題最近在Ubuntu上使用Nvidia GPU訓(xùn)練模型的時(shí)候,沒有問題,過一會(huì)再訓(xùn)練出現(xiàn)非??D,使用nvidia-smi查看發(fā)現(xiàn),顯示GPU的風(fēng)扇和電源報(bào)錯(cuò):解決方案自動(dòng)風(fēng)扇控制在nvid
    發(fā)表于 01-03 08:24

    基于微博文本的詞對(duì)主題演化模型

    針對(duì)傳統(tǒng)主題模型忽略了微博短文本文本動(dòng)態(tài)演化的問題,提出了基于微博文本的詞對(duì)主題演化( BToT)模型,并根據(jù)所提
    發(fā)表于 12-03 11:31 ?14次下載
    基于微博<b class='flag-5'>文本</b>的詞對(duì)主題演化<b class='flag-5'>模型</b>

    如何使用TensorFlow Hub文本模塊構(gòu)建一個(gè)模型,以根據(jù)相關(guān)描述預(yù)測(cè)電影類型

    您所選擇的預(yù)訓(xùn)練文本嵌入是您模型中的一個(gè)超參數(shù),所以最好用不同的文本嵌入進(jìn)行試驗(yàn),看看哪個(gè)的準(zhǔn)確性最高。先從用與您的
    的頭像 發(fā)表于 09-07 17:13 ?3205次閱讀
    如何使用TensorFlow Hub<b class='flag-5'>文本</b>模塊構(gòu)建一個(gè)<b class='flag-5'>模型</b>,以根據(jù)相關(guān)描述預(yù)測(cè)電影類型

    基于詞嵌入與神經(jīng)網(wǎng)絡(luò)的文本匹配模型

    為增強(qiáng)文本匹配模型文本語義捕捉能力并提高語義匹配準(zhǔn)確度,提出一種基于詞嵌人與依存關(guān)系的文本匹配模型。構(gòu)建融合詞語義和詞間依存關(guān)系的語義表示
    發(fā)表于 06-09 16:28 ?14次下載

    基于LSTM的表示學(xué)習(xí)-文本分類模型

    分類的關(guān)鍵。為了獲得妤的文本表示,提高文本分類性能,構(gòu)建了基于LSTM的表示學(xué)習(xí)-文本分類模型,其中表示學(xué)習(xí)模型利用語言
    發(fā)表于 06-15 16:17 ?18次下載

    文本挖掘之概率主題模型綜述

    文本挖掘之概率主題模型綜述
    發(fā)表于 06-24 14:16 ?16次下載

    NVIDIA Jetson Orin Nano的性能基準(zhǔn)

    在本次 GTC 大會(huì)上,NVIDIA 發(fā)布了Jetson Orin Nano系列的系統(tǒng)級(jí)模組(SoM)。其 AI 性能是 NVIDIA Jetson Nano 的 80 倍,成為入門級(jí)邊緣 AI 和機(jī)器人技術(shù)的新基準(zhǔn)。
    的頭像 發(fā)表于 10-12 09:55 ?2912次閱讀

    GTC 2023主題直播:NVIDIA Nemo構(gòu)建定制的語言文本轉(zhuǎn)文本

    NVIDIA Nemo用于構(gòu)建定制的語言文本轉(zhuǎn)文本,客戶可以引入自己的模型,或從Nemo涵蓋了GPT-8、GPT-43到GPT-530等數(shù)十億參數(shù)的從創(chuàng)建專有
    的頭像 發(fā)表于 03-22 11:22 ?767次閱讀
    GTC 2023主題直播:<b class='flag-5'>NVIDIA</b> Nemo構(gòu)建定制的語言<b class='flag-5'>文本</b>轉(zhuǎn)<b class='flag-5'>文本</b>

    GTC23 | 使用 NVIDIA TAO Toolkit 5.0 體驗(yàn)最新的視覺 AI 模型開發(fā)工作流程

    ,通過適應(yīng)和優(yōu)化,在短時(shí)間內(nèi)達(dá)到最先進(jìn)的精度和生產(chǎn)級(jí)吞吐量。 在 NVIDIA GTC23 上,NVIDIA 發(fā)布了 NVIDIA TAO 套件 5.0 ,帶來了 AI
    的頭像 發(fā)表于 03-29 03:40 ?1034次閱讀

    NVIDIA AI 技術(shù)助力 vivo 文本預(yù)訓(xùn)練大模型性能提升

    vivo AI 團(tuán)隊(duì)與 NVIDIA 團(tuán)隊(duì)合作,通過算子優(yōu)化,提升 vivo 文本預(yù)訓(xùn)練大模型的訓(xùn)練速度。在實(shí)際應(yīng)用中, 訓(xùn)練提速 60% ,滿足了下游業(yè)務(wù)應(yīng)用對(duì)模型訓(xùn)練速度的要求。通
    的頭像 發(fā)表于 05-26 07:15 ?640次閱讀
    <b class='flag-5'>NVIDIA</b> AI 技術(shù)助力 vivo <b class='flag-5'>文本</b>預(yù)訓(xùn)練大<b class='flag-5'>模型</b>性能提升

    基于文本到圖像模型的可控文本到視頻生成

    1. 論文信息 2. 引言 ? 大規(guī)模擴(kuò)散模型文本到圖像合成方面取得了巨大的突破,并在創(chuàng)意應(yīng)用方面取得了成功。一些工作試圖在視頻領(lǐng)域復(fù)制這個(gè)成功,即在野外世界建模高維復(fù)雜視頻分布。然而,訓(xùn)練這樣
    的頭像 發(fā)表于 06-14 10:39 ?961次閱讀
    基于<b class='flag-5'>文本</b>到圖像<b class='flag-5'>模型</b>的可控<b class='flag-5'>文本</b>到視頻生成

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了一個(gè)全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?351次閱讀