0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ToolLLM:促進(jìn)大型語言模型掌握16000+真實世界的APIs

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-08-02 16:27 ? 次閱讀

為了促進(jìn)開源LLMs的工具使用能力,作者引入了 ToolLLM,這是一個數(shù)據(jù)構(gòu)建、模型訓(xùn)練和評估的通用工具使用框架。

4885e696-3076-11ee-9e74-dac502259ad0.png

論文:ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs
地址:https://arxiv.org/abs/2307.16789
項目:https://github.com/OpenBMB/ToolBench
單位:清華、人大、耶魯、微信、騰訊、知乎

盡管開源大語言模型 (LLM) 及其變體(例如 LLaMA 和 Vicuna)取得了進(jìn)步,但它們在執(zhí)行更高級別的任務(wù)方面仍然受到很大限制,例如遵循人類指令使用外部工具 (API)。

這是因為當(dāng)前的指令調(diào)優(yōu)主要集中在基本語言任務(wù)而不是工具使用領(lǐng)域。

這與最先進(jìn) (SOTA) 的LLMs(例如 ChatGPT)形成鮮明對比,后者展示了出色的工具使用能力,但不幸的是閉源的。

48b7033e-3076-11ee-9e74-dac502259ad0.png

為了促進(jìn)開源LLMs的工具使用能力,我們引入了 ToolLLM,這是一個數(shù)據(jù)構(gòu)建、模型訓(xùn)練和評估的通用工具使用框架。

我們首先介紹 ToolBench,這是一個供工具使用的指令調(diào)整數(shù)據(jù)集,它是使用 ChatGPT 自動創(chuàng)建的。

具體來說,我們從 RapidAPI Hub 收集了 16,464 個真實世界的 RESTful API,涵蓋 49 個類別,然后提示 ChatGPT 生成涉及這些 API 的各種人工指令,涵蓋單工具和多工具場景。

48de00c4-3076-11ee-9e74-dac502259ad0.png

最后,我們使用 ChatGPT 為每條指令搜索有效的解決方案路徑(API 調(diào)用鏈)。

為了使搜索過程更加高效,我們開發(fā)了一種新穎的基于深度優(yōu)先搜索的決策樹(DFSDT),使LLMs能夠評估多個推理軌跡并擴展搜索空間。我們證明 DFSDT 顯著增強了LLMs的規(guī)劃和推理能力。

4942a056-3076-11ee-9e74-dac502259ad0.png

為了有效評估工具使用情況,我們開發(fā)了一個自動評估器:ToolEval。

4969e40e-3076-11ee-9e74-dac502259ad0.png49874cce-3076-11ee-9e74-dac502259ad0.png

我們在ToolBench上微調(diào)LLaMA并獲得ToolLLaMA。

49a2fed8-3076-11ee-9e74-dac502259ad0.png

我們的 ToolEval 表明 ToolLLaMA 表現(xiàn)出執(zhí)行復(fù)雜指令和泛化到未見過的 API 的卓越能力,并且表現(xiàn)出與 ChatGPT 相當(dāng)?shù)男阅堋?/p> 49cd61f0-3076-11ee-9e74-dac502259ad0.png

為了使管道更加實用,我們設(shè)計了一個神經(jīng) API 檢索器來為每條指令推薦合適的 API,從而無需手動選擇 API。

49f19782-3076-11ee-9e74-dac502259ad0.png



聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7133

    瀏覽量

    89369
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3396

    瀏覽量

    42638
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    536

    瀏覽量

    10311

原文標(biāo)題:劉知遠(yuǎn)等眾多機構(gòu)提出ToolLLM:促進(jìn)大型語言模型掌握16000+真實世界的APIs

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    大型語言模型在關(guān)鍵任務(wù)和實際應(yīng)用中的挑戰(zhàn)

    大型語言模型的出現(xiàn)極大地推動了自然語言處理領(lǐng)域的進(jìn)步,但同時也存在一些局限性,比如模型可能會產(chǎn)生看似合理但實際上是錯誤或虛假的內(nèi)容,這一現(xiàn)象
    的頭像 發(fā)表于 08-15 09:33 ?1562次閱讀
    <b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>在關(guān)鍵任務(wù)和實際應(yīng)用中的挑戰(zhàn)

    探索高效的大型語言模型!大型語言模型的高效學(xué)習(xí)方法

    大型語言模型(LLMs)的應(yīng)用中,提示工程(Prompt Engineering)是一種關(guān)鍵技術(shù),用于引導(dǎo)模型生成特定輸出或執(zhí)行特定任務(wù)。通過精心設(shè)計的提示,可以顯著提高LLMs的性
    發(fā)表于 12-13 14:21 ?635次閱讀
    探索高效的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>!<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>的高效學(xué)習(xí)方法

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    。 大語言模型的縮放定律對于深度學(xué)習(xí)研究和應(yīng)用具有重要意義。它提供了更強大的泛化能力和適應(yīng)性,使得模型能夠更好地處理現(xiàn)實世界中的復(fù)雜任務(wù)和不確定性問題。同時,縮放定律也
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    之后,成為文本建模領(lǐng)域的熱門架構(gòu)。不僅如此,它還對自然語言處理領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響。基于Transformer的預(yù)訓(xùn)練模型,如GPT系列和BERT系列,已在多種任務(wù)上取得了卓越的成績。目前的大型
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    和微調(diào)的積累,無需額外知識。然而,大模型掌握世界知識具有時效性,對于訓(xùn)練后發(fā)生的事件或訓(xùn)練集中未涵蓋的知識,大語言模型往往無法應(yīng)對。當(dāng)面
    發(fā)表于 05-07 17:21

    KT利用NVIDIA AI平臺訓(xùn)練大型語言模型

    韓國先進(jìn)的移動運營商構(gòu)建包含數(shù)百億個參數(shù)的大型語言模型,并使用 NVIDIA DGX SuperPOD 平臺和 NeMo Megatron 框架訓(xùn)練該模型
    的頭像 發(fā)表于 09-27 09:24 ?1238次閱讀

    NVIDIA AI平臺為大型語言模型帶來巨大收益

    隨著大型語言模型( LLM )的規(guī)模和復(fù)雜性不斷增長, NVIDIA 今天宣布更新 NeMo Megatron 框架,提供高達(dá) 30% 的訓(xùn)練速度。
    的頭像 發(fā)表于 10-10 15:39 ?921次閱讀
    NVIDIA AI平臺為<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>帶來巨大收益

    大型語言模型有哪些用途?

    大型語言模型能識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。 AI 應(yīng)用在大型語言模型的幫助下,可
    的頭像 發(fā)表于 02-23 19:50 ?5250次閱讀

    大型語言模型有哪些用途?大型語言模型如何運作呢?

    大型語言模型能識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。
    的頭像 發(fā)表于 03-08 13:57 ?8096次閱讀

    淺析AI大型語言模型研究的發(fā)展歷程

    大型語言模型研究的發(fā)展有三條技術(shù)路線:Bert 模式、GPT 模式、混合模式。其中國內(nèi)大多采用混合模式, 多數(shù)主流大型語言
    發(fā)表于 06-09 12:34 ?5321次閱讀
    淺析AI<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>研究的發(fā)展歷程

    基于Transformer的大型語言模型(LLM)的內(nèi)部機制

    本文旨在更好地理解基于 Transformer 的大型語言模型(LLM)的內(nèi)部機制,以提高它們的可靠性和可解釋性。 隨著大型語言
    的頭像 發(fā)表于 06-25 15:08 ?1524次閱讀
    基于Transformer的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>(LLM)的內(nèi)部機制

    大型語言模型的應(yīng)用

    ?? 大型語言模型(LLM) 是一種深度學(xué)習(xí)算法,可以通過大規(guī)模數(shù)據(jù)集訓(xùn)練來學(xué)習(xí)識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。大語言模型(LL
    的頭像 發(fā)表于 07-05 10:27 ?2143次閱讀

    大規(guī)模語言模型的基本概念、發(fā)展歷程和構(gòu)建流程

    使用自然語言與系統(tǒng)交互,從而實現(xiàn)包括問答、分類、摘要、翻譯、聊天等從理解到生成的各種任務(wù)。大型語言模型展現(xiàn)出了強大的對世界知識
    的頭像 發(fā)表于 12-07 11:40 ?4461次閱讀
    大規(guī)模<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的基本概念、發(fā)展歷程和構(gòu)建流程

    如何利用大型語言模型驅(qū)動的搜索為公司創(chuàng)造價值

    大型語言模型LLMs具有自動化內(nèi)容創(chuàng)建、提高內(nèi)容質(zhì)量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過利用LLMs,企業(yè)能提升工作效率,降低運營成本,并獲得深入洞察。來自EgeGürdeniz
    的頭像 發(fā)表于 10-13 08:07 ?204次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅(qū)動的搜索為公司創(chuàng)造價值

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?165次閱讀