0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

與ChatGPT性能最相匹配的開源模型

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-04-06 10:16 ? 次閱讀

前言

最近由UC Berkeley、CMU、Stanford, 和 UC San Diego的研究人員創(chuàng)建的 Vicuna-13B,通過在 ShareGPT 收集的用戶共享對話數(shù)據(jù)中微調(diào) LLaMA獲得。其中使用 GPT-4 進行評估,發(fā)現(xiàn)Vicuna-13B 的性能達到了ChatGPT 和 Bard 的 90% 以上,同時在 90% 情況下都優(yōu)于 LLaMA 和 Alpaca 等其他模型。訓練 Vicuna-13B 的費用約為 300 美元。訓練和代碼[1]以及在線演示[2]已公開。

Vicuna到底怎么樣?

Vicuna在官網(wǎng)中通過和Alpaca、LLaMA、ChatGPT和Bard對比,然后通過GPT4當裁判來打出分數(shù),具體如下。

13c714ec-d401-11ed-bfe3-dac502259ad0.png

問題

13de1fde-d401-11ed-bfe3-dac502259ad0.png

Alpaca-13b vs Vicuna

140b2c9a-d401-11ed-bfe3-dac502259ad0.png

LLaMA-13b vs Vicuna

1430ff2e-d401-11ed-bfe3-dac502259ad0.png

ChatGPT vs Vicuna

1454ff3c-d401-11ed-bfe3-dac502259ad0.png

Bard vs Vicuna

可以看出,Vicuna的回答還是非常棒的,讓GPT4來打分,Vicuna和ChatGPT是十分接近的,遠遠高于Alpaca和LLaMA。

如果大家想試試別的問題,可以自己去嘗試[3]哈。

1476f48e-d401-11ed-bfe3-dac502259ad0.png

可換不同類型的不同問題

然而,官方認為評估聊天機器人絕非易事,聽過GPT4進行評估是一件十分不嚴格的事情,但是目前還是無法解決評估的問題,需要后續(xù)學者進行進一步探索。

148f1b54-d401-11ed-bfe3-dac502259ad0.png

圖1 GPT-4 評估

在線demo

14a82ec8-d401-11ed-bfe3-dac502259ad0.png

概述

14cef7ec-d401-11ed-bfe3-dac502259ad0.png

圖2 工作流

圖 2 介紹了整體工作流程。訓練是在一天時間在 8 個 A100 上使用 PyTorch FSDP 完成的。 LLaMA、Alpaca、ChatGPT 和 Vicuna 的詳細比較如表 1 所示。

14f36212-d401-11ed-bfe3-dac502259ad0.png

表1 一些模型的對比

訓練

Vicuna 是通過使用從 ShareGPT.com 使用公共 API 收集的大約 7萬 用戶共享對話微調(diào) LLaMA 基礎模型創(chuàng)建的。為了確保數(shù)據(jù)質(zhì)量,將 HTML 轉換回 markdown 并過濾掉一些不合適或低質(zhì)量的樣本。此外,將冗長的對話分成更小的部分,以適應模型的最大上下文長度。

訓練方法建立在斯坦福alpaca的基礎上,并進行了以下改進。

內(nèi)存優(yōu)化:為了使 Vicuna 能夠理解長上下文,將最大上下文長度從alpaca 中的 512 擴展到 2048。還通過gradient checkpointingflash attentio來解決內(nèi)存壓力。

多輪對話調(diào)整訓練損失考慮多輪對話,并僅根據(jù)聊天機器人的輸出進行微調(diào)。

通過 Spot 實例降低成本:使用 SkyPilot 托管點來降低成本。該解決方案將 7B 模型的訓練成本從 500 美元削減至 140 美元左右,將 13B 模型的訓練成本從 1000 美元左右削減至 300 美元。

150d9588-d401-11ed-bfe3-dac502259ad0.png

圖3 通過GPT4來評估打分

153299aa-d401-11ed-bfe3-dac502259ad0.png

通過GPT4評估得出的總分






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    211

    文章

    28560

    瀏覽量

    207697
  • CMU
    CMU
    +關注

    關注

    0

    文章

    21

    瀏覽量

    15266
  • GPT
    GPT
    +關注

    關注

    0

    文章

    354

    瀏覽量

    15446
  • ChatGPT
    +關注

    關注

    29

    文章

    1564

    瀏覽量

    7863

原文標題:Vicuna:與ChatGPT 性能最相匹配的開源模型

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙

    閱讀之旅。在翻開這本書之前,我對大模型的認知僅僅停留在它是一種強大的人工智能技術,可以進行自然語言處理、圖像識別等任務。我知道像 ChatGPT 這樣的應用是基于大模型開發(fā)的,能夠與人類進行較為流暢
    發(fā)表于 12-24 13:10

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些模型通常經(jīng)過訓練,能夠執(zhí)行特定的任務。以下,是對
    的頭像 發(fā)表于 12-14 10:33 ?223次閱讀

    開源與閉源之爭:最新的開源模型到底還落后多少?

    一,引言 隨著人工智能(AI)技術的迅猛發(fā)展,大模型已經(jīng)成為推動科技進步的重要力量。然而,超大規(guī)模模型在帶來高性能的同時,也面臨著資源消耗大、部署困難等問題。本文將探討AI大模型未來的
    的頭像 發(fā)表于 11-15 11:16 ?247次閱讀
    <b class='flag-5'>開源</b>與閉源之爭:最新的<b class='flag-5'>開源</b><b class='flag-5'>模型</b>到底還落后多少?

    ChatGPT:怎樣打造智能客服體驗的重要工具?

    用戶反饋和評估ChatGPT性能。根據(jù)用戶的需求和反饋,不斷優(yōu)化模型和改進客服體驗。7.人工智能與人工混合:將ChatGPT與人工客服團隊結合使用,形成人工智能與人工混合的客服模式。
    的頭像 發(fā)表于 11-01 11:12 ?197次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗的重要工具?

    如何提升 ChatGPT 的響應速度

    同時進行,從而減少總體響應時間。 模型壓縮 :通過模型壓縮技術,如量化、剪枝等,可以減少模型的大小,從而加快模型的加載和推理速度。 知識蒸餾 :將大型
    的頭像 發(fā)表于 10-25 17:39 ?747次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個基于ChatGPT的聊天系統(tǒng)是一個涉及多個步驟的過程,包括理解ChatGPT的API、設計用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個簡化的指南,用于創(chuàng)建一個基本的聊
    的頭像 發(fā)表于 10-25 16:23 ?553次閱讀

    如何使用 ChatGPT 進行內(nèi)容創(chuàng)作

    ChatGPT平臺。 選擇模型ChatGPT目前支持GPT3.5和GPT4兩個模型。根據(jù)創(chuàng)作需求,選擇合適的模型。一般來說,GPT4
    的頭像 發(fā)表于 10-25 16:08 ?494次閱讀

    澎峰科技高性能模型推理引擎PerfXLM解析

    ChatGPT問世以來,大模型遍地開花,承載大模型應用的高性能推理框架也不斷推出,大有百家爭鳴之勢。在這種情況下,澎峰科技作為全球領先的智能計算服務提供商,在2023年11月25日發(fā)
    的頭像 發(fā)表于 09-29 10:14 ?517次閱讀
    澎峰科技高<b class='flag-5'>性能</b>大<b class='flag-5'>模型</b>推理引擎PerfXLM解析

    模型LLM與ChatGPT的技術原理

    在人工智能領域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?937次閱讀

    llm模型chatGPT的區(qū)別

    ,有許多不同的LLM模型,如BERT、GPT、T5等。 ChatGPT是一種基于GPT(Generative Pre-trained Transformer)模型的聊天機器人。GPT模型
    的頭像 發(fā)表于 07-09 09:55 ?1206次閱讀

    名單公布!【書籍評測活動NO.34】大語言模型應用指南:以ChatGPT為起點,從入門到精通的AI實踐教程

    ,包括開源和閉源兩類。閉源模型的代表有OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列。毫無疑問,目前 OpenAI 的 GPT 系列模型在整個行業(yè)中處于領先地位,其
    發(fā)表于 06-03 11:39

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當?shù)貢r間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強大基礎上,這種迭代擁有顯著的改進。在發(fā)布會的演示中,OpenAI展示該模型的高級
    發(fā)表于 05-27 15:43

    在FPGA設計中是否可以應用ChatGPT生成想要的程序呢

    當下AI人工智能崛起,很多開發(fā)領域都可看到ChatGPT的身影,F(xiàn)PGA設計中,是否也可以用ChatGPT輔助設計呢?
    發(fā)表于 03-28 23:41

    谷歌發(fā)布輕量級開源人工智能模型Gemma

    谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發(fā)人員和研究人員提供一個負責任的AI構建平臺。這一舉措標志著自2022年OpenAI的ChatGPT引領AI聊天機器人熱潮后,谷歌首次發(fā)布重要的
    的頭像 發(fā)表于 02-23 11:38 ?907次閱讀

    【國產(chǎn)FPGA+OMAPL138開發(fā)板體驗】(原創(chuàng))6.FPGA連接ChatGPT 4

    方面。而且,由于ChatGPT 4是一個大型的語言模型。通常,F(xiàn)PGA會用于處理一些底層的數(shù)據(jù)流或執(zhí)行特定的硬件加速任務,而ChatGPT 4這樣的模型則會在云端或高
    發(fā)表于 02-14 21:58