關(guān)于 LLaMA 2 的全部資源,如何去測(cè)試、訓(xùn)練并部署它。
LLaMA 2 是一個(gè)由 Meta 開(kāi)發(fā)的大型語(yǔ)言模型,是 LLaMA 1 的繼任者。LLaMA 2 可通過(guò) AWS、Hugging Face 等提供商獲取,并免費(fèi)用于研究和商業(yè)用途。LLaMA 2 預(yù)訓(xùn)練模型在 2 萬(wàn)億個(gè)標(biāo)記上進(jìn)行訓(xùn)練,相比 LLaMA 1 的上下文長(zhǎng)度增加了一倍。它的微調(diào)模型則在超過(guò) 100 萬(wàn)個(gè)人工標(biāo)注數(shù)據(jù)下完成。
這篇博客包含了所有的相關(guān)資源,以幫助您快速入門(mén)。包括以下跳轉(zhuǎn):
LLaMA 2 是什么?
在 LLaMA 游樂(lè)場(chǎng)試玩
模型背后的研究工作
模型的性能有多好,基準(zhǔn)測(cè)試
如何正確地去提示聊天模型
如何使用 PEFT 訓(xùn)練模型
如何部署模型進(jìn)行推理
和其他資源
來(lái)自 Meta 官方的公告可以在這里找到: https://ai.meta.com/llama/
LLaMA 2 是什么?
Meta 發(fā)布的 LLaMA 2,是新的 sota 開(kāi)源大型語(yǔ)言模型 (LLM)。LLaMA 2 代表著 LLaMA 的下一代版本,并且具有商業(yè)許可證。LLaMA 2 有 3 種不同的大小——7B、13B 和 70B 個(gè)可訓(xùn)練參數(shù)。與原版 LLaMA 相比,新的改進(jìn)包括:
在 2 萬(wàn)億個(gè)標(biāo)記的文本數(shù)據(jù)上進(jìn)行訓(xùn)練
允許商業(yè)使用
默認(rèn)使用 4096 個(gè)前后文本視野 (可以被擴(kuò)展)
70B 模型采用了分組查詢注意力 (GQA)
可由此獲取 Hugging Face Hub
在 LLaMA 游樂(lè)場(chǎng)試玩
有幾個(gè)不同的游樂(lè)場(chǎng)供與 LLaMA 2 來(lái)測(cè)試聊天:
HuggingChat 允許你通過(guò) Hugging Face 的對(duì)話界面與 LLaMA 2 70B 模型聊天。這提供了一個(gè)簡(jiǎn)潔的方法來(lái)了解聊天機(jī)器人的工作原理。
Hugging Face Spaces 有三種大小的 LLaMA 2 模型 7B、13B 和 70B 可供測(cè)試。交互式演示可以讓您比較不同的大小模型的區(qū)別。
Perplexity 他們的對(duì)話 AI 演示提供 7B 和 13B 的 LLaMA 2 模型。你可以與模型聊天并且反饋模型響應(yīng)的不足。
LLaMA 2 背后的研究工作
LLaMA 2 是一個(gè)基礎(chǔ)大語(yǔ)言模型,它由網(wǎng)絡(luò)上公開(kāi)可獲取到的數(shù)據(jù)訓(xùn)練完成。另外 Meta 同時(shí)發(fā)布了它的 CHAT 版本。CHAT 模型的第一個(gè)版本是 SFT (有監(jiān)督調(diào)優(yōu)) 模型。在這之后,LLaMA-2-chat 逐步地經(jīng)過(guò)人類(lèi)反饋強(qiáng)化學(xué)習(xí) (RLHF) 來(lái)進(jìn)化。RLHF 的過(guò)程使用了拒絕采樣與近端策略優(yōu)化 (PPO) 的技術(shù)來(lái)進(jìn)一步調(diào)優(yōu)聊天機(jī)器人。Meta 目前僅公布了模型最新的 RLHF(v5) 版本。若你對(duì)此過(guò)程背后的過(guò)程感興趣則請(qǐng)查看:
Llama 2: 開(kāi)源并已微調(diào)的聊天模型
Llama 2: 一個(gè)超贊的開(kāi)源大語(yǔ)言模型
Llama 2: 全面拆解
LLaMA 2 的性能有多好,基準(zhǔn)測(cè)試?
Meta 聲稱(chēng) “Llama 2 在眾多外部基準(zhǔn)測(cè)試中都優(yōu)于其他開(kāi)源的語(yǔ)言模型,包括推理、編程、熟練程度與知識(shí)測(cè)驗(yàn)” 關(guān)于其性能你可以在這里找到更多信息:
Hugging Face 開(kāi)源大語(yǔ)言模型排行榜
Meta 官方公告
如何提示 LLaMA 2 Chat
LLaMA 2 Chat 是一個(gè)開(kāi)源對(duì)話模型。想要與 LLaMA 2 Chat 進(jìn)行高效地交互則需要你提供合適的提示詞、問(wèn)題來(lái)得到合乎邏輯且有幫助的回復(fù)。Meta 并沒(méi)有選擇最簡(jiǎn)單的提示詞結(jié)構(gòu)。以下是單輪、多輪對(duì)話的提示詞模板。這個(gè)模板遵循模型的訓(xùn)練過(guò)程,在此詳細(xì)描述 LLaMA 2 論文. 你也可以看一看 LLaMA 2 提示詞模板.
單輪對(duì)話
[INST]<> {{system_prompt}} < > {{user_message}}[/INST]
多輪對(duì)話
[INST]<> {{system_prompt}} < > {{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]
如何訓(xùn)練 LLaMA 2
因 LLaMA 2 為開(kāi)源模型,使得可以輕易的通過(guò)微調(diào)技術(shù),比如 PEFT,來(lái)訓(xùn)練它。這是一些非日適合于訓(xùn)練你自己版本 LLaMA 2 的學(xué)習(xí)資源:
擴(kuò)展指引: 指令微調(diào) Llama 2
在 Amazon SageMaker 上微調(diào) LLaMA 2 (7-70B)
使用 PEFT 技術(shù)微調(diào)
Meta 提供的 Llama 模型示例以及方案
在本地機(jī)器上微調(diào) LLAMA-v2 最簡(jiǎn)單的方法 !
如何部屬 LLaMA 2
LLaMA 2 可以在本地環(huán)境中部署 (llama.cpp),使用這樣已管理好的服務(wù) Hugging Face Inference Endpoints 或通過(guò) AWS, Google Cloud, and Microsoft Azure 這樣的服務(wù)器平臺(tái).
使用文本生成接口與推理終端來(lái)部署 LLama 2
使用 Amazon SageMaker 部署 LLaMA 2 70B (即將完成)
在你的 M1/M2 Mac 上通過(guò) GPU 接口來(lái)本地部署 Llama-2-13B-chat
原文作者: Philschmid
譯者: Xu Haoran
審核編輯:黃飛
-
AI
+關(guān)注
關(guān)注
87文章
30887瀏覽量
269063 -
聊天機(jī)器人
+關(guān)注
關(guān)注
0文章
339瀏覽量
12312
原文標(biāo)題:LLaMA 2 - 你所需要的一切資源
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論