0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

快速下載OpenVIN Notebooks中的AI大模型

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2023-12-16 10:22 ? 次閱讀

作者:楊雪鋒 博士

英特爾邊緣計算創(chuàng)新大使

01OpenVINO Notebooks 簡介

OpenVINO Notebooks 是 Jupyter Notebook 形式的 OpenVINO 范例程序大集合,方便開發(fā)者快速學(xué)習(xí)并掌握 OpenVINO 推理程序,并通過 Copy&Paste 方式將范例中的關(guān)鍵程序應(yīng)用到自己的 AI 軟件中去。

01運行 AI 大模型的挑戰(zhàn)

OpenVINO Notebooks 提供了非常豐富的 AI 大模型范例程序,例如:Dolly2、Stable Diffusion、LLama2、ChatGLM2 等等,方便廣大開發(fā)者學(xué)習(xí)并應(yīng)用 AI 大模型。

但運行 AI 大模型范例程序時,由于眾所周知的原因,通常會遇到因無法從 HuggingFace 官網(wǎng)下載模型,導(dǎo)致范例程序無法運行的情況。

以 240-dolly-2-instruction-following.ipynb 為例,運行“Download and Convert Model”代碼時會收到報錯信息,如下圖所示:

fa4f1e70-9b41-11ee-8b88-92fbcf53809c.png

鑒于直接從 HuggingFace 官網(wǎng)無法下載 AI 大模型,可以考慮使用國內(nèi)的兩個下載速度非常好的網(wǎng)站:

一個是HuggingFace 的國內(nèi)鏡像網(wǎng)站;另一個是魔搭社區(qū)。

本文將演示分別從HuggingFace 的國內(nèi)鏡像網(wǎng)站和魔搭社區(qū)來解決下載 AI 大模型問題。

03從HuggingFace 國內(nèi)鏡像網(wǎng)站

解決下載問題

3.1命令行模式

第一步,安裝下載工具:

pip install -U huggingface_hub hf_transfer

左滑查看更多

第二步,設(shè)置環(huán)境變量

Linux中,執(zhí)行:

export HF_HUB_ENABLE_HF_TRANSFER=1
export HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

在Windows中,執(zhí)行:

SET HF_HUB_ENABLE_HF_TRANSFER=1
SET HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

第三步,運行下載命令,下載模型到本地

huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b

左滑查看更多

fa5c7fc0-9b41-11ee-8b88-92fbcf53809c.png

3.2用下載器下載

在模型頁面,右鍵菜單啟動:“多選下載模式”,如下圖所示。

模型頁面:

fa7c4562-9b41-11ee-8b88-92fbcf53809c.png

然后選擇所有要下載的文件,最后按“Enter”啟動下載。

faa46ca4-9b41-11ee-8b88-92fbcf53809c.png

實際測試,迅雷下載的方式,速度最快,平均在 6MB/s 左右。

facc62cc-9b41-11ee-8b88-92fbcf53809c.png

3.3從本地加載模型權(quán)重

將 dolly-v2-3b 下載到本地后,把 model_id 改為 model_local_path, 讓程序從本地加載模型權(quán)重,例如:

model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)

左滑查看更多

在 240-dolly-2-instruction-following.ipynb 中“Download and Convert Model”代碼塊更改如下所示:

from pathlib import Path
from transformers import AutoTokenizer
from optimum.intel.openvino import OVModelForCausalLM


model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
model_path = Path("dolly-v2-3b")
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
current_device = device.value
ov_config = {'PERFORMANCE_HINT': 'LATENCY', 'NUM_STREAMS': '1', "CACHE_DIR": ""}
if model_path.exists():
  ov_model = OVModelForCausalLM.from_pretrained(model_path, device=current_device, ov_config=ov_config)
else:
  ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)
  ov_model.half()
  ov_model.save_pretrained(model_path)

左滑查看更多

240-dolly-2-instruction-following.ipynb 從本地加載模型的運行效果,如下圖所示:

fae8d4e8-9b41-11ee-8b88-92fbcf53809c.png

04從魔搭社區(qū)解決下載問題

4.1使用 modelscope API 下載模型

第一步,安裝 modelscope:

pip install modelscope

左滑查看更多

第二步,運行 Python 腳本,下載模型到本地

from modelscope import snapshot_download 
model_dir = snapshot_download("ZhipuAI/chatglm2-6b", revision = "v1.0.12")
print(model_dir)

左滑查看更多

下載速度非常快,模型保存在“model_dir”所展示的路徑里,如下圖所示。

fb00a9c4-9b41-11ee-8b88-92fbcf53809c.png

4.2使用 git lfs工具下載

git lfs install 
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

左滑查看更多

4.3從本地加載模型權(quán)重

打開 OpenVINO Notebooks 的 254-llm-chatbot.ipynb,把本地模型所在路徑傳入 AutoModelForCausalLM.from_pretrained(),如下圖所示:

fb1d77a2-9b41-11ee-8b88-92fbcf53809c.png

#從本地載入分詞器
tok = AutoTokenizer.from_pretrained("D:/chatglm2-6b", trust_remote_code=True)

左滑查看更多

254-llm-chatbot.ipynb 從本地加載模型的運行結(jié)果,如下圖所示:

fb3e29ac-9b41-11ee-8b88-92fbcf53809c.png

總 結(jié)

當遇到從 HuggingFace 官網(wǎng)無法下載 AI 大模型時,可以從國內(nèi)鏡像網(wǎng)站或魔搭社區(qū)下載,然后從本地加載模型權(quán)重,實現(xiàn) OpenVINO Notebooks 的范例代碼順利運行。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    9964

    瀏覽量

    171784
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30896

    瀏覽量

    269107
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2450

    瀏覽量

    2714
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    93

    瀏覽量

    203
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    316

    瀏覽量

    310

原文標題:快速下載 OpenVINO? Notebooks 中的 AI 大模型 | 開發(fā)者實戰(zhàn)

文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    使用cube-AI分析模型時報錯的原因有哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 03-14 07:09

    STM CUBE AI錯誤導(dǎo)入onnx模型報錯的原因?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 05-27 07:15

    聆思CSK6視覺語音大模型AI開發(fā)板入門資源合集(硬件資料、大模型語音/多模態(tài)交互/英語評測SDK合集)

    豐富外設(shè)配件 配套多模態(tài)應(yīng)用示例,支持快速上手體驗大模型語音交互、智能視覺等 AI 應(yīng)用 板載 DAPLINK 調(diào)試器,外接一條USB 線即可實現(xiàn)燒錄、調(diào)試、串口日志查看 板載網(wǎng)絡(luò)模組,支持開發(fā)聯(lián)網(wǎng)類
    發(fā)表于 06-18 17:33

    AI模型可以設(shè)計電路嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:09:29

    AI模型怎么解決芯片過剩?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:42:05

    AI模型可以取代大學(xué)教育嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 16:27:52

    AI算法中比較常用的模型都有什么?

    AI算法中比較常用的模型都有什么
    發(fā)表于 08-27 09:19

    【KV260視覺入門套件試用體驗】Vitis AI 構(gòu)建開發(fā)環(huán)境,并使用inspector檢查模型

    量化 七、Vitis AI 通過遷移學(xué)習(xí)訓(xùn)練自定義模型 八、Vitis AI 將自定義模型編譯并部署到KV260 鋪墊 Vitis
    發(fā)表于 10-14 15:34

    如何使用NVIDIA TAO快速準確地訓(xùn)練AI模型

    利用 NVIDIA TLT 快速準確地訓(xùn)練人工智能模型的探索表明,人工智能在工業(yè)過程具有巨大的潛力。
    的頭像 發(fā)表于 04-20 17:45 ?2810次閱讀
    如何使用NVIDIA TAO<b class='flag-5'>快速</b>準確地訓(xùn)練<b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    AI模型和小模型是什么?AI模型和小模型的區(qū)別

      隨著人工智能的不斷發(fā)展和應(yīng)用,機器學(xué)習(xí)模型的大小越來越成為一個重要的問題。在機器學(xué)習(xí),我們通常將模型分為兩類:大模型和小模型。本文將介
    發(fā)表于 08-08 16:55 ?9197次閱讀

    OpenVIN賦能BLIP實現(xiàn)視覺語言AI邊緣部署

    ,使用 OpenVINO 輕松文生圖》,我們介紹了利用OpenVINO 運行Stable Diffusion模型快速實現(xiàn)文生圖應(yīng)用。讓人人可以成為繪畫大師,利用AI隨心作畫。
    的頭像 發(fā)表于 09-04 10:54 ?1w次閱讀
    <b class='flag-5'>OpenVIN</b>賦能BLIP實現(xiàn)視覺語言<b class='flag-5'>AI</b>邊緣部署

    如何快速下載OpenVINO NotebooksAI模型

    OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便開發(fā)者快速學(xué)習(xí)并掌握OpenVINO推理程序,并通過Copy&Paste方式將范例的關(guān)鍵程序應(yīng)用到自己的
    的頭像 發(fā)表于 12-12 14:40 ?1135次閱讀
    如何<b class='flag-5'>快速</b><b class='flag-5'>下載</b>OpenVINO <b class='flag-5'>Notebooks</b><b class='flag-5'>中</b>的<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>

    AI模型在MCU的應(yīng)用

    機遇。將AI模型集成到MCU,不僅提升了設(shè)備的智能化水平,還使得設(shè)備能夠執(zhí)行更復(fù)雜的任務(wù),實現(xiàn)自主決策和實時響應(yīng)。本文將從AI模型在MCU
    的頭像 發(fā)表于 07-12 10:24 ?918次閱讀

    AI模型在自然語言處理的應(yīng)用

    AI模型在自然語言處理(NLP)的應(yīng)用廣泛且深入,其強大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對AI模型在NLP
    的頭像 發(fā)表于 10-23 14:38 ?459次閱讀

    AI模型市場分析

    隨著人工智能技術(shù)的快速發(fā)展,AI模型已成為全球科技競爭的新高地、未來產(chǎn)業(yè)的新賽道以及經(jīng)濟發(fā)展的新引擎。下面,AI部落小編分析了當前AI
    的頭像 發(fā)表于 11-01 09:51 ?157次閱讀