0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用英特爾OpenVINO在本地運行Qwen2.5-VL系列模型

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2025-03-12 13:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:

楊亦誠 英特爾 AI 軟件工程師

介紹

近期阿里通義實驗室在 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在內(nèi)的 3 個模型尺寸。其中,Qwen2.5-VL-7B-Instruct 在多個任務中超越了 GPT-4o-mini,而 Qwen2.5-VL-3B 作為端側(cè) AI 的潛力股,甚至超越了之前版本 的Qwen2-VL 7B 模型。Qwen2.5-VL 增強了模型對時間和空間尺度的感知能力,在空間維度上,Qwen2.5-VL 不僅能夠動態(tài)地將不同尺寸的圖像轉(zhuǎn)換為不同長度的 token,使用圖像的實際尺寸來表示檢測框和點等坐標,這也使得Qwen2.5-VL模型可以直接作為一個視覺 Agent,推理并動態(tài)地使用工具,具備了使用電腦和使用手機的能力。

本文將分享如何利用英特爾 OpenVINO 工具套件在本地加速Q(mào)wen2.5-VL系列模型的推理任務。

內(nèi)容列表

環(huán)境準備

模型下載和轉(zhuǎn)換

加載模型

準備模型輸入

運行圖像理解任務

1環(huán)境準備

該示例基于Jupyter Notebook編寫,因此我們需要準備好相對應的Python環(huán)境。基礎環(huán)境可以參考以下鏈接安裝,并根據(jù)自己的操作系統(tǒng)進行選擇具體步驟。

https://github.com/openvinotoolkit/openvino_notebooks?tab=readme-ov-file#-getting-started

58014a4e-fb35-11ef-9310-92fbcf53809c.png

圖:基礎環(huán)境安裝導航頁面

此外本示例將依賴qwen-vl-utils以及optimum-intel組件,其中安裝optimum-intel過程中將自動安裝OpenVINOruntime, NNCF及Transformers等相關(guān)依賴庫。

2模型下載和轉(zhuǎn)換

這一步中,我們需要完成將Qwen2.5-VL .safetensor格式模型轉(zhuǎn)化為OpenVINO IR格式,并對其進行INT4權(quán)重量化,實現(xiàn)對模型體積的壓縮。為了達到這一目的,optimum-intel提供了命令行工具:optimum-cli,基于該工具,我們只需一行命令便可實現(xiàn)上述步驟:

 optimum-cli export openvino --model Qwen/Qwen2.5-VL-3B-Instruct Qwen2.5-VL-3B-Instruct/INT4 --weight-format int4

其中“—model”參數(shù)后的“Qwen/Qwen2.5-VL-3B-Instruct”為模型在HuggingFace上的model id,這里我們也提前下載原始模型,并將model id替換為原始模型的本地路徑,針對國內(nèi)開發(fā)者,推薦使用ModelScope魔搭社區(qū)作為原始模型的下載渠道,具體加載方式可以參考ModelScope官方指南:https://www.modelscope.cn/docs/models/download

3加載模型

接下來需要完成對模型推理任務的初始化,并將模型載入到指定硬件的內(nèi)存中,同樣的,我們可以利用optimum-intel封裝好的OpenVINO視覺多模態(tài)任務對象 OVModelForVisualCausalLM 對象完成該操作。

from optimum.intel.openvino import OVModelForVisualCausalLM
model = OVModelForVisualCausalLM.from_pretrained(model_dir, device.value)

如示例代碼所示,通過OVModelForVisualCausalLM的from_pretrained函數(shù)接口,可以很方便地根據(jù)用戶提供的模型路徑,將模型載入到指定的硬件平臺,完成視覺多模態(tài)任務的初始化。

4準備模型輸入

第四步需要根據(jù)Qwen2.5-VL模型要求的prompt template準備模型的輸入數(shù)據(jù)。數(shù)據(jù)格式如下:

messages = [
  {
    "role": "user",
    "content": [
      {
        "type": "image",
        "image": f"file://{example_image_path}",
      },
      {"type": "text", "text": question},
    ],
  }
]

其中:

“role“字段用于指定對話角色,包括system, user以及assistant三種類型;

"content"字段表示對話角色輸出的內(nèi)容,其中”type”為內(nèi)容類別,包含image,video,text三種類型,支持多張image輸入。

接下來可以通過Qwen官方提供的方法將用戶輸入的text和image編碼為模型的輸入tensor。

text = processor.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
  text=[text],
  images=image_inputs,
  videos=video_inputs,
  padding=True,
  return_tensors="pt",
)

5運行圖像理解任務

最后一步需要調(diào)用模型對象的generation函數(shù),進行答案生成,這里可以通過添加TextStreamer迭代器的方式,在命令行中流式輸出文本內(nèi)容。

from transformers import TextStreamer
generated_ids = model.generate(**inputs, max_new_tokens=100, streamer=TextStreamer(processor.tokenizer, skip_prompt=True, skip_special_tokens=True))

6總結(jié)

Qwen2.5-VL 系列模型的發(fā)布帶來了更精準的視覺定位,文字理解以及Agent智能體能力。OpenVINO 則可以以更低的資源占用,高效地在本地運行Qwen2.5-VL視覺多模態(tài)模型,激發(fā)AIPC異構(gòu)處理器的潛能。相信構(gòu)建面向桌面操作系統(tǒng)的本地智能體應用已不再遙遠。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10187

    瀏覽量

    174253
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3502

    瀏覽量

    50179
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    114

    瀏覽量

    444

原文標題:開發(fā)者實戰(zhàn)|如何利用OpenVINO? 在本地運行Qwen2.5-VL系列模型

文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Intel OpenVINO? Day0 實現(xiàn)阿里通義 Qwen3 快速部署

    本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 英特爾平臺(GPU, NPU)
    的頭像 發(fā)表于 05-11 11:36 ?745次閱讀
    Intel <b class='flag-5'>OpenVINO</b>? Day0 實現(xiàn)阿里通義 <b class='flag-5'>Qwen</b>3 快速部署

    基于C#和OpenVINO?英特爾獨立顯卡上部署PP-TinyPose模型

    OpenVINO,將 PP-TinyPose 模型部署英特爾獨立顯卡上。 1.1 PP-TinyPose 模型簡介 PP-TinyP
    的頭像 發(fā)表于 11-18 18:27 ?2984次閱讀

    英特爾CPU部署Qwen 1.8B模型的過程

    本文介紹了英特爾 13 代酷睿 CPU i5 - 13490F 設備上部署 Qwen 1.8B 模型的過程,你需要至少 16GB 內(nèi)存的機器來完成這項任務,我們將使用
    的頭像 發(fā)表于 01-12 10:28 ?3438次閱讀

    英特爾?獨立顯卡與OpenVINO?工具套件結(jié)合使用時,無法運行推理怎么解決?

    使用英特爾?獨立顯卡與OpenVINO?工具套件時無法運行推理
    發(fā)表于 03-05 06:56

    請問OpenVINO?工具套件英特爾?Distribution是否與Windows? 10物聯(lián)網(wǎng)企業(yè)版兼容?

    無法基于 Windows? 10 物聯(lián)網(wǎng)企業(yè)版的目標系統(tǒng)上使用 英特爾? Distribution OpenVINO? 2021* 版本推斷模型
    發(fā)表于 03-05 08:32

    為什么Caffe模型可以直接與OpenVINO?工具套件推斷引擎API一起使用,而無法轉(zhuǎn)換為中間表示 (IR)?

    推斷 Caffe 模型直接基于 英特爾? 神經(jīng)電腦棒 2 (英特爾? NCS2)。 無法確定為什么 Caffe 模型可以直接與OpenVINO
    發(fā)表于 03-05 06:31

    為什么無法檢測到OpenVINO?工具套件中的英特爾?集成圖形處理單元?

    Ubuntu* Desktop 22.04 上安裝了 英特爾? Graphics Driver 版本并OpenVINO? 2023.1。 運行 python 代碼: python
    發(fā)表于 03-05 08:36

    使用英特爾? NPU 插件C++運行應用程序時出現(xiàn)錯誤:“std::Runtime_error at memory location”怎么解決?

    使用OpenVINO?工具套件版本 2024.4.0 構(gòu)建C++應用程序 使用英特爾? NPU 插件運行了 C++ 應用程序 遇到的錯誤: Microsoft C++ exception: std::runtime_err
    發(fā)表于 06-25 08:01

    介紹英特爾?分布式OpenVINO?工具包

    性能。 英特爾?OpenlandOpen?管理軟件包包括英特爾?深度學習部署工具包(英特爾?DLDT)。適用于Linux *的OpenVINO?工具包的
    發(fā)表于 07-26 06:45

    怎么安裝適用于Linux *的OpenVINO?工具包的英特爾?發(fā)布版?

    怎么安裝適用于Linux *的OpenVINO?工具包的英特爾?發(fā)布版?
    發(fā)表于 09-23 08:33

    安裝OpenVINO工具套件英特爾Distribution時出現(xiàn)錯誤的原因?

    安裝OpenVINO?工具套件英特爾 Distribution時,出現(xiàn)錯誤: Python 3.10.0.ECHO is off. Unsupported Python version.
    發(fā)表于 08-15 08:14

    英特爾推出了OpenVINO

    接受外媒ZDNet采訪的時候,英特爾高管Adam Burns表示:“構(gòu)建智能的不只是一種架構(gòu)?!?b class='flag-5'>OpenVINO提供了一組已經(jīng)優(yōu)化的能力和runtime引擎,能夠允許 開發(fā) 者架構(gòu)
    的頭像 發(fā)表于 04-13 14:18 ?3057次閱讀

    已有超過500款AI模型英特爾酷睿Ultra處理器上得以優(yōu)化運行

    近日,英特爾宣布全新英特爾 酷睿 Ultra處理器上,有超過500款AI模型得以優(yōu)化運行。
    的頭像 發(fā)表于 05-11 09:31 ?1123次閱讀

    使用PyTorch英特爾獨立顯卡上訓練模型

    《PyTorch 2.5重磅更新:性能優(yōu)化+新特性》中的一個新特性就是:正式支持英特爾獨立顯卡上訓練模型!
    的頭像 發(fā)表于 11-01 14:21 ?1972次閱讀
    使用PyTorch<b class='flag-5'>在</b><b class='flag-5'>英特爾</b>獨立顯卡上訓練<b class='flag-5'>模型</b>

    英特爾賦能DeepSeek本地運行,助力汽車升級“最強大腦”

    英特爾近期宣布支持DeepSeek本地實現(xiàn)高效運行。據(jù)悉,借助英特爾的軟件定義汽車車載平臺,DeepSeek-R1
    的頭像 發(fā)表于 02-17 09:37 ?665次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品