0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用Ollama輕松搞定Llama 3.2 Vision模型本地部署

jf_23871869 ? 來源:jf_23871869 ? 作者:jf_23871869 ? 2024-11-23 17:22 ? 次閱讀

Ollama 是一個開源的大語言模型服務(wù)工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運行過程,請參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》,一條命令完成Ollama的安裝。

wKgZoWc7JxyAIjH6AAOAYWrMm0s290.png

一,Llama3.2 Vision簡介

Llama 3.2 Vision是一個多模態(tài)大型語言模型(LLMs)的集合,它包括預(yù)訓練和指令調(diào)整的圖像推理生成模型,有兩種參數(shù)規(guī)模:11B(110億參數(shù))和90B(900億參數(shù))。Llama 3.2 Vision在視覺識別、圖像推理、字幕以及回答有關(guān)圖像的通用問題方面進行了優(yōu)化,在常見的行業(yè)基準上優(yōu)于許多可用的開源和封閉多模式模型。

二,在算力魔方4060版上完成部署

算力魔方?4060版是一款包含4060 8G顯卡的迷你主機,運行:

ollama run llama3.2-vision

完成Llama 3.2 Vision 11B模型下載和部署。

wKgZoWc7Jy6AeY5QAAI2F4BFv0k897.png

三,Llama 3.2實現(xiàn)圖片識別

將圖片輸入Llama3.2-Vision,然后直接輸入問題,即可獲得圖片信息,如下面視頻所示:

視頻若無加載,請移步至主頁查看關(guān)聯(lián)視頻。

四,總結(jié)

在算力魔方?4060版上,用Ollama輕松搞定Llama 3.2 Vision模型本地部署。

更多精彩內(nèi)容請關(guān)注“算力魔方?”!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3440

    瀏覽量

    49643
  • Vision
    +關(guān)注

    關(guān)注

    1

    文章

    201

    瀏覽量

    18513
收藏 0人收藏

    評論

    相關(guān)推薦

    如何在RakSmart服務(wù)器上Linux系統(tǒng)部署DeepSeek

    選擇 根據(jù)需求選擇以下兩種主流方案: 1. 輕量化部署(推薦新手): 工具:Ollama(支持快速安裝與模型管理) 步驟: 1. 安裝 Ollama:執(zhí)行 `curl -fsSL ht
    的頭像 發(fā)表于 03-14 11:53 ?223次閱讀

    摩爾線程圖形顯卡MTT S80實現(xiàn)DeepSeek模型部署

    摩爾線程“全功能”圖形顯卡MTT S80,不僅游戲渲染性能強大,能玩《黑神話:悟空》,現(xiàn)在還能本地部署DeepSeek R1蒸餾模型。搭配最新發(fā)布的MUSA SDK RC3.1.1版本,開發(fā)者直接
    的頭像 發(fā)表于 02-21 15:46 ?1023次閱讀
    摩爾線程圖形顯卡MTT S80實現(xiàn)DeepSeek<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    deepin 25+DeepSeek-R1+Ollama本地搭建全流程

    ,為大家詳細講解 如何借助 Ollama本地部署并運行 DeepSeek-R1 模型。 * 感謝社區(qū)用戶「Feelup」提供的教程,本次
    的頭像 發(fā)表于 02-19 10:43 ?900次閱讀
    deepin 25+DeepSeek-R1+<b class='flag-5'>Ollama</b><b class='flag-5'>本地</b>搭建全流程

    K1 AI CPU基于llama.cpp與Ollama的大模型部署實踐

    AICPU芯片,已于今年4月份發(fā)布。下面我們以K1為例,結(jié)合llama.cpp來展示AICPU在大模型領(lǐng)域的優(yōu)勢。
    的頭像 發(fā)表于 02-18 14:23 ?473次閱讀
    K1 AI CPU基于<b class='flag-5'>llama</b>.cpp與<b class='flag-5'>Ollama</b>的大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>實踐

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    方法的優(yōu)缺點與操作要點。 01-使用Ollama工具部署-便捷但有短板 Ollama 是一個開源的大模型服務(wù)工具,可以支持最新的deepseek模型
    發(fā)表于 02-14 17:42

    在龍芯3a6000上部署DeepSeek 和 Gemma2大模型

    serve 2.運行deepseek-r1大模型 到以下網(wǎng)站選擇不同參數(shù)的大模型 https://ollama.com/library/deepseek-r1 新開一個終端執(zhí)行如下命令 $
    發(fā)表于 02-07 19:35

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴展了 Meta Llama 開源模型集的模型陣容,包含視覺語言
    的頭像 發(fā)表于 11-20 09:59 ?507次閱讀

    Ollama輕松搞定Llama 3.2 Vision模型本地部署

    模型
    jf_23871869
    發(fā)布于 :2024年11月18日 19:40:10

    Meta發(fā)布Llama 3.2量化版模型

    近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來了新進展。10月24日,Meta正式推出了這兩個模型的量化版本,旨在進一步優(yōu)化
    的頭像 發(fā)表于 10-29 11:05 ?660次閱讀

    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個多語言大型語言模型
    的頭像 發(fā)表于 10-12 09:39 ?1109次閱讀
    使用OpenVINO 2024.4在算力魔方上<b class='flag-5'>部署</b><b class='flag-5'>Llama-3.2</b>-1B-Instruct<b class='flag-5'>模型</b>

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon
    的頭像 發(fā)表于 10-11 18:08 ?628次閱讀

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?709次閱讀

    Meta發(fā)布多模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了一項重要技術(shù)突破,成功推出了多模態(tài)LLAMA 3.2人工智能模型。這一創(chuàng)新模型不僅能夠深度解析文本信息,還實現(xiàn)了對圖像內(nèi)容的精準理解,標志著Met
    的頭像 發(fā)表于 09-27 11:44 ?541次閱讀

    [技術(shù)] 【飛凌嵌入式OK3576-C開發(fā)板體驗】llama2.c部署

    llama2.c 是一個純 C 語言實現(xiàn)的輕量級推理引擎,無需依賴任何第三方庫即可高效地進行推理任務(wù)。與 llama.cpp 相比,其代碼更加直觀易懂,并且可以在 PC、嵌入式 Linux 乃至
    發(fā)表于 09-18 23:58

    【AIBOX上手指南】快速部署Llama3

    Firefly開源團隊推出了Llama3部署包,提供簡易且完善的部署教程,過程無需聯(lián)網(wǎng),簡單快捷完成本地部署。點擊觀看
    的頭像 發(fā)表于 06-06 08:02 ?991次閱讀
    【AIBOX上手指南】快速<b class='flag-5'>部署</b><b class='flag-5'>Llama</b>3

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品