0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OrangePi KunPeng Pro部署AI模型介紹

嵌入式小生 ? 來源:嵌入式小生 ? 2024-11-16 11:03 ? 次閱讀

一、OrangePi Kunpeng Pro簡介

OrangePi Kunpeng Pro是一款香橙派聯(lián)合華為精心打造的高性能板卡,搭載了鯤鵬處理器,可提供8TOPS INT8計算能力,板卡設(shè)計很精致,板載資源也非常多:

?擁有以太網(wǎng)、Wi-Fi+藍(lán)牙功能,提供多種可選擇的網(wǎng)絡(luò)接入方式。

? 2個USB3.0 Host、1個支持USB3.0的Type-C接口:可接入鼠標(biāo)、鍵盤、USB攝像頭等設(shè)備,方便板卡操作。

? 2個HDMI接口、1 個 MIPI DSI 2 Lane接口,提供兩種顯示方案。

?引出了40 pin 擴展口,可擴展UART、I2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下圖所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡擴展出的功能很多,能夠滿足很多應(yīng)用場景和行業(yè)的開發(fā)需求,本文將描述使用OrangePi Kunpeng Pro來部署AI大模型,記錄分析模型運行期間板卡的狀態(tài)和模型運行效果。

二、環(huán)境搭建

(1)首先取出板卡,為板卡接入一個HDMI顯示屏、一個無線藍(lán)牙鼠標(biāo)、一個有線鍵盤,接著接通電源,完成后如下圖所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)隨后板卡將自動啟動運行openEuler操作系統(tǒng),接著我們進(jìn)入終端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存儲容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前可用容量很大,可滿足小量級離線模型的存儲。

板卡運行openEuler非常流暢,使用體驗感非常好。

(4)選擇網(wǎng)絡(luò)接入方式,本文使用Wifi接入。

(5)更改CPU為AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

從上圖中可知目前板卡有3個AI CPU和1個control CPU。

接著就進(jìn)行模型運行環(huán)境搭建和模型部署了。

三、模型運行環(huán)境搭建

(1)下載Ollama用于啟動并運行大型語言模型

由于在線下載Ollama速度較慢,故而使用手動方式安裝Ollama,首先從下列地址下載Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后將其通過ssh方式傳輸?shù)桨蹇ā=又鴮⑵渲孛麨閛llama,便于命令操作,然后將ollama復(fù)制到/usr/bin目錄中并賦予可執(zhí)行權(quán)限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系統(tǒng)服務(wù)

使用以下命令創(chuàng)建ollama服務(wù)描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中編輯如下內(nèi)容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)啟動ollama服務(wù)

使用下述命令啟動ollama服務(wù):

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)啟動ollama

使用下述命令啟動ollama:

sudosystemctlstartollama

(5)查看ollama運行狀態(tài)

使用如下命令查看ollama運行狀態(tài):

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前ollama啟動成功。

四、模型部署

通過上述第三小節(jié)的步驟后,Ollama模型運行環(huán)境就搭建完成,本小節(jié)將部署五個模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,測試OrangePi Kunpeng Pro運行模型的實際效果。模型細(xì)節(jié)如下表所示:

序號 模型 參數(shù) 描述
1 qwen 1.8b Qwen是阿里云開發(fā)的大型語言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind構(gòu)建的一系列輕量級的開放模型,大小1.7GB
3 phi3 3.8b phi3是微軟開發(fā)的開放AI模型系列,3.8b為Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云開發(fā)的大型語言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平臺公司發(fā)行的基礎(chǔ)語言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:運行1.8b的qwen模型,CPU負(fù)載沒有占滿,進(jìn)行問答測試,回答速度較快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:運行2b的gemma模型和運行1.8b的qwen模型效果相似,CPU負(fù)載同樣沒有占滿,進(jìn)行問答測試,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:運行3.8b的phi3模型,進(jìn)行問答測試,回答速度變慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:運行4b的qwen模型,進(jìn)行問答測試,回答問題速度明顯變慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:運行7b的llama2模型,CPU滿負(fù)載了,進(jìn)行問答測試,回答問題速度也明顯變得很慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

五、實際效果

上述第四小節(jié)描述了運行五個模型的實際使用效果,本小節(jié)附上運行2b的gemma模型的效果,如下圖所示:

(注:因gif圖對視頻有所處理,以實際運行效果為準(zhǔn)!)

六、總結(jié)

OrangePi Kunpeng Pro板卡是一塊擁有較高計算性能的板卡,本文使用該板卡部署了五個模型(以本文所描述模型為參考),對于1.8b和2b量級的模型來說運行效果還可以,體驗較好;對于3.8b和4b量級的模型來說,體驗感有所下降,一是計算生成答案的過程變長,二是文字輸出存在斷續(xù);對于7b量級的模型,體驗感更是降了一個層次,文字輸出存在明顯的斷續(xù)了。

體驗感是一個非理性的名詞,因人而異,不同的場景和模型,不同的使用者都可能存在不同的體驗,本文所有內(nèi)容僅供參考和評測!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33025

    瀏覽量

    272821
  • 板卡
    +關(guān)注

    關(guān)注

    3

    文章

    124

    瀏覽量

    17012
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3440

    瀏覽量

    49615

原文標(biāo)題:玩玩OrangePi KunPeng Pro部署AI模型

文章出處:【微信號:嵌入式小生,微信公眾號:嵌入式小生】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦

    如何在RAKsmart服務(wù)器上實現(xiàn)企業(yè)AI模型部署

    AI模型的訓(xùn)練與部署需要強大的算力支持、穩(wěn)定的網(wǎng)絡(luò)環(huán)境和專業(yè)的技術(shù)管理。RAKsmart作為全球領(lǐng)先的服務(wù)器托管與云計算服務(wù)提供商,已成為企業(yè)部署A
    的頭像 發(fā)表于 03-27 09:46 ?133次閱讀

    AI Agent 應(yīng)用與項目實戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    則將檢索到的內(nèi)容與原始查詢結(jié)合,生成最終響應(yīng)。這種設(shè)計使得AI系統(tǒng)能夠突破訓(xùn)練數(shù)據(jù)的限制,實現(xiàn)知識的動態(tài)更新。書中詳細(xì)介紹了RAG的完整工作流程:從數(shù)據(jù)提取開始,通過文本分割將長文檔切分成適當(dāng)大小
    發(fā)表于 03-07 19:49

    香橙派發(fā)布OrangePi 5Plus本地部署Deepseek-R1蒸餾模型指南

    在DeepSeek迅速成為行業(yè)焦點之際,香橙派昇騰系列產(chǎn)品已經(jīng)率先完成了與DeepSeek模型的深度適配,通過在邊緣進(jìn)行離線部署,幫助用戶實現(xiàn)高效端側(cè)智能,確保數(shù)據(jù)處理的安全性和可控性。緊接著,香橙
    的頭像 發(fā)表于 02-19 16:14 ?667次閱讀
    香橙派發(fā)布<b class='flag-5'>OrangePi</b> 5Plus本地<b class='flag-5'>部署</b>Deepseek-R1蒸餾<b class='flag-5'>模型</b>指南

    云軸科技ZStack智塔攜手昇騰AI實現(xiàn)DeepSeek模型部署

    DeepSeek V3/R1/ Janus Pro三種模型的高效部署,并充分發(fā)揮DeepSeek開源模型和低成本高性能特點,為企業(yè)提供安全高效的AI
    的頭像 發(fā)表于 02-18 09:59 ?312次閱讀
    云軸科技ZStack智塔攜手昇騰<b class='flag-5'>AI</b>實現(xiàn)DeepSeek<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    C#集成OpenVINO?:簡化AI模型部署

    什么是OpenVINO 工具套件? OpenVINO 工具套件是一個用于優(yōu)化和部署人工智能(AI模型,提升AI推理性能的開源工具集合,不僅支持以卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-17 10:03 ?1456次閱讀
    C#集成OpenVINO?:簡化<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰(zhàn)與驚喜的技術(shù)探索之旅。 RK3588 開發(fā)板:AI 性能擔(dān)當(dāng) RK3588 開發(fā)板基于先進(jìn)的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在
    發(fā)表于 02-14 17:42

    中興通訊AiCube:破解AI模型部署難題

    AI領(lǐng)域,DeepSeek等國產(chǎn)模型憑借算法優(yōu)化,成功將訓(xùn)練與推理的綜合成本降低了40%以上,這一突破使得中小型企業(yè)也能輕松參與AI創(chuàng)新。然而,隨著AI技術(shù)的廣泛應(yīng)用,
    的頭像 發(fā)表于 02-13 09:11 ?394次閱讀

    企業(yè)AI模型部署攻略

    當(dāng)下,越來越多的企業(yè)開始探索和實施AI模型,以提升業(yè)務(wù)效率和競爭力。然而,AI模型部署并非易事,需要企業(yè)在多個層面進(jìn)行細(xì)致的規(guī)劃和準(zhǔn)備。下
    的頭像 發(fā)表于 12-23 10:31 ?402次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    并非易事,它涉及到從選擇合適的算法架構(gòu)到針對特定硬件平臺進(jìn)行優(yōu)化等一系列復(fù)雜的工作。 接下來,我們將詳細(xì)介紹如何在資源受限的邊緣設(shè)備上成功部署目標(biāo)檢測模型,探索其背后的原理和技術(shù),并討論解決該領(lǐng)域內(nèi)常見
    發(fā)表于 12-19 14:33

    AI模型部署和管理的關(guān)系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術(shù)從實驗室走向?qū)嶋H應(yīng)用。
    的頭像 發(fā)表于 11-21 10:02 ?343次閱讀

    如何在STM32f4系列開發(fā)板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經(jīng)過開發(fā)板處理器進(jìn)行AI
    發(fā)表于 11-18 09:39

    企業(yè)AI模型部署怎么做

    AI模型部署作為這一轉(zhuǎn)型過程中的關(guān)鍵環(huán)節(jié),其成功實施對于企業(yè)的長遠(yuǎn)發(fā)展至關(guān)重要。在此,AI部落小編為您介紹企業(yè)
    的頭像 發(fā)表于 11-04 10:15 ?384次閱讀

    香橙派OrangePi?5 Pro性能全面測試!

    ,OrangePi5Pro顯然是RaspberryPi5的替代產(chǎn)品。讓我們看看它的價格、性能和可用性如何。OrangePi5Pro的硬件參數(shù)我就不具體介紹了,大家可以在香橙
    的頭像 發(fā)表于 10-08 15:58 ?964次閱讀
    香橙派<b class='flag-5'>OrangePi</b>?5 <b class='flag-5'>Pro</b>性能全面測試!

    樹莓派5最大的競爭對手OrangePi 5 Pro?,新增4GB/8GB版本

    OrangePi5Pro被稱為樹莓派5最大的競爭對手。繼OrangePi5Pro(16GB)版本發(fā)布一個月之后,香橙派近日再推出OrangePi5Pro4GB/8GB版本。除了在運行內(nèi)存方面有所差異
    的頭像 發(fā)表于 05-07 10:00 ?1039次閱讀
    樹莓派5最大的競爭對手<b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b>?,新增4GB/8GB版本

    OrangePi?5 Pro正式開售,樹莓派5真正的挑戰(zhàn)者來了

    在剛剛舉行不久的3.24香橙派開發(fā)者大會上,香橙派發(fā)布了一款重磅產(chǎn)品OrangePi5Pro,該產(chǎn)品在OrangePi5系列前代產(chǎn)品的基礎(chǔ)上煥然升級,以其性能引領(lǐng)性、價格顛覆性再次改變?nèi)蜷_發(fā)板市場
    的頭像 發(fā)表于 04-08 13:54 ?1052次閱讀
    <b class='flag-5'>OrangePi</b>?5 <b class='flag-5'>Pro</b>正式開售,樹莓派5真正的挑戰(zhàn)者來了

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品