0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

安霸發(fā)布N1系列生成式AI芯片支持前端設(shè)備運行本地LLM應(yīng)用

Ambarella安霸半導(dǎo)體 ? 來源:Ambarella安霸半導(dǎo)體 ? 2024-01-09 15:19 ? 次閱讀

單顆 SoC 支持 1 至 340 億參數(shù)的多模態(tài)大模型(Multi-Modal LLM)推理,實現(xiàn)前端低功耗生成式 AI。

美國加利福尼亞州圣克拉拉市,2024年1月8日-

Ambarella (下稱“安霸”,專注 AI 視覺感知的半導(dǎo)體公司,納斯達克股票代碼:AMBA)于當(dāng)天宣布,在 2024 國際消費電子展(CES)期間,展出在其新款 N1 系列 SoC 上運行多模態(tài)大模型(Multi-Modal LLM),其每次推理的功耗顯著低于當(dāng)前市場的通用 GPU 解決方案。

生成式 AI 是為了處理大規(guī)模數(shù)據(jù)集而最早應(yīng)用于服務(wù)器上的變革性技術(shù),而安霸的目標是將生成式 AI 部署于終端設(shè)備和本地硬件上,從而將其廣泛應(yīng)用于視頻安防分析、機器人以及眾多工業(yè)領(lǐng)域。

安霸將在中高端 SoC 上提供已優(yōu)化的生成式 AI 處理。這些 AI SoC 包含了功耗低于 5 瓦的 CV72 芯片,以及最新的可應(yīng)用于服務(wù)器端,功耗低于 50 瓦的 N1 芯片。與 GPU 及其他 AI 加速器相比,安霸提供了完整的 SoC 解決方案,每生成一個 token 的能效比最高可提高 3 倍,并可快捷、低成本地部署在終端產(chǎn)品中。

生成式 AI 在我們的目標市場上實現(xiàn)了突破,之前無法想象的功能得以實現(xiàn)。使用我們的 N1 系列 SoC 來進行多模態(tài)大模型推理,將使所有的前端設(shè)備變得更智能,更低功耗,和更低成本。

市場研究公司 Omdia 高級計算首席分析師 Alexander Harrowell 表示:“在未來 18 個月內(nèi),幾乎所有設(shè)備前端應(yīng)用都將被生成式 AI 增強。把生成式 AI 的計算轉(zhuǎn)移到設(shè)備前端的要點,就在于每瓦的 AI 性能,以及它與前端生態(tài)系統(tǒng)其余部分的集成,而不僅僅是原始數(shù)據(jù)的吞吐量?!?/p>

所有安霸的 AI SoC 均可搭配全新的 Cooper 開發(fā)平臺。此外,為了縮短客戶新產(chǎn)品上市的時間,安霸已預(yù)先移植和優(yōu)化了 LIama-2 等流行的大語言模型。其在 N1 芯片上運行的大語言和視覺助手 LLava 模型,可對多達 32 個攝像頭同時進行多模態(tài)視覺分析。這些經(jīng)過預(yù)訓(xùn)練和調(diào)優(yōu)的模型可從 Cooper Model Garden 下載。

在現(xiàn)實世界的眾多應(yīng)用里,除了語言,視覺輸入也是一種關(guān)鍵模式。安霸 SoC 的特有架構(gòu)非常適合以超低功耗同時運行視頻處理和 AI 計算。安霸的 AI SoC 并不是單一的 AI 加速器,它不僅能夠高效處理多模態(tài)大模型,還能同時執(zhí)行各種系統(tǒng)功能。

生成式 AI 將成為計算機視覺處理中跨越式的新技術(shù),它可將上下文學(xué)習(xí)和場景理解應(yīng)用于各種設(shè)備,從而涵蓋安防設(shè)施、自主機器人以及眾多工業(yè)應(yīng)用?;诎舶?AI 芯片的設(shè)備端通過運行大語言模型和多模態(tài)處理可實現(xiàn)以下功能:安防視頻的上下文智能搜索、通過自然語言命令控制的機器人、以及多才多藝的AI助手,比如代碼、文本和圖像的生成等。

這些依賴攝像頭和自然語言理解的系統(tǒng),大部分將受益于設(shè)備前端的生成式 AI 處理,其處理速度得以提高,隱私保護得到加強,并且總成本也會降低。安霸解決方案支持的本地處理也非常適合垂直領(lǐng)域大語言模型,這些大語言模型通常需要針對每個具體應(yīng)用場景進行調(diào)整;而傳統(tǒng)的集中式服務(wù)器方案則是使用更大、功耗更高的大語言模型來滿足不同用例的要求。

基于安霸最初為自動駕駛開發(fā)的 CV3-HD 架構(gòu),N1 系列 SoC 對總算力資源進行了針對性的優(yōu)化,從而以超極低功耗運行多模態(tài)大模型。例如,N1 SoC 在單流模式下以低于 50 瓦的功耗運行 Llama2-13B,每秒可推理 25 個 token。N1 解決方案自帶移植好的大模型,使系統(tǒng)整合更容易,因此它可快速幫助 OEM 廠商部署生成式 AI,特別是要求低功耗的各種應(yīng)用,比如自帶本地應(yīng)用的 AI 智能盒子、送貨機器人等,不一而足。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    799

    瀏覽量

    37874
  • soc
    soc
    +關(guān)注

    關(guān)注

    38

    文章

    4165

    瀏覽量

    218270
  • 計算機視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1698

    瀏覽量

    45993
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1887

    瀏覽量

    35025
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    288

    瀏覽量

    338

原文標題:安霸發(fā)布 N1 系列生成式 AI 芯片,支持前端設(shè)備運行本地 LLM 應(yīng)用

文章出處:【微信號:AMBARELLA_AMBA,微信公眾號:Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    恩智浦如何在邊緣設(shè)備上部署LLM

    近來,與AI相關(guān)的周期性熱點幾乎都圍繞著大語言模型 (LLM) 和生成AI模型,這樣的趨勢反映出這些話題近年來日益增強的影響力和普及程度。
    的頭像 發(fā)表于 11-29 09:39 ?353次閱讀

    設(shè)備上利用AI Edge Torch生成API部署自定義大語言模型

    MediaPipe LLM Inference API 讓開發(fā)者們能夠?qū)⒁恍┳钍軞g迎的 LLM 部署到設(shè)備上?,F(xiàn)在,我們很高興能進一步拓展對模型的支持范圍,并讓大家部署到
    的頭像 發(fā)表于 11-14 10:23 ?439次閱讀
    在<b class='flag-5'>設(shè)備</b>上利用<b class='flag-5'>AI</b> Edge Torch<b class='flag-5'>生成</b><b class='flag-5'>式</b>API部署自定義大語言模型

    三行代碼完成生成AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分為兩個安裝包分別是基礎(chǔ)包與生成AI支持包,新發(fā)布的Ge
    的頭像 發(fā)表于 08-30 16:49 ?421次閱讀
    三行代碼完成<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>部署

    謀科技異構(gòu)算力組合,破局生成AI算力挑戰(zhàn)

    ,“此芯P1”不僅異構(gòu)集成了Armv9 CPU核心與Arm Immortalis GPU,還搭載了謀科技(中國)有限公司(以下簡稱“謀科技”)“周易”NPU等自研業(yè)務(wù)產(chǎn)品。憑借高能效的異構(gòu)算力資源、系統(tǒng)級的安全保障以及強大的
    的頭像 發(fā)表于 08-13 09:12 ?570次閱讀

    llm模型本地部署有用嗎

    ,將這些模型部署到本地環(huán)境可能會帶來一些挑戰(zhàn)和優(yōu)勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型,它們能夠處理和理解大量的自然語言數(shù)據(jù)。這些模型通常
    的頭像 發(fā)表于 07-09 10:14 ?495次閱讀

    生成AI芯片解決方案助力本地處理大型語言模型

    隨著 AI 技術(shù)的不斷進步,十年前還只能在書本和科幻電影中看到的功能,如今隨處可見。然而,迄今為止,對性能有著高要求的最新生成 AI 技術(shù)應(yīng)用通常只能
    的頭像 發(fā)表于 06-26 11:32 ?720次閱讀

    技嘉科技于 COMPUTEX 2024 發(fā)布 AI TOP 本地 AI 訓(xùn)練解決方案

    PC 后,AI TOP 將成為 GIGABYTE AI 策略藍圖的第二主線,共同為日益蓬勃發(fā)展的生成 AI 市場添磚加瓦。 技嘉科技于?
    的頭像 發(fā)表于 06-07 10:54 ?278次閱讀

    解鎖LLM新高度—OpenVINO? 2024.1賦能生成AI高效運行

    LLM 的發(fā)展仍保持著驚人的速度。盡管現(xiàn)有的 LLM 已經(jīng)具備強大的功能,但通過 OpenVINO? 的優(yōu)化和推理加速,可以對這些復(fù)雜模型的執(zhí)行進行精煉,實現(xiàn)更快、更高效的處理,減少計算開銷并最大限度發(fā)揮硬件潛力,這將直接導(dǎo)致 LLM
    的頭像 發(fā)表于 05-10 10:36 ?531次閱讀

    Arm平臺賦能移動端生成AI

    生成人工智能 (Generative AI) 涵蓋了當(dāng)下廣為人知,且備受關(guān)注的大語言模型 (LLM),如今也已落地邊緣側(cè)的移動設(shè)備。
    的頭像 發(fā)表于 04-26 11:09 ?802次閱讀

    生成 AI 進入模型驅(qū)動時代

    隨著ChatGPT和大型語言模型(LLM)呈現(xiàn)爆炸增長,生成人工智能(GenerativeAI)成為近來的一大熱詞。由此引發(fā)了一場爭論:哪種AI
    的頭像 發(fā)表于 04-13 08:12 ?534次閱讀
    <b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 進入模型驅(qū)動時代

    發(fā)布5nm制程的CV75S系列芯片,進一步拓寬AI SoC產(chǎn)品路線圖

    防展(ISC West)期間發(fā)布 5nm 制程的 CV75S 系列芯片,進一步拓寬其 AI SoC 產(chǎn)品路線圖。
    的頭像 發(fā)表于 04-09 10:26 ?1779次閱讀

    生成AI加速向終端側(cè)演進,NPU、異構(gòu)計算提供強大算力支持

    的400億美元,增長至2032年的1.3萬億美元,年復(fù)合增速達到42%。 ? 生成AI 向終端快速演進 ? 當(dāng)前大部分生成
    的頭像 發(fā)表于 03-16 00:16 ?2869次閱讀

    發(fā)布前端AI開發(fā)者平臺Cooper

    在2024年的國際消費電子展(CES)上,Ambarella(發(fā)布了一項革命性的技術(shù)——業(yè)界領(lǐng)先的Cooper開發(fā)者平臺。Cooper平臺不僅集成了軟件、硬件和先進的AI模型優(yōu)化
    的頭像 發(fā)表于 01-12 17:35 ?1187次閱讀

    發(fā)布全新N1系列生成AI芯片

    在CES 2024上發(fā)布了全新的N1系列生成
    的頭像 發(fā)表于 01-09 15:32 ?1377次閱讀

    CV3-AD685 AI域控芯片助力Kodiak開發(fā)下一代自動駕駛卡車

    的 CV3-AD685 AI 域控芯片來開發(fā)其新一代自動駕駛卡車使用的嵌入計算解決方案。通過該芯片
    的頭像 發(fā)表于 01-03 10:08 ?1581次閱讀