0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

亞馬遜云科技正式上線Meta Llama 3.2模型

全球TMT ? 2024-10-11 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

為構(gòu)建生成式AI應(yīng)用提供更多選擇

北京2024年10月10日/美通社/ -- 亞馬遜科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用??蛻粢部梢栽诨贏mazon Trainium和Amazon Inferentia的Amazon Elastic Cloud Compute(Amazon EC2)實例中部署這些模型。

Llama 3.2系列模型保留了此前的成功經(jīng)驗,并進行了全新升級,提供高度差異化的功能更新,包括支持圖像推理的小型和中型視覺大語言模型,以及針對設(shè)備端優(yōu)化過的輕量級純文本模型。這些新模型旨在提高使用的便捷性和效率,同時特別注重負責任的創(chuàng)新和安全性。此外,針對內(nèi)容安全分類而微調(diào)的Llama Guard 3 Vision模型,現(xiàn)在也已在Amazon SageMaker JumpStart中可用。

Llama 3.2系列模型優(yōu)勢:

Meta推出的首款多模態(tài)視覺模型:Llama 3.211BVision和Llama 3.290BVision

  • Llama 3.2系列中最大的模型。
  • 支持圖像理解和視覺推理的使用場景。
  • 擅長分析視覺數(shù)據(jù),如圖表和圖形,提供更精確的答案和洞察。
  • 適用于圖像標注、視覺問答、圖像與文本檢索、文檔處理、多模態(tài)聊天機器人,以及長篇文本生成、多語言翻譯、編程、數(shù)學和高級推理。

為邊緣和移動設(shè)備量身定制:Llama 3.21B和Llama 3.23B

  • 輕量級,純文本模型。
  • 既可在云端又可在本地進行數(shù)據(jù)處理,響應(yīng)速度極快。
  • 非常適合高度個性化的應(yīng)用,如文本生成與總結(jié)、情感分析、客戶服務(wù)應(yīng)用、文本潤色、多語言知識檢索和移動AI寫作助手。

針對內(nèi)容安全分類進行微調(diào):Llama Guard 311BVision

  • 僅在Amazon SageMaker JumpStart中可用
  • Llama Guard 311BVision可以對大型語言模型的輸入(即提示詞分類)和輸出(即響應(yīng)分類)進行內(nèi)容安全保護
  • 專為支持圖像推理場景設(shè)計,提升了對提示詞輸入中的有害多模態(tài)內(nèi)容(文本和圖像)的檢測能力,以及模型輸出的文本內(nèi)容檢測。

Meta表示,Llama 3.2模型已在超過150個基準數(shù)據(jù)集上進行評估,展現(xiàn)出與領(lǐng)先基礎(chǔ)模型相媲美的競爭力。與Llama 3.1類似,所有Llama 3.2模型均支持128K的上下文長度,并支持涵蓋八種語言的多語言對話使用場景,包括英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Meta
    +關(guān)注

    關(guān)注

    0

    文章

    303

    瀏覽量

    11814
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3105

    瀏覽量

    3998
  • 亞馬遜云科技
    +關(guān)注

    關(guān)注

    0

    文章

    98

    瀏覽量

    243
收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時
    發(fā)表于 03-05 08:07

    Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

    ?在人工智能領(lǐng)域,Meta的最新動作再次引起了全球的關(guān)注。今天,我們見證了Meta發(fā)布的 Llama 3.3 70B 模型,這是一個開源的人工智能
    的頭像 發(fā)表于 12-18 16:46 ?567次閱讀
    <b class='flag-5'>Meta</b>重磅發(fā)布<b class='flag-5'>Llama</b> 3.3 70B:開源AI<b class='flag-5'>模型</b>的新里程碑

    Meta推出Llama 3.3 70B,AI大模型競爭白熱化

    在今年的AI領(lǐng)域,Meta也不甘落后,推出了其壓軸之作——Llama 3.3 70B大模型。與此同時,馬斯克的xAI也宣布其Grok模型從今天起全球免費開放(但存在一定的使用限制)。
    的頭像 發(fā)表于 12-09 14:50 ?791次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama的安裝。 一,Llama3.2 Vision簡介 Llama 3.2 Vision是一個多模態(tài)大型語言模型(LLMs)的集合,它包括預訓練和指令調(diào)整的圖像推理生成
    的頭像 發(fā)表于 11-23 17:22 ?3701次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> <b class='flag-5'>3.2</b> Vision<b class='flag-5'>模型</b>本地部署

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴展了 Meta Llama 開源模型集的
    的頭像 發(fā)表于 11-20 09:59 ?757次閱讀

    Meta發(fā)布Llama 3.2量化版模型

    近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來了新進展。10月24日,Meta正式推出了這兩個
    的頭像 發(fā)表于 10-29 11:05 ?819次閱讀

    扎克伯格:聯(lián)想運用Meta Llama模型打造個人AI助手AI Now

    美國西部時間10月15日,聯(lián)想集團于美國西雅圖盛大舉辦了一年一度的Tech World大會。會上,聯(lián)想集團首席執(zhí)行官楊元慶攜手Meta創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格,共同揭曉了一項重大合作成果——基于MetaLlama
    的頭像 發(fā)表于 10-16 14:58 ?916次閱讀

    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個多語言大型語言模型(LLMs)的集合。
    的頭像 發(fā)表于 10-12 09:39 ?1422次閱讀
    使用OpenVINO 2024.4在算力魔方上部署<b class='flag-5'>Llama-3.2</b>-1B-Instruct<b class='flag-5'>模型</b>

    亞馬遜科技上線Meta Llama 3.2模型

    亞馬遜科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式
    的頭像 發(fā)表于 10-11 18:08 ?738次閱讀

    Meta發(fā)布多模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了一項重要技術(shù)突破,成功推出了多模態(tài)LLAMA 3.2人工智能模型。這一創(chuàng)新模型不僅能夠深度解析文本信息
    的頭像 發(fā)表于 09-27 11:44 ?682次閱讀

    Meta Llama 3.1系列模型可在Google Cloud上使用

    我們很高興宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,這包括全新的 405B,即 Meta 迄今為止功能最強大、用途最廣泛的模型。這些
    的頭像 發(fā)表于 08-02 15:42 ?713次閱讀

    PerfXCloud平臺成功接入Meta Llama3.1

    近日,Meta對外宣布推出迄今為止最強大的開源模型——Llama3.1 405B,同時還發(fā)布了全新優(yōu)化升級的70B和8B版本,技術(shù)革新的浪潮再次洶涌來襲!在此,我們滿懷欣喜地向您宣告,PerfXCloud平臺現(xiàn)已成功接入
    的頭像 發(fā)表于 07-25 10:26 ?882次閱讀

    Meta發(fā)布全新開源大模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標志著Meta在AI領(lǐng)域的又一重大突破。Meta
    的頭像 發(fā)表于 07-24 18:25 ?1769次閱讀

    Meta即將發(fā)布超強開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競爭中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個擁有驚人4050億參數(shù)的開源大模型。這一舉措不僅標志著Meta
    的頭像 發(fā)表于 07-18 09:58 ?1308次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品