0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

獵戶星空發(fā)布Orion-MoE 8×7B大模型及AI數(shù)據(jù)寶AirDS

科技綠洲 ? 來源:網(wǎng)絡(luò)整理 ? 作者:網(wǎng)絡(luò)整理 ? 2024-11-29 13:57 ? 次閱讀

近日,獵戶星空攜手聚云科技在北京共同舉辦了一場(chǎng)發(fā)布會(huì)。會(huì)上,獵戶星空正式揭曉了其自主研發(fā)的Orion-MoE 8×7B大模型,并與聚云科技聯(lián)合推出了基于該大模型的數(shù)據(jù)服務(wù)——AI數(shù)據(jù)寶AirDS。

Orion-MoE 8×7B是獵戶星空精心打造的開源混合架構(gòu)專家大模型,該模型擁有高達(dá)8×70億的參數(shù)規(guī)模,采用了先進(jìn)的生成式混合專家設(shè)計(jì)。這一設(shè)計(jì)使得Orion-MoE 8×7B在性能上有了顯著提升,能夠輕松應(yīng)對(duì)多種復(fù)雜任務(wù)。

值得注意的是,Orion-MoE 8×7B大模型不僅支持中文,還涵蓋了英語、日語、韓語等多種語言,滿足了全球化市場(chǎng)的需求。

與此同時(shí),獵戶星空與聚云科技共同推出的AI數(shù)據(jù)寶AirDS,則是基于Orion-MoE 8×7B大模型的數(shù)據(jù)服務(wù)。這一服務(wù)將為用戶提供更加高效、便捷的數(shù)據(jù)處理和分析能力,助力企業(yè)在數(shù)字化轉(zhuǎn)型的道路上邁出堅(jiān)實(shí)的一步。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7048

    瀏覽量

    89076
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30947

    瀏覽量

    269213
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2465

    瀏覽量

    2763
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

    新的高度。 一,技術(shù)突破:開源智能的新高度 Llama 3.3 70B 模型發(fā)布,標(biāo)志著開源AI模型在智能水平上的一大飛躍。它不僅達(dá)到了之
    的頭像 發(fā)表于 12-18 16:46 ?135次閱讀
    Meta重磅<b class='flag-5'>發(fā)布</b>Llama 3.3 70<b class='flag-5'>B</b>:開源<b class='flag-5'>AI</b><b class='flag-5'>模型</b>的新里程碑

    騰訊發(fā)布開源MoE大語言模型Hunyuan-Large

    近日,騰訊公司宣布成功推出業(yè)界領(lǐng)先的開源MoE(Mixture of Experts,專家混合)大語言模型——Hunyuan-Large。這款模型不僅在參數(shù)量上刷新了業(yè)界紀(jì)錄,更在效果上展現(xiàn)出了卓越
    的頭像 發(fā)表于 11-06 10:57 ?316次閱讀

    Orion模型即將面世,OpenAI采用新發(fā)布模式

    不同,Orion將不會(huì)直接面向公眾開放。相反,OpenAI計(jì)劃首先向與其密切合作的公司提供授權(quán),以便這些公司能夠基于Orion模型構(gòu)建自己的產(chǎn)品和功能。這一發(fā)布模式的變化,可能意味著O
    的頭像 發(fā)表于 10-25 10:11 ?342次閱讀

    PerfXCloud重磅升級(jí) 阿里開源最強(qiáng)視覺語言模型Qwen2-VL-7B強(qiáng)勢(shì)上線!

    體驗(yàn)吧! Qwen2-VL Qwen2-VL模型由阿里推出,在描述圖像、理解視頻以及解答視覺相關(guān)問題等方面表現(xiàn)極為卓越。該模型提供2B/7B/72B
    的頭像 發(fā)表于 10-23 11:07 ?299次閱讀
    PerfXCloud重磅升級(jí)  阿里開源最強(qiáng)視覺語言<b class='flag-5'>模型</b>Qwen2-VL-<b class='flag-5'>7B</b>強(qiáng)勢(shì)上線!

    TAS5805的I2C地址配置的是7b:2D,8b:5A怎么出來是7b:2F,8b:5E?這個(gè)是什么原因?

    我們5805的I2C地址配置的是7b:2D,8b:5A,怎么出來是7b:2F,8b:5E?這個(gè)是什么原因? DVDD: 1.8V
    發(fā)表于 10-18 07:41

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    英偉達(dá)公司宣布推出 Llama-3.1-Nemotron-51B AI 模型,這個(gè)AI模型是源自 Meta 公司的 Llama-3.1-7
    的頭像 發(fā)表于 09-26 17:30 ?610次閱讀

    統(tǒng)信軟件發(fā)布中國(guó)首款操作系統(tǒng)級(jí)端側(cè)模型UOS LM

    1.5B7B兩種規(guī)模的模型,專為優(yōu)化AI在PC端的應(yīng)用而生,深度賦能統(tǒng)信UOS社區(qū)版(deepin V23)用戶。
    的頭像 發(fā)表于 08-09 16:02 ?818次閱讀

    Meta即將發(fā)布超強(qiáng)開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競(jìng)爭(zhēng)中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個(gè)擁有驚人4050億參數(shù)的開源大模型。這一舉措不僅標(biāo)志著M
    的頭像 發(fā)表于 07-18 09:58 ?1000次閱讀

    谷歌發(fā)布用于輔助編程的代碼大模型CodeGemma

    谷歌發(fā)布了用于輔助編程的代碼大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月發(fā)布的輕量級(jí)開源大模型 Gemma,針對(duì) Gemma 的兩個(gè)不同參數(shù)規(guī)模的版本 Gemm
    的頭像 發(fā)表于 04-17 16:07 ?696次閱讀
    谷歌<b class='flag-5'>發(fā)布</b>用于輔助編程的代碼大<b class='flag-5'>模型</b>CodeGemma

    Mistral Large模型現(xiàn)已在Amazon Bedrock上正式可用

    的 Mistral 7B 和 Mixtral 8x7B模型。今天,Mistral AI最新且最前沿的大語言模型(LLM)Mistral La
    的頭像 發(fā)表于 04-08 16:26 ?564次閱讀

    昆侖萬維發(fā)布新版MoE大語言模型天工2.0

    昆侖萬維科技今日震撼發(fā)布全新升級(jí)的「天工2.0」MoE大語言模型以及配套的新版「天工AI智能助手」APP。此次更新標(biāo)志著國(guó)內(nèi)首個(gè)搭載MoE
    的頭像 發(fā)表于 02-06 16:19 ?1274次閱讀

    幻方量化發(fā)布了國(guó)內(nèi)首個(gè)開源MoE模型—DeepSeekMoE

    幻方量化旗下組織深度求索發(fā)布了國(guó)內(nèi)首個(gè)開源 MoE模型 —— DeepSeekMoE,全新架構(gòu),免費(fèi)商用。
    的頭像 發(fā)表于 01-23 11:28 ?1626次閱讀
    幻方量化<b class='flag-5'>發(fā)布</b>了國(guó)內(nèi)首個(gè)開源<b class='flag-5'>MoE</b>大<b class='flag-5'>模型</b>—DeepSeekMoE

    獵戶星空發(fā)布強(qiáng)大AI模型

    近日,獵戶星空在2024·傅盛的開年AI大課暨獵戶星空企業(yè)應(yīng)用大模型
    的頭像 發(fā)表于 01-22 14:31 ?705次閱讀

    對(duì)標(biāo)OpenAI GPT-4,MiniMax國(guó)內(nèi)首個(gè)MoE大語言模型全量上線

    MoE 架構(gòu)全稱專家混合(Mixture-of-Experts),是一種集成方法,其中整個(gè)問題被分為多個(gè)子任務(wù),并將針對(duì)每個(gè)子任務(wù)訓(xùn)練一組專家。MoE 模型將覆蓋不同學(xué)習(xí)者(專家)的不同輸入數(shù)
    的頭像 發(fā)表于 01-16 15:34 ?913次閱讀
    對(duì)標(biāo)OpenAI GPT-4,MiniMax國(guó)內(nèi)首個(gè)<b class='flag-5'>MoE</b>大語言<b class='flag-5'>模型</b>全量上線

    年度最熱AI應(yīng)用TOP 50,除了ChatGPT還有這么多寶藏

    還有一款開源模型是Mistral AI推出的Mixtral 7B,Mixtral 7B也是開源基礎(chǔ)模型里最強(qiáng)的那一檔,可以越級(jí)挑戰(zhàn)13
    的頭像 發(fā)表于 01-15 16:25 ?1216次閱讀