電子發(fā)燒友App

硬聲App

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

電子發(fā)燒友網(wǎng)>人工智能>書生?浦語 2.0(InternLM2)大語言模型開源

書生?浦語 2.0(InternLM2)大語言模型開源

收藏

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

評論

查看更多

相關(guān)推薦

會寫代碼的AI開源

和 CodeParrot。盡管 Codex 本身不是開源的,但我們發(fā)現(xiàn),針對自然語言建模,現(xiàn)有的開源模型確實在某些編程語言中取得
2022-08-16 15:46:161907

如何利用Transformers了解視覺語言模型

模型稱為 “視覺語言模型是什么意思?一個結(jié)合了視覺和語言模態(tài)的模型?但這到底是什么意思呢?
2023-03-03 09:49:37665

“悟道3.0”系列大模型全面開源,有助于AI應(yīng)用普及!

新階段,此次發(fā)布的一系列成果包括“悟道·天鷹”(Aquila)語言模型系列、天秤(FlagEval)開源模型評測體系與開放平臺、“悟道 · 視界”視覺大模型系列,以及一系列多模態(tài)模型成果。 ? 悟道3.0 全面開源意味著什么 ? 悟道·天鷹語言模型是首
2023-06-14 00:06:001457

2023年科技圈熱詞“大語言模型”,與自然語言處理有何關(guān)系

電子發(fā)燒友網(wǎng)報道(文/李彎彎)大語言模型(LLM)是基于海量文本數(shù)據(jù)訓練的深度學習模型。它不僅能夠生成自然語言文本,還能夠深入理解文本含義,處理各種自然語言任務(wù),如文本摘要、問答、翻譯
2024-01-02 09:28:331267

開源圖形語言

有沒有開源的Labview(類似的圖形語言),而且跨平臺的???
2013-11-03 10:40:36

開源技術(shù)平臺介紹

操作性,各種設(shè)備都可以直接相互查找、連接和通信,而無需借助中間服務(wù)器。- 許可協(xié)議:Apache2.0、BSD- 開發(fā)語言:C,C ++,OBJ-C,Java- 系統(tǒng)平...
2021-08-20 07:21:00

C語言開源項目

值得學習的C語言開源項目- 1. WebbenchWebbench是一個在linux下使用的非常簡單的網(wǎng)站壓測工具。它使用fork()模擬多個客戶端同時訪問我們設(shè)定的URL,測試網(wǎng)站在壓力下工
2021-08-20 06:15:10

FM訓系統(tǒng)集中管理柜的重要性

在聾兒語言康復(fù)訓練機構(gòu)、學校中FM無線調(diào)頻系統(tǒng)目前被廣泛運用,但是也存在一些問題需要注意:1、聾兒語言康復(fù)訓練機構(gòu)是以班級為單位,每個學生的助聽器、人工耳蝸的防潮保管問題日漸突出。2、每個學生
2017-08-15 14:29:30

FM無線調(diào)頻訓系統(tǒng)對聾兒康復(fù)有什么作用?

。1991年美國言語-語言和聽力協(xié)會建議對聽障嬰兒使用FM裝置以直接促進其語言發(fā)育。隨著經(jīng)濟條件的改善和中國***的重視,越來越多的中國聾兒開始使用FM 無線調(diào)頻訓設(shè)備,并從中獲益。在使用FM無線調(diào)頻
2017-07-26 14:07:07

Github開源的數(shù)字手勢識別CNN模型簡析

2.概述一個簡單的AI開發(fā)sampleGithub開源的數(shù)字手勢識別CNN模型,識別數(shù)字0-10十一種手勢類LeNet-5,兩個卷積層,兩個池化層,一個全連接層,一個Softmax輸出層3.RKNN
2022-04-02 15:22:11

Harmony的圖形示例,啟動默認顯示語言切換方法

大家好:Harmony的下列安裝目錄中有一個aria_._.ion天氣預(yù)報示例,位于以下位置:Harmonyv2_06appsgfxaria_._forecast這是三國語言的一個示例。它可以用英語、簡體中文和西班牙提供。原來它是英語當它被打開。如何更改啟動到西班牙的默認語言?謝謝您。
2020-03-24 07:48:46

OpenHarmony開源硬件分享會-OH2.0升級子系統(tǒng)直播課件

`OpenHarmony開源硬件分享會-OH2.0升級子系統(tǒng)直播課件`
2021-06-23 14:32:13

SUSE Euler Linux 2.0 通過歐拉開源社區(qū) OSV 產(chǎn)品兼容性認證

近日,SUSE Euler Linux 2.0 通過了歐拉開源社區(qū)的技術(shù)測評,完全符合其針對 OSV 的產(chǎn)品兼容性認證,本次認證同時涵蓋 x86 和 arm64 兩種架構(gòu)。這表明,SUSE
2022-08-10 11:09:08

openDACS第一批開源EDA核心貢獻者名單、openDACS V2.0版本在CCF Chip2022正式發(fā)布

openDACS v2.0-EDA開源論壇在2022年7月30日于南京CCF Chip2022正式舉行。openDACS工委會主任李華偉老師公布了論壇議程:一、 openDACS工作委員會隆重發(fā)布了
2022-08-15 14:11:17

【書籍評測活動NO.30】大規(guī)模語言模型:從理論到實踐

;gt;社區(qū)活動專版標題名稱必須包含【大規(guī)模語言模型:從理論到實踐】+自擬標題 注意事項 1、活動期間如有作弊、灌水等違反電子發(fā)燒友論壇規(guī)則的行為一經(jīng)發(fā)現(xiàn)將立即取消獲獎資格 2、活動結(jié)束后獲獎
2024-03-11 15:16:39

【書籍評測活動NO.31】大語言模型:原理與工程實踐

深遠影響,尤其在優(yōu)化業(yè)務(wù)流程和重塑組織結(jié)構(gòu)方面。然而,在研究和實踐過程中,我們遇到了一個主要挑戰(zhàn):市場上缺乏大語言模型在實際應(yīng)用方面的資料?,F(xiàn)有的資料多聚焦于理論研究,而具體的實踐方法多被保密,難以獲得
2024-03-18 15:49:46

中科院微電子汪令飛 :介紹openDACS器件模型&抽取提取SIG,發(fā)布開源薄膜晶體管模型v1.0

器件模型&參數(shù)提取SIG組長,介紹了SIG總體情況,包括四個方面內(nèi)容:SIG研究方向介紹技術(shù)趨勢和相關(guān)業(yè)界產(chǎn)品開源目標與計劃開源版本發(fā)布最后代表中國科學院微電子研究所,發(fā)布
2022-07-06 09:57:44

關(guān)于labview輸入越南亂碼

請問有沒有大佬知道labview支不支持越南語言啊,我開了unicode輸入越南還是會亂碼,可以顯示出越南但是輸入到具體結(jié)構(gòu)里面就會亂碼。請問有大佬知道怎么解決嗎
2022-09-27 15:57:29

關(guān)于自然語言處理之54 語言模型(自適應(yīng))

自然語言處理——54 語言模型(自適應(yīng))
2020-04-09 08:20:30

多國語言手機輸入法及字庫(MTK 07/08系列、ULC2等多種平臺)

提供多國語言手機輸入法及字庫(MTK 07/08系列、ULC2等多種平臺)專業(yè)提供多國語言輸入法及字庫,可用于MTK(07A/07B/08A/08B)系列、ULC2等多種手機平臺。產(chǎn)品包括:韓語
2009-06-04 09:32:46

多國語言手機輸入法及字庫(MTK 07/08系列、ULC2等多種平臺)

提供多國語言手機輸入法及字庫(MTK 07/08系列、ULC2等多種平臺)專業(yè)提供多國語言輸入法及字庫,可用于MTK(07A/07B/08A/08B)系列、ULC2等多種手機平臺。產(chǎn)品包括:韓語
2009-06-04 09:33:26

嵌入軟件靜態(tài)解析工具

檢查功能,Code Metrics計測功能適用于掌握以往程序的內(nèi)容,審閱會議時評估程序等,有利于改善軟件質(zhì)量的工具 產(chǎn)品概要 CasePlayer2是通過解析ANSI C語言,C++,嵌入式C語言(非
2023-08-02 11:51:36

恩智最新的應(yīng)用處理器 i.MX 95采用專有NPU IP進行片上AI加速

Mali GPU,以及恩智專用的2-TOPS Neutron NPU 和一個內(nèi)部開發(fā)的圖像信號處理器 (ISP)。 ISP處理相機接口和圖像預(yù)處理,包括高動態(tài)范圍 (HDR)、降噪和邊緣增強等任務(wù)
2023-02-16 11:20:03

提供多國語言手機輸入法及字庫(適用于MTK、ULC2等多種平臺)

  專業(yè)提供多國語言輸入法及字庫,可用于MTK、ULC2等多種手機平臺。產(chǎn)品包括:韓語、印度、烏爾都、孟加拉、哈薩克、阿拉伯、波斯、俄語、泰語、越南
2009-05-18 11:29:00

現(xiàn)有多國語言手機輸入法及字庫(MTK 07/08系列、ULC2等多種平臺)

提供多國語言手機輸入法及字庫(MTK 07/08系列、ULC2等多種平臺)專業(yè)提供多國語言輸入法及字庫,可用于MTK(07A/07B/08A/08B)系列、ULC2等多種手機平臺。產(chǎn)品包括:韓語
2009-06-04 09:33:57

自然語言處理的語言模型

自然語言處理——53 語言模型(數(shù)據(jù)平滑)
2020-04-16 11:11:25

阿里開源自研語音識別模型DFSMN使用技巧指南

重磅!阿里開源自研語音識別模型DFSMN,準確率高達9604%
2019-09-16 06:53:06

C語言2.0

C語言2.0
2006-04-08 02:04:1654

模型動力電學實驗室2.0

模型動力電學實驗室2.0
2006-04-10 21:36:5352

唇語識別中的話題相關(guān)語言模型研究_王淵

唇語識別中的話題相關(guān)語言模型研究_王淵
2017-03-19 11:28:160

自然語言處理常用模型解析

自然語言處理常用模型使用方法一、N元模型二、馬爾可夫模型以及隱馬爾可夫模型及目前常用的自然語言處理開源項目/開發(fā)包有哪些?
2017-12-28 15:42:305382

Bird 2.0空中機器人開源系統(tǒng)

本文檔內(nèi)容介紹了Bird 2.0空中機器人開源系統(tǒng)。
2018-01-22 16:46:122

專家解讀GPT 2.0 VS BERT!GPT 2.0到底做了什么

在談GPT 2.0之前,先回顧下它哥GPT 1.0,這個之前我在介紹Bert模型的時候介紹過,過程參考上圖,簡述如下:GPT 1.0采取預(yù)訓練+FineTuning兩個階段,它采取
2019-02-18 09:56:209668

初步認識鴻蒙系統(tǒng)2.0版本及其開源路線

華為鴻蒙操作系統(tǒng)(Harmony OS 2.0)已于2020年9月10日在華為開發(fā)者大會上正式發(fā)布和對外開源了,這意味著開發(fā)者可以拿到Harmony OS 2.0的源代碼了。雖然已經(jīng)離開源發(fā)布有整整
2020-10-26 14:23:435809

華為openharmony 2.0

華為openharmony 2.0 華為openharmony 2.0,今日在深圳·國際開源谷召開定向共建邀請會,預(yù)計五月下旬正式開源 2021年5月16日,開放原子開源基金會(以下簡稱“基金會
2021-06-21 20:10:371022

華為OpenHarmony 2.0開源的亮點

OpenHarmony 2.0 Canary代碼托管平臺已經(jīng)上線 gitee 開源,OpenHarmony是華為自主研發(fā)、不兼容安卓的全領(lǐng)域下一代開源操作系統(tǒng)。 開放原子開源基金會(以下簡稱“基金會
2021-06-22 09:58:512010

一種基于亂序語言模型的預(yù)訓練模型-PERT

由于亂序語言模型不使用[MASK]標記,減輕了預(yù)訓練任務(wù)與微調(diào)任務(wù)之間的gap,并由于預(yù)測空間大小為輸入序列長度,使得計算效率高于掩碼語言模型。PERT模型結(jié)構(gòu)與BERT模型一致,因此在下游預(yù)訓練時,不需要修改原始BERT模型的任何代碼與腳本。
2022-05-10 15:01:271173

外置BFO V2.0通孔版開源分享

電子發(fā)燒友網(wǎng)站提供《外置BFO V2.0通孔版開源分享.zip》資料免費下載
2022-07-25 09:21:280

HHKB Lite 2 Teensy 2.0控制器開源

電子發(fā)燒友網(wǎng)站提供《HHKB Lite 2 Teensy 2.0控制器開源.zip》資料免費下載
2022-07-28 11:53:131

模型鐵路動畫的DCC解碼開源分享

電子發(fā)燒友網(wǎng)站提供《模型鐵路動畫的DCC解碼開源分享.zip》資料免費下載
2022-08-08 09:26:000

DIY PCB BassWasp HAT 2.0開源分享

電子發(fā)燒友網(wǎng)站提供《DIY PCB BassWasp HAT 2.0開源分享.zip》資料免費下載
2022-08-22 14:23:521

NVIDIA NeMo最新語言模型服務(wù)幫助開發(fā)者定制大規(guī)模語言模型

NVIDIA NeMo 大型語言模型(LLM)服務(wù)幫助開發(fā)者定制大規(guī)模語言模型;NVIDIA BioNeMo 服務(wù)幫助研究人員生成和預(yù)測分子、蛋白質(zhì)及 DNA
2022-09-22 10:42:29742

編輯機器人2.0開源分享

電子發(fā)燒友網(wǎng)站提供《編輯機器人2.0開源分享.zip》資料免費下載
2022-10-20 14:21:000

監(jiān)測植物的壓力2.0開源分享

電子發(fā)燒友網(wǎng)站提供《監(jiān)測植物的壓力2.0開源分享.zip》資料免費下載
2022-11-02 11:06:150

物聯(lián)網(wǎng)家庭安全模型開源分享

電子發(fā)燒友網(wǎng)站提供《物聯(lián)網(wǎng)家庭安全模型開源分享.zip》資料免費下載
2022-11-10 09:55:010

REEE機器v2.0開源分享

電子發(fā)燒友網(wǎng)站提供《REEE機器v2.0開源分享.zip》資料免費下載
2022-11-10 11:21:570

人類跟隨機器人v2.0開源分享

電子發(fā)燒友網(wǎng)站提供《人類跟隨機器人v2.0開源分享.zip》資料免費下載
2022-11-11 14:21:450

AI大模型開源之困:壟斷、圍墻與算力之殤

也是在這樣的共識下,前不久阿里巴巴達摩院在云棲大會上推出的中文模型開源社區(qū)“魔搭”(ModelScope)在AI界引起了很大的關(guān)注,目前國內(nèi)的一些機構(gòu)已經(jīng)開始在該社區(qū)上貢獻模型,或是建立自己的開源模型體系。
2022-12-06 14:36:58491

支持Python和Java的BigCode開源輕量級語言模型

BigCode 是一個開放的科學合作組織,致力于開發(fā)大型語言模型。近日他們開源了一個名為 SantaCoder 的語言模型,該模型擁有 11 億個參數(shù)
2023-01-17 14:29:53692

大型語言模型有哪些用途?

大型語言模型能識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。 AI 應(yīng)用在大型語言模型的幫助下,可用于解決總結(jié)文章、編寫故事和參與長對話等多種繁重工作。 大型語言模型(LLM)是一種深度學習算法,可以
2023-02-23 19:50:043887

FlagOpen大模型技術(shù)開源體系,開啟大模型時代“新Linux”生態(tài)

“大數(shù)據(jù)+大算力+強算法=大模型”是當前人工智能發(fā)展的主要技術(shù)路徑。語言模型ChatGPT成為現(xiàn)象級應(yīng)用,人工智能進入普及應(yīng)用的新時期。 智源研究院2020年搭建大模型攻關(guān)團隊,2021年6月推出
2023-03-01 15:10:07503

大型語言模型有哪些用途?大型語言模型如何運作呢?

大型語言模型能識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。
2023-03-08 13:57:006989

商湯發(fā)布多模態(tài)多任務(wù)通用大模型書生2.5”,邁向AGI通用人工智能

其擁有 30億參數(shù) ,是目前全球開源模型中 ImageNet準確度最高、規(guī)模最大 ,同時也是物體檢測標桿數(shù)據(jù)集COCO中唯一超過65.0 mAP的模型。
2023-03-15 17:23:531079

Dolly 2.0發(fā)布,首個真正開放、可商用的指令調(diào)優(yōu)LLM

Dolly 2.0 是一個基于 EleutherAI pythia 模型系列的 12B 參數(shù)語言模型,并在透明且免費提供的數(shù)據(jù)集上進行了微調(diào);該數(shù)據(jù)集稱為 databricks-dolly-15k,也已開源發(fā)布。
2023-04-14 09:33:121496

各種大語言模型是徹底被解封了

基礎(chǔ) LLM 基本信息表,GPT-style 表示 decoder-only 的自回歸語言模型,T5-style 表示 encoder-decoder 的語言模型,GLM-style 表示 GLM 特殊的模型結(jié)構(gòu),Multi-task 是指 ERNIE 3.0 的模型結(jié)構(gòu)
2023-04-20 11:25:441071

一套開源的大型語言模型(LLM)—— StableLM

對于任何沒有額外微調(diào)和強化學習的預(yù)訓練大型語言模型來說,用戶得到的回應(yīng)質(zhì)量可能參差不齊,并且可能包括冒犯性的語言和觀點。這有望隨著規(guī)模、更好的數(shù)據(jù)、社區(qū)反饋和優(yōu)化而得到改善。
2023-04-24 10:07:062168

AI大語言模型的原理、演進及算力測算專題報告

GPT是基于Transformer架構(gòu)的大語言模型,近年迭代演進迅速。構(gòu)建語言模型是自然語言處理中最基本和最重要的任務(wù)之一。GPT是基于Transformer架構(gòu)衍生出的生成式預(yù)訓練的單向語言模型,通過對大 量語料數(shù)據(jù)進行無監(jiān)督學習
2023-04-28 10:01:59585

“伶荔”(Linly) 開源大規(guī)模中文語言模型

Linly-Chinese-LLaMA:中文基礎(chǔ)模型,基于 LLaMA 在高質(zhì)量中文語料上增量訓練強化中文語言能力,現(xiàn)已開放 7B、13B 和 33B 量級,65B 正在訓練中。
2023-05-04 10:29:07706

直播預(yù)告 | CSDN《開談》—開源模型崛起

當今,開源模型已經(jīng)成為人工智能領(lǐng)域的重要趨勢。其發(fā)展離不開深度學習技術(shù)的不斷發(fā)展和優(yōu)化,同時也離不開社區(qū)的協(xié)作和創(chuàng)新。未來,開源模型將在哪些領(lǐng)域和應(yīng)用場景中得到更廣泛的應(yīng)用?具有哪些優(yōu)勢
2023-05-17 01:25:02242

PyTorch教程9.3.之語言模型

電子發(fā)燒友網(wǎng)站提供《PyTorch教程9.3.之語言模型.pdf》資料免費下載
2023-06-05 09:59:000

PyTorch教程-9.3. 語言模型

9.3. 語言模型? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
2023-06-05 15:44:24268

清華等開源「工具學習基準」ToolBench,微調(diào)模型ToolLLaMA性能超越ChatGPT

最近,清華大學自然語言處理實驗室等支持的開源社區(qū)OpenBMB (Open Lab for Big Model Base)發(fā)布了ToolBench項目,可以幫助開發(fā)者構(gòu)建開源、大規(guī)模、高質(zhì)量的指令調(diào)優(yōu)數(shù)據(jù),促進構(gòu)建具有通用工具使用能力的大型語言模型。
2023-06-08 11:39:32360

模型當?shù)?開源聚力|2023開放原子全球開源峰會開源模型分論壇圓滿收官

6月13日,2023開放原子全球開源峰會開源模型分論壇圓滿舉行。本場論壇匯聚了中國大模型領(lǐng)域的專家,包括工業(yè)界和學術(shù)界的主流玩家,共同探討大 模型的最新技術(shù)和應(yīng)用,為業(yè)內(nèi)人士提供時新的技術(shù)資訊
2023-06-16 21:15:011059

模型當?shù)?開源聚力|2023開放原子全球開源峰會開源模型分論壇圓滿收官

6 月 13 日,2023 開放原子全球開源峰會開源模型分論壇圓滿舉行。本場論壇匯聚了中國大模型領(lǐng)域的專家,包括工業(yè)界和學術(shù)界的主流玩家,共同探討大模型的最新技術(shù)和應(yīng)用,為業(yè)內(nèi)人士提供時新的技術(shù)
2023-06-19 11:32:16416

悟道·天鷹 Aquila + 天秤 FlagEval,打造大模型能力與評測標準雙標桿

為推動大模型在產(chǎn)業(yè)落地和技術(shù)創(chuàng)新,智源研究院發(fā)布“開源商用許可語言模型系列+開放評測平臺” 2 大重磅成果,打造“大模型進化流水線”,持續(xù)迭代、持續(xù)開源開放。 01 悟道·天鷹(Aquila
2023-06-27 16:37:27244

大型語言模型的應(yīng)用

?? 大型語言模型(LLM) 是一種深度學習算法,可以通過大規(guī)模數(shù)據(jù)集訓練來學習識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。大語言模型(LLM)代表著 AI 領(lǐng)域的重大進步,并有望通過習得的知識改變
2023-07-05 10:27:351463

語言模型的發(fā)展歷程 基于神經(jīng)網(wǎng)絡(luò)的語言模型解析

簡單來說,語言模型能夠以某種方式生成文本。它的應(yīng)用十分廣泛,例如,可以用語言模型進行情感分析、標記有害內(nèi)容、回答問題、概述文檔等等。但理論上,語言模型的潛力遠超以上常見任務(wù)。
2023-07-14 11:45:40454

2023年發(fā)布的25個開源大型語言模型總結(jié)

來源: DeepHub IMBA 大型語言模型(llm)是一種人工智能(AI),在大量文本和代碼數(shù)據(jù)集上進行訓練。它們可以用于各種任務(wù),包括生成文本、翻譯語言和編寫不同類型的創(chuàng)意內(nèi)容。 今年開始
2023-07-28 12:20:02440

阿里云開源AI大模型,挑戰(zhàn)Meta、OpenAI

親愛的朋友,歡迎收看河套IT WALK總第91期。 今日全 球重大技術(shù)新聞目錄: · Google 的 RT-2: 當人工智能遇上機器人 ·IBM聯(lián)手NASA: 開源地理空間AI模型,助力氣候科學
2023-08-04 18:45:01511

AI大模型開源算法介紹

AI大模型開源算法介紹 什么是開源?簡單來說就是不收取任何費用,免費提供給用戶的軟件或應(yīng)用程序。開源是主要用于軟件的術(shù)語,除了免費用戶還可以對開源軟件的源代碼進行更改,并根據(jù)自身的使用情況進行
2023-08-08 17:25:011234

2023年發(fā)布的25個開源大型語言模型總結(jié)

大型語言模型(llm)是一種人工智能(AI),在大量文本和代碼數(shù)據(jù)集上進行訓練。它們可以用于各種任務(wù),包括生成文本、翻譯語言和編寫不同類型的創(chuàng)意內(nèi)容。今年開始,人們對開源LLM越來越感興趣。這些模型
2023-08-01 00:21:27554

清華大學大語言模型綜合性能評估報告發(fā)布!哪個模型更優(yōu)秀?

近日,清華大學新聞與傳播學院發(fā)布了《大語言模型綜合性能評估報告》,該報告對目前市場上的7個大型語言模型進行了全面的綜合評估。近年,大語言模型以其強大的自然語言處理能力,成為AI領(lǐng)域的一大熱點。它們
2023-08-10 08:32:01607

嘉楠開源通用大語言模型Toucan中的INT4量化技術(shù)解析

ChatGPT與其之后不斷涌現(xiàn)的大語言模型(LLM)迅速席卷了整個時代。隨著計算機對人類自然語言的領(lǐng)悟程度突飛猛進,我們與計算機的交互方式正在迅速而深刻地改變著,這也即將帶來一場既廣泛又具有極強創(chuàng)新性的商業(yè)模式轉(zhuǎn)型。
2023-08-19 14:57:11912

檢索增強的語言模型方法的詳細剖析

? 本篇內(nèi)容是對于ACL‘23會議上陳丹琦團隊帶來的Tutorial所進行的學習記錄,以此從問題設(shè)置、架構(gòu)、應(yīng)用、挑戰(zhàn)等角度全面了解檢索增強的語言模型,作為對后續(xù)工作的準備與入門,也希望能給大家?guī)?/div>
2023-08-21 09:58:011234

語言模型書生·浦語”多項專業(yè)評測拔頭籌

最近,AI大模型測評火熱,尤其在大語言模型領(lǐng)域,“聰明”的上限 被 不斷刷新。 商湯與上海AI實驗室等聯(lián)合打造的大語言模型書生·浦語”(InternLM)也表現(xiàn)出色,分別在 智源FlagEval
2023-08-25 13:00:02315

訓練大語言模型帶來的硬件挑戰(zhàn)

生成式AI和大語言模型(LLM)正在以難以置信的方式吸引全世界的目光,本文簡要介紹了大語言模型,訓練這些模型帶來的硬件挑戰(zhàn),以及GPU和網(wǎng)絡(luò)行業(yè)如何針對訓練的工作負載不斷優(yōu)化硬件。
2023-09-01 17:14:561046

百度千帆大模型2.0一天可跑通大模型效果驗證

百度千帆大模型2.0一天可跑通大模型效果驗證 今天的2023百度云智大會上,百度智能云宣布千帆大模型平臺2.0全面升級,百度千帆大模型2.0升級之后能力強悍,現(xiàn)在在千帆一站式工具鏈平臺,當天就可以跑通大模型效果驗證。經(jīng)過升級的千帆整套的工具鏈可以無縫銜接全生命周期的各個業(yè)務(wù)流程,給開發(fā)者極大的提高效率。
2023-09-05 16:17:45684

騰訊發(fā)布混元大語言模型

騰訊發(fā)布混元大語言模型 騰訊全球數(shù)字生態(tài)大會上騰訊正式發(fā)布了混元大語言模型,參數(shù)規(guī)模超千億,預(yù)訓練語料超2萬億tokens。 作為騰訊自研的通用大語言模型,混元大語言模型具有中文創(chuàng)作能力、任務(wù)執(zhí)行
2023-09-07 10:23:54815

性能超越開源模型標桿Llama2-70B,書生·浦語大模型InternLM-20B開源發(fā)布

開源首發(fā)。 同時,書生·浦語面向大模型研發(fā)與應(yīng)用的全鏈條工具鏈全線升級,與InternLM-20B一同繼續(xù)全面開放,向企業(yè)和開發(fā)者提供 免費商用授權(quán) 。 今年6月首次發(fā)布以來,書生·浦語歷多輪升級,在開源社區(qū)和產(chǎn)業(yè)界產(chǎn)生廣泛影響。 InternLM-20B模型性能先進且應(yīng)用便捷,以不足三分之一的參
2023-09-20 16:45:02644

揭秘編碼器與解碼器語言模型

Transformer 架構(gòu)的問世標志著現(xiàn)代語言模型時代的開啟。自 2018 年以來,各類語言模型層出不窮。
2023-10-24 11:42:05337

基于檢索的大語言模型簡介

簡介章節(jié)講的是比較基礎(chǔ)的,主要介紹了本次要介紹的概念,即檢索(Retrieval)和大語言模型(LLM)
2023-11-15 14:50:36282

浪潮信息發(fā)布源2.0基礎(chǔ)大模型,千億參數(shù)全面開源

11月27日,浪潮信息發(fā)布"源2.0"基礎(chǔ)大模型,并宣布全面開源。源2.0基礎(chǔ)大模型包括1026億、518億、21億等三種參數(shù)規(guī)模的模型,在編程、推理、邏輯等方面展示出了先進的能力。
2023-11-28 09:10:14417

阿里云通義千問720億參數(shù)模型宣布開源

12月1日,阿里云通義千問720億參數(shù)模型Qwen-72B宣布開源。與此同時,他們還開源了18億參數(shù)模型Qwen-1.8B和音頻大模型Qwen-Audio。
2023-12-01 17:08:08801

語言模型簡介:基于大語言模型模型全家桶Amazon Bedrock

本文基于亞馬遜云科技推出的大語言模型與生成式AI的全家桶:Bedrock對大語言模型進行介紹。大語言模型指的是具有數(shù)十億參數(shù)(B+)的預(yù)訓練語言模型(例如:GPT-3, Bloom, LLaMA)。這種模型可以用于各種自然語言處理任務(wù),如文本生成、機器翻譯和自然語言理解等。
2023-12-04 15:51:46356

語言模型概述

在科技飛速發(fā)展的當今時代,人工智能技術(shù)成為社會進步的關(guān)鍵推動力之一。在廣泛關(guān)注的人工智能領(lǐng)域中,大語言模型以其引人注目的特性備受矚目。 大語言模型的定義及發(fā)展歷史 大語言模型是一類基于深度學習技術(shù)
2023-12-21 17:53:59555

語言模型使用指南

在信息爆炸的時代,我們渴望更智能、更高效的語言處理工具。GPT-3.5等大語言模型的崛起為我們提供了前所未有的機會。這不僅是技術(shù)的進步,更是人與機器共舞的一幕。本篇文章將帶你走進這個奇妙的語言王國
2023-12-29 14:18:59276

語言模型推斷中的批處理效應(yīng)

隨著開源預(yù)訓練大型語言模型(Large Language Model, LLM )變得更加強大和開放,越來越多的開發(fā)者將大語言模型納入到他們的項目中。其中一個關(guān)鍵的適應(yīng)步驟是將領(lǐng)域特定的文檔集成到預(yù)訓練模型中,這被稱為微調(diào)。
2024-01-04 12:32:39228

商湯科技發(fā)布新一代大語言模型書生·浦語2.0

1月17日,商湯科技與上海AI實驗室聯(lián)合香港中文大學和復(fù)旦大學正式發(fā)布新一代大語言模型書?·浦語2.0InternLM2)。
2024-01-17 15:03:57332

機器人基于開源的多模態(tài)語言視覺大模型

ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機器人操作模型,只用單機就可以訓練。
2024-01-19 11:43:08106

字節(jié)發(fā)布機器人領(lǐng)域首個開源視覺-語言操作大模型,激發(fā)開源VLMs更大潛能

對此,ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機器人操作模型,只用單機就可以訓練。使用簡單、少量的微調(diào)就可以把 VLM 變成 Robotics VLM,從而適用于語言交互的機器人操作任務(wù)。
2024-01-23 16:02:17169

Meta發(fā)布CodeLlama70B開源模型

Meta發(fā)布CodeLlama70B開源模型 Meta發(fā)布了開源模型CodeLlama70B,號稱是CodeLlama系列體量最大、性能最強的大模型。 Code Llama 70B 有一個很出色
2024-01-31 10:30:18879

上海AI實驗室發(fā)布新一代書生·視覺大模型

近日,上海人工智能實驗室(上海AI實驗室)聯(lián)手多所知名高校及科技公司共同研發(fā)出新一代書生·視覺大模型(InternVL)。
2024-02-04 11:25:58580

模型開源開放評測體系司南正式發(fā)布

近日,大模型開源開放評測體系司南(OpenCompass2.0)正式發(fā)布,旨在為大語言模型、多模態(tài)模型等各類模型提供一站式評測服務(wù)。OpenCompass2.0的發(fā)布,將為模型技術(shù)創(chuàng)新提供重要的技術(shù)支撐。
2024-02-05 11:28:12526

昆侖萬維發(fā)布新版MoE大語言模型天工2.0

昆侖萬維科技今日震撼發(fā)布全新升級的「天工2.0」MoE大語言模型以及配套的新版「天工AI智能助手」APP。此次更新標志著國內(nèi)首個搭載MoE架構(gòu)的千億級參數(shù)大語言模型AI應(yīng)用正式面向廣大C端用戶免費
2024-02-06 16:19:51756

語言模型中的語言與知識:一種神秘的分離現(xiàn)象

自然語言處理領(lǐng)域存在著一個非常有趣的現(xiàn)象:在多語言模型中,不同的語言之間似乎存在著一種隱含的對齊關(guān)系。
2024-02-20 14:53:0684

谷歌大型模型終于開放源代碼,遲到但重要的開源戰(zhàn)略

在人工智能領(lǐng)域,谷歌可以算是開源的鼻祖。今天幾乎所有的大語言模型,都基于谷歌在 2017 年發(fā)布的 Transformer 論文;谷歌的發(fā)布的 BERT、T5,都是最早的一批開源 AI 模型。
2024-02-22 18:14:34143

谷歌發(fā)布輕量級開源人工智能模型Gemma

谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發(fā)人員和研究人員提供一個負責任的AI構(gòu)建平臺。這一舉措標志著自2022年OpenAI的ChatGPT引領(lǐng)AI聊天機器人熱潮后,谷歌首次發(fā)布重要的開源大型語言模型(LLM),直接與ChatGPT展開競爭。
2024-02-23 11:38:33345

IBM在watsonx上提供開源的Mistral AI模型

IBM 提供 Mixtral-8x7B 的優(yōu)化版本,該版本可將延遲時間最多縮短 75% IBM、第三方和開源模型的目錄不斷增加,為客戶提供更多選擇和靈活性 是 watsonx 人工智能與數(shù)據(jù)平臺
2024-03-12 19:10:361053

已全部加載完成