0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

微軟正式發(fā)布一個27億參數(shù)的語言模型—Phi-2

AI科技大本營 ? 來源:CSDN ? 2023-12-14 15:45 ? 次閱讀

先后和 OpenAI、Meta 牽手推動大模型發(fā)展的微軟,也正在加快自家小模型的迭代。就在今天,微軟正式發(fā)布了一個 27 億參數(shù)的語言模型——Phi-2。這是一種文本到文本的人工智能程序,具有出色的推理和語言理解能力。

同時,微軟研究院也在官方 X 平臺上如是說道,“Phi-2 的性能優(yōu)于其他現(xiàn)有的小型語言模型,但它足夠小,可以在筆記本電腦或者移動設備上運行”。

Phi-2 的性能真能優(yōu)于大它 25 倍的模型?

對于Phi-2 的發(fā)布,微軟研究院在官方公告的伊始便直言,Phi-2 的性能可與大它 25 倍的模型相匹配或優(yōu)于。

這也讓人有些尷尬的事,不少網(wǎng)友評價道,這豈不是直接把 Google 剛發(fā)的 Gemini 最小型號的版本給輕松超越了?

9143919c-9a54-11ee-8b88-92fbcf53809c.png

那具體情況到底如何?

微軟通過時下一些如 Big Bench Hard (BBH)、常識推理(PIQA、WinoGrande、ARC easy 和 Challenge、SIQA)、語言理解(HellaSwag、OpenBookQA、MMLU(5-shot)、 SQuADv2、BoolQ)、數(shù)學(GSM8k)和編碼(HumanEval)等基準測試,將 Phi-2 與 7B 和 13B 參數(shù)的 Mistral 和 Llama-2 進行了比較。

最終得出僅擁有 27 億個參數(shù)的 Phi-2 ,超越了 Mistral 7B 和 Llama-2 7B 以及 13B 模型的性能。值得注意的是,與大它 25 倍的 Llama-2-70B 模型相比,Phi-2 還在多步推理任務(即編碼和數(shù)學)上實現(xiàn)了更好的性能。

914e0758-9a54-11ee-8b88-92fbcf53809c.png

此外,如上文所提及的,微軟研究人員也直接在基準測試中放上了其與Google 全新發(fā)布的 Gemini Nano 2 正面PK 的結(jié)果,不出所料,Phi-2盡管尺寸較小,但性能還是把Gemini Nano 2 超了。

91580fa0-9a54-11ee-8b88-92fbcf53809c.png

除了這些基準之外,研究人員似是在暗諷 Google 前幾日在Gemini 演示視頻中造假一事,因為當時 Google 稱其即將推出的最大、最強大的新人工智能模型 Gemini Ultra 能夠解決相當復雜的物理問題,并且甚至糾正學生的錯誤。

事實證明,盡管 Phi-2 的大小可能只是 Gemini Ultra 的一小部分,但它也能夠正確回答問題并使用相同的提示糾正學生。

9163d164-9a54-11ee-8b88-92fbcf53809c.png

微軟的改進

Phi-2 小模型之所以有如此亮眼的成績,微軟研究院在博客中解釋了原因。

一是提升訓練數(shù)據(jù)的質(zhì)量。Phi-2 是一個基于 Transformer 的模型,其目標是預測下一個單詞,它在 1.4T 個詞組上進行了訓練,這些詞組來自 NLP 和編碼的合成數(shù)據(jù)集和網(wǎng)絡數(shù)據(jù)集,包括科學、日常活動和心理理論等用于教授模型常識和推理的內(nèi)容。Phi-2 的訓練是在 96 個 A100 GPU 上耗時 14 天完成的。

其次,微軟使用創(chuàng)新技術進行擴展,將其知識嵌入到 27 億參數(shù) Phi-2 中。

微軟指出,Phi-2 是一個基礎模型,沒有通過人類反饋強化學習(RLHF)進行調(diào)整,也沒有經(jīng)過指導性微調(diào)。盡管如此,與經(jīng)過對齊的現(xiàn)有開源模型相比,微軟觀察到在毒性和偏差方面,Phi-2 有更好的表現(xiàn)。

917381cc-9a54-11ee-8b88-92fbcf53809c.png

寫在最后

話說 Phi-2 的發(fā)布的確在小模型的性能上實現(xiàn)了突破,不過也有媒體發(fā)現(xiàn)它還存在很大的局限性。

因為根據(jù)微軟研究許可證顯示,其規(guī)定了 Phi -2 只能用于“非商業(yè)、非創(chuàng)收、研究目的”,而不是商業(yè)用途。因此,想要在其之上構(gòu)建產(chǎn)品的企業(yè)就不走運了。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3643

    瀏覽量

    134535
  • OpenAI
    +關注

    關注

    9

    文章

    1089

    瀏覽量

    6528
  • 大模型
    +關注

    關注

    2

    文章

    2451

    瀏覽量

    2719

原文標題:只有 27 億參數(shù),微軟發(fā)布全新 Phi-2 模型!

文章出處:【微信號:AI科技大本營,微信公眾號:AI科技大本營】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AMD發(fā)布10參數(shù)開源AI模型OLMo

    AMD公司近日宣布了項重大進展,推出了首個完全開放的10參數(shù)語言模型系列——AMD OLMo。這舉措為開發(fā)者和研究人員提供了強大的AI
    的頭像 發(fā)表于 11-12 18:08 ?443次閱讀

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI大模型,包含三版本:mini(3.8B參數(shù))、small(7B
    的頭像 發(fā)表于 08-30 16:58 ?605次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi</b>-3-min<b class='flag-5'>模型</b>

    中國石油發(fā)布330參數(shù)昆侖大模型

    中國石油在近日于北京舉行的成果發(fā)布會上,震撼發(fā)布了擁有330參數(shù)的昆侖大模型,標志著中國能源化工行業(yè)正式邁入大
    的頭像 發(fā)表于 08-29 18:10 ?867次閱讀

    谷歌發(fā)布新型大語言模型Gemma 2

    在人工智能領域,大語言模型直是研究的熱點。近日,全球科技巨頭谷歌宣布,面向全球研究人員和開發(fā)人員,正式發(fā)布了其最新研發(fā)的大語言
    的頭像 發(fā)表于 06-29 09:48 ?440次閱讀

    微軟發(fā)布PhI-3-Vision模型,提升視覺AI效率

    Phi-3-vision 是種小型多模式語言模型(SLM),主要適用于本地人工智能場景。其模型參數(shù)
    的頭像 發(fā)表于 05-28 11:35 ?491次閱讀

    微軟發(fā)布視覺型AI新模型Phi-3-vision

     據(jù)悉,Phi-3-vision 作為微軟 Phi-3 家族的首款多模態(tài)模型,繼承自 Phi-3-mini 的文本理解能力,兼具輕巧便攜特性
    的頭像 發(fā)表于 05-27 15:56 ?488次閱讀

    英特爾優(yōu)化AI產(chǎn)品組合,助力微軟Phi-3家族模型

    近日,英特爾宣布針對微軟Phi-3家族開放模型,成功驗證并優(yōu)化了其跨客戶端、邊緣及數(shù)據(jù)中心的AI產(chǎn)品組合。這重要舉措旨在提供更為靈活和高效的AI解決方案。
    的頭像 發(fā)表于 05-27 11:47 ?668次閱讀

    英特爾與微軟合作在其AI PC及邊緣解決方案中支持多種Phi-3模型

    近日,英特爾針對微軟的多個Phi-3家族的開放模型,驗證并優(yōu)化了其跨客戶端、邊緣和數(shù)據(jù)中心的AI產(chǎn)品組合。
    的頭像 發(fā)表于 05-27 11:15 ?580次閱讀

    微軟自研5000參數(shù)模型曝光

    微軟近日曝光了其內(nèi)部正在秘密研發(fā)的巨型AI模型——MAl-1,這款模型擁有驚人的5000參數(shù)。據(jù)微軟
    的頭像 發(fā)表于 05-08 09:56 ?461次閱讀

    微軟準備推出全新人工智能語言模型

    微軟近期傳出消息,正在秘密研發(fā)款全新的人工智能語言模型,這款模型在規(guī)模上預計將具備與谷歌和OpenAI等業(yè)界巨頭相抗衡的實力。據(jù)悉,這款新
    的頭像 發(fā)表于 05-08 09:30 ?427次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    類任務上表現(xiàn)出色,甚至在零樣本條件下也能取得良好效果。另類則需要逐步推理才能完成的任務,類似于人類的系統(tǒng)2,如數(shù)字推理等。然而,隨著參數(shù)量的增加,大語言
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    特定任務對模型進行微調(diào)。這種方法的成功不僅是自然語言處理發(fā)展的轉(zhuǎn)折點,還為許多現(xiàn)實世界的應用場帶來了前所未有的性能提升。從廣為人知的GPT到BERT,預訓練的
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    維基百科、網(wǎng)頁內(nèi)容和書籍等,不僅掌握了語言的語法、語義和上下文信息,還能生成結(jié)構(gòu)連貫、語義合理的句子和段落。大語言模型顯著特點是其龐大
    發(fā)表于 05-04 23:55

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是
    的頭像 發(fā)表于 04-28 10:36 ?572次閱讀

    微軟發(fā)布phi-3AI模型,性能超越GPT-3.5

    微軟稱,帶有38參數(shù)phi-3-mini經(jīng)過3.3萬億token的強化學習,其基礎表現(xiàn)已經(jīng)超過Mixtral 8x7B及GPT-3.5;此外,該
    的頭像 發(fā)表于 04-23 14:32 ?546次閱讀