0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華系千億基座對(duì)話模型ChatGLM開(kāi)啟內(nèi)測(cè)

OSC開(kāi)源社區(qū) ? 來(lái)源:OSC開(kāi)源社區(qū) ? 2023-03-17 13:47 ? 次閱讀

由清華技術(shù)成果轉(zhuǎn)化的公司智譜 AI 宣布開(kāi)源了 GLM 系列模型的新成員 ——中英雙語(yǔ)對(duì)話模型 ChatGLM-6B,支持在單張消費(fèi)級(jí)顯卡上進(jìn)行推理使用。這是繼此前開(kāi)源 GLM-130B 千億基座模型之后,智譜 AI 再次推出大模型方向的研究成果。

此外,基于千億基座的 ChatGLM 線上模型目前也在 chatglm.cn 進(jìn)行邀請(qǐng)制內(nèi)測(cè),用戶需要使用邀請(qǐng)碼進(jìn)行注冊(cè),也可以填寫(xiě)基本信息申請(qǐng)內(nèi)測(cè)。

根據(jù)介紹,ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)問(wèn)答的對(duì)話語(yǔ)言模型,并針對(duì)中文進(jìn)行了優(yōu)化。該模型基于 General Language Model (GLM)架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。

ChatGLM-6B 使用了和 ChatGLM 相同的技術(shù),針對(duì)中文問(wèn)答和對(duì)話進(jìn)行了優(yōu)化。經(jīng)過(guò)約 1T 標(biāo)識(shí)符的中英雙語(yǔ)訓(xùn)練,輔以監(jiān)督微調(diào)、反饋?zhàn)灾?、人?lèi)反饋強(qiáng)化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 雖然規(guī)模不及千億模型,但大大降低了推理成本,提升了效率,并且已經(jīng)能生成相當(dāng)符合人類(lèi)偏好的回答。

ChatGLM-6B 具備以下特點(diǎn):

充分的中英雙語(yǔ)預(yù)訓(xùn)練:ChatGLM-6B 在 1:1 比例的中英語(yǔ)料上訓(xùn)練了 1T 的 token 量,兼具雙語(yǔ)能力。

優(yōu)化的模型架構(gòu)和大?。何?GLM-130B 訓(xùn)練經(jīng)驗(yàn),修正了二維 RoPE 位置編碼實(shí)現(xiàn),使用傳統(tǒng) FFN 結(jié)構(gòu)。6B(62 億)的參數(shù)大小,也使得研究者和個(gè)人開(kāi)發(fā)者自己微調(diào)和部署 ChatGLM-6B 成為可能。

較低的部署門(mén)檻:FP16 半精度下,ChatGLM-6B 需要至少 13 GB 的顯存進(jìn)行推理,結(jié)合模型量化技術(shù),這一需求可以進(jìn)一步降低到 10GB(INT8) 和 6GB(INT4),使得 ChatGLM-6B 可以部署在消費(fèi)級(jí)顯卡上。

更長(zhǎng)的序列長(zhǎng)度:相比 GLM-10B(序列長(zhǎng)度 1024),ChatGLM-6B 序列長(zhǎng)度達(dá) 2048,支持更長(zhǎng)對(duì)話和應(yīng)用。

人類(lèi)意圖對(duì)齊訓(xùn)練:使用了監(jiān)督微調(diào)(Supervised Fine-Tuning)、反饋?zhàn)灾‵eedback Bootstrap)、人類(lèi)反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人類(lèi)指令意圖的能力。輸出格式為 markdown,方便展示。

基于以上特點(diǎn),ChatGLM-6B 在一定條件下具備較好的對(duì)話與問(wèn)答能力。ChatGLM-6B 的對(duì)話效果展示如下:

ff303b12-c479-11ed-bfe3-dac502259ad0.png

不過(guò)由于 ChatGLM-6B 模型的容量較小,不可避免地存在一些局限和不足,包括:

相對(duì)較弱的模型記憶和語(yǔ)言能力。在面對(duì)許多事實(shí)性知識(shí)任務(wù)時(shí),ChatGLM-6B 可能會(huì)生成不正確的信息,也不太擅長(zhǎng)邏輯類(lèi)問(wèn)題(如數(shù)學(xué)、編程)的解答。

可能會(huì)產(chǎn)生有害說(shuō)明或有偏見(jiàn)的內(nèi)容:ChatGLM-6B 只是一個(gè)初步與人類(lèi)意圖對(duì)齊的語(yǔ)言模型,可能會(huì)生成有害、有偏見(jiàn)的內(nèi)容。

較弱的多輪對(duì)話能力:ChatGLM-6B 的上下文理解能力還不夠充分,在面對(duì)長(zhǎng)答案生成和多輪對(duì)話的場(chǎng)景時(shí),可能會(huì)出現(xiàn)上下文丟失和理解錯(cuò)誤的情況。

相比起 ChatGLM-6B,ChatGLM 參考了 ChatGPT 的設(shè)計(jì)思路,在千億基座模型 GLM-130B 中注入了代碼預(yù)訓(xùn)練,通過(guò)有監(jiān)督微調(diào)(Supervised Fine-Tuning)等技術(shù)實(shí)現(xiàn)人類(lèi)意圖對(duì)齊。ChatGLM 線上模型的能力提升主要來(lái)源于獨(dú)特的千億基座模型 GLM-130B。它采用了不同于 BERT、GPT-3 以及 T5 的 GLM 架構(gòu),是一個(gè)包含多目標(biāo)函數(shù)的自回歸預(yù)訓(xùn)練模型。

GLM 團(tuán)隊(duì)表示,2022 年 11 月,斯坦福大學(xué)大模型中心對(duì)全球 30 個(gè)主流大模型進(jìn)行了全方位的評(píng)測(cè),GLM-130B 是亞洲唯一入選的大模型。在與 OpenAI、Google Brain、微軟、英偉達(dá)、Meta AI 的各大模型對(duì)比中,評(píng)測(cè)報(bào)告顯示 GLM-130B 在準(zhǔn)確性和公平性指標(biāo)上與 GPT-3 175B (davinci) 接近或持平,魯棒性、校準(zhǔn)誤差和無(wú)偏性則優(yōu)于 GPT-3 175B。

ff656a6c-c479-11ed-bfe3-dac502259ad0.png

由 ChatGLM 生成的對(duì)話效果展示:

00b6fc32-c47a-11ed-bfe3-dac502259ad0.png

00d17aee-c47a-11ed-bfe3-dac502259ad0.png

014cb632-c47a-11ed-bfe3-dac502259ad0.png

不過(guò) GLM 團(tuán)隊(duì)也坦言,整體來(lái)說(shuō) ChatGLM 距離國(guó)際頂尖大模型研究和產(chǎn)品(比如 OpenAI 的 ChatGPT 及下一代 GPT 模型)還存在一定的差距。該團(tuán)隊(duì)表示,將持續(xù)研發(fā)并開(kāi)源更新版本的 ChatGLM 和相關(guān)模型?!皻g迎大家下載 ChatGLM-6B,基于它進(jìn)行研究和(非商用)應(yīng)用開(kāi)發(fā)。GLM 團(tuán)隊(duì)希望能和開(kāi)源社區(qū)研究者和開(kāi)發(fā)者一起,推動(dòng)大模型研究和應(yīng)用在中國(guó)的發(fā)展。”

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30898

    瀏覽量

    269130
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3244

    瀏覽量

    48847

原文標(biāo)題:清華系千億基座對(duì)話模型ChatGLM開(kāi)啟內(nèi)測(cè),單卡版模型已全面開(kāi)源

文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何開(kāi)啟Stable Diffusion WebUI模型推理部署

    如何開(kāi)啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?107次閱讀
    如何<b class='flag-5'>開(kāi)啟</b>Stable Diffusion WebUI<b class='flag-5'>模型</b>推理部署

    比亞迪亮相清華美院工業(yè)設(shè)計(jì)60周年慶典

    近日,清華大學(xué)美術(shù)學(xué)院工業(yè)設(shè)計(jì)在學(xué)院美術(shù)館隆重舉辦了六十周年慶典暨校友設(shè)計(jì)成果展。這不僅是一次對(duì)中國(guó)工業(yè)設(shè)計(jì)教育發(fā)展的莊嚴(yán)回望,更是一場(chǎng)關(guān)于未來(lái)設(shè)計(jì)創(chuàng)新的熱烈探討。
    的頭像 發(fā)表于 11-28 10:35 ?217次閱讀

    愛(ài)芯元智受邀參加2024清華自動(dòng)化論壇

    近日,“2024清華自動(dòng)化論壇”在廣州舉行。本次論壇由清華校友總會(huì)自動(dòng)化分會(huì)主辦,匯聚了海內(nèi)外約200位清華大學(xué)自動(dòng)化
    的頭像 發(fā)表于 11-05 14:41 ?375次閱讀

    chatglm2-6b在P40上做LORA微調(diào)

    2-6B chatglm2-6b相比于chatglm有幾方面的提升: 1. 性能提升: 相比初代模型,升級(jí)了 ChatGLM2-6B 的基座
    的頭像 發(fā)表于 08-13 17:12 ?486次閱讀
    <b class='flag-5'>chatglm</b>2-6b在P40上做LORA微調(diào)

    熱烈歡迎清華大學(xué)電子工程學(xué)子來(lái)武漢六博光電交流實(shí)踐!

    近日,武漢六博光電技術(shù)有限責(zé)任公司接到清華大學(xué)函件,正式成為清華大學(xué)電子工程武漢實(shí)踐基地之一。2024年8月1日上午,清華大學(xué)電子工程實(shí)
    的頭像 發(fā)表于 08-02 08:37 ?513次閱讀
    熱烈歡迎<b class='flag-5'>清華</b>大學(xué)電子工程<b class='flag-5'>系</b>學(xué)子來(lái)武漢六博光電交流實(shí)踐!

    昆侖萬(wàn)維開(kāi)源2千億稀疏大模型Skywork-MoE

    近日,昆侖萬(wàn)維公司宣布開(kāi)源一款名為Skywork-MoE的稀疏大模型,該模型擁有高達(dá)2千億參數(shù),不僅性能強(qiáng)勁,而且推理成本更低,為人工智能領(lǐng)域帶來(lái)了新的突破。
    的頭像 發(fā)表于 06-04 14:44 ?580次閱讀

    中國(guó)移動(dòng)發(fā)布“九天”人工智能基座

    在第七屆數(shù)字中國(guó)建設(shè)峰會(huì)上,中國(guó)移動(dòng)正式推出了其全新的“九天”人工智能基座。這一基座融合了萬(wàn)卡級(jí)智算集群、千億多模態(tài)大模型以及一個(gè)匯聚了百大要素的生態(tài)平臺(tái)。
    的頭像 發(fā)表于 05-29 11:12 ?882次閱讀

    通義千問(wèn)開(kāi)源千億級(jí)參數(shù)模型

    通義千問(wèn)近日開(kāi)源了其首個(gè)千億級(jí)參數(shù)模型Qwen1.5-110B,這是其全系列中首個(gè)達(dá)到千億級(jí)別的開(kāi)源模型。Qwen1.5-110B模型繼承了
    的頭像 發(fā)表于 05-08 11:01 ?755次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的評(píng)測(cè)

    大語(yǔ)言模型的評(píng)測(cè)是確保模型性能和應(yīng)用適應(yīng)性的關(guān)鍵環(huán)節(jié)。從基座模型到微調(diào)模型,再到行業(yè)模型和整體能
    發(fā)表于 05-07 17:12

    模型微調(diào)開(kāi)源項(xiàng)目全流程

    對(duì)于所有“基座”(Base)模型,–template 參數(shù)可以是 default, alpaca, vicuna 等任意值。但“對(duì)話”(Chat)模型請(qǐng)務(wù)必使用對(duì)應(yīng)的模板。
    的頭像 發(fā)表于 03-13 14:56 ?890次閱讀
    大<b class='flag-5'>模型</b>微調(diào)開(kāi)源項(xiàng)目全流程

    百川智能發(fā)布超千億模型Baichuan 3

    百川智能近日發(fā)布了超千億參數(shù)的大語(yǔ)言模型Baichuan 3,引發(fā)了業(yè)界的廣泛關(guān)注。這款模型在多個(gè)權(quán)威通用能力評(píng)測(cè)中表現(xiàn)卓越,展現(xiàn)了其強(qiáng)大的語(yǔ)義理解和生成能力。
    的頭像 發(fā)表于 01-31 14:58 ?849次閱讀

    書(shū)生?浦語(yǔ) 2.0(InternLM2)大語(yǔ)言模型開(kāi)源

    這個(gè)模型在 2.6 萬(wàn)億 token 的高質(zhì)量語(yǔ)料基礎(chǔ)上進(jìn)行訓(xùn)練,包含 7B 和 20B 兩種參數(shù)規(guī)格以及基座、對(duì)話等版本,以滿足不同復(fù)雜應(yīng)用場(chǎng)景的需求。
    發(fā)表于 01-19 09:39 ?272次閱讀
    書(shū)生?浦語(yǔ) 2.0(InternLM2)大語(yǔ)言<b class='flag-5'>模型</b>開(kāi)源

    智譜AI推出新一代基座模型GLM-4

    智譜AI近日宣布推出新一代基座模型GLM-4。這一模型在整體性能上相較上一代實(shí)現(xiàn)了大幅提升,其表現(xiàn)已逼近GPT-4。
    的頭像 發(fā)表于 01-17 15:29 ?1054次閱讀

    三步完成在英特爾獨(dú)立顯卡上量化和部署ChatGLM3-6B模型

    ChatGLM3 是智譜 AI 和清華大學(xué) KEG 實(shí)驗(yàn)室聯(lián)合發(fā)布的新一代對(duì)話預(yù)訓(xùn)練模型。ChatGLM3-6B 是
    的頭像 發(fā)表于 01-11 18:04 ?1636次閱讀
    三步完成在英特爾獨(dú)立顯卡上量化和部署<b class='flag-5'>ChatGLM</b>3-6B<b class='flag-5'>模型</b>

    ChatGLM3-6B在CPU上的INT4量化和部署

    ChatGLM3 是智譜 AI 和清華大學(xué) KEG 實(shí)驗(yàn)室聯(lián)合發(fā)布的新一代對(duì)話預(yù)訓(xùn)練模型ChatGLM3-6B 是
    的頭像 發(fā)表于 01-05 09:36 ?923次閱讀
    <b class='flag-5'>ChatGLM</b>3-6B在CPU上的INT4量化和部署