0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI正式發(fā)布GPT-4:支持圖像和文本的輸入、 處理中文的準(zhǔn)確度大幅提升

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-03-16 09:46 ? 次閱讀

OpenAI 剛剛宣布正式推出GPT-4。GPT-4 是 Generative Pre-trained Transformer 4 的縮寫,即生成型預(yù)訓(xùn)練變換模型 4。

公告寫道,GPT-4 是一個多模態(tài)大型語言模型(支持接受圖像和文本輸入,以文本形式輸出),也是 OpenAI 努力擴(kuò)展深度學(xué)習(xí)最新里程碑。雖然 GPT-4 對于許多現(xiàn)實場景的處理比人類差,但它在各種體現(xiàn)專業(yè)和學(xué)術(shù)能力的 benchmark 上,已表現(xiàn)出和人類相當(dāng)?shù)乃健?例如,GPT-4 通過了模擬律師考試,其分?jǐn)?shù)在應(yīng)試者的前 10% 左右;相比之下,GPT-3.5 的得分卻在倒數(shù) 10% 左右。OpenAI 表示,他們花了 6 個月的時間來使用對抗性測試程序,以及通過 ChatGPT 的經(jīng)驗教訓(xùn)迭代調(diào)整 GPT-4,從而在真實性和可控性等方面取得了有史以來最好的結(jié)果(盡管遠(yuǎn)非完美)。 使用示例 OpenAI 用一張梗圖演示了 GPT-4 特有的「多模態(tài)」功能。 用戶提問:解釋下圖的笑點是什么,并對圖片中的每部分進(jìn)行描述。

7be7e048-c37a-11ed-bfe3-dac502259ad0.png

GPT-4:

The image shows a package for a "Lightning Cable" adapter with three panels. Panel 1: A smartphone with a VGA connector (a large, blue, 15-pin connector typically used for computer monitors) plugged into its charging port. Panel 2: The package for the "Lightning Cable" adapter with a picture of a VGA connector on it. Panel 3: A close-up of the VGA connector with a small Lightning connector (used for charging iPhones and other Apple devices) at the end. The humor in this image comes from the absurdity of plugging a large, outdated VGA connector into a small, modern smartphone charging port.

翻譯如下:

圖片顯示了一個 "Lightning Cable" 適配器的包裝,總共包含三個部分。 面板 1:一部智能手機(jī),其充電端口插著一個 VGA 接口(大的藍(lán)色 15 針接口,通常用于電腦顯示器)。 面板 2:"Lightning Cable" 適配器的包裝上有一張 VGA 接口的圖片。 面板 3:VGA 連接器的特寫,末端是一個小的 Lightning 連接器(用于為 iPhone 和其他蘋果設(shè)備充電)。 這張圖片的笑點來自于:展示了將一個大的、過時的 VGA 連接器插入一個小的、現(xiàn)代的智能手機(jī)充電端口的荒謬性。

上面的例子看起來很簡單,OpenAI 緊接著展示了高級用法 —— 像人類一樣讀論文。簡單來說就是給 GPT-4 提供論文的圖片格式文件,讓它閱讀并總結(jié)出要點。效果如下:

7c40c0c8-c37a-11ed-bfe3-dac502259ad0.png

甚至直接讓 GPT-4 回答圖片中對應(yīng)題號的問題:

7c847912-c37a-11ed-bfe3-dac502259ad0.png

GPT-4 局限性 盡管功能強(qiáng)大,但 GPT-4 與早期的 GPT 模型具有相似的局限性,即生成的結(jié)果不符合事實。因此它仍然不完全可靠(它會產(chǎn)生 “幻覺” 事實并出現(xiàn)推理錯誤)。 雖然這仍然是一個問題,但 GPT-4 相對于以前的模型(它們本身在每次迭代中都在改進(jìn))顯著減少了 “幻覺”。在內(nèi)部的對抗性真實性評估中,GPT-4 的得分比最新的 GPT-3.5 高 40%:

7c8f1fd4-c37a-11ed-bfe3-dac502259ad0.png

與 GPT 3.5 的對比 據(jù)介紹,對于日常的談話,GPT-3.5 和 GPT-4 之間的區(qū)別可能很微妙。但當(dāng)任務(wù)的復(fù)雜性達(dá)到足夠的閾值時,差異就會出現(xiàn) ——GPT-4 比 GPT-3.5 更可靠、更有創(chuàng)意,并且能夠處理更細(xì)微的指令。 為了了解這兩種模型之間的區(qū)別,OpenAI 通過各種 benchmark 進(jìn)行了測試,包括最初為人類設(shè)計的模擬考試。從下圖可以看出,GPT-4 的成績大部分都比 GPT-3 好。

7caa4a52-c37a-11ed-bfe3-dac502259ad0.png

GPT-4 也在多項測試項目中取得了接近滿分的成績:

USABO Semifinal Exam 2020(美國生物奧林匹克競賽)

GRE 口語

OpenAI 還將機(jī)器學(xué)習(xí)模型的傳統(tǒng) benchmark 用于評估 GPT-4。結(jié)果顯示,GPT-4 已經(jīng)遠(yuǎn)遠(yuǎn)超過現(xiàn)有的大型語言模型,以及大多數(shù)最先進(jìn)的 (SOTA, state-of-the-art) 模型。benchmark 數(shù)據(jù)如下:

7cb4a484-c37a-11ed-bfe3-dac502259ad0.png

在 MMLU benchmark 中(一個基準(zhǔn)數(shù)據(jù)集,包括來自于 STEM、人文、社科等 57 個學(xué)科的選擇題,它用于測試 LLM 的世界知識和問題解答的能力),GPT-4 處理中文的準(zhǔn)確度大約是 80%,已經(jīng)優(yōu)于其他 LLM 的英文表現(xiàn),比如 GPT-3.5、Chinchilla、PALM。

7cd1d25c-c37a-11ed-bfe3-dac502259ad0.png

試用方式

ChatGPT Plus 訂閱用戶可嘗鮮體驗,他們將在 chat.openai.com 上獲得具有使用s上限的 GPT-4 訪問權(quán)限。

調(diào)用 API,訪問
https://openai.com/waitlist/gpt-4進(jìn)入等待名單


另外,

現(xiàn)在只支持純文本的請求(圖像輸入還在 alpha 階段)

定價:prompt - $0.03 per 1k token, completion - $0.06 per 1k token

context 長度為 8192 tokens,并且提供 32768 token 的版本(價格也更貴,$0.06 & $0.12)

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1088

    瀏覽量

    40515
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3279

    瀏覽量

    48974
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1103

    瀏覽量

    6598

原文標(biāo)題:OpenAI正式發(fā)布GPT-4:支持圖像和文本的輸入、 處理中文的準(zhǔn)確度大幅提升

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    GPT-4. GPT-4o mini的定價為每百萬輸入標(biāo)記15美分和每百萬輸出標(biāo)記60美分,比之前的前沿模型便宜了一個數(shù)量級,比GPT-3.5 Turbo便宜了60%以上。
    的頭像 發(fā)表于 07-21 10:20 ?1105次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4</b>o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯

    基于GPT-4的模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯誤而設(shè)計,其獨特的作用在于,讓人們能夠用GPT-4來查找GPT-4的錯誤。
    的頭像 發(fā)表于 06-29 09:55 ?569次閱讀

    OpenAI API Key獲取:開發(fā)人員申請GPT-4 API Key教程

    ? OpenAIGPT-4模型因其卓越的自然語言理解和生成能力,成為了許多開發(fā)者的首選工具。獲取GPT-4 API Key并將其應(yīng)用于項目,如開發(fā)一個ChatGPT聊天應(yīng)用,不僅是實踐人工智能技術(shù)
    的頭像 發(fā)表于 06-24 17:40 ?2458次閱讀
    <b class='flag-5'>OpenAI</b> API Key獲?。洪_發(fā)人員申請<b class='flag-5'>GPT-4</b> API Key教程

    開發(fā)者如何調(diào)用OpenAIGPT-4o API以及價格詳情指南

    ?目前,OpenAI新模型GPT-4o和GPT-4 Turbo的價格如下: GPT-4o 對比 GPT-4 Turbo
    的頭像 發(fā)表于 05-29 16:00 ?1.2w次閱讀
    開發(fā)者如何調(diào)用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4</b>o API以及價格詳情指南

    GPT-4人工智能模型預(yù)測公司未來盈利勝過人類分析師

    據(jù)悉,本次研究中,研究人員僅向GPT-4提供了匿名的財務(wù)數(shù)據(jù),包括資產(chǎn)負(fù)債表和損益表,并要求其預(yù)測未來盈利增長。盡管未獲得其他信息,GPT-4仍能達(dá)到60%的準(zhǔn)確度,遠(yuǎn)超人類分析師的平均水平(53%-57%)。
    的頭像 發(fā)表于 05-27 16:41 ?626次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會的演示中,
    發(fā)表于 05-27 15:43

    OpenAI正式推出GPT-4o模型,支持實時音頻、視覺和文本推理處理

    緊接著,OpenAI總裁暨聯(lián)合創(chuàng)始人Greg Brockman發(fā)布了詳細(xì)演示,展示了兩部搭載GPT-4o的設(shè)備如何實現(xiàn)語音或視頻交互。
    的頭像 發(fā)表于 05-15 10:26 ?544次閱讀

    OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)當(dāng)?shù)貢r間5月13日,OpenAI舉行春季發(fā)布會,宣布將推出桌面版ChatGPT,并發(fā)布全新旗艦AI模型GPT-4
    的頭像 發(fā)表于 05-15 00:15 ?7871次閱讀

    OpenAI發(fā)布GPT-4o模型,支持文本、圖像、音頻信息,速度提升一倍,價格不變

     此外,該模型還具備128K的上下文記憶能力,知識截止日期設(shè)定為2023年10月。微軟方面也宣布,已通過Azure OpenAI服務(wù)提供GPT-4o的預(yù)覽版。
    的頭像 發(fā)表于 05-14 17:12 ?870次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費(fèi)使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語音
    的頭像 發(fā)表于 05-14 11:17 ?537次閱讀

    OpenAI計劃宣布ChatGPT和GPT-4更新

    人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI近日宣布,將于5月13日進(jìn)行一場產(chǎn)品更新直播,屆時將揭曉ChatGPT和GPT-4的新進(jìn)展。這一消息立即引發(fā)了外界對OpenAI下一項重大技術(shù)發(fā)布的廣
    的頭像 發(fā)表于 05-13 11:06 ?611次閱讀

    阿里云發(fā)布通義千問2.5大模型,多項能力超越GPT-4

    阿里云隆重推出了通義千問 2.5 版,宣稱其“技術(shù)進(jìn)步,全面超越GPT-4”,尤其是在中文環(huán)境中的多種任務(wù)(如文本理解、文本生成、知識問答及生活建議、臨時聊天及對話以及安全風(fēng)險評估)方
    的頭像 發(fā)表于 05-09 14:17 ?984次閱讀

    OpenAI設(shè)立日本辦事處,研發(fā)日文版GPT-4

    此外,OpenAI 還計劃推出適用于日語環(huán)境的 GPT-4 定制版模型。據(jù)悉,該模型在處理日文文本時表現(xiàn)更為出色,運(yùn)行速度最高可提升至三倍;
    的頭像 發(fā)表于 04-15 16:04 ?507次閱讀

    OpenAI推出Vision模型版GPT-4 Turbo,融合文本圖像理解

    據(jù)悉,此模型沿用GPT-4 Turbo系列特有的12.8萬token窗口規(guī)模及截至2023年12月的知識庫架構(gòu),其創(chuàng)新亮點則是強(qiáng)大的視覺理解功能。
    的頭像 發(fā)表于 04-10 10:49 ?428次閱讀

    OpenAI推出ChatGPT新功能:朗讀,支持37種語言,兼容GPT-4GPT-3

    據(jù)悉,“朗讀”功能支持37種語言,且能夠自主識別文本類型并對應(yīng)相應(yīng)的發(fā)音。值得關(guān)注的是,該功能對GPT-4以及GPT-3.5版本的ChatGPT均適用。此舉彰顯了
    的頭像 發(fā)表于 03-05 15:48 ?981次閱讀