0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT plus有什么功能?OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能

技術(shù)程序猿華鋒 ? 來源:jf_32321025 ? 作者:jf_32321025 ? 2023-12-13 09:19 ? 次閱讀

OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能分析解答

在最近的OpenAI DevDay上,該組織發(fā)布了一項備受期待的公告:推出GPT-4 Turbo,這是對其突破性AI模型的改進(jìn)。在這里,我們?nèi)媪私釭PT-4 Turbo是什么、它的主要功能以及它如何使開發(fā)人員和用戶受益。

了解 OpenAI 的最新更新、具有視覺功能的 GPT-4 Turbo 及其主要功能,包括改進(jìn)的知識截止、擴(kuò)展的上下文窗口、預(yù)算友好的定價等。

什么是GPT-4 Turbo?

GPT-4 Turbo是現(xiàn)有GPT-4大語言模型的更新。它帶來了一些改進(jìn),包括大大增加的上下文窗口和對更多最新知識的訪問。OpenAI逐漸改進(jìn)ChatGPT中GPT-4的功能,添加了自定義指令、ChatGPT插件、DALL-E 3和高級數(shù)據(jù)分析。此最新更新帶來了許多令人興奮的新功能。

什么是GPT-4 Turbo With Vision?

具有視覺功能的GPT-4 Turbo是GPT-4 Turbo的變體,包含光學(xué)字符識別(OCR)功能。也就是說,您可以向它提供圖像,它可以返回圖像中包含的任何文本。例如,您可以輸入菜單的照片,它將返回該照片中寫入的食物選擇。同樣,您可以提供發(fā)票照片并自動提取供應(yīng)商名稱和商品詳細(xì)信息。

ChatGPT默認(rèn)提供“with Vision”功能,開發(fā)人員可以通過在OpenAI API中選擇“gpt-4-vision”模型來使用。

GPT-4 Turbo主要特性

GPT-4 Turbo與之前的型號相比有多項改進(jìn),增強(qiáng)了其功能。以下是使其脫穎而出的一些關(guān)鍵功能:

改進(jìn)知識截止

wKgZomV4MfiAStCQAAE7saIRtao133.pngSam Altman承諾確保ChatGPT保持最新狀態(tài)

GPT-3.5和GPT-4的現(xiàn)有版本的知識截止日期為2021年9月。這意味著它們無法回答有關(guān)該時間之后發(fā)生的現(xiàn)實(shí)世界事件的問題,除非獲得外部數(shù)據(jù)源的訪問權(quán)限。

GPT-4將知識截止時間延長了19個月,至2023年4月。這意味著GPT-4 Turbo可以訪問截至該日期的信息和事件,使其成為更明智、更可靠的信息來源。此外,OpenAI的首席執(zhí)行官Sam Altman承諾“[OpenAI]將努力永遠(yuǎn)不會讓[GPT]再次過時?!?/p>

128K上下文窗口

大型語言模型(LLM)的上下文窗口是衡量其對話記憶持續(xù)時間的指標(biāo)。如果模型的上下文窗口包含4,000個令牌(約3,000個單詞),則聊天中超過4,000個令牌之前的所有內(nèi)容都會被忽略,并且響應(yīng)可能會變得不太準(zhǔn)確,甚至與之前的響應(yīng)相矛盾。對于處理較長的文檔或進(jìn)行長時間對話的聊天機(jī)器人來說,這是一個問題。

GPT-4的最大上下文長度為32k(32,000)個令牌。GPT-4 Turbo將其增加到128k令牌(大約240頁,每頁400個字)。這超過了Anthropic的Claude 2模型的100k最大上下文,并使其與Nous Research的YARN-MISTRAL-7b-128k模型保持一致。

較長的上下文窗口是否會導(dǎo)致整個窗口的響應(yīng)性能令人滿意,還有待觀察。斯坦福大學(xué)最近的研究表明,現(xiàn)有的長上下文模型只能在從文檔開頭或結(jié)尾附近檢索信息時提供準(zhǔn)確的響應(yīng)。

還值得注意的是,128k似乎只是實(shí)現(xiàn)“無限上下文”夢想的墊腳石。微軟和西安交通大學(xué)的早期研究旨在將法學(xué)碩士規(guī)模擴(kuò)大到十億個代幣的背景。

GPT開始發(fā)售

OpenAI響應(yīng)了LLM市場日益激烈的競爭,并降低了GPT-4 Turbo的價格,以便為開發(fā)人員提供經(jīng)濟(jì)實(shí)惠的價格。使用OpenAI API時,GPT-4 Turbo輸入代幣價格現(xiàn)在是之前價格的三分之一,從每1000個代幣3美分降至1美分。產(chǎn)出的代幣現(xiàn)在是半價,從每1000個代幣6美分降至3美分。

GPT-3.5 Turbo模型也延續(xù)了同樣的趨勢,以每1000個代幣0.1美分的價格提供了3倍便宜的輸入代幣,以每1000個代幣0.2美分的價格提供了2倍便宜的輸出代幣。

此外,經(jīng)過微調(diào)的GPT-3.5 Turbo 4K模型輸入代幣現(xiàn)在價格便宜4倍,價格從每1000個代幣1.2美分降至0.3美分,輸出代幣便宜2.7倍,從每1.6美分降至0.6美分每1000個代幣為美分。培訓(xùn)價格保持不變,為每1000個代幣0.8美分。

這些價格調(diào)整旨在使先進(jìn)的人工智能模型對開發(fā)者來說更??具成本效益。

GPT走向多模式:圖像提示和文本轉(zhuǎn)語音

“GPT-4 Turbo with Vision”宣布即將推出。您很快就可以通過直接在聊天框中輸入圖像作為提示來提示GPT-4 Turbo。然后,該工具將能夠生成標(biāo)題或提供圖像所描繪內(nèi)容的描述。它還將處理文本到語音的請求。

函數(shù)調(diào)用更新

函數(shù)調(diào)用是開發(fā)人員將生成式人工智能融入其應(yīng)用程序的一項功能。它使他們能夠向GPT-4 Turbo描述其應(yīng)用程序的功能或外部API。由于能夠在一條消息中調(diào)用多個函數(shù),此功能簡化了與模型的交互。例如,用戶可以發(fā)送一條請求多個操作的消息,從而無需與模型進(jìn)行多次來回交互。

如何訪問GPT-4 Turbo

“所有付費(fèi)開發(fā)人員”都可以訪問GPT-4 Turbo,這意味著如果您具有API訪問權(quán)限,則只需在OpenAI API中傳遞“gpt-4-1106-preview”作為模型名稱即可。同樣,對于具有視覺功能的GPT-4 Turbo,您可以傳遞“gpt-4-vision-preview”作為模型名稱。

請注意,這些預(yù)覽模型尚未被認(rèn)為適合生產(chǎn)使用。然而,作為公告的一部分,Altman還承諾將在未來幾周內(nèi)推出可投入生產(chǎn)的版本。

對于非開發(fā)人員來說,GPT-4 Turbo可能會在未來幾周內(nèi)向ChatGPT Plus和ChatGPT Enterprise用戶提供。

速率限制

通過OpenAI API訪問GPt模型的速率受到限制。也就是說,您每月只能向API發(fā)出有限數(shù)量的請求。OpenAI現(xiàn)已發(fā)布關(guān)于速率限制如何運(yùn)作的更清晰指南,因此您的應(yīng)用程序不會意外被切斷。

此外,GPT-4的速率限制增加了一倍

由于GPT-4 Turbo目前處于預(yù)覽階段,因此GPT-4 Turbo的速率限制設(shè)置為每分鐘20個請求和每天100個請求。OpenAI已表示,他們目前不會適應(yīng)此模型的速率限制增加。然而,一旦公開版本可用,他們很可能會這樣做。

最后的思考

GPT-4 Turbo的發(fā)布為生成式AI的未來提供了令人興奮的一瞥,我們迫不及待地想掌握它。對于那些尋求更深入了解的人,我們關(guān)于在OpenAI API使用GPT-3.5和GPT-4的教程有很多值得探索的地方。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30898

    瀏覽量

    269130
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1089

    瀏覽量

    6527
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1561

    瀏覽量

    7683
收藏 人收藏

    評論

    相關(guān)推薦

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強(qiáng)大的
    的頭像 發(fā)表于 10-29 18:17 ?885次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?453次閱讀

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯

    基于GPT-4的模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯誤而設(shè)計,其獨(dú)特的作用在于,讓人們能夠用GPT-4來查找GPT-4的錯誤。
    的頭像 發(fā)表于 06-29 09:55 ?549次閱讀

    OpenAI API Key獲?。洪_發(fā)人員申請GPT-4 API Key教程

    ? OpenAIGPT-4模型因其卓越的自然語言理解和生成能力,成為了許多開發(fā)者的首選工具。獲取GPT-4 API Key并將其應(yīng)用于項目,如開發(fā)一個ChatGPT聊天應(yīng)用,不僅是實(shí)
    的頭像 發(fā)表于 06-24 17:40 ?2379次閱讀
    <b class='flag-5'>OpenAI</b> API Key獲取:開發(fā)人員申請<b class='flag-5'>GPT-4</b> API Key教程

    開發(fā)者如何調(diào)用OpenAIGPT-4o API以及價格詳情指南

    ?目前,OpenAI新模型GPT-4o和GPT-4 Turbo的價格如下: GPT-4o 對比
    的頭像 發(fā)表于 05-29 16:00 ?1.1w次閱讀
    開發(fā)者如何調(diào)用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4</b>o API以及價格詳情指南

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會的演示中,
    發(fā)表于 05-27 15:43

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會上,OpenAI揭開了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大、更經(jīng)濟(jì)的支持。GPT-4o是此前備受矚目的
    的頭像 發(fā)表于 05-15 09:23 ?404次閱讀

    OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)當(dāng)?shù)貢r間5月13日,OpenAI舉行春季發(fā)布會,宣布將推出桌面版ChatGPT,并發(fā)布全新旗艦AI模型GPT-4
    的頭像 發(fā)表于 05-15 00:15 ?7833次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費(fèi)使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語音處理方面有顯著進(jìn)步。
    的頭像 發(fā)表于 05-14 11:17 ?511次閱讀

    阿里云正式發(fā)布通義千問2.5,中文性能全面趕超GPT-4 Turbo

    在通義大模型發(fā)布一周年之際,阿里云邁出了歷史性的一步。近日,阿里云正式發(fā)布通義千問2.5版本,其性能全面超越GPT-4 Turbo,榮登中文大模型之巔。
    的頭像 發(fā)表于 05-13 11:16 ?985次閱讀

    OpenAI計劃宣布ChatGPTGPT-4更新

    人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI近日宣布,將于5月13日進(jìn)行一場產(chǎn)品更新直播,屆時將揭曉ChatGPTGPT-4的新進(jìn)展。這一消息立即引發(fā)了外界對OpenAI下一項重大技術(shù)
    的頭像 發(fā)表于 05-13 11:06 ?589次閱讀

    商湯科技發(fā)布5.0多模態(tài)大模型,綜合能力全面對標(biāo)GPT-4 Turbo

    商湯科技發(fā)布5.0多模態(tài)大模型,綜合能力全面對標(biāo)GPT-4 Turbo 4月23日,商湯科技董事長兼CEO徐立在2024商湯技術(shù)交流日上發(fā)布
    的頭像 發(fā)表于 04-24 16:49 ?1114次閱讀

    OpenAI推出Vision模型版GPT-4 Turbo,融合文本與圖像理解

    據(jù)悉,此模型沿用GPT-4 Turbo系列特有的12.8萬token窗口規(guī)模及截至2023年12月的知識庫架構(gòu),其創(chuàng)新亮點(diǎn)則是強(qiáng)大的視覺理解功能。
    的頭像 發(fā)表于 04-10 10:49 ?408次閱讀

    微軟Copilot全面更新為OpenAIGPT-4 Turbo模型

    起初,Copilot作為Bing Chat AI助手推出,初期采用GPT-3.5模型,隨后升級至GPT-4取得顯著進(jìn)步,如今再次更新至性能卓越的GPT-4 Turbo模型,這無疑將使得
    的頭像 發(fā)表于 03-13 13:42 ?733次閱讀

    OpenAI推出ChatGPT功能:朗讀,支持37種語言,兼容GPT-4GPT-3

    據(jù)悉,“朗讀”功能支持37種語言,且能夠自主識別文本類型并對應(yīng)相應(yīng)的發(fā)音。值得關(guān)注的是,該功能GPT-4以及GPT-3.5版本的ChatGPT
    的頭像 發(fā)表于 03-05 15:48 ?935次閱讀