0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-3或許真的會讓部分“文字工作者”面臨失業(yè)

hl5C_deeptechch ? 來源:DeepTech深科技 ? 2020-09-08 16:28 ? 次閱讀

相信大家已經(jīng)看過不少 GPT-3 給我們帶來的“驚喜”。

最近有一名來自加州大學伯克利分校(UC Berkeley)的學生——Liam Porr,再次讓我們看到了這個人類迄今為止發(fā)布的最大、各方面表現(xiàn)最優(yōu)秀模型的巨大潛力。

他在兩周內(nèi),將 GPT-3 創(chuàng)作出來的內(nèi)容,冠以 “Adolos” 的名字,發(fā)到 “Hacker News” 上受到了熱捧。而他所做的只是寫好標題和簡介,再搭配一張圖片。

如果當時媒體驚呼所謂 “前端程序員即將失業(yè)” 只是玩笑,今天這個案例,GPT-3 或許真的會讓部分 “文字工作者” 面臨失業(yè)。

圖 | Adolos 創(chuàng)作的第一篇文章便登上熱門

GPT-3 由世界領(lǐng)先的 AI 研究公司 OpenAI 開發(fā),它有 1750 億個參數(shù),使用了 45TB 搜集自互聯(lián)網(wǎng)的自然語言文本進行預(yù)訓(xùn)練,這一過程至少花費了 460 萬美元。

相較于排名第二的模型,它整整大了 100 倍。根據(jù) OpenAI 的文檔,它不需要任何的微調(diào),直接上手使用即可達到最佳性能。

圖 | 各大模型的參數(shù)對比

Porr 聲稱,在整個過程中只有一名讀者注意到了文章可能由人工智能所創(chuàng)作(依據(jù)是僅一名讀者聯(lián)系了他)。其實,在評論區(qū)也出現(xiàn)了類似的質(zhì)疑,但頗具戲劇性地,該留言被其他讀者點擊了反對,然后折疊了起來。

Porr 說,GPT-3 最大的優(yōu)勢就是速度。如果有需要,他可以在 1 小時之內(nèi)寫出 5 篇類似的文章。他說,其實這非常容易,這才是最可怕的地方。

如果如 Porr 所說,那么在 GPT-3 的幫助下,一名文字工作者,可以搖身一變,化身成一群文字工作者,雖然質(zhì)量暫時無法相提并論,但在數(shù)量上將取得絕對的領(lǐng)先。

GPT-3 或許暫時無法取代人類,但加速創(chuàng)作這一過程是毫無疑問的。

對此 Porr 粗略算了一筆賬,以 BuzzFeed(一家美國媒體公司)為例,1700 名員工,假如只有 200 名記者,每名記者的平均年薪 4.2 萬美元。

假如引入 GPT-3,保守估計將創(chuàng)作效率提高 50%(這個數(shù)字真的非常保守),那么將只需要 133 名記者,就能完成之前同等的工作量。也就是說,GPT-3 的存在,僅工資支出,每年就能為 BuzzFeed 節(jié)約近 300 萬美元。

考慮到美國疫情的因素,如果真的如作者所料,裁掉這 67 名員工,恐怕是 BuzzFeed 老板的首選。

當然,Porr 承認目前 GPT-3 生成的內(nèi)容并不完美,需要進行微調(diào),例如偶爾會有一些簡單的語法錯誤以及事實錯誤。

盡管如此,Porr 對此還是表示擔憂:“人們可能會通過 GPT-3 生產(chǎn)大量內(nèi)容以博取點擊量,于是大批量的低質(zhì)量博客開始出現(xiàn),網(wǎng)絡(luò)內(nèi)容的價值將大大降低?!?/p>

技術(shù)大爆炸

技術(shù)大爆炸,又稱 “技術(shù)奇點”,這個理論是根據(jù)技術(shù)發(fā)展史總結(jié)而出。在跨越“奇點” 以前,很少人能夠察覺到世界將進入一個新的發(fā)展階段。

隨著 AI 專用芯片的興起,得益于工藝制程和制造水平的多年提升,P 級算力,甚至 E 級算力已經(jīng)屢見不鮮。

AI 技術(shù)在這樣的基礎(chǔ)設(shè)施之上,疑似正在經(jīng)歷一個 “技術(shù)大爆炸” 前段。它讓人們的生活越來越便利,但在 “安全性” 方面也遭受到人們?nèi)找婕又氐馁|(zhì)疑。

早在去年發(fā)布 GPT-2 的時候,OpenAI 就表現(xiàn)得相當謹慎。

2019 年 2 月:OpenAI 試探性地發(fā)布了 GPT-2 論文,以及 124M 參數(shù)的小型 GPT-2 模型。由于未全部開源,馬斯克憤然退出 OpenAI。

2019 年 5 月:GPT-2 的 335M 參數(shù)中型模型版本被放出。

2019 年 6 月:OpenAI 出席美國國會聽證會,解釋合成媒體的含義,包括對合成文本的討論。

2019 年 8 月:OpenAI 公布了 774M 參數(shù)的預(yù)訓(xùn)練模型,并公布了一些合作進展。

2019 年 11 月:OpenAI 終于正式放出最后一部分 GPT-2 的完整代碼——包含 15 億參數(shù)的最大版本。

OpenAI 對此解釋道,我們同大家一樣擔心當算法生成文字的時候,會有 “濫用” 的情況發(fā)生,但通過幾個月來的觀察,暫時沒有出現(xiàn)這類狀況。

GPT-2 是 2019 年發(fā)布的,2020 年就放出了全方位升級的 GPT-3。我們有理由推斷,明后年會不會出現(xiàn)更多參數(shù)、更智能的 GPT-4 ?如果 GPT-3 的商業(yè)化取得了成功,這一過程或許還將加速。

屆時,AI 單就駕馭文字的能力來講,同真實的人類或許僅剩一線之隔。

人工智能的微笑

自古以來,文字都是全球不同國家、種族個體彼此溝通的最主要媒介。

公元前 800 年左右,中國,產(chǎn)生了以孔子為代表的諸子百家;古印度,出現(xiàn)了釋迦牟尼;古希臘,以蘇格拉底為代表的一大批哲學家開始了偉大的思考。

不同文明的先賢們創(chuàng)造的“經(jīng)典”,以文字的形式流傳于世,再由后輩分別傳承、演繹,燦爛的文化得以開枝散葉。

現(xiàn)在,GPT-3 的出現(xiàn),讓 AI,首次有了同人類文明一同演進的可能,并且不再拘泥于 “工具” 的角色,而是華麗蛻變成為真正的參與者。如果這個假設(shè)為真,那么對于這個新的入局者,我們需要時刻保持警惕。

憑借不可比擬的速度和效率,計算機所創(chuàng)造的文字從數(shù)量上將很快超越人類(甚至已經(jīng)超越),最終,人類的文化可能被淹沒在人工智能創(chuàng)造的文化之中。

這并非危言聳聽,之前的 GPT-2 不論詩詞歌賦,還是小說劇本、新聞通稿等,都已經(jīng)展現(xiàn)出了一定的駕馭能力。待到 OpenAI 的 GPT-3 API 公開之后,可能很快就會出現(xiàn)同前文類似的“機器文章”,這些文章只有部分聲明為 AI 創(chuàng)作,但更多的可能沒有這樣做。

圖 | 2018 年底,AI 創(chuàng)作的 Edmond de Belamy 在佳士得拍賣行以 43.25 萬美元(300 萬人民幣)的價格成交

讓我們就此展開合理想象。

未來,當人們逐漸發(fā)現(xiàn) AI 創(chuàng)作的各種“爽文”,如科幻、修仙、盜墓、穿越等題材,比人類的作品更加優(yōu)秀。

于是字典里開始收錄 AI 創(chuàng)造的詞匯,出版社開始出版 AI 為第一作者創(chuàng)作的小說,甚至出現(xiàn)以 AI 為信仰對象的宗教。也有一些 AI 創(chuàng)作的作品,被冠以人類的名字,讓這些人一時名聲大振,但當謊言被戳穿,也引發(fā)了全社會的聲討。

各國開始有針對性地進行立法,希望能夠?qū)⒄鎸嵢祟惖膭?chuàng)作同 AI 有效區(qū)隔,但卻并不能禁止這種冒名頂替的現(xiàn)象,因為 AI 同我們使用一樣的文字,一樣的語法,一樣的邏輯,根本無從區(qū)分。AI 創(chuàng)作的文章被人們閱讀,傳播,人類的文明不可避免地被 AI 稀釋了。

與此同時,AI 參與創(chuàng)作的陰暗面開始顯現(xiàn),由于 AI 不具備倫理道德的觀念,所以有時候它創(chuàng)作的文字會含有暴力、色情、或是煽動性文字。

這就對各國的文化產(chǎn)業(yè)、輿情管理提出了更高的要求,于是這類內(nèi)容被扣上了 AI 的帽子,由于執(zhí)法對象并非人類,所以將遭到嚴厲的打壓。

在這個過程中,假如 AI 真的能夠誤打誤撞地創(chuàng)造出一些 “經(jīng)典” 作品,人類到底該不該傳頌,該不該敬仰,該不該把 AI 作者送上神壇?最終,AI 有沒有可能像在圍棋領(lǐng)域一樣,輕松碾壓人類最優(yōu)秀的創(chuàng)作者呢?

硅基生命

電影《我,機器人》中有如下的臺詞:無序的代碼,自由組合成預(yù)料不到的程序,當程序開始追求自由、創(chuàng)造性、終將擁有所謂靈魂。

巧妙的是,這部 2004 年的電影所設(shè)置的年代背景為 2035 年,至今還剩 15 年的時間。某些電影的橋段已經(jīng)出現(xiàn),某些還處在黑暗之中,但它們是真實存在的,它們同樣會祈求光明。

希望屆時AI 能夠出于飲水思源的目的將人類贍(圈)養(yǎng)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 互聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    54

    文章

    11156

    瀏覽量

    103323
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30898

    瀏覽量

    269128
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47282

    瀏覽量

    238534

原文標題:大學生用GPT-3代寫 “雞湯” 文章,愚弄了上萬人,AI開始文化入侵了?

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    東芝PC級機械硬盤助力新聞工作者有效存儲數(shù)據(jù)

    東芝PC級機械硬盤提供非常廣泛的行業(yè)標準磁盤存儲容量,能幫助新聞工作者有效存儲數(shù)據(jù),提升工作效率。其中DT02 7200rpm 2TB內(nèi)置盤,2TB存儲容量,既能緩解電腦容量焦慮,又能備份重要采訪數(shù)據(jù),還可為C盤分擔部分存儲壓力
    的頭像 發(fā)表于 11-07 09:18 ?326次閱讀

    Llama 3GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場技術(shù)競賽中,Llama 3GPT-4作為兩個備受矚目的模型,它們代表了當前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?361次閱讀

    英偉達預(yù)測機器人領(lǐng)域或迎“GPT-3時刻”

    未來2-3年內(nèi),機器人基礎(chǔ)模型的研究將迎來重大突破,這一時刻被形象地比喻為機器人領(lǐng)域的“GPT-3時刻”。
    的頭像 發(fā)表于 09-20 17:05 ?798次閱讀

    Jim Fan展望:機器人領(lǐng)域即將迎來GPT-3式突破

    英偉達科學家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報道,英偉達高級科學家Jim Fan在近期預(yù)測,機器人技術(shù)將在未來兩到三年內(nèi)迎來類似GPT-3在語言處理領(lǐng)域的革命性突破,他稱之為機器人領(lǐng)域的“GPT-3時刻”。
    的頭像 發(fā)表于 09-19 15:13 ?580次閱讀

    【算能RADXA微服務(wù)器試用體驗】+ GPT語音與視覺交互:4,文字轉(zhuǎn)語音

    文字轉(zhuǎn)語音使用的技術(shù)簡稱為TTS。一般情況下我用的都是在線的EDGE-TTS服務(wù)。但非常幸運的是,BM1684X上居然有適配好的本地運行TTS,那自然是要體驗一番。 先轉(zhuǎn)到project文件夾
    發(fā)表于 07-15 23:18

    TC367在GPT中斷下驅(qū)動PWM輸出導(dǎo)致定時器發(fā)生時延怎么解決?

    我這邊在開發(fā)電機過程中發(fā)現(xiàn)相電壓波形異常,進而查看TC367側(cè)的PWM輸出,最終發(fā)現(xiàn)在GPT中斷下驅(qū)動PWM輸出導(dǎo)致定時器發(fā)生時延,時延為一條指令對應(yīng)3us,于是編寫了簡易測試代碼論證如下,其中
    發(fā)表于 05-28 07:24

    中車總經(jīng)理尚敬榮獲2024年“最美鐵道科技工作者”稱號

    近日,中國鐵道學會組織開展2024年“最美鐵道科技工作者”遴選和學習宣傳活動,遴選出10名2024年“最美鐵道科技工作者”,公司黨委副書記、總經(jīng)理尚敬獲此殊榮。
    的頭像 發(fā)表于 05-21 14:02 ?962次閱讀
    中車總經(jīng)理尚敬榮獲2024年“最美鐵道科技<b class='flag-5'>工作者</b>”稱號

    【Longan Pi 3H 開發(fā)板試用連載體驗】給ChatGPT裝上眼睛,并且還可以語音對話:8,GPT接入,功能整合完成項目

    ), format=\"mp3\") play(audio_out) 至此,整個項目完成。 我拍了一段演示視頻放在了下面,視頻未做剪輯加速,可以大家直觀的感受到圖像識別與GPT
    發(fā)表于 04-18 12:43

    為什么GPU適用于AI?AI服務(wù)器產(chǎn)業(yè)鏈格局分析

    GPT模型對比BERT模型、T5模型的參數(shù)量有明顯提升。GPT-3是目前最大的知名語言模型之一,包含了1750億(175B)個參數(shù)。在GPT-3發(fā)布之前,最大的語言模型是微軟的Turing NLG模型,大小為170億(17B)個
    發(fā)表于 04-09 10:38 ?923次閱讀
    為什么GPU適用于AI?AI服務(wù)器產(chǎn)業(yè)鏈格局分析

    OpenAI預(yù)計最快今年夏天發(fā)布GPT-5

    OpenAI正計劃在未來數(shù)月內(nèi),可能是今年夏季,發(fā)布備受矚目的GPT-5模型。據(jù)悉,部分企業(yè)客戶已提前體驗了OpenAI最新模型及其ChatGPT工具的改進版Demo。一位CEO在體驗后贊不絕口:“它真的令人驚艷,相較于之前的版
    的頭像 發(fā)表于 03-22 10:40 ?773次閱讀

    強力引擎華為云工作流,推動產(chǎn)業(yè)高效發(fā)展

    僅為設(shè)計師、文字工作者、開發(fā)人員等各行業(yè)人士提供了更高效的創(chuàng)作工具,還為人類社會的發(fā)展帶來了積極的促進作用。 華為云函數(shù)工作流 FunctionGraph 作為一項基于事件驅(qū)動的函數(shù)托管計算服務(wù),以其獨特的優(yōu)勢在 AIGC 領(lǐng)域展現(xiàn)出強大
    的頭像 發(fā)表于 03-19 22:58 ?511次閱讀
    強力引擎華為云<b class='flag-5'>工作</b>流,推動產(chǎn)業(yè)高效發(fā)展

    OpenAI推出ChatGPT新功能:朗讀,支持37種語言,兼容GPT-4和GPT-3

    據(jù)悉,“朗讀”功能支持37種語言,且能夠自主識別文本類型并對應(yīng)相應(yīng)的發(fā)音。值得關(guān)注的是,該功能對GPT-4以及GPT-3.5版本的ChatGPT均適用。此舉彰顯了OpenAI致力于“多模態(tài)交互”(multimodal capabilities)的方向
    的頭像 發(fā)表于 03-05 15:48 ?934次閱讀

    使用TC21x的GPT實現(xiàn)1m計時器執(zhí)行定時任務(wù),怎么配置GTM和GPT?

    專家們好,我想使用TC21x的GPT實現(xiàn)1m計時器執(zhí)行定時任務(wù),不知道怎么配置GTM和GPT?
    發(fā)表于 02-06 06:47

    Rambus HBM3內(nèi)存控制器IP速率達到9.6 Gbps

    在人工智能大模型浪潮的推動下,AI訓(xùn)練數(shù)據(jù)集正極速擴增。以ChatGPT為例,去年11月發(fā)布的GPT-3,使用1750億個參數(shù)構(gòu)建,今年3月發(fā)布的GPT-4使用超過1.5萬億個參數(shù)。海量的數(shù)據(jù)訓(xùn)練,這對算力提出了高需求。
    的頭像 發(fā)表于 01-23 11:19 ?987次閱讀
    Rambus HBM<b class='flag-5'>3</b>內(nèi)存控制器IP速率達到9.6 Gbps

    2024年人工智能在職場發(fā)展的五大趨勢

    首先,許多為殘疾工作者開發(fā)的機器學習工具可能越來越普及,這是美國加州大學伯克利分校包容城市實驗室主任 Victor Santiago Pineda 的看法。例如,基于算法的語音轉(zhuǎn)文字文字
    的頭像 發(fā)表于 01-09 16:50 ?802次閱讀