近日,OpenAI 發(fā)布了 Sora 模型,該模型可根據(jù)用戶輸入的文本提示詞描述,生成一段60秒鐘的視頻內(nèi)容。從OpenAI公開的演示視頻來看效果非常超現(xiàn)實。
2月16日,360董事長周鴻祎在微博發(fā)文,談到OpenAI的文字轉視頻模型Sora。他認為:Sora意味著 AGI實現(xiàn)將從10年縮短到1年。
周鴻祎表示,AI不一定那么快顛覆所有行業(yè),但它能激發(fā)更多人的創(chuàng)作力。今天 Sora 可能給廣告業(yè)、電影預告片、短視頻行業(yè)帶來巨大的顛覆,但它不一定那么快擊敗 TikTok,更可能成為 TikTok的創(chuàng)作工具。
同時,周鴻祎還談到中美AI差距,他認為:OpenAl手里應該還藏著一些秘密武器,無論是 GPT-5,還是機器自我學習自動產(chǎn)生內(nèi)容,包括 AIGC。他們手里的武器并沒有全拿出來。這樣看來中國跟美國的 AI 差距可能還在加大。
以下為周鴻祎發(fā)文全文:
Sora意味著 AGI實現(xiàn)將從10年縮短到1年
年前我在風馬牛演講上分享了大模型十大趨勢預測,沒想到年還沒過完,就驗證了好幾個從 Gemini、英偉達的 Chat With RTX到 OpenA!發(fā)布 Sora,大家都覺得很炸裂。朋友問我怎么看 Sora,我談幾個觀點,總體來說就是我認為AGI很快會實現(xiàn),就這幾年的事兒了:
第一,科技競爭最終比拼的是讓人才密度和深厚積累。很多人說 Sora的效果吊打 Pika和Runway。這很正常,和創(chuàng)業(yè)者團隊比OpenAl 這種有核心技術的公司實力還是非常強勁的。有人認為有了 AI以后創(chuàng)業(yè)公司只需要做個體戶就行,實際今天再次證明這種想法是非??尚Φ?。
第二,AI不一定那么快顛覆所有行業(yè),但它能激發(fā)更多人的創(chuàng)作力。今天很多人談到 Sora 對影視工業(yè)的打擊,我倒不覺得是這樣,因為機器能生產(chǎn)一個好視頻,但視頻的主題、腳本和分鏡頭策劃、臺詞的配合,都需要人的創(chuàng)意至少需要人給提示詞。一個視頻或者電影是由無數(shù)個 60 秒組成的。今天 Sora 可能給廣告業(yè)、電影預告片、短視頻行業(yè)帶來巨大的顛覆,但它不一定那么快擊敗 TikTok,更可能成為 TikTok的創(chuàng)作工具。
第三,我一直說國內(nèi)大模型發(fā)展水平表面看已經(jīng)接近 GPT-3.5 了,但實際上跟 4.0 比還有一年半的差距。而且我相信 OpenAl手里應該還藏著一些秘密武器,無論是 GPT-5,還是機器自我學習自動產(chǎn)生內(nèi)容,包括 AIGC。奧特曼是個營銷大師,知道怎樣掌握節(jié)奏,他們手里的武器并沒有全拿出來。這樣看來中國跟美國的 AI 差距可能還在加大。
第四,大語言模型最牛的是,它不是填空機,而是能完整地理解這個世界的知識。這次很多人從技術上、從產(chǎn)品體驗上分析Sora,強調(diào)它能輸出 60 秒視頻,保持多鏡頭的一致性,模擬自然世界和物理規(guī)律,實際這些都比較表象,最重要的是 Sora 的技術思路完全不一樣。因為這之前我們做視頻做圖用的都是 Diffusion,你可以把視頻看成是多個真實圖片的組合,它并沒有真正掌握這個世界的知識?,F(xiàn)在所有的文生圖、文生視頻都是在 2D 平面上對圖形元素進行操作,并沒有適用物理定律。但 Sora 產(chǎn)生的視頻里,它能像人一樣理解坦克是有巨大沖擊力的,坦克能撞毀汽車,而不會出現(xiàn)汽車撞毀坦克這樣的情況。所以我理解這次 OpenAl 利用它的大語言模型優(yōu)勢,把LLM 和 Diffusion 結合起來訓練,讓 Sora 實現(xiàn)了對現(xiàn)實世界的理解和對世界的模擬兩層能力,這樣產(chǎn)生的視頻才是真實的,才能跳出 2D 的范圍模擬真實的物理世界。這都是大模型的功勞。這也代表未來的方向。
有強勁的大模型做底子,基于對人類語言的理解,對人類知識和世界模型的了解,再疊加很多其他的技術,就可以創(chuàng)造各個領域的超級工具,比如生物醫(yī)學蛋白質和基因研究,包括物理、化學、數(shù)學的學科研究上,大模型都會發(fā)揮作用。這次 Sora對物理世界的模擬,至少將會對機器人具身智能和自動駕駛帶來巨大的影響。原來的自動駕駛技術過度強調(diào)感知層面,而沒有工作在認知層面。其實人在駕駛汽車的時候,很多判斷是基于對這個世界的理解。比如對方的速度怎么樣,能否發(fā)生碰撞,碰撞嚴重性如何,如果沒有對世界的理解就很難做出一個真正的無人駕駛。
所以這次 Sora 只是小試牛刀,它展現(xiàn)的不僅僅是一個視頻制作的能力,它展現(xiàn)的是大模型對真實世界有了理解和模擬之后,會帶來新的成果和突破。
第五,Open Al訓練這個模型應該會閱讀大量視頻。大模型加上 Diffusion 技術需要對這個世界進行進一步了解,學習樣本就會以視頻和攝像頭捕捉到的畫面為主。一旦人工智能接上攝像頭,把所有的電影都看一遍,把YouTube 上和 TikTok 的視頻都看一遍,對世界的理解將遠遠超過文字學習,一幅圖勝過千言萬語,而視頻傳遞的信息量又遠遠超過一幅圖,這就離AGI真的就不遠了,不是10年20年的問題,可能一兩年很快就可以實現(xiàn)。
審核編輯:黃飛
-
AI
+關注
關注
87文章
30894瀏覽量
269085 -
Agi
+關注
關注
0文章
80瀏覽量
10207 -
OpenAI
+關注
關注
9文章
1089瀏覽量
6512 -
大模型
+關注
關注
2文章
2450瀏覽量
2706
原文標題:周鴻祎談Sora:中美AI差距可能還在加大!
文章出處:【微信號:wc_ysj,微信公眾號:旺材芯片】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論