0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌的光場技術,VR視頻和全景視頻到底有什么區(qū)別

傳感器技術 ? 來源:未知 ? 作者:李倩 ? 2018-03-29 15:43 ? 次閱讀

谷歌一直堅信虛擬現(xiàn)實身臨其境的力量,但要創(chuàng)建最為逼真的臨場感,在VR中展示的內容需要盡可能接近看到的內容。

光場是一種先進的捕捉,拼接和渲染算法。通過為靜態(tài)捕捉圖像生成運動視差和非常逼真的紋理和光照,光場可以向你提供極高質量的臨場感。為了展示這種技術的潛力,谷歌日前正式在Steam上發(fā)行了免費應用“Welcome to Light Fields”,支持HTC Vive,Oculus Rift和WMR頭顯。

谷歌的光場技術

捕捉和處理光場

對于光場,附近的對象似乎相當靠近你。當你移動頭部的時候,它們看起來的變化會很大。遠處的對象變化較少,不同對象的光線發(fā)射也不同,因此你會得到強烈的暗示,認為自己正身處于3D空間之中。當通過支持位置追蹤的VR頭顯進行瀏覽時,光場可以根據真實世界中捕獲的片段實現(xiàn)真正令人驚嘆的VR體驗。

這一切的原因在于光場可以記錄進入空間的所有不同光線。為了記錄它們,谷歌改裝了一臺GoPro Odyssey Jump相機平臺,將其彎曲成16個鏡頭的垂直弧形并安裝在旋轉平臺上。

左:在發(fā)現(xiàn)號航天飛船甲板上拍攝的球形光場延時拍攝視頻。

右:光場渲染允許我們通過對鏡頭記錄的光線進行采樣和插值,并且在球形空間內的任何位置合成新場景視圖。

相機平臺旋轉并錄制70厘米球體上的大約1000個外向視角大概需要1分鐘。這提供了一個兩英尺寬的光線量,而后者決定了頂部空間的大小,亦即用戶為探索場景而轉動頭部的空間。為了向頭顯渲染視圖,谷歌從球體表面上的相機位置采樣光線,從而構建從球體內部看到的新視圖,并以此匹配用戶移動頭部的方式。它們在一個自定義數(shù)據集文件中對齊和壓縮,據小編了解谷歌是通過作為Unity游戲引擎插件的特殊渲染軟件讀取這個數(shù)據集文件。

用光場記錄世界

谷歌選擇了數(shù)個特殊場所來測試他們的光場相機平臺。谷歌表示,他們鐘愛帕薩迪納蓋博住宅(Gamble House)的亮漆柚木和紅木內飾,威尼斯馬賽克小屋(Mosaic Tile House)的光澤陶瓷和閃亮,以及格拉納達山圣斯蒂芬教堂那陽光瀲滟的彩色玻璃窗。最重要的是,史密森學會的航空航天博物館和3D數(shù)字化辦公室允許谷歌進入NASA的發(fā)現(xiàn)號航天飛船,在這個不對外開放的飛行甲板中為我們提供宇航員的視角。最后谷歌錄制了一系列的光場,并且實驗了眼神接觸如何應用于6自由度體驗。

VR視頻是探索世界的一項光明技術。盡管只是實驗,但光場向我們展示了VR體驗可以實現(xiàn)的逼真水平 。

VR視頻和全景視頻的區(qū)別

VR視頻與全景視頻有什么區(qū)別?

我們用一張圖來說明360度全景視頻和VR視頻的不同:

全景視頻很好理解,就是有別于傳統(tǒng)視頻單一的觀看視角,讓人們可以360度自由觀看。而VR視頻在此基礎上,還允許人們在視頻里自由移動觀看(提供場景中任意位置的360度自由視角)。

全景視頻可以是3D的也可以不是,可以通過屏幕觀看,也可以帶上眼鏡觀看。而VR視頻必須帶上頭顯觀看,且必須是3D的。

全景視頻是線性播放的,也就是按照時間軸來進行回放的。而VR視頻可以允許用戶在同一時間,站在不同的位置觀看(有點類似科幻電影里時間暫停了,然后觀察者在定格的時間和空間里任意移動,觀看周圍的人物和景物)。

全景視頻和VR視頻有什么相似之處?

1.都可以是3D的(全景視頻也有2D版);

2.都能360度上下、左右旋轉觀看;

3.具有視覺沉浸感。

那有什么不同呢?

最大區(qū)別就是VR視頻允許觀看者在場景里自由走動觀察,但全景視頻不行,拍攝機位在哪兒,觀看者就必須在哪兒,頂多只能原地360度觀看。

如果是一部VR電影,那么傳統(tǒng)的“鏡頭運動、場景切換、Zoom In or Zoom Out”可能都將被取代,由觀眾來決定鏡頭位置。你可以把VR視頻看成是“3D全景視頻+自由移動”。

所以,現(xiàn)在大家所看到的基本都是“偽VR視頻”,各大視頻網站上標稱的VR視頻也基本都是360度全景視頻。而打著“VR相機”口號行銷的其實大部分都是360度全景相機。那么,我們不禁要問,真正的VR視頻是什么樣呢?

真正的VR視頻目前只能通過CG實現(xiàn)

如何才能拍攝出真正的VR視頻呢?很遺憾,以現(xiàn)在的技術手段和設備能力還很難實現(xiàn)。所以到目前為止,我們還沒有看到過一部真正意義上的VR視頻是被實際拍攝出來的。因為一臺攝像機只能捕捉一個位置的光線,而要實現(xiàn)場景里的自由移動,需要捕捉場景里任意位置的光線,顯然我們無法在場景里安置那么多攝像機,這是矛盾的?,F(xiàn)今的谷歌光場技術是否能解決這問題?

那未來有沒有可能呢?答案是肯定的。

要拍攝真正意義上的VR視頻,我們需要光場攝像機。

什么是光場攝像機?這絕對是一個黑科技,很難用幾句話表述清楚。大概意思就是通過矩陣式攝像頭(非常非常多的微型攝像頭),捕捉和記錄周圍不同角度射入的光線信號,再利用計算機后期合成出任意位置的圖像。

Lytro公司去年發(fā)布的360度光場攝像機

Immerge,其內部的數(shù)百個鏡頭和圖像傳感器分為五個“層”(你可以想象每層都是20部GoPro相機組合在一起),除此之外還配套專用的服務器和編輯工具等。

與傳統(tǒng)攝像機不同的是,光場攝像機除了記錄色彩和光線強度信息外,還會記錄光線的射入方向——這就是“光場”技術的由來。

有了從四面八方射入的光的方向信息,再利用算法,就能對環(huán)境進行分析,逆向建模,從而還原出一個三維的環(huán)境模型。這和計算機建模(CG)的結果是相似的,只不過CG是人為主觀“虛構”模型,而光場攝像機是逆向方式“客觀”還原模型。

有了三維模型,計算機便可以實時計算出任意位置的視覺圖像,3D+360度全景也沒有問題。這就是說,光場攝像機所在的位置拍攝到的景象是真實的,而自由移動位置后看到的景象是通過電腦后期合成的。

Lytro公司坦言目前他們只能做到視角在一定范圍的左右和前后移動,要想“看到”物體背面的樣子還不行(也許要對反射光進行計算和建模)。所以要實現(xiàn)真正意義上的VR視頻,還是電腦建模然后實時渲染輸出最簡單。

如今所有的VR游戲,都可以看作是VR視頻。不僅可以3D顯示+360度全景,還可以自由移動,甚至控制時間軸也沒有問題。只是,VR視頻都用計算機建模了,還有拍攝什么事情呢?我們要繼續(xù)討論VR視頻的拍攝過程嗎?

當然要,全景視頻雖然是“偽VR視頻”,但全景視頻還是可以被認為是VR視頻的初級階段。因為全景視頻加上3D效果也能帶來沉浸感,相比普通視頻已經有了質的飛躍,應用領域也非常廣闊,值得我們去嘗試和探索。

未來VR的呈現(xiàn)方式會趨向多元化,頭顯本身的發(fā)展也會從目前眼前單一屏幕向光場化真實化邁進,目前以Magic Leap為代表的國內外研究機構在光場頭戴式顯示進行探索,這種頭顯可以讓人眼聚焦在虛擬物體的不同深度,而不是一塊顯示屏上; 最后,應用方式上,谷歌Welcome to Light Field為我們提供了一個很好的范例,更好的光場應用方式還需要進一步研究探索,比如,虛擬的光場和真實世界的逼真融合以及自然的交互也會成為學界和產業(yè)界的熱點。"

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6168

    瀏覽量

    105380
  • 攝像機
    +關注

    關注

    3

    文章

    1601

    瀏覽量

    60043
  • vr
    vr
    +關注

    關注

    34

    文章

    9639

    瀏覽量

    150271
收藏 人收藏

    評論

    相關推薦

    ARM Cortex-M0與Cortex-M0+到底有什么區(qū)別

    ARM Cortex-M0與Cortex-M0+到底有什么區(qū)別
    發(fā)表于 01-04 23:15

    視頻采集/呈現(xiàn)技術的應用場景討論

    認為這個技術會大放異彩,本人一直投身于VR視頻采集領域3D和全景相機,我也認為
    發(fā)表于 07-11 11:46

    同時DSP2812的源文件,命名不同,到底有什么區(qū)別

    同時DSP2812的源文件,命名不同,到底有什么區(qū)別?新建DSP工程時,到底用那種文件呢?講究嗎?
    發(fā)表于 04-07 12:57

    LED恒壓電源和恒流電源到底有什么區(qū)別?

    LED恒壓電源和恒流電源到底有什么區(qū)別?
    發(fā)表于 12-07 14:53

    乘法器與調制器到底有什么區(qū)別?

    乘法器與調制器到底有什么區(qū)別?調制函數(shù)的建模方法是什么?
    發(fā)表于 04-09 06:33

    USB 3.0和USB 2.0到底有什么區(qū)別呢?

    圖文講解USB 3.0和USB 2.0到底有什么區(qū)別呢?
    發(fā)表于 05-19 07:12

    ARM和DSP到底有什么區(qū)別

    現(xiàn)在在學ARM,想知道ARM和DSP到底有什么區(qū)別?為什么有些地方用DSP有些用ARM
    發(fā)表于 10-19 07:20

    谷歌利用光技術,VR視頻全景視頻什么不同?

    谷歌一直堅信虛擬現(xiàn)實身臨其境的力量,但要創(chuàng)建最為逼真的臨場感,在VR中展示的內容需要盡可能接近看到的內容。
    的頭像 發(fā)表于 03-29 15:46 ?3974次閱讀

    谷歌技術平臺_告訴你VR視頻_全景視頻大有不同

    谷歌一直堅信虛擬現(xiàn)實身臨其境的力量,但要創(chuàng)建最為逼真的臨場感,在VR中展示的內容需要盡可能接近看到的內容。 是一種先進的捕捉,拼接和渲染算法。通過為靜態(tài)捕捉圖像生成運動視差和非常逼
    發(fā)表于 03-30 14:40 ?1047次閱讀

    谷歌技術平臺,告訴你VR視頻、全景視頻大有不同!

    谷歌一直堅信虛擬現(xiàn)實身臨其境的力量,但要創(chuàng)建最為逼真的臨場感,在VR中展示的內容需要盡可能接近看到的內容。 是一種先進的捕捉,拼接和渲染算法。通過為靜態(tài)捕捉圖像生成運動視差和非常逼
    發(fā)表于 09-17 09:16 ?254次閱讀

    什么全景視頻 什么是VR視頻

    相信很多人都分不清VR視頻全景視頻的差別,甚至會覺得二者就是一回事。事實上,全景視頻并不等于
    發(fā)表于 06-23 09:54 ?1.5w次閱讀

    智能照明和傳統(tǒng)照明的系統(tǒng)到底有什么區(qū)別

    電子發(fā)燒友網站提供智能照明和傳統(tǒng)照明的系統(tǒng)到底有什么區(qū)別資料免費下載
    發(fā)表于 11-26 06:41 ?26次下載

    VR視頻全景視頻什么區(qū)別?

    對于,附近的對象似乎相當靠近你。當你移動頭部的時候,它們看起來的變化會很大。遠處的對象變化較少,不同對象的光線發(fā)射也不同,因此你會得到強烈的暗示,認為自己正身處于3D空間之中。當通過支持位置追蹤的VR頭顯進行瀏覽時,
    發(fā)表于 10-12 12:39 ?817次閱讀
    <b class='flag-5'>VR</b><b class='flag-5'>視頻</b>與<b class='flag-5'>全景</b><b class='flag-5'>視頻</b><b class='flag-5'>有</b><b class='flag-5'>什么區(qū)別</b>?

    FPC與傳統(tǒng)PCB到底有什么區(qū)別.zip

    FPC與傳統(tǒng)PCB到底有什么區(qū)別
    發(fā)表于 03-01 15:37 ?4次下載

    RTOS與Linux到底有什么區(qū)別

    很多做嵌入式開發(fā)的小伙伴都存在這樣的疑惑:RTOS與Linux到底有什么區(qū)別
    的頭像 發(fā)表于 10-29 09:53 ?446次閱讀