關于VR虛擬現實,由于目前還未普及,因此大家對VR虛擬現實很多專業(yè)術語概念還不太清晰,這里為大家理清這些術語,相信大家對VR虛擬現實的認識會更深入。
1、微透鏡陣列顯示技術
通過對微透鏡陣列結構進行深入研究,揭示了微透鏡陣列對微圖形的放大原理。并在此基礎上,找到了微透鏡陣列結構參數、微圖形結構參數與微圖形陣列移動速度、移動方向以及放大倍率之間的關系,利用微透鏡陣列實現了對微圖形放大、動態(tài)、立體的顯示。
2、近眼光場顯示器
由NVIDIA研發(fā)的新型頭戴顯示設備名為“近眼光場顯示器”(Near-EyeLightFieldDisplays),其內部使用了一些索尼3D頭戴OLED顯示器HMZ-T1的組件,外圍結構部分則是使用3D打印技術進行制造。
近眼光場顯示器采用焦距為3.3mm的微鏡頭陣列來取代以往同類產品中所使用的光學透鏡組,這樣的設計成功將整個顯示模塊的厚度由40mm減少到了 10mm,更加便于佩戴。同時配合使用NVIDIA最新的GPU芯片進行實時光源光線追蹤運算,將影像分解成為數十組不同的視角陣列,然后再通過微透鏡陣列重新將畫面還原顯示在用戶的眼前,從而使觀賞者能夠如同身處真實世界中一樣,通過眼睛來從不同角度自然觀察立體影像。
由于近眼光場顯示器能夠通過微透鏡陣列重新還原畫面中環(huán)境,因此只需要在GPU的運算過程中加入視力矯正參數,便可以抵消近視或遠視等視力缺陷對觀看效果的影響,這意味著“眼鏡族”們也可以在裸眼狀態(tài)下利用這款產品享受到真實清晰的3D畫面。
3、視場角
在光學儀器中,以光學儀器的鏡頭為頂點,以被測目標的物像可通過鏡頭的最大范圍的兩條邊緣構成的夾角,稱為視場角。視場角的大小決定了光學儀器的視野范圍,視場角越大,視野就越大,光學倍率就越小。
通俗地說,目標物體超過這個角就不會被收在鏡頭里。在顯示系統中,視場角就是顯示器邊緣與觀察點(眼睛)連線的夾角。
4、裸眼3D
裸眼3D,就是利用人兩眼具有視差的特性,在不需要任何輔助設備(如3D眼鏡、頭盔等)的情況下,即可獲得具有空間、深度的逼真立體影像。從技術上來看,裸眼式3D可分為光屏障式柱狀透鏡技術和指向光源三種。裸眼式3D技術最大的優(yōu)勢便是擺脫了眼鏡的束縛,但是分辨率、可視角度和可視距離等方面還存在很多不足。
5、HMD
頭戴式可視設備(HeadMountDisplay)頭戴虛擬顯示器的一種,又稱眼鏡式顯示器、隨身影院。是一種通俗的叫法,因為眼鏡式顯示器外形像眼鏡,同時專為大屏幕顯示音視頻播放器的視頻圖像的,所以形象的稱呼其為視頻眼鏡(videoglasses)。
視頻眼鏡最初是軍事上需求和應用于軍事上的。目前的視頻眼鏡猶如當初大哥大手機所處的階段和地位,未來在3C融合大發(fā)展的情況下其將獲得非常迅猛的發(fā)展。
6、HMZ
截止2015年4月24日索尼宣布停產HMZ系列產品時,該系列一共推出過三代產品,2011年的HMZ-T1、2012年的HMZ-T2以及2013年的HMZ-T3/T3W。HMZ-T1顯示分辨率只有720p,耳機則是虛擬的5.1聲道,還要拖一塊大大的集線盒。
首先它采用的是兩塊0.7英寸720pOLED屏幕,佩戴HMZ-T1后這兩塊0.7英寸屏幕的顯示效果就像在20米的距離觀看750英寸的巨屏一樣。2012年10月,索尼發(fā)布了HMZ-T1的小改版本也就是HMZ-T2。
相比HMZ-T1降低了30%的重量,同時取消內置耳機設計,允許用戶使用自己喜歡的耳機搭配。屏幕雖然保持0.7英寸720pOLED的參數不變,但引入了14bitRealRGB3×3色變換矩陣引擎和全新的光學濾鏡,畫質上其實也有增強。
2013年的HMZ-T3/T3W升級幅度不小,首次實現了無線信號傳輸,允許你戴著無線版本的HMZ-T3W進行有限的小范圍移動,不再受線纜的束縛。
7、光線跟蹤算法
為了生成在三維計算機圖形環(huán)境中的可見圖像,光線跟蹤是一個比光線投射或者掃描線渲染更加逼真的實現方法。這種方法通過逆向跟蹤與假象的照相機鏡頭相交的光路進行工作,由于大量的類似光線橫穿場景,所以從照相機角度看到的場景可見信息以及軟件特定的光照條件,就可以構建起來。當光線與場景中的物體或者媒介相交的時候計算光線的反射、折射以及吸收。
光線跟蹤的場景經常是由程序員用數學工具進行描述,也可以由視覺藝術家使用中間工具描述,也可以使用從數碼相機等不同技術方法捕捉到的圖像或者模型數據。
8、真實繪制技術
虛擬現實系統中,對真實繪制技術的要求與傳統的真實感圖形繪制不同,傳統的繪制只要求圖形質量和真實感,但是,在VR中,我們必須做到圖形顯示的更新速度不小于用戶的視覺轉變速度,否則就會出現畫面的遲滯現象。
故在VR中,實時三維繪制要求圖形實時生成,每秒鐘必須生成不低于10到20幀圖像。同時還要求其真實性,必須反映模擬物體的物理屬性。通常為了使得畫面場景更加逼真和實時性強,通常采用紋理映射、環(huán)境映射和反走樣的方法。
9、基于圖像的實時繪制技術
基于圖形繪制(ImageBasedRendering,IBR)不同于傳統的幾何繪制方法,先建模型,在定光源的繪制。IBR直接從一系列圖形中生成未知角度的圖像,畫面直接進行變換、插值和變形,從而得到不同視覺角度的場景畫面。
10、三維虛擬聲音技術
日常生活中我們所聽到的立體聲是來自于左右聲道,聲音效果可以很明顯的是我們感到來自我們面前的平面,而非像有人在我們背后喊我們時,聲音來自于聲源,且能準確判斷出其方位。顯然現在的立體聲是不能做到的。而三維虛擬聲音就是要做到聽其音辨其位,即在虛擬場景中用戶可以聽聲辯位,完全符合現實環(huán)境中的聽力系統的要求,這樣的聲音系統就稱之為三維虛擬聲音。
11、語音識別技術
語音識別技術(AutomaticSpeechRecognition,ASR)是將語言信號轉變?yōu)榭杀挥嬎銠C識別的文字信息,使得計算機可以識別說話人的語言指令和文字內容的技術。要想達到語音的完全識別是非常困難的,必須經過參數提取、參考模式建立、模式識別等若干個過程。隨著研究人員的不斷研究,使用了傅里葉轉換、到頻譜參數等方法,語音識別度也越來越高。
12、語音合成技術
語音合成技術(TexttoSpeech,TTS),是指人工合成語音的技術。達到計算機輸出地語音可以準確、清晰、自然的表達意思。一般方法有兩種:一是錄音/重放,二是文-語轉換。在虛擬現實系統中,語音合成技術的運用可以提高系統的沉浸感,同時彌補視覺信息的不足。
13、人機自然交互技術
在虛擬現實系統中,我們致力于使得用戶可以通過眼睛、手勢、耳朵、語言、鼻子和皮膚等等感覺器官來和計算機系統中產生的虛擬環(huán)境進行交互,這種虛擬環(huán)境下的交換技術就稱之為人機自然交互技術。
14、眼動跟蹤技術
眼動跟蹤技術(EyeMovement-basedInteraction)也稱之為實現跟蹤技術。它可以補充頭部跟蹤技術的不足之處,這樣即簡單有直接。
15、面部表情識別技術
該項技術目前的研究與人們的期望效果還相差較遠,但是去研究成果去展現了其魅力所在。這項技術一般分為三個步驟,首先是面部表情的跟蹤,利用攝像機記錄下用戶的表情,再通過圖像分析和識別技術達到表情的識別。其次是對面部表情的編碼,研究人員利用面部動作編碼系統(FACS)對人的面部表情進行解剖,并對其面部活動進行分類和編碼。最后是面部表情的識別,通過FACS系統可以構成表情識別的系統流程圖。
16、手勢識別技術
通過數據手套(Dataglove)或者深度圖像傳感器(如leapmotion、kinect等)來精確測量出手的位置和形狀,由此實現環(huán)境中的虛擬手對虛擬物體的操縱。數據手套通過手指上的彎曲、扭曲傳感器和手掌上的彎度、弧度傳感器,確定手及關節(jié)的位置和方向,而基于深度傳感器的手勢識別則通過深度傳感器獲得的深度圖像信息進行計算,進而獲得掌、手指等部分的彎曲角度等數據。
17、實時碰撞檢測技術
在日常生活中人們已經建立了一定的物理習慣,如固體之間不能彼此穿透,物體高空墜落做自由落體運動,拋出去的物體做平拋運動等等,同時還要受到重力和空氣流速的影響等等。為了在虛擬現實系統中完全的模擬現實環(huán)境,且防止發(fā)生穿透現象,就必須引入實時碰撞檢測技術。Moore提出了兩個碰撞檢測算法,其一處理三角剖分的物體表面,另一個處理多面體環(huán)境的碰撞檢測。為了防止穿透有三個主要部分。首先,必須檢測碰撞。其次,為響應碰撞應調節(jié)物體速度。最后,如果碰撞,響應不引起物體立刻分開,必須計算和施加接觸力,直到分開。
18、三維全景技術
三維全景技術(Panorama)為現在最為流行的視覺技術,它以圖像繪制技術為基礎生成具有真實感圖像的虛擬現實技術。全景圖的生成,首先是通過照相機平移或旋轉得到的一序列圖像樣本;再利用圖像拼接技術生成具有強烈動感和透視效果的全景圖像;最后在利用圖像融合技術使得全景圖給用戶帶來全新的現實感和交互感。該項技術利用對全景圖深度信息的提取來恢復實時場景的三維信息建立模型。方法簡單,設計周期縮短,使得費用大大降低,且效果更加,故目前較為流行。
身處物聯網洪流的你還在等什么!“關注物聯網新機遇的你,怎能錯過這個饕餮盛宴??!由華強聚豐旗下電子發(fā)燒友網舉辦的第三屆“中國IoT大會”將 于12月2日在深圳隆重舉行:全球化的 視野、更高價值的獨家觀點、更專業(yè)的技術分享、更前沿的脈動把握,匯聚全球物聯網知名企業(yè)與精英的盛典,你不可錯過!更多信息歡迎大家繼續(xù)關注電子發(fā)燒友網!”(點擊圖片查看詳情)?
評論
查看更多