VR如果做到無線傳輸需什麼樣的數據速率,用什麼方式實現?假設條件是實時(極低的時延)傳輸高清視頻信號?


顯然不能是顯卡編碼--WIFI---頭顯解碼(H264)這種方案。
且不說傳輸了,就是編碼部分和解碼部分需要CACHE出的時間就遠超幾十毫秒了否則無法編碼解碼。所以這是死路,如果有人說是這麼乾的那一定是吹牛逼。


純硬方案,
也就是W-HDMI就可以啊。
延時足夠低。大概10MS左右,只是國內的無線HDMI盒子們。
都是以色列那家的晶元,
統一都是1080P@60FPS,這個指標不太夠啊。
這是給以前看電影用的,VR肯定不夠用了。

個人以為肯定是得照著4K或者至少2.5K屏 200幀(一眼100幀)來。
以前這行業小,沒多少人做,所以1080P的規格好多年沒人演進了。
而且行業小眾,要的人少就貴,隨便一個WHDMI的收發就破¥2000了。

現在無線頭盔的需求一起來,有巨頭願意做的話,對大家都好。

不過開館的同學還是不要想了,這樣的載頻(60GHZ或者更高)
實在衰減太厲害。而且這也不是增加天線就能解決的事。
如此高頻,射頻傳輸上問題多了去了。


傳輸數率是一回事,延遲是另一回事。VR要求端到端(用戶的頭動到顯示的刷新)的延遲要低於20ms,這其中除了傳輸部分,還有感測器數據融合,圖形渲染,ASTW,Front Buffer Rendering,甚至還有OLED屏幕的像素響應,一大堆東西都得從這20ms里摳出來,相比之下接條hdmi線是最簡便的給其他更加時敏性的處理增加寬容度的辦法。

目前的高清無線傳輸方案倒是可以上4K60FPS,但是無線緩衝糾錯編碼等等都得幾十ms,你平常看個電影甚至玩玩遊戲其實延遲個一兩幀蠻無所謂的,但是VR頭顯就是不行。所以目前來說還是接線吧。


低延遲導致高帶寬,由於電磁波帶寬資源有限,同一個空間中能同時使用的設備數量會嚴重受到限制,所以一體機或者背包式vr才是正道


802.11ad


麻省理工研發毫米波信號 VR有望無線化

如果你想體驗一下高品質的虛擬現實技術,無論是Oculus Rift、HTC Vive還是索尼PlayStation VR,除了計算機和PS4主機之外,還有一個問題不得不面對,那就是想要在虛擬世界中「徜徉」,是無法擺脫各種線纜的束縛。所有數據的處理和傳輸,都需要通過有線的方式將虛擬現實頭戴設備與計算機連接起來。

不過最近來自麻省理工計算機科學與人工智慧實驗室(CSAIL)的研究人員在移動VR領域取得了一項新進展,能夠解決這個問題。這項技術名叫MoVR,是一種無線虛擬現實系統解決方案。根據研究團隊介紹,MoVR並非是通過Wi-Fi或藍牙的方式進行無線數據傳輸,而是通過高頻毫米波射頻電流來將數據從計算機傳遞到虛擬現實頭盔中,並且速度要要比傳統無線連接方式更快。


雖然現在想要實現無線虛擬現實的方法有很多,比如像谷歌Daydream View或三星Gear VR這樣的移動VR設備通過智能手機來驅動數據的處理,或者還有PC廠商推出了VR背包這樣的產品讓用戶將計算機背在身上,不過無論是移動虛擬現實還是攜帶型PC主機,兩種方法都存在比較大的局限性。
首先延遲現象是目前虛擬現實技術最需要解決的問題。虛擬現實體驗對於延遲現象非常敏感,因此對帶寬有很高的要求,並且在顯示效果上對解析度的要求也要高於其它產品。而麻省理工的研究團隊表示,自己的毫米波信號數據傳輸速度足夠快,完全可以滿足高品質虛擬現實系統對數據傳輸的要求。目前,MoVR還處於原型開發階段,團隊希望未來進一步縮小系統的體積,可以讓多個VR頭戴設備在同一個房間內沒有干擾的情況下同時工作。不過儘管這還只是一個概念,但是對於未來虛擬現實技術的發展,卻提供了一個相當不錯的思路。不過目前這種毫米波無線傳輸信號技術遇到的一個最大問題就是穿透性,必須要VR設備與接收器之間沒有任何阻礙才行,如果中間有障礙物,那麼信號強度就會明顯受到影響。MoVR技術為了解決這個問題,團隊正在開發可編程的「鏡面」,可以將各個方向的信號折射到用戶的VR頭盔方向,確保信號總是能沒有障礙物阻礙的情況下發送到接收端。


推薦閱讀:

打電話的時候為什麼要先說:現在通話方便嗎?
大家學校學習信號與系統都用哪個教材?
如何評價中國航天要全球無死角開放 Wi-Fi(低軌道寬頻移動通信衛星系統)?
SpaceX 的全球上網通信服務有何特別之處?為什麼會吸引 Google 的投資?
如果全世界的手機一起用GPS定位,GPS系統會不會崩潰。?

TAG:視頻格式 | 通信 | 體驗 | 電子 | 虛擬現實VR |