一文讀懂VR世界裡的「空間定位」是個什麼鬼?
在位於上海大學校園內的青瞳視覺總部,青亭網體驗了青瞳視覺的光學追蹤產品。 進入青瞳視覺的實驗室,在工作人員的幫助下,筆者戴上了上面粘著數個反光球的Oculus Rift頭顯,以及同樣粘著數個反光球的手套和一個槍型手柄。 接下來,工作人員啟動了一個青瞳自製的demo遊戲——筆者進入到一個機械空間之中,遊戲本身很簡單,就是用手中的激光槍和巨大的機甲戰鬥。 遊戲中,整個空間的穩定性,在空間中行走、躲避的實時反饋都非常精確,包括用槍射擊的時候準星也非常穩定。唯一美中不足的是,在遊戲的時候,遊戲中的手部有的時候會突然地丟失。 對此張海威介紹,這是因為手套的mark點都集中在手背部,翻掌或者被遮擋的情況下,攝像頭捕捉不到mark點就會丟失,在實際的商業應用中,mark點覆蓋手的兩面,就可以解決這個問題。 降低延遲,二代產品的功夫在「機內」 對於VR來說,交互系統的延遲對人們的VR體驗有著決定性的作用,對於降低光學交互系統的延遲,張海威表示其實最重要的功夫是在機內的晶元演算法里。
青瞳視覺之前推出了一代產品MC300 tracker,而經過一年多的研發,這次推出的二代產品MC1300tracker,如上圖所示,在硬體和性能上都有了很大的進步。 以FPGA為核心的帶有1GB DDR3內存的拇指大小的微型電腦,處理速度及刷新率大大的提升,降低了延遲,提升了幀率,使得二代產品可以更好的捕捉高速運動中的物體。 當然這並不代表青瞳的水平已經超過Optitrack這樣的國際一流大廠,筆者調查後發現optitrack的產品線中也有Prime 13W這樣的廣角攝像頭方案。Prime13W的水平視角為82度,與MC1300的視場角相近。 實現Lighthouse並不困難,演算法裡面的門道才是壁壘 對於自家的產品,張海威有一個非常形象的介紹:如果說虛擬現實是PC之後下一代的計算平台,那麼光學追蹤系統就滑鼠、鍵盤一樣,用來讓人和虛擬現實的世界進行交互。 青瞳自家的紅外光學方案主要分為三個部分,攝像頭、標記點以及處理系統。
攝像頭上感光鏡頭周圍有一圈小的led燈泡,發出的光線照射到反光球上,經過反射被攝像頭裡的感光晶元捕捉,通過內置晶元的計算,最終得出反光球在空間中的位置信息。 只要空間中能有兩個攝像頭同時捕捉到這個反光球,就可以通過演算法計算出這個反光球在空間中的三維位置。 張海威介紹,在攝像頭的「眼」中,每個小球就像是一個發亮的點。通過在一個現實中的物體上(比如VR頭顯)固定住數個不等的小球,記錄下這些小球的移動信息,再通過小球間的位置關係確定頭顯在虛擬空間中的姿態和移動,從而計算出頭顯在一定場景中六自由度的運動信息。 以頭顯為例,假設一個人在戴上頭顯之後想看旁邊的柱子,轉頭的時候會被光學追蹤系統記錄下來傳輸給電腦,電腦的CPU計算出人應該看到的畫面是柱子,GPU會渲染出相應的畫面並顯示在頭顯的屏幕。 張海威表示,青瞳也研究過Steam的Lighthouse系統,並且稱它實現起來「並不困難」,真正的技術含量是在軟體層——兩個基站即便是被遮蔽一個也能正常工作,這一點是其他包括青瞳在內的演算法做不到的。 至於Oculus的追蹤系統,張海威稱二者原理類似,但他更看好Lighthouse,因為相比Oculus的系統,前者對硬體的要求更低,成本更低,穩定性也更好。
活動進行時
不論你是求職者還是招聘者,只要你想參與這次有關未來的活動,快到青亭網公眾號首頁點擊下方「聯合求賢」報名吧! 本文為青亭網原創文章,轉載請註明出處
推薦閱讀:
※【原創】監察體制改革試點推開語境下職務犯罪檢察部門職能定位研究
※80後的定位是什麼?
※金口訣 定位神煞主事(三)
※八字預測斷語十神定位論斷——日柱(下)
※胸椎、頸椎、腰椎、骨棘突定位(圖文)