一文讀懂VR世界裡的「空間定位」是個什麼鬼?

2016/10/22 青亭·時聞:大部分VR頭顯能夠滿足視覺上的需求,而交互方面卻只有少數幾家公司能夠做出解決方案,青瞳視覺就是其中一家。  前不久的OC3大會上,Oculus發布了Touch手柄和room-scale(房間級)空間定位方案。算上早就發布了Lighthouse系統的HTC VIVE,以及帶上PS camera就能玩空間定位的PSVR,虛擬現實頭顯三巨頭都算是進入了光學追蹤定位的VR交互新時代。  說到底,光學空間定位到底是如何實現?三大頭顯廠商的定位方案又有何優劣?未來VR交互又會向什麼樣的方向發展?  青亭網採訪了專註於紅外光學追蹤研發的青瞳視覺,他們的CEO張海威向我們介紹了目前市場上主要的定位技術的優劣,並用自家產品演示了光學定位的工作原理。  三種交互方案,為什麼最看好outside-in?  目前市場上主流的VR交互有三種:inside-in、outside-in以及inside-out,對於這三種方式的優劣,張海威談了談自己的看法。  張海威先用一個比喻形象的說明了一下VR交互的命名方式。  他把inside形容為「獵手」,比如記錄光學信息的攝像頭或者記錄慣性信息的陀螺儀;out則被他看作「捕獵目標」,比如光學mark點。而in和out則表示「獵手」和「目標」是否在定位對象(比如人或者VR頭顯)上面。  Inside-out方案,是把相機這樣的感測器放在身上,用來感知外界的環境,它廣泛應用於機器人的機械視覺以及Hololens等手勢識別上。包括SLAM等公司,把相機裝在機器人身上,對機器人周邊的光學環境進行採集、處理,再與機器人的實際位置聯繫起來實現自主導航。  這種方案的好處是,不需要在外界設置攝像頭,可以減少場景的限制。但是由於只能識別頭部動作,加上體積、續航等領域存在問題,因此它更適合於移動VR這種輕交互場合。  Inside-in就是指感測器和定位點都在目標身上,最典型的就是慣性動捕:讓人穿上慣性捕捉設備來記錄人體的移動,或者移動VR中頭顯、手機里的陀螺儀設備記錄頭部的六自由度移動。  這種方式的好處是不依賴於外界的設備,更加自由,但壞處就是沒有位置信息,只能記錄移動的軌跡,而目前所有的陀螺儀設備都有累積誤差,會導致人在VR中移動的時候「走偏」。  Outside-in則是包括青瞳MC1300、optitrack系列這樣,相機放在外頭,mark點在人體或者頭顯上面。  這種方式精確度更高,但壞處是,一方面要藉助外面的攝像頭,對空間要求更大,另一方面則是相對成本更高。  在張海威看來,目前的技術都不完美,他認為對於固定場景的VR,outside-in類型的方案目前看起來相對成熟,而隨著市場的發展,困擾這套方案最大的問題,攝像頭的成本也會逐漸降低,所以張海威也選擇用這種方案切入VR市場。  產品體驗:精度高延遲低,小問題瑕不掩瑜

  在位於上海大學校園內的青瞳視覺總部,青亭網體驗了青瞳視覺的光學追蹤產品。  進入青瞳視覺的實驗室,在工作人員的幫助下,筆者戴上了上面粘著數個反光球的Oculus Rift頭顯,以及同樣粘著數個反光球的手套和一個槍型手柄。  接下來,工作人員啟動了一個青瞳自製的demo遊戲——筆者進入到一個機械空間之中,遊戲本身很簡單,就是用手中的激光槍和巨大的機甲戰鬥。  遊戲中,整個空間的穩定性,在空間中行走、躲避的實時反饋都非常精確,包括用槍射擊的時候準星也非常穩定。唯一美中不足的是,在遊戲的時候,遊戲中的手部有的時候會突然地丟失。  對此張海威介紹,這是因為手套的mark點都集中在手背部,翻掌或者被遮擋的情況下,攝像頭捕捉不到mark點就會丟失,在實際的商業應用中,mark點覆蓋手的兩面,就可以解決這個問題。  降低延遲,二代產品的功夫在「機內」  對於VR來說,交互系統的延遲對人們的VR體驗有著決定性的作用,對於降低光學交互系統的延遲,張海威表示其實最重要的功夫是在機內的晶元演算法里。

  青瞳視覺之前推出了一代產品MC300 tracker,而經過一年多的研發,這次推出的二代產品MC1300tracker,如上圖所示,在硬體和性能上都有了很大的進步。  以FPGA為核心的帶有1GB DDR3內存的拇指大小的微型電腦,處理速度及刷新率大大的提升,降低了延遲,提升了幀率,使得二代產品可以更好的捕捉高速運動中的物體。  當然這並不代表青瞳的水平已經超過Optitrack這樣的國際一流大廠,筆者調查後發現optitrack的產品線中也有Prime 13W這樣的廣角攝像頭方案。Prime13W的水平視角為82度,與MC1300的視場角相近。  實現Lighthouse並不困難,演算法裡面的門道才是壁壘  對於自家的產品,張海威有一個非常形象的介紹:如果說虛擬現實是PC之後下一代的計算平台,那麼光學追蹤系統就滑鼠、鍵盤一樣,用來讓人和虛擬現實的世界進行交互。  青瞳自家的紅外光學方案主要分為三個部分,攝像頭、標記點以及處理系統。

  攝像頭上感光鏡頭周圍有一圈小的led燈泡,發出的光線照射到反光球上,經過反射被攝像頭裡的感光晶元捕捉,通過內置晶元的計算,最終得出反光球在空間中的位置信息。  只要空間中能有兩個攝像頭同時捕捉到這個反光球,就可以通過演算法計算出這個反光球在空間中的三維位置。  張海威介紹,在攝像頭的「眼」中,每個小球就像是一個發亮的點。通過在一個現實中的物體上(比如VR頭顯)固定住數個不等的小球,記錄下這些小球的移動信息,再通過小球間的位置關係確定頭顯在虛擬空間中的姿態和移動,從而計算出頭顯在一定場景中六自由度的運動信息。  以頭顯為例,假設一個人在戴上頭顯之後想看旁邊的柱子,轉頭的時候會被光學追蹤系統記錄下來傳輸給電腦,電腦的CPU計算出人應該看到的畫面是柱子,GPU會渲染出相應的畫面並顯示在頭顯的屏幕。  張海威表示,青瞳也研究過Steam的Lighthouse系統,並且稱它實現起來「並不困難」,真正的技術含量是在軟體層——兩個基站即便是被遮蔽一個也能正常工作,這一點是其他包括青瞳在內的演算法做不到的。  至於Oculus的追蹤系統,張海威稱二者原理類似,但他更看好Lighthouse,因為相比Oculus的系統,前者對硬體的要求更低,成本更低,穩定性也更好。

  活動進行時

  不論你是求職者還是招聘者,只要你想參與這次有關未來的活動,快到青亭網公眾號首頁點擊下方「聯合求賢」報名吧!  本文為青亭網原創文章,轉載請註明出處
推薦閱讀:

【原創】監察體制改革試點推開語境下職務犯罪檢察部門職能定位研究
80後的定位是什麼?
金口訣 定位神煞主事(三)
八字預測斷語十神定位論斷——日柱(下)
胸椎、頸椎、腰椎、骨棘突定位(圖文)

TAG:世界 | 定位 | 空間 |