除了光場,還有什麼方式能解決VR顯示的accommodation-vergence conflict?
01-12
FOVE正在做這件事,嘗試用普通的LCD顯示模擬景深。(和真光場的差距在於畫面的分層,目前FOVE只能以注視中心為焦點,分成下圖所示的三塊。)眼睛聚焦的中心保持高保真度,然後往四周一次遞減從而產生有景深(depth of field)的錯覺。
下圖抽取了FOVE中的一幀,可以看到它分成了三層:
- 中間清晰的部分為foveal(視網膜黃斑的區域),分布了大量的錐狀細胞,對顏色極其敏感;
- 往外的混合區域(blend)是由清晰到模糊,越往外越模糊;
- 最後完全模糊的區域處於外圍(peripheral),分布了大量的桿狀細胞,只對對比度和運動的物體敏感,對顏色和細節不敏感(相當於人眼夜晚微光下看到的物體)。(相關問題:設計了一個亮度很低的VR場景,怎樣讓用戶一戴上VR頭盔就能適應裡面的亮度?)
這樣一種渲染方式叫做黃斑渲染(foveated rendering)。
這種方式不僅從一定程度上解決了accommodation-vergence conflict,而且大大減輕了渲染的工作量(rendering workload),從而可以把節約出來的渲染預算拿去提高刷新率和解析度。
GPU只要集中力量渲染眼睛正聚焦的視覺中心,而其他地方GPU一筆帶過,輕輕一渲。畫面上的小黃點正是你眼睛聚焦地方的點。
聚焦在我眼前的角色身上,它清晰,它背後模糊。更離奇的是眼動功能用來和NPC交互的時候,你看著NPC身上不同的地方,NPC的動作發生變化,感覺像它看到了你的目光一樣。
反之,如果聚焦在遠處背景上,則近處模糊。推薦閱讀:
※如何評價Magic Leap發布的新demo 「A Giant Future」?
※如何評價Magic Leap被揭底,演示視頻為特效工作室製作,產品因無法小型化而擱淺?