近視患者戴虛擬現實眼鏡(VR設備)對電腦模擬出的遠景會不會看不清?
是否根據不同VR設備的成像方式,情況會不同?
首先,本文僅僅介紹市面上現有的普通「頭盔+透鏡+屏幕」的成像原理,其他(如光場成像等等)暫不作解析,期待後續更新~
如果你明白放大鏡的原理,我想這個眼鏡的原理你也不難理解了。
虛擬現實眼鏡現在的結構一般都是「透鏡+屏幕」的成像方式,透鏡在眼前2-3cm處,屏幕距透鏡3-6cm,虛像成像在眼前25cm-50cm左右。(這就帶來了視力疲勞的問題,戴頭盔眼鏡時,視線將一直持續聚焦在25cm-50cm處,無法移動,並且視野里全部是電子顯示屏,時間長後眼部肌肉會極度疲勞,想像一下你雙眼距離電視屏幕半米以內一直不動……但上述光場成像則是模仿現實世界的真實光場信息,眼部聚焦點會不斷移動,沒有上述問題)
1、放大鏡成像原理
當物體 AB 置於透鏡焦距 f 以外時,得到倒立的放大實像 A′B′(如圖 1-1(a)),它的位置在 2 倍焦距以外。若將物體 AB 放在透鏡焦距內,就可看到一個放大正立的虛象 A′B′(如圖 1-1(b))。映象的長度與物體長度之比(A′B′/AB)就是放大鏡的放大倍數(放大率)。若放大鏡到物體之間的距離 a 近似等於透鏡的焦距(a≈f),而放大鏡到像間的距離 b近似相當於人眼明視距離(250mm),則放大鏡的放大倍數為:N=b/a
[Ps:人眼能夠看清物體的最近距離就稱之為明視距離。實際上明視距離因人而異,對於近視眼,明視距離會短一些,遠視眼會長一些。對於健康的人眼,明視距離在250mm左右,因此我們通常將明視距離就設定為 250mm。]
由上式知,透鏡的焦距越短,放大鏡的放大倍數越大。一般採用的放大鏡焦距在10~100mm 範圍內,因而放大倍數在 2.5~25 倍之間。進一步 高放大倍數,將會由於透鏡焦距縮短和表面曲率過分增大而使形成的映象變得模糊不清。為了得到更高的放大倍數,就要採用顯微鏡,顯微鏡可以使放大倍數達到 1500~2000 倍。
放大鏡成像中,物距a(公式圖中的u)、像距b(公式圖中的v),焦距f符合以下關係
即1/b+1/a=1/f
由於像為虛像,所以b會在這裡是負數;
2、頭戴式眼鏡成像原理
如上圖,根據上述內容,焦距需要比物距大,而一般眼鏡物距在5-7cm,我們設透鏡焦距f為70mm,設屏幕物距a為55mm,根據計算公式的到b=-1/(1/f-1/a)=256.6mm,正好是明視距離左右。而由於現有的眼鏡一般都不可調整屏幕距離,故a基本固定,可換透鏡來調整f實現虛像距離的變換,對於近視,像距需要變短,f需要增大,一般選擇較薄的透鏡,對於遠視則選擇較厚的透鏡。另外,在幾個參數的調整中,基本都是幾毫米的微調,需要權衡虛像距離過大(放大倍數大)而帶來的像素顆粒感問題 和 虛像距離過近而帶來的不夠明視距離、視野較小等問題。
所以這時候,你會明白文章開頭的一段話:
戴頭盔眼鏡時,視線將一直持續聚焦在25cm-50cm處,無法移動,並且視野里全部是電子顯示屏,時間長後眼部肌肉會極度疲勞,想像一下你雙眼距離電視屏幕半米以內一直不動……
文章寫的比較草率,歡迎明人交流,謝謝~!
================
另外,光場成像我的理解就是,裝置直接向眼鏡投射(經過透鏡陣列或其他技術)真實光場信息,這個光場信息你可以理解為現實世界裡充滿的光線集合,人眼也是通過透鏡焦距的變換而將不同的光束聚焦在視網膜上,但其實射入眼中的光場信息並沒有變化,是全息的,只是人眼用焦距進行了選擇而已。
虛擬現實眼鏡(增強現實眼鏡)成像原理淺析
微軟 HoloLens眼鏡 現狀與前景 分析
虛擬現實與增強現實(眼鏡或頭盔)的現狀與未來-簡介
現在的HMD設備,3D畫面給人的深度的感覺,主要來源於注視一個物體時,兩個眼球視線的交叉程度。
比如當你嘗試看你的鼻尖時,眼睛會對得很厲害,這叫「自主性集合」,而在觀察一棵1000米外的樹時,雙眼的視線幾乎是平行的。大腦可以通過這種眼睛的集合程度來判斷物體的距離。目前的HMD,使用SideBySide方式渲染,屏幕被分為兩個區域,分別由虛擬空間中的兩個虛擬攝像機負責取景顯示。這兩個攝像機在頭部水平方向會有瞳距偏移,正好模擬你的兩個眼睛分離的成像。所以只要你使用的APP將各項參數調整合理,這種「自主性集合」在VR里會繼續起作用,這也是形成3D感的主要原因。不會的,遠景是靠左右眼畫面區別實現,參見3D電影
推薦閱讀:
※眼鏡店的生意怎麼樣!剛開了個眼鏡店怎麼都沒生意?
※如何選擇眼鏡,特別是鏡架的材料?
※如何挑選近視眼鏡架?
※如何鑒別雷朋真假?
※lindberg眼鏡為何那麼貴,但那麼受歡迎?