為什麼眼睛能同時看清明處和暗處?

相機拍照時,如果想聚焦明處,暗處則特別暗看不清。如果聚焦暗處,明處則特別亮曝光過度。人眼為什麼能同時看清明處暗處,而且使兩者都處於合適的曝光。難道是大腦記住了兩處該有的畫面,咱們看到的畫面是大腦腦補出來的嗎?


你說對了,就是腦補出來的


張開你的手,放到差不多遠的地方,看著你的中指。餘光掃試一下其餘的手指,是不是都是虛的,在焦外的。

人類的眼睛視角只有差不多3度(《攝影的藝術》),但是這麼窄的視角,卻有著最強的機械系統和圖像處理系統的支持。

人眼的對焦速度/光圈縮放速度,以及眼球轉動的速度,是沒有任何光學設備可以媲美的,把人丟進一個暗房,再走到一個明亮的房間,瞳孔會迅速收縮,在瞬間完成收縮光圈的功能。

看一個「hdr」大場景也是這樣工作,這個不停在變化光圈的「攝像設備」以極快的速度掃完整個場景,每一處都是不同的光圈值,加上大腦的補差以及形狀和顏色等處理。

地鐵到站了,如果題主想繼續了解人眼工作,可以在知乎上搜視覺和神經科學的內容,例如v1這樣的大腦圖像處理系統。


年輕,視力好

余憶童稚時,能張目對日,明察秋毫。見藐小微物,必細察其紋理。

年紀大了,太亮了晃眼,太暗了又看不清


盯住中間的黑點,周圍的五彩色團會慢慢消失的。這張圖證明只有視線焦點的圖像會呈遞給意識,視網膜的其他部分的只是負責眼動。

人眼的功能與照相機是迥異的,人看到的圖像是依靠無意識的細微眼動在視皮質中被構建出來的,而不是呈遞在視網膜上的影像本身。

另外,兩者之間的差距跟相機的像素也有關係

人的視網膜有500萬個視錐細胞,由於視錐細胞負責捕捉彩色圖像,你或許會認為這相當於人眼有500萬像素。但人眼還有1億多個視桿細胞,這些負責感受黑白的桿狀細胞對於視覺成像的銳度發揮著重要作用。但1.05億像素也低估了人眼的能力,因為人眼不是一台靜態的照相機。人有兩隻眼睛,它們不停轉動以獲得比視野中心區域範圍更大的圖像,然後就像製作全景照片一樣,在大腦中組合成一幅完整的畫面。在良好的燈光下,人能將至少間隔0.6弧分(0.01度)的兩條細線區分開,將這兩條細線看作是兩個像素的話,每個像素在人眼中就相當於0.3弧分。如果保守地以120度作為你的水平視野,垂直面以60度計算的話,人眼的有效圖像數據量就相當於5.76億像素。

所以兩者根本沒有可比性。


因為人眼的寬容度比相機不知道高到哪裡去了。。。


寬容度高


推薦閱讀:

為什麼物體一點發出的所有方向的光經過凸透鏡後都會匯聚到一點?
功能性磁共振成像(fMRI)和結構性磁共振成像(sMRI)有什麼區別?
像散與色散是什麼關係?或者說什麼區別?

TAG:眼睛 | 相機 | 成像 |