為什麼人眼的動態範圍 (Dynamic Range) 比相機大得多?


9/2/16 更新:補充了神經元增益控制的實例。

人的視覺動態範圍大,主要實現機制是在視覺系統各層級靈活的增益控制(gain control)。

具體機制寫起來可能會比較長,這裡先試圖講明白問題的實質究竟是什麼。

@韓磊的回答 認為相機動態反應的範圍主要受顯示屏顯示能力的限制,未必全錯,但是沒有說到點子上。顯示屏的響應範圍足夠了。一個很簡單的道理:

人的視覺系統處理圖像是用神經元的電信號活動。不論外界光源的絕對亮度範圍如何,一進入眼睛打到視網膜上,視網膜上的視覺細胞的響應範圍大概只有10~400赫茲這個數量級[2]。所以問題完全不在顯示媒介的絕對亮度上,而是在於圖像不同位置之間亮度的對比

上面不清楚的話沒關係,我們來看一個例子[1]。你手機的照相機可能有HDR(High Dynamic Range)這個功能,它是用來幹嘛的?

上圖中,上面的大圖是一個「人眼中的自然場景」;下面的三幅小圖分別是曝光短,中,長時間的顯示效果。HDR就是通過結合不同曝光時間的圖片來獲得較為自然的綜合圖像的。

顯然,你的顯示屏是足夠表現這個場景的,否則大圖就不會看起來那麼「正常」了。那麼為什麼下面的三幅圖看起來那麼「失真」呢?

答案是我們看到的圖像,從來都不是「忠於」自然界光線亮度的。下面的三幅圖,每一張都比上面的更「正確/自然」,因為它們忠實的反映了視野中每個點的絕對亮度比值(當然純白和純黑部分就是超過絕對響應範圍了,但是這個不是決定性因素)。

正是因為人腦視覺系統各級(從最底層的視網膜開始!)對外界光線的加工,才使得我們實際看到的視覺經驗中的場景像上圖中的大圖一樣,每個區域最終在視覺上都表現出合適的對比度,儘管場景中最亮和最暗的部分絕對光強的差異遠超神經元活動本身的響應範圍。

1. 視網膜

視網膜的輸出細胞:視網膜神經節細胞(Retinal Ganglion Cell)對同樣強度的光線的反應取決於視野中光的強度。在視野中平均亮度高的區域,增益減小;平均亮度低的區域,增益增加。

2. 外側膝狀體(lateral geniculate nucleus, LGN)

光線激活視網膜細胞後,視覺處理系統的下一層是LGN。視網膜已經基本完成了對亮度的調節,並有一定的對比度調節。LGN則進一步調節了對比度。如下圖:

圖中灰色部分顯示了麻醉中貓的LGN細胞的對圖下方所示刺激的反應。在圖A中,對比度被設定為固定值,而整體亮度突然增加。圖B中則維持了固定的平均亮度,而突然增加對比度。紅色虛線是一個沒有增益控制的簡單模型做出的預測,當亮度或對比度突然增強時,模型反應增強。而事實上,灰色山峰的高度(即LGN對刺激的反應水平)並沒有增加那麼多。

暫時寫到這裡。以此為例,我想原則已經清楚了:視覺系統中的神經元並不是直接響應環境中的絕對亮度或對比度,而是通過增益控制將其反應限制在神經元本身的動態範圍內。

[1] 圖片來源:File:HDR image + 3 source pictures (Cerro Tronador, Argentina).jpg
[2] Bethge, M., Kayser, C. (2007). Do We Know What the Early Visual System Computes? J. Neurosci., 25(46), 10577–10597.


由於自然界的光強變化範圍特別大,如下圖

從刺目的陽光到星光之間整整相差了10^8數量級,也就是一億倍.計算一下Log2 10^8=26.6.
用攝影的語言講光線的動態範圍應該在27Ev這個數量級,實際上因為光的反射跟疊加,動態範圍應該會遠遠超過這個值的。

這是實際的光照情況。
先說說相機的動態範圍
當前相機的感光元件主要分為兩種,ccd和cmos,可以這樣理解,感光元件實際上就是由一個個很小面積的像素(實際上叫做感光元件的感光組件,像素的大小跟感光組件的解析度有關,為了方便理解,直接用像素兒子代替)組成,曝光的的過程實際上就是往這一個個像素點存儲光信息的過程,這個像素點的存儲光子的能力是有限的,超過某一個值的時候,就像水桶裝滿會溢出一樣,再多的水也只能白白的浪費掉了,同時由於存在雜訊的原因(熱雜訊和統計雜訊),記錄光信息也會有下限。
相機的動態範圍就是記錄光強(與所存儲的光子量成正比)上下限之比。
ps,像素的面積越大,所能存儲的光子信息就越多,抗雜訊的能力也越好,所以大尺寸,或者低像素會擁有更好的動態範圍,或者說擁有更好的畫質,這也就解釋了為什麼500w的iphone4的照片畫質要好過大多數安卓的800W(當然這也跟軟體演算法有關係),為什麼全畫幅比aps-c擁有更好的畫質一樣。
再次Ps,其實我真的想買中畫幅,一提都是眼淚啊。。

人眼的動態範圍 這張圖也看不出來細胞多少個啊,魂淡!
再來看看我們牛逼的人眼,人單眼視網膜上約有700萬個錐體細胞,1億2千萬桿體細胞。錐體細胞負責強光感知和顏色分辨,桿體細胞負責弱光感知,只能分辨明暗。每個視網膜在一秒鐘內均可以發送近1000萬位元組的信號。從這1億2千萬的桿體細胞你就該知道人眼的動態範圍該是多麼的強大。


再來做做比較

其實相機的感光元件能夠記錄寬範圍的動態範圍,但是由於需要 進行光電信息的轉換,在數碼裡邊叫做位深度(bit),記錄的深度越高,能記錄的動態範圍就越大。從網上down一張位深度和動態範圍之間的關係圖:

大部分單反數碼相機的RAW文件可以記錄10到14的位深,因此理論的動態範圍是10-14EV。大部分數碼相機實際可用的動態範圍能是5-9EV。
所以各位親愛的童鞋,相機能拍raw,一定要拍Raw啊!
相機的動態範圍是ISO值的函數。ISO值越高,雜訊越嚴重,動態範圍也越低。

人眼呢,人眼就不是一個靜態的,人眼的作用更類似於一台視頻攝像機,而非靜態的照相機。人的眼球反覆轉動,持續接受外界的光信號,並隨時「更新」大腦內的圖像細節。同時,大腦將雙眼得到的不同信號組合起來,也可增加圖像的解析度。而且,我們經常會轉動眼球或者轉動脖子,以接受更多的信息。因此,眼球和大腦的有機結合,使人眼的解析度不僅僅由虹膜上的光受體決定。
並且人眼的動態範圍可因為感光度的變化而發生改變,但是人眼調節感光度的能力稍慢,需要時間來改變,這也就是為什麼晚上出門會感覺很黑,但是過一會就好了。
但是人眼的感光度不怕雜訊的影響啊(有研究說人眼也會產生噪點,為毛我就沒看見,哈哈),還有人眼還有一個強大的後期工具,這就是大腦,一般你所看到的,都是腦補過後的圖像,所以,你說呢,相機如果後期,還得拖進ps。

據新聞說,日本發布新型CMOS感測器 動態範圍超過人眼

怎麼來說呢,我認為這是扯淡!提升抗噪能力,提升畫質和操控才是關鍵啊!

引自:

  • Understanding Dynamic Range in Digital Photography 人眼與相機可對比的參數(動態範圍、高感......)

    以上

相關Live

* 攝影中的數學和物理原理

* 突破攝影瓶頸期,尋找靈感

* 利用地圖,開啟攝影世界新大門

* 如何拍好「情緒」類環境人像?


攝影相關回答:

攝影相關理論評論

* 中國攝影目前有哪些被用濫或即將被用濫的大俗套? - 知乎

* 繪畫和攝影的區別在哪裡? - 知乎

* 普通人和頂級攝影師拍攝同一場景差距到底有多大? - 知乎

* 人像攝影師真的比風光攝影師更懂攝影, 人像攝影比風光更難?

相關技巧

* 有什麼可以打開新世界大門的攝影技能? - 知乎

* 如何去除照片的灰? - 知乎

* 拍照時臉背光怎麼辦?如何拍攝美麗的逆光人像照? - 知乎

* 如何給身材或長相一般的女生拍寫真? - 知乎

* 拍人像寫真,怎樣讓畫面更乾淨,人物更鮮活? - 知乎

* 攝影愛好者如何練好自己的基本功,並學習進階的攝影技術和理念? - 知乎

* 如何才能把18-55毫米拍出來的照片 Ps 出高級攝影師拍出來的感覺?

* 如何PS可以將這張照片修的清透? - 知乎

拍攝及其他:

* Instagram 上有哪些值得關注的攝影師?

* 你用手機拍過哪些滿意的照片? - 知乎

* 你有哪些珍藏的壓箱底的「很有感覺」的圖片? - 知乎

* 有哪些很漂亮的城市夜景圖呢? - 知乎


-------分割線-------
歡迎關注我的微信公眾賬號:決明子 Jueming_zi
這裡有關於攝影,繪畫,藝術,以及我想說給你們聽的故事

http://weixin.qq.com/r/iUgiOm3EeDAHrSlZ9x2b (二維碼自動識別)


我並不覺得人眼的動態範圍比相機大,一台中高端相機的RAW文件經過後期之後還原出的信息遠遠超出人眼的能力。

真正的問題在於你用來顯示照片的媒介的動態範圍很低。比如說,晴天時戶外一朵雲的亮度高達30000nit,太陽什麼的更不用說了,而民用顯示器的亮度一般只有300nit。如果做線性映射的話,相當於:

現實中的30000nit -&> 顯示器上的300nit

現實中的x nit(亮度過暗,有點看不清) -&> 顯示器上的x/100 nit(完全看不清)

這個才是主因。


動態範圍是指相機可接收併產生響應的亮度輸入的最大與最小之比

不考慮時間上的變化如暗適應 就靜態圖像感知來說 人眼較大的動態範圍主要在於人眼感知的非線性 同時瞳孔可以調節大小進而控制進光量 對不同亮度尤其高亮度都可以接收併產生響應 而CCD等感測原件(想像為水桶般的容器)由於bit depth位數有限(以8位為例) 最小接收強度為1個bit對應的亮度 而當超過255倍的最小亮度時則飽和無法再接收 從這個角度來說 傳統的膠片(非數字化)在動態範圍上曾經是有優勢的 當然隨著位數的發展 動態範圍將會得到極大拓展

顯示的動態範圍同樣也受位數影響 而顯示器所在環境比如電影院和辦公室 由於後者環境亮度更高 最小亮度將會被犧牲掉 想像下在戶外手機亮度一定是要比睡前刷的時候要高的


看來題主用的是佳能。


很簡單,人眼+人腦作弊了。
人眼觀察自然景物時,有效的注意力只會在一小片地方,剩下的部分都是腦補。而這一小片地方自動ISO一下,就不會過曝或者死黑了。
而照片是用同一個ISO同時對全景做的畫面凝結。


人嚴重作弊了,和相機的比較條件不對等

人看東西並不是靜態的圖片,而是類似視頻錄製,腦子很多時候會自動PS或者AF,比如處理視網膜血管陰影。一台實時調整光圈和對焦的錄像設還會自動加特效通過視頻合成圖像的設備比起普通相機是不是強太多了?

同時,人眼兩套感光元件——視錐細胞和視桿細胞
打個比方一個是全彩CMOS,一個是弱光夜視儀,一個設備同時擁有兩套感光元件,切換隻要三十秒

一個能在日間全彩、夜視之間切換,能自動對焦自動光圈進行錄像,後台通過視頻利用強大圖像處理器合成圖像的設備,單論靜態圖的效果,比起一台普通相機高當然要感覺起來寬容度高多了,因為在作弊啊。


人眼每個視覺細胞可以獨立曝光,相機不是rolling shutter就是global shutter,那麼一張圖片的所有pixel曝光時間相同,這樣就造成同樣的場景,人眼的dynamic range相對更高一些。


瞳孔會動態縮張…如果每張圖都自帶十六級光圈,寬容度自然會大很多很多。


簡要回答:
1 題主認為相機的畫面重現質量不好, 主要是因為顯示器這種媒介對畫面的色彩還原太差。 現在顯示器越做越薄,燈管的色譜都不完整, 失真厲害。如果用上萬的專業顯示器,加好的片源, 重現會好一點。

2 目前最好的畫面重現系統是傳統彩色正片在照片白色底板上看;其次是頂級 dlp投影儀+stewart 白幕,從光線的數學模型上可以證明: dlp 投影加頂級幕布可以做到光線的最低損失。stewart白色幕布反射回來的光線, 看上去幕布如同鏡子, 看不到幕布平面, 是不帶3d眼鏡的3d, 有條件的自己去研究。

3 贊同各位說的 人眼看東西是各種腦補, 動態調整近光量改變曝光。


推薦閱讀:

鳥類羽毛的顏色是由什麼條件決定的?
這幾個生物學科的詳細區別是什麼?
人類自然產生的奇美拉(chimera,又譯「嵌合體」)事件是怎麼回事?又如何影響到子女的 DNA?
蜘蛛是怎麼樣在兩處相隔很遠的地方連接蜘蛛網的?

TAG:光學 | 眼睛 | 相機 | 生物學 |