不同畫幅的相機單位像素麵積問題?

例如:

全畫幅 2400w像素

apsc 2400w像素

雖然像素數一樣但由於感測器面積不同,apsc的每個像素的面積要小於全畫幅的單個像素麵積,這樣就導致了曝光量的不同高感也有了差別。

那可不可以通過降低apsc畫幅相機的像素數使單位像素麵積提升和全畫幅的一致,達到一種「apsc成像只是全畫幅的裁切」的效果?

有這個問題是因為富士的apsc從1600w像素換為2400w像素感測器,就算其他方面有提升,但單位像素的變小肯定有不小的影響吧?


如果兩台相機,感測器工藝相同(同像素密度,同參數性能),一台是FF,一台是APSC

那麼你就可以理解為,第二台相機是第一胎相機把周圍的一圈幅面用黑膠帶遮上了

它們就是完全一樣的東西

僅此而已

並不存在全幅仍然更優秀的道理,因為你已經當半幅在用了


親愛的朋友,你和松下想到一起去了。松下 GH5s就是這麼設計的,這是個視頻機,所以像素低一些也能滿足4K。

松下 GH5s 誕生:如同 A7s 那樣的高感度錄影怪獸

松下 GH5s 誕生:如同 A7s 那樣的高感度錄影怪獸cn.engadget.com圖標


好問題。

首先放結論:

單個像素麵積和高感性能沒有直接關係,高感性能取決於通光量。

通過降低像素「提升」高感對攝影意義不大,對視頻拍攝意義比較大。

曝光量與通光量

GH5 vs A7SII

如圖,左邊是 M43 畫幅的 GH5,右邊是全畫幅的 A7SII。

我們假設有這樣一顆鏡頭,它可以無視卡口的問題裝在這兩台機子上進行拍攝,也不考慮 Transmission 的問題,假設它的 T 值就是 F 值。

用同樣的焦距,同樣的光圈和快門速度拍攝,這時候 M43 感測器所能接受的光的量只有全畫幅的四分之一(轉換係數 2,面積平方),儘管它們單位面積所接受的光的量是相等的,也就是曝光量相等,但是全畫幅的面積是 M43 四倍,通光量是 M43 的四倍

雜訊從哪裡來,又要到哪裡去

畫質有一個可以量化的標準,那就是信噪比(SNR)信號和雜訊之比,SNR 越高,則畫質越好。

CMOS 的雜訊來源有很多,最近幾年 CMOS 技術已經很好了,高感下製造的雜訊幾乎已經可以忽略不計,最重要的雜訊來源是光線的散粒雜訊(Shot Noise)光的散粒雜訊和 CMOS 本身的性能無關。

散粒雜訊:N=S^0.5,也就是信號強度的開根。

SNR=S/N=S/(S^0.5)=S^0.5,信噪比也是信號強度的開根。

信號強度由什麼決定?由場景本身的光照條件,和鏡頭決定。

在這個公式里,可沒像素麵積什麼事兒。

等等……那我明明看見高像素機子的高感表現不如低像素……

我猜你是把兩張照片都放達到 100% 預覽來進行對比吧?

你如果把高像素機型的圖片縮圖,你就會獲得信噪比的增益,最後的表現,同時代的,同幅面機器的高感表現其實是不會差太多的。

不信,你把 A7R 的圖縮到 1200w 像素,再和 A7S 比比看?

高像素機的優勢在於,進可攻:便於輸出超大幅面的成片,退可守:可縮圖增加信噪比拼高感,可裁切重構圖。

再舉個例子,小米 Note 3 前置攝像頭的 2μm 合成大像素,以及一加 5T 的所謂像素四合一夜拍技術,其實都是通過縮圖來提高信噪比的一種應用。

你看當年 HTC 搞什麼 UltraPixel,像素大了,「高感」好了,結果總像素只有 400w,沒有足夠的像素給人裁切分享用,後來慘了吧……

回到你的問題:可不可以通過降低 APS-C 畫幅相機的像素數使單位像素麵積提升和全畫幅的一致,達到一種 apsc 成像只是全畫幅的裁切」的效果?

答案是,不行。

使用同樣的參數進行拍攝(f 值,快門,ISO),全畫幅和 APS-C 曝光量相等,亮度一樣,但是全畫幅的通光量是 APS-C 的 2.25 倍,要彌補通光量的差距,APS-C 上要麼減一檔快門,要麼開大一檔光圈

無論技術怎麼進步,物理法則是不會改變的。

比如說全畫幅上的 50mm f/1.4 鏡頭,如果真的要在 APS-C 上實現一樣的體驗,那麼你需要一個 33mm f/0.93 的鏡頭才能實現一樣的視角,一樣的虛化效果,以及相同快門速度時一樣的通光量。

只要這樣規格的鏡頭造不出來,那麼 APS-C 畫幅就不可能實現全畫幅上的高感。

這樣的鏡頭造的出來么?起碼現在是造不出來的。

所以底大一級壓死人,證畢。

說回高感,既然可以通過高像素縮圖來實現類似的高感,那為什麼會有 A7SII,或者 GH5s 這種低像素機型的存在呢?

這是因為 CMOS 讀取速度和機內處理能力的不足共同決定的。

攝影里,高像素縮圖獲得信噪比增益這個技術用在視頻上就是所謂的超採樣(SuperSampling)。

但視頻拍攝的讀取,處理,輸出/存儲,都需要幾乎實時。

對於這種過分的要求,現在我們的 CMOS 讀取速度是不夠的,相機里那顆孱弱的處理器性能也是不夠的。

為什麼 A7RII 只能在 S35 模式下超採樣,但是 A9 可以全畫幅超採樣呢?就是 A9 那塊堆棧式 CMOS 讀取速度快了很多。

說實話,要是能在 A7Rx 系列實現 60p 的全像素讀取(42MP,8K+ 的視頻解析度)並實時超采成 4K 視頻(8MP),那也沒 A7S 這個系列什麼事兒了。

既然讀取和計算能力跟不上去,那就把 CMOS 像素做低點,這樣來得及讀,也不用進行大量超采對機內處理器造成太大負擔,這就是 A7Sx 和 GH5s 的設計思路。

以上,希望對你有所幫助。


常見低像素高感機的叫法,從一開始就是誤導人的,正確的叫法應該是高速機,說穿了,機內處理器的數據負擔小得多。

所謂降低像素提升畫質和提高像素降低畫質的固有觀念從一開始就錯的離譜,為啥?

因為你計算感測器的信噪比,有件事情必須做掉,那就是歸一化。一旦你去掉這個步驟,等同比較per-pixel層面SNR。什麼per-pixel,就是各自只把單個像素SNR拿出來和人對比,顯然毫無意義的舉動,像素偏低的機器自然容易佔優,因為單個像素偏大唄,但問題來了,請問你們拍照用的用的是一個像素還是整塊感測器呢?

大底小底的本質差異,只是光學層面限制玩的遊戲,大底壓小底的優勢並不直接來自幅面本身,而來自幅面帶來的間接光學配套,就是這麼簡單的道理。

換言之跨平台高感能力,實則和幅面、像素都沒有關係,這個能力是被鏡頭限制死了(但實際情形中小底一般沒有此類鏡頭,為什麼?因為小底的根本目的之一就是小型化)。

恰恰低感方面是大底的天然優勢,為什麼?因為大底面積大更能稀釋光通量,即其亮度容易偏低,相對可以曝光更長的時間,其base ISO能做得更低,這才硬道理。


可以是肯定可以的

很多電影機,還有GH5S,A7S,A7S2這種視頻機,像素都是很低的,甚至就是點對點視頻輸出的,保證了最大的單位像素麵積從而獲得較高的畫質。

但是圖片機還要考慮到畫面解析度的問題,畢竟視頻規格受限於存儲媒介還困在主流4k(800萬)這個水平,但是圖攝都是2000萬往上了,因此降低解析度還是會有比較大的損失。

至於高像素會不會有所犧牲呢?有是肯定有的,但是在目前背照式感測器開口率越來越大,接近100的現在,犧牲已經越來越小了,作為圖攝甚至也可以進行下變換來提升純凈度,因此照相機做低解析度的意義不是那麼大了(而攝影機仍然保持低像素的原因是高像素下變換的解碼運算壓力很大,以及果凍效應嚴重等等)

最後,單位像素麵積相同的apsc高感能力會和全畫幅一樣嗎?我的觀點是不會的,因為總曝光面積比全畫幅小,信噪比會更低,怎麼比還是要略差一點的


推薦閱讀:

新手小白想買一台單反求推薦?
索尼相機的raw是有損的,究竟和無損的raw 差多少?
用同等的錢買部單反好還是買部微單好?
評索尼黑卡rx100m5這款新發布的相機?
單電相機和微單相機有什麼區別?

TAG:攝影 | 單反相機 | 微單相機 | 富士Fujifilm | 圖像感測器 |