通常感光元件在視頻拍攝時,會用到全部像素嗎?

比如說,800萬像素攝像頭,比較主流的一個像素數目了,通常廠商都標支持1080p全高清視頻錄製,也就是1080x1920的解析度,這個解析度和感光元件的像素數目相比似乎算少的。那麼視頻拍攝是如何實現的呢?是切出一部分像素來用嗎?

如果只用一部分的話,為什麼不把全部的都用起來,是因為圖像處理器達不到要求嗎?


不會用到全部像素,主要和這幾個原因有關:

  • 攝像頭的長寬比例一般是4:3或者3:2,而通常的寬屏視頻比如全高清FHD格式都是16:9格式的,於是必須要做出剪裁,就像下圖,拍攝視頻時只用白色部分(全部用起來圖像就變形了)。

  • 理論上當然可以直接把上述白色部分按實際像素數壓縮為視頻,但是這種視頻格式可能在一般的播放器上都無法正常播放,因為主流的視頻格式不僅有固定比例,還規定了固定的像素數要求,比如全高清FHD一定是1920x1080,高清HD一定是1280x720,於是還需要進一步壓縮。(規定成這樣的規範是因為視頻處理需要的計算能力太高,制訂標準時晶元技術還達不到更高的處理能力,目前已經有4K標準的產品出來了。)

  • 圖像感測器有幾種策略可以把上述第一幅圖的白色部分進一步壓縮,通常是用專門的電路做快速插值演算法,這很好理解。但是這麽做通常會損失一些圖像的銳利程度。
  • 於是另外有一些感測器採用的不一樣的策略,比如像素合併(binning),簡單來講就是把2x2或者4x4的像素塊合併成1個像素),這對於感測器的像素數有些要求,如果感測器的橫向正好3840個像素,那麼壓縮成1080p就是2x2做合併。如果像素數不湊巧,比如橫向有4000個像素,那麼還會涉及到一個剪裁,這時拍攝視頻時橫向視角會略窄一些。索尼NEX系列的相機就用這個策略。
  • 另外有一些感測器也能拍4:3比例的視頻,有可能會用起來全部的像素,但是有時候為了和16:9看起來視場差不多,也會考慮這樣一種策略:

  • 或者這樣一種奇怪的策略(松下Lumix LX3):


不會,視頻錄製時會用感測器中間部分的像素密集區域進行錄製。


樓上的說對了一部分,其實還有一個原因就是速度問題,當我們進行視頻錄製時,圖像的幀速率至少要達到30幀每秒,這樣拍攝的畫面人眼看起來才是連續的,否則就會有斷斷續續的感覺。目前大多數高像素圖像感測器的架構都無法實現全像素尺寸輸出且速度達到30幀每秒,所以只能採用諸如亞採樣,binning等方式減少輸出的像素數據量,加快數據的速度,也就是錄像的速度。當然也有少數圖像感測器可以做到全像素輸出並達到高速,但是這樣必定是以付出很高的硬體代價實現的,比如更大的電流功耗等。其實對於人眼觀看的視頻錄製,1080p已經很高標準了,所以沒必要用更高像素,這也算是一個原因吧。


推薦閱讀:

能否用視頻分享一下,有哪些小眾的手藝?
紙牌屋為何採用非主流屏幕比例?
誰看過一個很治癒的烹飪螃蟹的美食視頻?
如何看待羅輯思維、宋鴻兵鴻觀、曉說、今晚80後脫口秀、財經郎眼、老友記這些節目?
如何做出YouTube等視頻網站的壓縮強度及畫質保證?

TAG:攝影 | 手機 | 視頻 | 智能手機 | 相機 |