什麼是CMOS與CCD?——節選自《高興說顯示進階篇之三》
CMOS Sensor(Complementary Metal–Oxide–Semiconductor Sensor) 與 CCD(Charge-Coupled Device)
作者:高興
中泰證券研究所國際銷售
曾任職於美銀美林、中信證券、銀河證券、大宇證券
畢業於紐約大學、香港科技大學,高麗大學
可以聽說讀寫中文、英文和韓文,日文只能讀不會聽說寫
央視NEWS頻道 New Money欄目 嘉賓
CMOS Sensor(簡稱CMOS)和CCD分別長成下面的樣子。
CMOS
CCD
可以看到,他們長得很像,這是正常的,因為從本質上來說,他們兩者都是MOS的陣列。主要差別在於使用的MOS不同,以及對信息的讀取的方式的不同。
那麼到底什麼是MOS呢?
MOS(Metal-Oxide-Semiconductor)是一種FET(場效應管),全名叫MOSFET(Metal-Oxide-Semiconductor Field-Effect Transistor)。
什麼是FET呢?
簡單的說,FET場效應管(Field-Effect Transistor)是一種半導體電子元件,是一種晶體管,是一種開關,是一種利用電場來控制電流的通斷的開關。
也就是說可以根據一個輸入的值(1/0)來決定電流的通斷(1/0)的開關,這就相當於做了一個if...then...的邏輯判斷,而很多這種FET組合在一起就可以做出更多的更複雜的判斷了。這種本領使得FET構成了包括電腦、手機在內的我們現在信息世界的基礎,而MOS(FET)是最常見的一種FET,它的特點是,用一層絕緣的材料將輸入部分(電壓)與輸出部分(電流)分開,這樣只要改變電壓就可以控制電流。另外,我們在股票市場里經常提到的一個主題——功率半導體器件IGBT其實也是一種FET。控制顯示器每個像素的開關的TFT也是由一個個的MOS組成的。
MOS它大概長的是這樣的,看看就可以了不需要懂。
CMOS大概是這樣的結構,看看就可以了不需要懂。
CMOS則是MOS中最常見的一種,包括CPU在內的很多晶元都是以CMOS為基礎的,它通過基本MOS單位的組合實現了一個否定的邏輯判斷的能力。其特點是結果為輸入的反轉,輸入高電壓,輸出低電壓,輸入低電壓,輸出高電壓。
CCD也是用一種MOS做的,大概是長成下面這個樣子,也是看看就可以了不需要懂。
CCD並不是一種常見的MOS裝置,其主要的應用就是照相機成像。雖然前幾年還有CCD和CMOS哪個更好的爭論,隨著這幾年的技術發展,基本上CMOS技術已經佔據了絕對優勢了,而在可見的未來,CMOS技術的發展前景也要遠遠好於CCD。所以CCD基本已經被淘汰的邊緣了。被淘汰的主要原因是CMOS更省電、讀取更快、容易製造、成本低,之前CCD所擁有的噪點少、顏色深、感光度高等優勢隨著CMOS技術的發展都一個一個的消失了,現在只有某些專業的領域仍然還在使用著CCD,並且也面臨著即將被CMOS取代的威脅。
除了在構造上區別以外,CCD與CMOS Sensor最大的區別就是信息讀取方式的不同。下面這個圖很形象的把CCD的數據讀取方式展示出來了。
在像素上面增加電壓,可以把像素裡面的電荷一個一個的逼到和它相鄰的像素裡面去。
最外側的那一行最開始是空的,先接受和它相鄰那一行的像素的電荷,再一個一個的把電荷傳送出去,一個一個的轉換成電壓,然後最終再經過模擬數字轉換,形成數字信息。這其實也是一種掃描的過程。
而CMOS則與此不同,正如上圖右邊所展示的一樣,每個像素都會有一個元件來把電荷先轉換為電壓,使得CMOS的整體讀取效率非常高。這種讀取的方式每次讀取一行,該行的每個像素會被匯總到各自所在列的進行匯總,最後再統一輸出成數字信號。這種結構與我們在進階篇(二)中講解過的Active Matrix十分相似,所以也叫做APS(Active Pixel Sensor),CMOS Sensor是APS的一種。
可以看出CMOS的像素比CCD的元件多很多,這些多的元件是不感光的,所以實際上CMOS能夠感 光的面積是小於同體積的CCD的。不過,沒關係,這個問題已經被很好地解決了,方法就是把不感光的元件全部都放在感光元件的後面,而不是並排。這種方式叫做Backside Illumination,這種CMOS叫BI CMOS。另一種解決方案是在每個Pixel上面再覆蓋上一個小透鏡,把光集中在感光元件上。
CCD/CMOS也和膠片一樣,面積越大像素越多能夠記錄的信息也就越多。可以看到iPhone的成像面積其實要遠遠小於各種照相機。
目前數碼相機最大的就是大畫幅了。再大的就只有傳統的膠片機了。請注意全畫幅(36x24mm)是比中畫幅要小的,因為所謂的全畫幅對應的是膠捲的135膠捲(35mm),而中畫幅的尺寸有很多種,定義是大於全畫幅小於大畫幅,其中70mm寬的畫幅還在被IMAX使用。大畫幅一般是指4x5英寸以上的畫幅。下面就是一款大畫幅的數碼相機。
而如果在手機之間互相比較的話,大概是這樣。可以看到iPhone的成像面積也要遠遠小於各種手機。
我沒找到一個最新的圖,但是現在三星最新旗艦Note 8已經升級到了1/2.3",而iPhone系列還是沒什麼變化,iPhone X說是變大了一點,但是官方卻一直對其大小諱莫如深,所以我估計也不會大多少。
這些1/3"啊,1/2.3"啊,4/3"啊,這些都是指的是對角線的長度,單位是英寸。但是要注意的是,這些數字實際上並不是真正的成像區域的對角線的長度。因為CMOS/CCD的命名還延續著以前的CRT攝像機的命名方式。CRT攝像機是一種利用陰極射線管來進行攝像的裝備,相當於以前的老電視反過來當做攝像機用。其具體原理我放在本篇最後作為附錄了。
我們只需要知道這種成像設備的真正成像的面積的對角線只有其整體對角線的三分之二,所以比如說常見的4/3"單反,其實際成像面積的對角線只有4/3 x 2/3 = 8/9 ≈ 0.87英寸。所以比如蘋果的1/3實際上是1/3 x 2/3 = 2/9 ≈ 0.22英寸。當然,這樣計算並不完全準確,是因為正常的順序是先有了實際成像面積的對角線長度以後再乘以3/2,然後得到一個小數值,再將這個數值約等為一個分子分母都是整數的分數,然後用這個分數來命名畫幅的大小。所以蘋果的1/3很可能只是一個約數。但是這樣做實在是很不方便,而且四捨五入的太多,難以區分不同的產品,所以現在的很多廠家雖然還是會乘以3/2,但是已經不再試圖去四捨五入求整數了,比如1/1.5"這樣的大小。
但是,無論CCD/CMOS有多大,都只是一個二維的平面,好像我們的視網膜一樣,但是我們生存的這個世界卻是一個三維的空間。我們的大腦收到的光的信息其實是缺少了一個維度的信息的,好在我們人類長了兩隻眼睛,通過兩隻眼睛得到的信息的差異,我們可以用軟體方式計算出平行於我們視線的維度的信息,也就是距離感,從而形成了三維的世界觀。然而,照相機卻只有一個眼睛,無法形成立體的圖像,所以我們會說有的人上相有的人不上相,其實就是因為缺少了一個維度的信息而已,而那一個維度很可能就是決定一個人的美醜的維度。現在一些相機或者手機試圖利用並列的鏡頭模仿人類的眼睛,可以計算並記錄三維的信息,再通過3D顯示技術或者VR技術再現,從而給人類一種身臨其境的感覺。
作為電子膠片,CCD和CMOS接受到光子以後會在每個像素的位置形成相應的電荷作為對該點接受到的光的信息的記錄。
但是這個信息需要被量化才能轉換成數字信息存儲起來。
這個時候就先用一種叫做Charge Amplifier的裝置把電荷轉化為電壓,然後再通過一種叫做模擬數字轉換器Analog Digital Converter的裝置,這種裝置可以把模擬的信息量化以後轉化為一定精度的數字信息。
但是我們要記錄的不只是一種顏色的光,而是與顯示器一樣的,R/G/B三種顏色的光。
那麼,就像顯示器有R/G/B子像素一樣,CCD/CMOS也可以利用不同的子像素來記錄不同的波長的光的信息,或者通過在子像素上覆蓋濾光片Color Filter,或者是分別使用三種對不同波長敏感的物質。
但是無論哪種方式,目前的CCD或者CMOS都沒有使用簡單的R/G/B並列排列方式,而是普遍採用我們在基礎篇中介紹過的Bayer排列。
另外一種方式是直接採用三塊成像裝置,比如三塊CCD或者三塊CMOS,各自負責一種顏色,先用稜鏡把入射光分成三束,再分別射向不同的CCD/CMOS,形成三種顏色的信息。
很顯然這種方式比第一種的成本要高,優點在於同樣CCD大小的前提下,首先像素數量要遠高於單塊CCD(這不是廢話嗎?),不僅僅如此,顏色純度和圖像的銳利程度也要遠遠高於Bayer排列的單CCD結構。
這是因為光在通過濾光片的時候會損失很多能量,其次Bayer排列的有一個問題就是每一個像素作為二維平面上的一個點,其實並不能記錄該位置所有的信息,只是記錄了這個像素對應的R/G/B中之一的信息而已。
而3 CCD結構因為有3塊CCD,所以每一個像素位置都能記錄下來全部的R/G/B信息。
目前大部分的照相機的CCD/CMOS標稱的像素值實際上是將每一個顏色點算作一個像素,但是這個點並不能算作一個完整的信息點,這其實是一種「虛標」行為,起碼這種標稱方式與顯示行業的像素標稱方式是不對應的。
比如下面這個原始圖像。
如果採用Bayer方式記錄的話,會分別得到三個圖像,紅色、綠色與藍色。
每個像素都只有三種顏色的一種,互相之間並不重合。
所以如果直接將上面三張圖片合在一起的話,會得到這樣一幅圖像。
這和上面的原圖差的還是挺遠的吧,是不是很像馬賽克一樣?我們需要為每一個像素補充缺失的其他兩個顏色信息,這個過程就叫去馬賽克Demosaicing也叫Debayering。
但是如何才能補全缺失的顏色信息呢,答案是「猜」。但是不是瞎猜,而是根據周圍的其他像素的顏色信息來猜,請看下圖。
因為每個像素都只有一個顏色而缺少另外兩種顏色,可以採用周邊其他像素的顏色信息作為參考,再通過一定的演算法來計算出本身應該有的大概的R/G/B值再插回這個像素,這個就是所謂的插值計算Interpolation了。
經過這樣的計算以後,每個點都具有R/G/B三個值了,最終再把圖像整合在一起,就是下面這樣。
注意,和原圖比,這種重建的圖形的邊緣明顯不夠銳利,較為模糊,是因為銳利的邊緣處本來是顏色變化較為劇烈的地方,但是如果採用差值計算的話,因為必須參考像素周邊其他像素的顏色值,無法表現出這種劇烈突然的顏色變化,所以會比原圖更模糊一點。
想要圖像變得更加銳利可以採用上面說的3 CCD方式,也可以再增加像素的數量與密度,或者採用其他的創新的方式記錄,比如有一種叫Foveon X3的技術,是美國Foveon公司首先研製,後來被日本Sigma收購的一項技術。這種技術與彩色膠片的成像方式非常相似,每一個像素都在縱向分為三層,各自分別對不同波長的光敏感。
這種方式的優點是不需要Demosaicing,因為每一個像素都同時具有記錄R/G/B信息的能力,一個像素就可以頂上Bayer方式的3個像素。
如果不明就裡的人在比較Sigma的標稱像素和佳能/尼康等競品的像素的時候,Sigma就會很吃虧。而做生意的當然不願意吃虧,所以Sigma把自己的產品的標稱都是實際像素數量直接乘以三的。
這種方式也有缺點,就是三色不一定能很好的分開,紅色到達最底層的時候有一定衰減,所以紅色部分會顯得不那麼銳利。
但是,無論哪種方式,正如我們在進階篇(一)中說的,僅僅靠R/G/B三色是無法覆蓋人眼可識別的色域上所有的顏色的。那麼,各位想一想,用這種方式得到的信息在一開始就已經是被過濾過的,不完全的信息了,對吧?那麼在後期顯示階段,無論我們如何努力去試圖恢復當時那一瞬間的真實顏色,其實都是不可能的,僅僅是減少信息的進一步的損失而已。
只有在攝像/照相階段儘可能的保留更多的信息,後期顯示階段的技術創新才有意義。
有人試圖通過增加原色的數量來提高信息的還原度,比如這個猶他大學的新技術,就利用不同波長的光的折射角度的不同來識別25種顏色的光,那就是二十五原色!
當然如果真的利用二十五原色的話,整個產業的成本都會大幅提高。
所以,我個人覺得比起上面這種方式,反而是最大限度的在記錄階段模擬人類L/M/S視錐細胞的特性來記錄信息,然後最終將相同的信息再次傳給人眼才是更有效率、更準確的方式。
而現在的CCD或CMOS其實就是按照這個思路在發展的,各個像素並不是單純的記錄R/G/B波長的信息,而是記錄長/中/短波長信息,也就是L/M/S信息。比如下面尼康D700相機光譜反應圖,其實就和人眼的反應比較像了。
推薦閱讀:
※堆棧式 CMOS、背照式 CMOS 和傳統 CMOS 感測器有何區別?
※相機的cmos工藝和晶元的cmos工藝相同嗎? ?
※光處理器運行的原理是什麼?為什麼製造難度這麼大?
※為什麼現在的cmos工藝一般都是用p襯底,而不是n襯底?兩者有什麼區別啊?
※在手機拍攝領域(拍照和拍視頻)iphone7的光學防抖和小米的多軸防抖哪個屬於未來?