相機的cmos工藝和晶元的cmos工藝相同嗎? ?

intel已經步入14nm,3d晶體管,那麼能不能用這個工藝造相機的cmos感測器呢?

我知道感測器對工藝敏感度低,工藝的進步可能帶不了足夠大的性能提升,但只是想問一下兩者製造的流程上是不是兼容的


為了回答這個問題,我覺得我們應該先看看最general的pixel的結構,分析每一部分的不同spec要求,然後我們一一對應到工藝。我相信,這個問題自然會迎刃而解的。

imaging sensor的工藝和普通CMOS工藝的不同,最主要的就是滿足pixel的要求。

我以最general的Pinned Photodiode APS為例,看看一般的pixel對工藝有怎樣的要求。

PPD APS的schematic如下:

這個schematic對應的lay out是這樣的:

這裡面的核心器件有PD,TG和SF(source follower)這三部分.我們一一分析。

首先,綠色PD的面積大小直接決定了我們的Fill factor,我們可以把FF簡單的理解為在相同的QE下的感光率。對於一個imaging sensor而言,Fill factor一定是越大越好。如果我們假設工藝前進一個節點,那麼隨著工藝的變化,部分讀取電路部分的器件面積會相應減少,但是這一部分我們很清楚的從lay out上看到其實本來佔用的面積就很少,70%的面積被綠色的PD佔據,所以即便是讀取電路部分減少一半的面積,對整個pixel面積的影響並不大。所以,如果需要一定的大小的FF,PD基本是恆定,或者只隨工藝略微減少。PD並不會隨著工藝的進步而受益很多。而PD部分的摻雜決定了它的感光性能,這是Imaging sensor工藝與普通CMOS工藝最主要的區別之一。

TG是整個imaging sensor工藝部分的核心技術,是每一個foundry的絕對秘密。一個性能良好的TG,基本沒辦法用現有的理論模型去推演,即便是有,也都還處於paper階段,距離工業生產還有很大距離。所以,一個好的TG工藝,只有通過try and error去摸索。而這樣的摸索,首先是成本巨大,需要大量的流片,尤其更要命的是,找到的最優解只適用於一種特定工藝的實驗,比如說180nm,如果工藝如果進入110nm的節點,這樣的最優解還需要大量的實驗去尋找,所以我們也看到imaging sensor的工藝進步的很慢。(這只是原因之一,更重要的原因還是市場太小,驅動力不足)。因為TG最優解所需要特殊工藝,這也是Imaging sensor工藝與普通CMOS工藝最主要的區別。

至於讀出部分的source follower,也沒辦法隨著工藝的進步進而縮小,因為這裡SF會domain整個read out電路中1/f雜訊。可惜的是,要減小1/f雜訊,只有增大面積。所以source follower也沒辦法隨著工藝縮小。

那工藝的提升對imaging sensor的意義在哪裡?

1.對於手機攝像頭這種大批量生產的sensor而言,先進工藝意味著均攤成本降低(而性能可能進步,可能保持原樣,也可能退步,很難一概而論),這個和一般的工藝沒有很大區別,

2.對於同樣尺寸的pixel,先進的工藝意味著yield會上升

3.對於pixel之外的讀取電路,邏輯電路,比如說片上的ADC,DFF,性能會有提升。

所以結論是:imaging sensor的工藝可以兼容一般的CMOS工藝,但是一般的CMOS工藝無法兼容imaging sensor的工藝,主要的原因在於PD部分摻雜的不同和形成TG部分的特殊工藝。並且imaging sensor工藝的前進步伐遠慢於standard Technology


相機CMOS單元比CPU用CMOS單元多了一個光電二極體;DRAM(內存)用CMOS則是多了一個電容,就這麼簡單


應該是一樣的,不過這裡要說明的是,你所說的相機CMOS這些是指感光晶元,而image sensor這類屬於模擬電路,而模擬電路晶元是不會用這麼小溝道的工藝去做的。


推薦閱讀:

堆棧式 CMOS、背照式 CMOS 和傳統 CMOS 感測器有何區別?
日立的「CMOS 退火」技術是怎樣的一種技術?利用該技術的半導體計算機是否能夠替代量子計算機?

TAG:半導體 | CMOS | 圖像感測器 |