P8的RGBW感測器是什麼?


這個問題我非常的感興趣,很認真的回答一下。

這次華為用的RGBW sensor確實有用一定的影響力,這讓華為直接上了我們專業內最有名的網站的當天頭版,還引來了其中業界大牛親切,友好的討論(最後我再說說他們是怎麼吐槽華為的)
Image Sensors World: Huawei P8 Smartphone Features "World』s First Four-Color RGBW Sensor"

RGBW和RGB最大的區別就是在sensor之前的color ?lters array是不一樣的,我這裡列舉幾個最常見的CFA array:

而這次華為用的就是如圖所示的e差不多的RGBW,這項技術是Kodak最先在2007年發明的,2005年申請專利,所以這並不是一個很新的技術。這種CFA被稱為CFA2.0是因為這是第一次在Image sensor里引入compute circuit的概念,之後這個概念被運用在核成像上。

這裡RGBW sensor和普通地RGB最大的區別就是引入了W的區域,其實就是白光區域,這在processing上是很容易實現的,就是使用無色的filter或者直接沒有filter,成本並不高,而且技術上也沒有什麼難度。

那麼為什麼要引入W區域呢?目的只有一個:HDR,確切的說,並不是傳統意義上的HDR,因為RGBW sensor只能提升低光照區域的sensitivity,而對高光並沒有幫助。

那麼,我來說說引入W之後如何實現對低光照的高感。

先來說硬體層面為什麼RGBW sensor會實現對低光照的高感。

一般的RGB:

是在sensor之前加一個color filter,讓固定區域的sensor只能感受固定頻段的光,比如說G只能感受綠光,那麼其他頻率的光就會被filter濾去,這樣就會在很大程度上減小每一個sensor的input。那麼,在低光照的情況下,很可能出現的情況就是經過filter之後的光線太少,使得這時候SNR變得很差,那麼這樣在低光照下的成像就會變差。

而如果我們使用RGBW的CFA:

那麼,在低光照的情況下,W區域因為沒有filter,那麼input就會是其他區域的至少3-4倍(因為還有UV),這當然就提高了sensor在Low-Light Conditions的sensitivity。這就是硬體層面上為什麼能夠實現HDR的原因,原理其實很簡單,這是這個系統實現HDR的必要條件。但是RGBW sensor的難點和精華其實是在sensor之後的ISP演算法裡面,並不是硬體層面,這裡的W區域只是為之後的演算法提供必要的input。

在演算法層面,要實現由sensor data的 remapping之後輸出raw文件,一般的流程是這樣的:

這裡面最重要的環節就是這裡的demosaicing(去馬賽克),在RGB sensor裡面,對於ISP而言看到的其實是這樣的:

也就是三張不同的圖片,如何把它remapping成一個圖片,這就是ISP主要的工作了,而ISP的演算法其實是基於你的CFA,不同CFA是會對應不同的最優ISP的。

而對於RGBW sensor而言,最大的不同就是通過W區域來提供一個獨立的灰度感應區域,而不是像RGB一樣通過color sensor來提供灰度。這樣,對於Low-Light Conditions,就可以既保證色彩飽和度的正確,也能實現對灰度的準確sensitive。說的通俗一點,也就是可以實現更加精準的低光白平衡。而白平衡的實現演算法有很多,各有優缺點,但是都不能解決低光照下的灰度問題,因為普通的RGB本身的CFA沒辦法提供正確的input,而RGBW 卻可以提供。

所以,RGBW sensor必須配有獨立而特殊的ISP系統,與傳統RGB是不兼容的,這也就是為什麼華為在發布會上特意提到了他們的ISP系統。

一般而言,RGBW的Processing steps 是這樣的:

一張圖就可以很清楚的看出RGBW sensor的ISP與普通ISP的不同,這裡面最大的技術難點就是demosaicing和interpolation時的演算法,如何demosaicing,如何interpolation是最大的難點。由低resolution內插為high resolution是困難的,尤其是在ISP領域,一旦演算法失誤,會造成很奇怪的圖片,比如說這樣:

所以,這種技術在出現了幾乎十年,也沒有成為主流和技術的原因就是我們其實可以用很多其他的方法來實現HDR比如說不同曝光時間連續拍多張再合成,或者使用相同曝光不同gain來合成。

但是其他的HDR方法都沒辦法實現一次拍照實現HDR,尤其是沒辦法避免Move Blur的問題,而RGBW可以實現一次拍照實現HDR,那也就解決了HDR裡面的Move Blur的問題。但是,ISP的演算法真的不是一件容易的事情。

最後,我親切友好的展示一下業界大牛們是如何吐槽華為的宣傳和樣照的,哎,中國企業就是容易被放在顯微鏡底下挑骨頭,真是無奈:

首先,這張樣照:

被大牛們一致判定為PS。。。:

我就很好奇,用兩個不同手機同時拍一個場景就不行嗎?為什麼就要被判定為PS?我真是覺得很無語。

然後,宣傳裡面的Iphone對比照:

被apple的工程師吐槽為iphone沒開HDR你說個大爺啊。。。不過我認為華為這麼做是有道理的,並不是耍流氓,因為華為的RGBW想要對比的是一次拍攝的HDR,而不是iphone的拍了好幾張合成出來的HDR,那麼當然,華為這樣做是對的。

然後華為的光學防抖(Optical Image Stabilization),被吐槽為:

之後,被另一工程師打臉:smartphone的size的sensor你給換算成單反的size說0.5cm的位移不是耍流氓?哎,好容易中國企業上個ISW的頭條poster,就這樣被吐槽了,真是心酸(文化人吐槽還真是喜歡Anonymous)。


把拜耶濾鏡的一半綠色像素改成白光像素,之前在moto X有類似的應用,但是效果不好


P8發布後有網友解釋過,當然比樓上的差得遠,不過還是貼上來給大家看看吧

在本周新發布的華為P8上,我們發現了一項名字很有意思的技術,這就是我們今天要聊到的RGBW感測器。什麼叫RGBW呢?其實就是指紅綠藍白的英文縮寫,指的就是配備了紅綠藍白四種像素點的感測器技術。那麼,究竟RGBW感測器與我們常見的那些「非RGBW」感測器有哪些不同?優勢又在哪裡呢?

Bayer感測器的像素結構

既然我們要解釋華為P8上搭載的RGBW這一感測器技術,那麼我們勢必得先搞清楚傳統Bayer感測器的工作原理。正如我們人眼上擁有感知不同頻率光線的多種細胞一樣,相機感測器上也擁有感知不同顏色的像素點,而這些像素點排列的最常見形式就是所謂的拜耳陣列(Bayer array)。

基於人眼對於紅綠藍三種頻率光線不同的敏感性,柯達公司的影像科學家Bryce Bayer研發出了這種一紅一藍兩綠的像素排列方式來模擬人眼對於自然界的顏色感知。如果按照RGBW這樣的英文縮寫來命名的話,這種傳統的Bayer排列方式可以縮寫為RGBG。由於人眼對綠色最為敏感,所以Bayer陣列中綠色像素點的佔比才會更多一些。

我們是如何得到彩色照片的

由於感測器本身的光電轉換過程是僅能得到強度信息而無法得到顏色信息的,所以Bryce Bayer才發明了拜耳陣列這種「分色」機制來提取顏色。基本的過程就是光在射入每個像素點的過程中,被濾光片(Filter layer)過濾掉一部分,然後對應的就是該部分顏色的強度。

當然,這樣的「分色」過程會存在一個問題,也就是獲得的顏色信息並不全。在同一個點上,你僅能獲取一種顏色的信息,而該位置其他的顏色信息就損失掉了,我們需要通過相鄰像素點上的顏色信息來「猜」這個位置上損失掉的顏色信息,而這個「猜色」的過程我們稱為「反拜耳運算」。而經過這個過程之後,我們就能夠得到一張彩色的照片了。當然,在顏色準確度上還有會有些問題(畢竟是進行了「猜色」過程的)。

RGBW與RGBG有什麼區別?

上面所說的都是RGBG像素排列的拜耳陣列,那麼RGBW是個什麼東西呢?實際上RGBW像素排列就是將拜耳陣列中綠色的像素點上的「綠色濾鏡」拿掉了。那麼這時候這個綠色像素點接收的就是整個「白光」的信息,強度自然會比經過削減的綠光更大,低光拍攝能力也就比傳統的RGBG像素排列更好了。

就本質來講,RGBW陣列也屬於「拜耳陣列」的一種變種,畢竟這種方式也同樣需要經過「猜色」(插值)的過程。雖然在接受的光強度方面,RGBW會比RGBG高出一些。但就顏色方面來講,RGBW相比RGBG在絕對的顏色信息上又損失了一部分,所以我們也不能完全認為RGBW會優於RGBG,只是側重點不同罷了。

RGBW 1300w 加上這兩個限定因素,P8算的上是首顆吧,雖然有點噱頭,但是成像效果貌似應該也是不錯的,貼@柳葉刀 的大片

華為P8似水流年般星軌、延時短片是如何拍攝的?

在華為P8上市以前非常榮幸於4月1日—12日攜帶工程樣機到西藏林芝和四川牛背山進行了試機拍攝,結果令我吃驚!華為P8拍照功能——星軌、慢水等長時間曝光效果和延時攝影效果令人驚艷!這些單反相機才能完成並且需要強大後期的拍攝工作在P8上這麼簡單!你需要做的就是選擇菜單,摁下快門!

先來欣賞華為P8拍攝的延時短片《Frozen+Moment》,注意看第18秒後出現的佛光!

視頻封面P8拍攝似水流年延時攝影Frozen Moment視頻

P8延時攝影拍攝花絮(當時P8還必須包的嚴嚴實實,我還要簽署保密協議的,呵呵)

我帶的專業延時拍攝設備:


P8和專業延時拍攝器材同場競技

個人牛背山工作照:


P8拍攝的星軌:

西藏昌都來古冰川:

當時拍下冰川星軌後很開心拍下的手機照片:

西藏林芝波密賓館窗戶拍的雪山星軌:


當時在窗戶邊P8的工作照(居然可以實時監測星軌拍攝效果!):


牛背山連續曝光1小時20分鐘手機電池拍完後拍攝的牛背山星軌:


個人最喜歡的一張星軌——蜀山之王貢嘎雪山流星雨


P8攝影功能之絲絹流水效果:

波密桃花溝深處波堆臧布桃花

帕隆藏布江

然烏湖

排龍臧布江

古鄉湖

P8普通照相模式拍攝的林芝雪山桃花:

桃花溝

索松村

桃花溝

索松村

扎西崗村

扎西崗村

P8攝影普通模式拍攝的四川最佳觀景平台——牛背山:牛背山海拔3660米左右,它四面環山中間突起的獨特地理位置,使它獲得360度全方位「中國最大的觀景平台」和絕佳攝影聖地的美稱。泥巴山、瓦屋山、峨眉山、夾金山、四姑娘山和二郎山在前,貢嘎雪山在側,大渡河大峽谷在後,幾乎天府之國的所有名山峻岭在此時都變成了玲瓏盆景。

最後一張注意看:P8拍攝的佛光!!!

最後請關閉手機自動旋轉!橫屏欣賞P8內置全景模式拍攝的全景大片:

桃花溝扎西崗村全景:

牛背山全景

波密白玉村全景:

然烏湖全景:

尼洋河全景


我想說要想明白RGBW是什麼,先得搞清相機的感光元件是如何成像的

一般感光元件都是把紅色綠色藍色組成一組,排成陣列組合到一起,可以搜一下「拜耳陣列」』。但是RGBG的感測器(R代表紅,G是綠,B是藍)在每個組合中有兩個G,也就是有兩個綠像素,這樣做的好處就是可以把照片最大限度的還原我們的真實觀感,因為人眼對綠色比較敏感,所以RGBG中有兩個G。

在照相的時候,光線會進到感光元件,RGBG感光元件中的R像素G像素B像素都會分別專門記住各自顏色光線的強度,也就是說R只管記錄拍攝環境中的紅色光線,B就只管藍,G只管綠。這些像素排列的非常密集,所以有了多彩的照片。

但是這種拜耳陣列(RGBG)有一定的缺陷,因為每個像素只管自己一種顏色的光線,也就等於除了這像素的目標顏色,其餘的顏色都沒有被記錄,感光元件感的就是光,所以很多的光線就被這樣白白的浪費了。

手機上的感光元件要比單反上的感光元件小很多,所以單反被丟失的光線可以通過感光元件比較大來彌補,而手機就不行了,畢竟手機比較小。

所以就把RGBG陣列中的一個G換成W,W就是白色,當這個綠像素被白像素取代了之後,更多的光線就可以通過這個白像素了。所以就有了RGBW技術。

經過體驗之後,我感覺這種技術在弱光環境下使成像質量確實有很大的提升。噪點少了不少,很棒。


前幾天去華為專賣店摸了下真機,試了下相機。。
打開相機就炸了!
全屏的頻閃和波浪紋。
店員說是店裡的LED燈干擾有關。但是我用了其他的手機,
比如三星note4,iphone 6, oppo find7當場看看會不會出現同樣狀況。。發現,只有p8才會出現。
拍出來的照片就是全是波浪紋。。。

那麼是不是說不能再有LED燈的地方拍照了。。。。。


推薦閱讀:

如何評價華為的 Tron 遊戲機?
為什麼現在流行智能家居?小米華為海爾都做了智能家居系統,哪個系統更好用?
大家覺得vivo,OPPO,華為,小米哪個質量更好?
中興手機當年銷量是華為兩倍,為何現在不行了?
華為P10開啟強制GPU渲染會耗電嚴重嗎?

TAG:攝影 | 手機 | 華為 | Android | 圖像感測器 |