我們可以期待iPhone 7的攝像頭嗎?

其實原本在看發布會的時候,我覺得雙攝像頭,一個長焦、一個廣角的思路並不新鮮,我先前在驍龍810北京芯賞會的展台曾經看到過這樣的方案——原型設備,是成品,只不過是用在一台平板上的(Corephotonics的方案:真的會成為今年旗艦機的標配嗎?記高通驍龍810中國首秀);而且先前給cnBeta寫新聞的時候也曾看到過這一方案的紙面介紹(具體地址忘了)。

何況雙攝像頭的手機設備我也用過幾台,包括華為P9、榮耀6Plus,還有HTC One M8,這些設備的背景虛化演算法其實都普遍不夠理想。但實際上,榮耀6Plus的雙攝像頭方案是採用兩個相同參數的攝像頭,華為的宣傳文案中有提到讓兩顆攝像頭採用不同時長曝光,以呈現較好的逆光場景——說直白點,就是寬容度表現出色。其實這一點我在先前的評測里也提到過了,雙攝像頭方案對寬容度會有極大幫助(但像HTC M9和華為P9這種,兩顆攝像頭參數都不一樣的,都很難搞了)。

好了,上面都是廢話,為了炫耀我見多識廣的。下面,我們還是光從紙面數據來談談,這次的iPhone 7和7 Plus攝像頭是否值得期待!

F1.8光圈能帶來質的飛躍嗎?

其實蘋果歷代iPhone攝像頭的光圈都是比較保守的,比如F2.4他們用了很長時間(一直到iPhone 5),之後從iPhone 5s到iPhone 6s的光圈一直維持在F2.2這個值。看看Android陣營是個什麼情況:早在2012年(iPhone 5年代),大量Android手機的攝像頭都用上F2.0的光圈了(當年小米二代,雷軍已經在宣傳F2.0「大光圈」了)。

這是為什麼呢?其實原因可能有很多,光圈大小本身跟鏡頭的設計就有關,還要考慮機身對鏡頭模組的限制等。我們從最常規的角度來考慮,是因為蘋果對成像邊緣的畫質很在意——對鏡頭而言,中心位置的解析力是最佳的,越往邊緣,解析力越差——即便是很昂貴的鏡頭,多多少少都會有解析力下降的問題。

做大光圈尤其對鏡頭邊緣工藝和投入的成本提出越高的要求。我們看2012年那些用F2.0大光圈的手機,邊緣畫質的劣化普遍都是很嚴重的——蘋果對這一點似乎是相當在意的。歷代iPhone邊緣畫質劣化的控制都算得相當到位,這跟他們相對保守地採用沒那麼大的光圈是有很大關係的。

不過這次在iPhone 7身上,他們一反常態,躍進式的立刻將光圈擴大到了F1.8。如果不考慮邊緣畫質裂化的問題,iPhone 7的暗光環境拍攝能力,相比iPhone 6s/6s Plus應該會有一個較大程度的提升。這不像三星Galaxy S6-->Galaxy S7,光圈從F1.9擴大到F1.7——這個提升幅度是有的,但不像F2.2到F1.8這麼劇烈。

所以至少今年iPhone 7的暗光拍攝能力,我覺得很值得期待。

其次,回到我們上面的問題,以蘋果的尿性,幾乎不能容忍邊緣解析力的過分裂化——否則那攝像頭的800人團隊都白養了。所以我相信這不會是個問題。

另外我要提一點,這次iPhone 7 Plus的雙攝像頭,第二顆所謂的「長焦鏡頭」,支持2倍光學變焦,其光圈值是浮動的——普通鏡頭的光圈值都是隨著焦距的變化浮動的(除了一些恆定光圈的鏡頭,一般恆定光圈的鏡頭也會更貴一些)。其浮動範圍,長焦端至F2.8,所以如果你在晚上做2倍光學變焦拍攝,你會發現夜拍能力一下變弱了。

2倍光學變焦值得期待嗎?

我個人真心覺得,2倍光學變焦是絕對的雞肋。2倍?come on!別鬧了!我要拍到2倍光學變焦的畫面,直接往前走兩步就好了,不勞您辛辛苦苦做變焦鏡頭啊!

其實我感覺,Lumia 1020的3倍無損變焦,才勉強算是有些實用性;2倍?我還會裁切照片的好嗎?

而且變焦鏡頭始終是難做的,雖然是這麼小的變焦倍率,其設計難度也比定焦鏡頭更難做(剛剛聽朋友說並非變焦方案,第二顆也有可能只是個焦距更長的定焦鏡頭,那算毛光學變焦...)。尤其蘋果這麼在意鏡頭素質的主,長焦端、廣角端的鏡頭素質都得兼顧(不知道那顆長焦鏡頭具體是個什麼情況),這得投入成本啊!

所以我也很好奇,這次鏡頭長焦端的成像素質會怎麼樣——像DxOMark這種評測機構應該要調整Mobile分類的評測標準了。這成為我極其期待iPhone 7 Plus攝像頭評測的一個重要原因!我想看光學變焦!!!

(這張照片看透視關係,應該是變焦後拍攝的吧...)

另外,蘋果官網提到,iPhone 7是「六鏡式鏡頭」——這個應該說的是6片鏡片吧,這比先前版本的iPhone多了一片鏡片。6片鏡片這個數目在手機鏡頭中算不上什麼大數目,而且鏡頭成像素質如何也不是以鏡片多少說了算的,當代用上6片一組設計的手機鏡頭其實很多。

但問題是,iPhone 7 Plus的長焦鏡頭要變焦、對焦,外加光學防抖,這6片鏡片的設計怎麼地都算難度提升不少了吧!所以幾片一組,共幾組,也是很值得探討的話題(想想都覺得好期待Chipworks的拆解呀!!!)。

雙攝像頭有意義嗎?

蘋果公布的資料實在太少了,所以搞不清楚,這兩顆鏡頭拍攝時的切換是個什麼機制,是否聯合成像。不過以蘋果參與成像技術研究,成像組件設計和定製的秉性,蘋果的雙攝像頭和華為/HTC的雙攝像頭,在研發上根本就不會是一個量級的。尤其你看OmniVision是公開售賣雙攝像頭圖像感測器的,可以說大量研發工作都不需要華為和HTC去做。

但蘋果就不同了,每年都是索尼為它特別定製圖像感測器,而且蘋果自己也相對深入地參與到攝像頭模塊的設計工作中去。這次雙攝像頭的方案不知道有哪些合作夥伴的心血...這很讓人好奇。

從背景虛化這招來看,估計平常兩顆鏡頭也都有聯合成像(要不然真覺得兩顆攝像頭實在是種浪費)。如果是這樣的話,我覺得可以期待一下最終成像的寬容度表現,也就是畫面最亮到最暗區間可能會變得很大,這是有利於提升畫面的視覺衝擊力的。

蘋果官方公布了下面的樣張:

這3個樣張呈現出來的寬容度算是非常好啊(而且明顯是手機拍的,但色彩和光影搭配很考究。也不至於像某些廠商一些用單反拍的照片說是手機樣張)。當然了,蘋果為了拍這些樣張,或許經過了精心的打光。所以其實官方樣張都是不大能說明問題的。但我覺得還是可以期待下——尤其如果還開HDR的情況下是什麼樣的光景。

之後就要談到模擬淺景深,或者叫背景虛化的問題了。在這個問題上,據我所知,兩顆攝像頭還是很難做得好的。如果iPhone 7 Plus背面有10顆攝像頭,那這個背景虛化的自然程度就不在話下了。

其實在背景虛化這個問題上,HTC的雙攝像頭做得很糟糕,華為的稍好一些,但也不盡人意(詳情見我的一個知乎問答:用演算法合成的背景虛化效果與用大光圈鏡頭拍出的效果相比差距有多大,主要區別在哪裡? - 歐陽洋蔥的回答)。尤其在背景複雜的時候,要剝離主體和背景邊界,這是幾乎不可能完成的任務——要不然Photoshop為什麼要手動摳圖,機器學習傳說這麼牛掰,摳圖不應該是分分鐘的事情嗎?把主體部分摳出來,其他一概虛化,完事兒!我們來看看蘋果在發布會上提供的樣張:

首先就是拍攝的背景比較簡單,簡單的背景更容易讓主體人物從中剝離出來。這至少表明,蘋果也沒有那種自信,是可以把拍攝主體從極為複雜的背景中剝離出來的。

這兩張照片的虛化效果其實算比較自然了(單從被攝主體來說),不過這景深也是淺的有點過分,尤其從耳朵就開始虛化了——這裡耳朵的虛化不知是系統演算法判斷耳朵的距離更遠(看耳朵部分的虛化程度和背景還有差異,算是很不錯吧),還是演算法缺陷——所以主體邊緣判斷失准,就讓耳朵也虛化了。但你看第一張圖,這個人脖子右邊的那塊領子部分,虛化得有些過分了——這個地方理應和脖子部分的虛化程度差不多。

另外,我還是建議虛化演算法可以改進一下,上面這兩張圖的虛化效果都太理想了——我覺得一般單反鏡頭大光圈虛化,彌散圓的不完美,也是畫面看起來帶感的重要因素。蘋果這後面的虛化就顯得太完美,以至於看起來虛化部分有點假。

其實雙鏡頭成像實現背景虛化的原理,基本上是靠不同鏡頭位置來判斷主體邊界。不過蘋果官方在解釋中說,結合了機器學習之類的演算法,就是首先對場景中的被攝物進行識別,具體是啥樣就不了解了。

但這裡有一點值得一提,蘋果去年曾經收購一家名叫LinX Imaging的成像技術公司【信息來源:iPhone 7 Plus Likely to Have Dual-Lens Camera Based on LinX Technology】。這家公司其實是做陣列成像的,所以可以對被攝物進行3D建模,比如說拍攝一張鞋子,通過這種方式能夠判斷鞋子不同位置和相機之間的距離,這應該可以讓後期虛化變得更自然,因為其實根據與焦平面的距離,畫面不同位置的虛化程度應該是不一樣的,這一點其實也是後期做虛化效果的難點。

先前有傳言說,蘋果在iPhone 7 Plus內部可能會採用這種技術。但這種技術理論上應該也不是2顆攝像頭可以做到的吧...難不成iPhone 7 Plus的其中一顆攝像頭內部其實藏了4個鏡頭?...所以其實我對這其中的黑科技也很感興趣。如果說做得和華為的虛化本領差不多,那就當我沒說好了...這800人團隊真的要遣散至少一半...

之前看到太平洋寫了一篇iPhone 7 Plus的攝像頭文章,說iPhone 7 Plus用上了「光場成像技術」,真心覺得太平洋的編輯牛掰...不知道究竟是怎麼扯出來的...

RAW格式輸出有意義嗎?

我始終反對手機搞RAW格式輸出(不僅是說小米之流,也包括Lumia),因為幾個人用手機來搞攝影「藝術」啊?難道還把文件導到電腦上過一遍Lightroom不成?誰有這閑情雅緻啊。不過蘋果說RAW格式輸出是個API,也就是說針對某些圖像後期應用,這個RAW格式輸出還是有意義的,至少對照片做後期處理的時候,可有更大的後期空間,比如美圖秀秀......

至於很多媒體談到的,什麼嚴肅攝影,我覺得純粹是在胡扯,你他娘用iPhone拍個照還導出來用Photoshop精修啊?

這裡值得一提的是,蘋果在宣傳中還提到了拍攝的「廣色域」捕獲(也是個API)。不過沒說這個色域是多廣,RAW原始數據格式輸出,理應可以達到ProPhoto RGB的程度吧(貌似更廣?還是要看CMOS的配置?),但並不清楚蘋果的這個RAW有沒有什麼特別之處。

有人說這麼廣的色域,沒有相應的顯示設備是白搭。這次iPhone 7的屏幕色域擴充25%,而且還在色彩管理上下了功夫,說不定,成像和顯像兩部分是相關的。但還是那句話,蘋果公布的數據實在太少了,所以都難下定論。

最後,贊一下iPhone 7的攝像頭位置總算是放在了左上角弧度的圓心位置,不像iPhone 6s那麼難看了。最後的最後,我想說,蘋果公布的資料太少了,連底的尺寸都是未知的。這兩天有果粉用等效和實際焦距大致推算了兩顆圖像感測器的尺寸,廣角的那顆底依舊是1/3英寸左右(不過蘋果不是說變大了么???),長焦那顆底則為1/3.6英寸左右,這倆底都算是小底了,不知道能不能搞得掂啊...

所以未來有關蘋果攝像頭的解析,或許可以大做文章。如果你在糾結iPhone 7 or 7 Plus,我想說,兩顆鏡頭搞背景虛化應該都只是耍流氓,拋開這一點,iPhone 7理應也會有非常好的成像素質!值得期待!

推薦閱讀:

解除「線」制,一放即充,iPhone X多彩炫酷無線充電器星推薦
如何拍出漫天飛舞的漂亮雪景?
印表機不支持 AirPrint,如何實現 iPhone 無線列印?
小米mix2 對比iphone X 有什麼優勢么?
Windows Phone 到底能不能力挽狂瀾?

TAG:摄像头 | 摄影 | iPhone |