如何評價 iPhone 7 Plus 的雙鏡頭技術?


長焦放大就不說了,這裡主要說一下虛化模式。有人認為是合成的,其實Phil在現場說了一個詞解釋了這一切:distance mapping.

理論上雙鏡頭實現虛化的原理很簡單,就是利用兩個鏡頭有一定間隔這一特點。萊卡旁軸相機大家都知道,是用測距窗和取景窗的距離來調整鏡頭合焦的。雙鏡頭虛化的原理與之相似,因為兩個鏡頭有一定間距,對一定距離上的同一個物體拍攝的成像在畫面中的位置會有一定的變動。而且這個變動是隨著物體的距離而變化的。通過對兩個鏡頭的畫面進行運算比較,就能得出畫面中不同位置相對鏡頭的距離信息。(理論上需要兩個一樣視角的鏡頭比較,iPhone 7p應該是放大了28mm鏡頭的畫面和57mm鏡頭進行比較,反過來不行因為57mm鏡頭無法拍攝28mm鏡頭的全部信息)。

得到了距離這個至關重要的信息之後,就可以進行虛化運算了。以前的各種基於軟體的虛化模擬,都是基於純二維的圖像信息進行識別,而這種無中生有的做法是不可能有自然的效果的,除非你拍攝的時候就有意識的把距離信息用軟體可以操作的形式分布在畫面里。大部分使用情況下選區建立都是一件很困難的事情,邊緣很容易穿幫。同時畫面中不同距離的部分執行同樣的虛化,效果也會一眼就看出來是假的。所以必須要有距離的信息才能實現比較理想的虛化運算。

在比較理想的情況下,這個技術相當於可以重建一個3D的場景,然後根據這個3D的場景模擬單反的大光圈鏡頭進行虛化。因為手機攝像頭的實際口徑小,在大部分情況下都是超焦距拍攝,原始畫面中不管遠近都是合焦的。那麼iPhone 7p甚至在原理上可以支持拍攝『雙鏡頭raw』之類的東西,然後由用戶後期手動移動『合焦中心』來做出『先拍照後調焦』的效果!

聽上去很牛逼是不是?難道單反和光場相機都可以扔掉了?當然不是!下面問題來了,理想化的情況和現實到底有哪些差別呢?

回想一下發布會現場的兩張樣片,我發現了這樣一個共同點:這兩張照片都沒有前景,沒有中景過渡,只有一個人像大頭主體,然後畫面的其他部分都是距離畫面非常遠的遠景做背景!這實際上也反映了這個技術最大的弱點。

看一下我第一段的描述,你會發現我做了一個假設:左右兩張圖片拍攝的畫面只有位移,沒有內容差別!這個假設實際上是將拍攝的三維場景簡化到二維的一種近似,這個近似在距離鏡頭較遠的物體上是成立的,但是隨著拍攝距離的縮短,兩個鏡頭看到的物體毫無疑問會呈現出差別,如果到了前景或者是微距拍攝,物體的距離不再是遠大於兩個鏡頭的間距的時候,兩個鏡頭看到的就完全是不一樣的東西了!

實際上旁軸相機也有這個缺陷,所以旁軸鏡頭都是沒有微距功能的。而這種近似的失效就會造成物距識別完全無法進行,也就沒有辦法運算虛化了。所以如果單純依靠視差測距方法,只能模擬背景虛化,而沒有辦法模擬前景虛化!

另外還有一個問題,軟體虛化最難處理的,其實就是主體和背景交界的邊緣。雖然視差測距方法在畫面整體上會有比較可靠的表現,但在靠近主體的最後那十幾個像素卻是很難處理的。為什麼?因為主體是三維的,最靠近主體的那一小片背景區域會被主體擋住,在另一側的鏡頭裡是看不到的!這樣一來,就完全沒有信息可以運算距離和虛化了!

實際上從之前幾款使用雙鏡頭的安卓手機的樣片里,都觀察到了這個尷尬的現象。要麼就是直接漸變過渡過去導致主體邊緣不銳利,要麼就是乾脆放棄治療,能在主體邊上看到一輪沒有虛化的區域……

所以蘋果的樣片和功能宣傳其實都是揚長避短的做法。用中焦鏡頭並且賣點在人像拍攝,使用者和主體的距離就不會特別近,一定程度上減弱了這兩個問題的影響。而第一張樣片,人像周圍完全就是純藍天背景,左側有一個很遠的建築,規避了這兩個問題。第二張樣片同樣只有無窮遠的背景,至於邊緣我認為應該是用了模式識別之類的技術來進行識別修補。實際上用模式識別之類的技術,理論上也可以補償一些前景虛化,但效果怎樣就完全不可預料了……如果我是蘋果的軟體工程師我會選擇放棄前景虛化,只做背景虛化。

由於這個功能現在還沒有上線,估計這兩張樣片也是目前階段比較理想的結果。尚不知道最終更新的時候會不會有更大的改進(主要是在智能識別方面)。如果以現階段的理解來給將來的使用者一些建議的話,我希望用這個功能的時候注意:

  1. 一定要注意控制好主體的距離,千萬不能太近!拍個人像大頭還可以,千萬不要妄想拿來拍個樹葉啊,花啊什麼的微距內容。人家是設計出來給你拍人像的,不是拿來拍菜的!
  2. 盡量控制構圖,千萬不要帶明顯比主體近的前景。盡量少帶或不帶中景,像樣片那樣只有無窮遠的遠景是最好的!
  3. 注意主體的構圖位置,儘可能避免需要被虛化的東西出現在主體尤其是頭部的周邊,最好是純色虛化不虛化沒有任何區別的背景!
  4. 橫構圖比豎構圖更可靠!因為橫過來的時候兩個鏡頭是上下分布,主體擋住背景的情況會顯著減少。

最後我想說,這個功能雖然仍然有很多不理想的地方,但因為iPhone是實際上最普及的『攝影器材』,它所能產生的影響力仍然是無比巨大的!從今以後,每個人都能或多或少的得到帶漂亮的虛化背景的照片!

對文藝青年來說,這在短期內是個好消息。因為不用購買昂貴的攝影器材,也能拍出裝逼的效果了!而且以iPhone的普及程度,日常可以揮灑的創意很可能會遠多於專業器材。但對有志於成為專業攝影工作者的人來說,這無疑是一個噩夢!因為從今以後虛化再也不是『專業』的標誌了,那些買了一個大光圈鏡頭,就敢到處出去約片的人再也沒有市場了!說的再遠一點,靠裝備做攝影的時代就要終結了!想像一下在婚禮上人人都可以掏出手機拍出帶虛化的照片……以後還想有人請你拍照,你需要的是用光,構圖,還有pose這些真正的技術。抓緊時間吧!


昨天更新了ios10.1系統,測試了下,大家看看效果吧


等了些日子先等各家測評和拆解。
從各路拆解來看,iPhone 7P和7在廣角端鏡頭是一毛一樣的,仍然是1/3的CMOS;而其等效56mm鏡頭更有意思,CMOS大小約為1/4英寸,而其光圈為F2.8

這樣「弱雞」的參數主要原因是鏡頭模組尺寸。1/3英寸CMOS等效28mm左右,則其鏡頭實際焦距為4mm左右,而如果那顆等效56mm的鏡頭同樣採用1/3英寸,其鏡頭實際焦距將達到8mm左右;另一方面,光圈等於通光口徑/鏡頭焦距,要保持在F1.8的光圈,其通光口徑也需要比等效28mm那顆鏡頭大一倍。也就是說,如果保持除焦距以外的參數一致,這麼大一坨鏡頭模組在機身後面塞不下。

所以蘋果選擇了一個討巧的辦法,減小CMOS大小,減小光圈。1/4英寸的CMOS等效係數約為10.5左右,其鏡頭實際焦距約為5mm,可大幅降低厚度;光圈也如上面解釋,比F2小一檔。這就是我們看到的1/4英寸CMOS的等效56mm,F2.8鏡頭。而受電磁干擾的限制,這顆鏡頭並沒有加上光學防抖,所以各家評測中我們都可以看到,在弱光條件下,蘋果選擇的是主攝像頭+裁剪。因為主攝像頭帶光學防抖,光圈也相對較大,弱光拍攝成功率大大高於這顆副攝像頭。畢竟拍得到比拍的好重要得多。

這個弱光條件有多「弱」呢?我們不妨計算一下。
等效56mm鏡頭安全快門蘋果設定為1/60s,光圈為F2.8,假設蘋果在這顆鏡頭測光結果ISO400以上就不再啟動。按照這個計算方式,大約一半室內環境可能不會啟用這顆鏡頭。也就是說,這顆鏡頭是給你戶外光線充足時使用的,囿於其CMOS大小,其變焦畫質會好於裁剪,但好的程度有限。從官方樣片上也可以看到,沒有變焦弱光場景。

那雙攝像頭虛化呢?
從目前來看,蘋果的處理方式和國內其他機器類似,利用雙攝像頭探明主體,然後將主體外的部分虛化。但兩個攝像頭視角相差很大,如何處理56mm等效鏡頭看不到的那部分很考驗功底,或者可能蘋果就放棄那部分,只能用56mm等效鏡頭拍攝虛化。
官方樣片也很討巧,主體和背景對比強烈,後頭連個光斑也還沒放出來,這項功能需要一個月後通過升級才能實現,可見蘋果也是略有心虛的。
處理的效果則是另一碼事,目前華為P9那種不算精細偶爾抽風的虛化已經有不少人吹捧了,所以蘋果只要能比華為好(基本上是肯定的),發發朋友圈還是沒問題的。

那蘋果進步在哪呢?
處理技術方面,蘋果更相信天下武功唯快不破,再次大幅提高了感測器的讀取速度和圖像的處理速度。高速有什麼作用?
多幀合成。

多幀合成對於現在不少數碼愛好者已經不陌生了,最早索尼開始大範圍運用這項技術在自家相機身上,包括全景、多幀降噪、HDR等。
手機由於採用的是電子快門,相對於只使用機械快門的那部分相機來說,在多幀合成上有優勢。如果按照蘋果的說法,目前7系列機器每秒全像素讀取率應該會超過40FPS,也就是說短時間內能拍攝更多幀圖像用於處理。
其處理過程包括多幀合成對齊、高低光部分合成等。更高的幀率意味著可能有更多的信息需要處理,這就是蘋果提高圖像處理速度的原因,為了更好的機內處理
此外,目前手機拍照對焦原理依然是相位對焦+對比對焦,相位對焦原理是測距,對比對焦原理是對焦鏡片來回移動,分析最清晰的一張;結合起來就是使用相位對焦粗略對上以後再使用對比對焦分析對焦。更高的幀率有利於提高對比對焦速度。


今天拍的,原圖:

前一陣拍的,原圖:


你看第一張演示照片,虛化效果是挺好,但是總感覺很假!後來才發現,假就在於:眼鏡里的倒影沒虛化!!!玩過攝影的都知道淺景深的原理,倒影中的雲彩距離是最遠的,理應虛化效果最明顯。因此,我認為iPhone 7的虛化效果,是一個鏡頭拍沒對好焦的虛化照片,和另一個鏡頭正常的照片合成的。而且計算只計算輪廓,眼鏡這種東西里的倒影肯定是不會計算的。

評論里,居然好多人都覺得,眼鏡里本來就不應該虛化!請仔細想想,或者拿個眼鏡試試,沒有眼鏡就拿鏡子。

這裡給一張照片,拍的是一塊石頭上水的倒影。可以發現,倒影清晰時石頭是模糊的,同樣,如果對焦到石頭,景物就會模糊。

應要求,又拍了兩張照片。一張是對焦到相框時,看到的倒影(電腦屏幕)是模糊的;而當對焦到倒影時,相框就模糊了。因為鏡像其實是和現實一樣的虛像,是能反映出距離的。如果是實像,那就像是照片上的圖像,反映不出來距離。

評論區有人問,這個怎麼解釋?:

這個很簡單,因為是凸面鏡。凸面鏡會拉大視角減小焦距,類似於廣角鏡頭。在小的焦距下,即使光圈很大也很難達到背景虛化。@feixiaxia@Eric Cao


上圖,不說話


先說句題外話,蘋果似乎從6開始就要差別化小屏和大屏手機,開始的差別是屏幕大小,ppi,還有攝像頭防抖,但是這些都是現有技術的取捨,而這次是新技術只應用在高端機型上,7則使用了正常的鏡頭,似乎更印證了這一觀點。
回到鏡頭上。不得不吐槽Apple保密之差,取消耳機介面,攝像頭虛化景深模擬這些,國內廠商發布了好幾個月了。當讓,對於蘋果的質量把控我是有信心的,蘋果不會把一個半成品推給用戶,拿到發布會上的一定是已經或者接近成熟的作品。
再來說這個無損變焦和虛擬景深技術。我們都知道普通攝像頭在拍照縮放時是有損變焦,所謂有損變焦,其實就是在放大時,把感測器上中間的部分截取一部分出來放大到原始比例。拋開透視關係不談,變焦其實就是一种放大。
但是為什麼手機就是有損的而單反相機就是無損的呢?這跟鏡頭有關,單反或者無反相機大多配備變焦鏡頭,比如買套機時經常提到的18-135鏡頭,就是一種變焦鏡頭,變焦鏡頭通過改變鏡頭內透鏡的相對位置,改變焦距,達到放大被攝物體的目的,這是一種光學變焦,在變焦過程中,圖像感測器上所有的像素都可以接收到光信號,從而使得在光學變焦過程中,畫質不會因為變焦而損失。當然這也是理想狀態,單反在變焦或者調整光圈時也是有暗角存在的,這是一種妥協。那麼手機相機為什麼是有損?因為手機限於鏡頭體積,採用的都是定焦鏡頭,目前手機上的鏡頭焦距大部分是等效28mm廣角,f1.8光圈,在想放大圖像拍攝的時候,鏡頭並不能通過改變焦距來使感測器上每個像素都受光,那怎麼辦呢,就是裁切即數碼變焦,相當於放大一倍時,拍出來的像素數約為原來的四分之一,這樣像素少了,抖動加劇,造成畫面清晰度降低,畫面顆粒感強,邊緣模糊等等問題。
而這次7plus上的鏡頭正是要解決這個問題。
具體的實現機制還不是很理解,從發布會的現場演示來看,第二顆鏡頭應該是一顆長焦鏡頭,並且兩鏡頭中心重疊,這樣在放大中心時,可以使用第二鏡頭的數據進行插值,從而實現某種意義上的無損變焦。但這應該不是光學變焦,理由同上,體積限制。這是一種軟體模擬的無損變焦,不過對於Apple的技術實力還是比較放心的,相信這一技術比較成熟,應該能極大改善目前手機雞肋得數碼變焦體驗。舉個最簡單的例子,大學生們可能體會比較深,課堂上拍老師寫的板書的時候,手機放大了其實跟拍下來再放大的清晰度是一樣的,放大了反而因為容易抖動和漏掉內容需要重拍,而這個技術可以很好的解決這一問題。
還有很重要的一點,我稱它為景深模擬,模擬的是淺景深效果,而淺景深效果應用最多的就是在人物肖像拍攝中。大部分人對單反的印象停留在淺景深,把人拍成左眼實右眼虛背景一片模糊均勻散開好像很厲害。7plus的相機通過軟體實現了這一點,即先從畫面中摳出人的輪廓,然後把背景羽化,達到淺景深的效果。看發布會上的樣圖效果不錯,但是我對這一效果有些懷疑,因為這些肖像都是在背景和人物離得很遠而且並不雜亂的情況下拍的,便於軟體分離,假如背景很複雜,比如一個穿綠色衣服的人站在樹林里拍照,效果如何就不得而知了。這個問題關注後續評測,相信各大評測機構會重點關注這一問題。
總的來說,這對手機相機來說是一個極大的改進,不管對於普通用戶還是手機攝影愛好者來說,都有比較實用的能力加成。


世界上沒有什麼照片是一個攝像頭拍不出來的。如果有,那就兩個。


我這種俗人就想知道這玩意到底實用價值大不大,個人來講我還是喜歡4.7的屏幕啊。


瀉藥,沒用過,不好說。
但我是非常歡迎新技術的,尤其是手機上。


1. 先來說說為什麼蘋果也選擇了雙攝?

對攝影略有了解的人都知道,想要相機成像質量好,更大的光圈、更多鏡片、更大面積的感光器件必不可少。然而這一切的副作用是:日漸臃腫的機身。這一定律對於手機來說也是通用的。而手機最大的問題是——沒有那麼大的空間來放下越來越大光圈的鏡頭和越來越大尺寸的光感器件。那麼手機攝影技術的出路在哪裡?

2012年諾基亞發布的pure view 808可以說是單攝像頭手機攝影的一個巔峰,4000萬像素和F2.4的光圈,讓808的拍照效果遠遠領先於同期所有的手機。可是808的機身厚度,卻達到了驚人的18mm!這相當於2.4個iPhone 7 plus的厚度和2.6個HUAWEI P9的厚度!試想一下兩台半手機疊起來是什麼樣一種握感,反正院長我是握不住的。

這樣想想道理就很簡單了。越來越薄的手機,已經沒有足夠的空間來滿足大光圈或者長焦距鏡頭和大面積光感測器件所需要的成像距離了。蘋果想要提升攝影技術,不得不選擇雙攝。只不過這個雙攝,讓果粉們足足等了2年多。


2. 再來談談為什麼蘋果選擇兩個不同焦段的攝像頭?


當前市面上的雙攝像頭技術方案,大致可分為三類:

A:副攝像頭僅作為輔助深度計算,只能支持大光圈效果拍攝。代表機型有HTC M8和M9、中興的AXON以及紅米的Pro。
HTC的M8和M9可以說是這種方案的先行者,但是誕生到現在這種方案所能實現的功能和效果,依然還是3年前的樣子,僅從結果看我們就知道,這個方案已經沒有太多可以發展的空間了。


B:雙攝像頭FOV(視場角)不同,通過不同角度的組合,達到變焦的效果。代表性的機型就是LG G5。LG在今年年初發布了G5,兩顆不同焦段的鏡頭,分別負責拍攝不同焦段的照片,與其說是變焦,不如說是選焦,因為只有1x和2x兩個選項,所以也不需要合成演算法了。這種方案的主要優勢是在於可以通過兩個焦段的組合,做到基本無損的變焦,G5隻是做了一個嘗試,但是從未來看,這還是一種頗具競爭力的方案。


C:雙攝像頭拍攝同樣內容,通過合成提升圖像亮度和質量,同時支持大光圈效果。代表機型有360手機、Huawei P9等。這是一種相對最複雜的方案,所以能夠達到的效果和功能也最為出色。不僅可以實現對圖像質量的提升,也能夠實現方案A的大光圈效果和拍攝3D影像。但是對於該方案對於ISP的計算能力和合成演算法的要求非常高,圖像拼合過程中出現的任何問題,都會導致在某些場景下的錯誤。所以如果ISP性能不行,或者在某些演算法不完善的手機上,就會在特定場景下才會啟動雙攝像頭,大部分時候就一個攝像頭在工作,以減少產生錯誤的可能(比如之前的360奇酷手機)。說到ISP,不得不提昨天發布會上內建在A10中的ISP晶元。蘋果選擇自研ISP,主要是為了更快的處理速度和更低的功耗表現;更重要的是,在與軟體的適配上,自然ISP也可以做到更無縫的銜接。目前絕大部分廠商都不具備自研ISP的能力,大多採用了MTK、高通和Altek的,除了蘋果,還有個廠家就是華為的Kirin 950


3.蘋果的方案是否最優?


其實看了昨天的發布會後,院長對蘋果的雙攝像頭方案還是比較失望的。

如果分析沒錯的話,iPhone 7 Plus的變焦方案,很顯然不是先前媒體預熱的平滑切換。1x到2x是純鏡頭切換,注意是跳變,中間並沒有任何過度;2x到10x都是電子變焦,是否有插值演算法需要等拿到手機後才能知道了。蘋果採用的這種相對比較簡單的B方案,說白了其實就是在LG G5的基礎上增加了8x的數碼變焦!

至於雙鏡頭的虛化,估計其實現過程是用56mm鏡頭拍攝被攝主體,然後另一顆28mm鏡頭拉至近焦拍攝郊外虛化效果,再通過測距合成一張大光圈照片。優勢是焦外是真實的虛化效果!但缺點是:1)無法進行先拍攝後對焦,也無法調整光圈大小!2)由於採用56mm鏡頭對焦主體,因此虛化模式下是無法對近物進行對焦的(即無法進行近攝),這也是該功能為什麼被包裝成人像模式的根本原因。
3)大家知道,畫質與進光量有關,而進光量又與光圈大小和pixel size大小有關,尤其在光線不足的環境下,更大的進光量就能獲得更佳的畫質。由於採用56mm副鏡頭拍攝主體。該攝像頭在光圈(f2.8)和sensor(1.0um pixel size)上都不如主攝像頭。因此主體的成像質量必然不會太高,尤其也夜拍等狀態下。

從之前的信息知道,蘋果在2015年收購了以色列的雙攝像頭演算法公司LinX,一年以後iPhone7就面世了,從華為的榮耀6+到P9的進步,我們可以看到,一種雙攝像頭演算法從開發到可商用,到體驗成熟,沒有2-3年的時間是很難做到的。估計一年左右的時間,很難讓LinX的技術,完全適配到iPhone上,所以我們從發布會上看到的雙攝像頭更像是一個半成品;更不用說選擇更為複雜的C方案。


為什麼不支持平滑變焦,為什麼虛化效果要到年底才會更新,為什麼虛化只支持人像?說到底,還是蘋果對於演算法的成熟度和體驗沒有太大的信心。


Ps.以上,均來本人熬夜觀看昨晚發布會Keynote以及自己的YY所得出,最終iPhone 7的雙攝具體能達到一個怎樣的程度還要等到拿到真機上手以後再來補充內容(還是要做個免責聲明,笑)。


來自李侃
說下雙攝像頭,實際上在很多年前就有大把的廠家在跟,包括很多國產品牌,有些demo方案甚至一次用N個(N遠大於2)。為啥這麼久都沒普及呢?一方面是雙攝模組成本著實不便宜,對公差要求極高,兩個頭的光軸需要嚴格匹配,如果手機品牌挑剔點品控嚴一點,良率就會很低,產能不一定能跟上,例如華X的P9當時都快把舜X那邊產線的人逼瘋了,幾個月的加班,像蘋果那麼事兒逼還要走大量的機子就更難搞了,也能理解為啥一向標榜技術領先的蘋果在雙攝方面反而會異常保守。

另一方面,跟很多不同廠家的工程師們私下聊,大家很有默契的抱著同一個觀點,雙攝究竟該怎麼玩,什麼時候會成為硬體熱點,還是得看蘋果啥時候用。iPhone 7 plus上的主要方案還是把它當做變焦拓展來用,中間用差值做數碼變焦進行平滑。得承認,的確有新意。至於景深虛化,這麼說吧,多攝像頭方案能做出一萬種玩法,拿來做虛化是最沒創意沒想像力沒產出比沒實用價值,同時實現效果最差的一個,哪怕用來搞個弱光增益也比它強。不要說蘋果也做了,它那個不一樣,異焦段光學模組加人臉識別,幾個月前試7的工程機里就有這個功能了,實現起來各種問題,遠超出bug層面,功能跑通都很困難,所以蘋果也沒太大信心只好將其延後。

但是,注意這個但是,目前最主要問題是:對於大部分機型,單論畫質雙攝往往還不如單攝好。這才是尷尬的地方。雙攝的確不好調,除了品控之外還要考慮的功耗啊,高速sensor啊,ISP性能等等。換句話講:單攝像頭畫質都做不好的廠家,是不可能在雙攝上彎道超車的,只會更爛。不要把手機行業想像的太高端,尤其是中低端機,近一兩年已經成了低利潤走量的快銷品,成本更是敏感,這邊模組稍微貴一點,算算BOM,其它地方就得少塊肉。所以硬上個雙攝真的意思不大。當然別抬杠,iPhone好歹是台六七千的手機,電子消費品行業,一分錢一分貨是真理。


你們不想要有一個凸起攝像頭的iPhone 6
蘋果表示很理解
於是iPhone 7 Plus有兩個凸起的攝像頭


親測一下,裝逼還是可以的,放朋友圈也是可以的,但認真你就輸了。

還行吧,說得過去。畢竟視覺計算能這樣,也算中規中矩,要啥自行車啊


發布會這種事呢,你不光要聽蘋果說了什麼,你還得聽得出蘋果沒有說什麼

我來談談我的理解

1.現看發布會的三張樣片

找一下共同點

都是大頭照

反推可以知道蘋果的雙鏡頭虛化技術在拍大頭照的時候效果最好

仔細看第2張的照片中無窮遠處的光斑(專業說法是彌散圓)大小,其實和我用ip6+對焦在最近處拍無窮遠的光斑大小差不多大

所以我估計雙鏡頭虛化的實現過程是用56mm鏡頭拍照+28mm鏡頭計算深度信息並識別內容+28mm鏡頭對焦到最近處時的背景作為背景填充

這個技術目前看樣片邊緣處理的還不錯。

另外有一個點可以佐證我的猜測,就是雙鏡頭虛化技術應該是不能調整虛化效果的(因為發布會上沒有提到這個功能)因此目前看到的虛化效果不是軟體模擬出來的,而是鏡頭實拍出來的。所以蘋果雙鏡頭和國產的雙鏡頭的解決虛化問題的思路是不一樣的。

2.至於所謂的光學變焦和數碼變焦……我覺得根本沒有什麼插值的演算法,你們把問題想複雜了

56mm=28mm*2
所以很明顯的是1x~2x的時候用28mm拍;2x~10x的時候用56mm拍 。
除了1x和2x的時候畫質最好 其他時候本質都是電子變焦。

3.所謂的28mm和56mm都是等效焦距,蘋果宣稱的時候兩個12mp的攝像頭,但是目前手機市場上主流都是實際焦距4.2mm的鏡頭,所以所謂的56mm的鏡頭有兩種解決方案
a.蘋果真的採購/製作了8.4mm的鏡頭,兩個鏡頭的底是一樣大的
b.蘋果用的實際上是兩個4.2mm的鏡頭 不過一個底是12mp,一個底是24mp像素(已經有國產手機用上這個配置的攝像頭了),但是蘋果把第二個攝像頭做了閹割,只用中心處的像素,因此等效焦距變成了56mm。
c.有其他大小底的等效56mm的鏡頭可以選擇。

從成本上來說b方案肯定便宜,但是蘋果這麼土豪的主也不是干不出來a方案。
但是由目前的信息我傾向於是b方案,主要還真的沒有見過56mm的手機鏡頭
推論
1.蘋果的虛化效果的上限參考樣片,這種效果撼動微單是不現實的,蘋果自己在發布會上也說「we are not saying throw out your DSLRs and that iPhone replaces all the DSLRs. What we are saying is this is the best camera we have ever made in an iPhone. 」
2.如果我對蘋果虛化實現的猜測是對的,那麼雙鏡頭虛化技術在拍半身照全身照的時候虛化最大的問題可能是邊緣分辨的問題


雙鏡頭和演算法構成的淺景深缺乏層次,不是大光圈鏡頭哪種自然的。
同時,也缺乏大光圈鏡頭那種刀鋒一樣的解析度。

前者a6000,後者水果7p。
同樣的照度。
虛化這個東西的前提是主體的解析度要高


恩,算是雙鏡頭應用的又一個變種

其實光學變焦手機不是沒做過,3倍的都有,都是很厚的貨。

蘋果用雙鏡頭組合實現了實際光變能達到的效果,也算是一種突破,能不增加厚度拍遠點的東西,挺好。

雙鏡頭是有代價的,只有一個能用光學防抖。目前還沒解決磁干擾的問題。

拍照畫質,三星s7已經很強了,也足夠日常用。突破性畫質,不做大CMOS沒戲。


好像沒有人提LG
樂金的存在感真的好低。。。。
這個雙攝像頭和華為或者HTC上的不是一個東西,但是和LG G5上的基本就是一個東西。


iPhone7Plus雙彩色1200萬攝像頭
VS華為P9/360Q5黑白彩色攝像頭

蘋果雙鏡頭技術:
蘋果同時使用兩顆彩色1200萬攝像頭,他們強調兩個鏡頭分別是廣角鏡頭和長焦鏡頭,兩顆鏡頭的配合能像人眼一樣能夠定位焦點,並能加強景深虛化。
而華為和360都採用是黑白+彩色雙攝技術,是通過同時拍攝一張黑白照片和一張彩色照並通過演算法合成得出一張照片。

光學變焦:
這才是蘋果這顆鏡頭牛逼的地方,以前單顆鏡頭採用數碼變焦功能,放大後造成顆粒感嚴重和畫質下降,所有以前用iPhone拍照教程的時候,大家都煞有其事的說當你拍攝遠景物體時候,千萬不要放大拍攝。
華為P9和360Q5隻能是數碼變焦,沒有可比性。

失焦功能
華為P9和360Q5都強調自己使用雙攝鏡頭的結構控制照片景深,特別是華為P9其中賣點一個是先拍照後對焦,這種實現都是經過後期軟體演算法,如果你使用過P9對這種失焦功能簡直無語吐槽,在主體所拍攝物體不是特別突出或者背景與主體色彩差別不大的情況下,展示的失焦效果可以讓你憤怒的吃掉手機。

3D拍照
360Q5在發布的時候也強調自己使用雙攝鏡頭拍攝3D照片或者VR視頻,如同3D電影通過雙攝鏡頭拍攝方式一樣,作為內部消息透露這種3D拍攝也是通過軟體演算法,並不是真正的使用雙攝鏡頭實現3D場景的拍攝,也就說這是一種模擬拍攝營造3D效果。

雙攝鏡頭方案,有幾個技術發展方向,1、有如上華為P9和360手機的黑白+彩色雙攝像頭技術,黑白彩色疊加成像;2、有HTC主攝像頭+輔助攝像頭雙攝解決方案,景深控制;3、蘋果的雙主要彩色攝像技術方案,廣角+長焦鏡頭。

國產中所謂雙攝鏡頭在目前實際使用情況下,大多都是噱頭,真正能發揮到雙攝鏡頭的最大技術優勢還沒能出現,那就看看iPhone7Plus會給我們帶來什麼驚喜呢?
拭目以待。


喜樂說人像模式要等年底通過軟體升級向7Plus用戶提供,說明目前的方案尚不成熟,為了銷量就匆匆推出了對客戶來說是不負責任的。


推薦閱讀:

有哪位擅長運用光影的攝影大師?
櫻花怎麼拍可以突出重點又不雜亂無章?
微單有什麼相見恨晚的配件么?

TAG:攝影器材 | 手機 | iPhone7 | 蘋果產品發布會2016年9月 | iPhone7Plus |