市場上各品牌手機的雙鏡頭技術原理有什麼區別?未來發展方向如何?

關注度比較高的幾款雙攝手機:
1.iPhone 7p
2.華為p9
3.紅米pro
4.360,HTC,中興等部分機型
歡迎補充、、
想知道現行各種雙攝技術有那些優劣之處,瓶頸在什麼地方,以及未來的發展方向。
開個腦洞,三個攝像頭,n個攝像頭會不會有可能出現。。


正如題主所列舉的例子,iPhone 絕不是第一個使用雙鏡頭的手機品牌。

  • 為什麼廠商們都選擇了雙鏡頭?

原因是:廠商需要為用戶帶來新的價值。


手機鏡頭的性能增長,受到邊際效用遞減定律所桎梏。

邊際效用遞減定律 (Law of diminishing marginal utility),指的是消費者增加一個單位產品所取得的額外效用,會隨著數量的增加而下降,直至邊際效用達到負值時(即每增加一單位產品,效用反而減少),消費者將不會喜愛該產品。

在手機鏡頭髮展的初期,手機的拍攝質素實在太爛,所以我們可以每一次增加解析度、每一次增加新的鏡片、每一次加大鏡頭和感光元件,都會帶來用戶在拍攝體驗上的飛躍。

但是,成像能力的飛躍到了 iPhone 5s 開始進入死胡同。

當時就有不少評測者,開始把 iPhone 5s 與專業級的單鏡反光相機 (DSLR) 相比;但這絕不是指 iPhone 5s 的真的達到專業級相機的水平,而是指一般用戶開始不太在意手機與專業級相機照片的細微差距 ── 儘管對於攝影愛好者來說,差別是巨大的。


當普通用戶已經不再重視那些 「細微」 的成像提升時,手機公司仍然為了與對手競爭,肆意地提升相機元件。直至 iPhone 6 那顆醜陋的 「凸鏡頭」 出現後,怨聲四起,業界才開始留意到:手機的空間已經不容我們無限量增加提升成像能力 。


當年用戶會被 iPhone 5s 的鏡頭所打動,但很難再為 iPhone 6s 的鏡頭而心動。同樣地,我們不是說單鏡頭不能再繼續提升,但改良鏡頭時所付出愈來愈多的成本、在機身里所作出愈來愈多的妥協,只能換來攝影愛好者的讚美,但對於一般消費者來說,卻是愈來愈微不足道。


故此,廠商必須在最小的犧牲下,為用戶帶來最新的價值。這是他們選擇雙鏡頭的原因。

  • 雙鏡頭的運算原理

目前的消費級設備上的雙鏡頭運算,主要以兩種方式為主,一是雙目 「疊加」,二是雙目 「視差」。


iPhone 7 Plus 與 HTC One 一樣,選用的是以雙鏡頭為手段,讓手機在沒有變得更厚的情況下,把兩個影像數據對比,然後進行像素疊加,藉此達至無損/低損的數碼變焦功能。


華為也是採取「疊加」方式,只是對在雙鏡頭的處理則有點不同:它們以一個黑白、一個彩色的鏡頭組合,利用黑白感測器有更佳光線感應能力的優勢,再把彩色鏡頭的色彩信息疊加(下圖),藉此取得更好的低光拍攝能力。


不過,兩者都可以把不同焦距的效果疊加,然後讓用戶能在後期調整景深。

相反,目前不少非手機設備的雙鏡頭運算,卻是以 「視差」 來測距,藉此進行 3D 建模。目前的體感遊戲設備、VR 設備、以致無人機和無人駕駛汽車的自動避障功能,均過雙鏡頭攝影機透過鏡頭之間的距離,使影像出現 「視差」,然後再把兩個不同的影像數據對比,用三角演算法計算出鏡頭與對像之間的距離(下圖),並即時繪畫立體影像,藉此渲染虛擬影像、或計劃安全的行駛路線。

  • 雙鏡頭還能怎麼玩?

除了現有的虛化、變焦,我們已經很難想像雙攝像頭還能繼續怎麼玩。環視現有的新興科技,有人提出了:能不能支持 VR/AR?


但很遺憾,現有條件,做不到。因為 「雙目疊加」 和 「雙目視差」 的設備,在目前的科技下仍然是個矛盾命題。


雙鏡頭的兩個影像的差距愈少愈好,系統才能更準確的把影像無瑕疊加,故此,兩個鏡頭必須盡量靠攏在一起;但 VR/AR 所用的雙目視差,兩個影像必須有夠差距,兩者之間的夾角才能增加,運算精度才能提高,所以兩個鏡頭之間的距離必須愈遠愈好。


可惜,在目前的科技下,這兩者仍然是矛盾的。雙鏡頭的兩個影像的差距愈少愈好,系統才能更準確的把影像無瑕疊加,故此,兩個鏡頭必須盡量靠攏在一起;但雙目視差,兩個影像必須有夠差距,兩者之間的夾角才能增加,運算精度才能提高,所以兩個鏡頭之間的距離必須愈遠愈好。

除了是雙鏡頭距離之間的矛盾之外,目前使用雙目視差來進行 3D 建模,所需要的計算能力遠遠比影像疊加要高。大疆 Phantom 4 就以專門的 FPGA 來進行雙目運算,而 HTC Vive 更需要高端桌面電腦才能推動,而坊間大部份的無人駕駛汽車也要使用 「核彈頭」 級別的專門圖像處理器來計算。但以目前手機晶元的處理速度和手機的續航力來說,根本不足以進行 3D 建模。


簡言之,iPhone 在短期內,不可能透過雙鏡頭做到任何與 VR/AR 有關的事。


但是這代表 「未來」 手機真的不可能透過相機頭加入 VR/AR 陣營嗎?我們並不知道。但是,愛范兒早前引述蘋果 CEO 庫克的說法:VR 和 AR 兩者,他們更重視的是 AR。而 AR 正是需要大量使用鏡頭作感測器的交互方式。


也許 iPhone 在今天的水平仍然不足以在 AR 做些什麼事,但蘋果在 iPhone 7 上開始,累積雙鏡頭的演算法,等候幾年後的硬體爆發時,就可能是時候了。

  • 廠商面對的瓶頸

雖然如此,也許目前的科技未能協調兩者的矛盾,但在雙鏡頭的帶領下,未來手機攝影仍然不可避免的進入 「智能」、甚至是 「計算機視覺」 的時代。


以往 「愛范兒」 也能造手機的時代已經改變,手機廠商將很難光以強大的供應鏈能力,以採購元件和把開源系統進小修小補,就能推出手機。所以,沒有演算法和人工智慧技術的廠商,將會愈來愈吃虧(大家還記得有多少人吐槽華為的雙鏡頭吧)(下圖)。

(華為 P9 拍攝)

蘋果也是一樣。早前愛范兒負責影音的編輯梁夢麟,評價 iPhone 7 Plus 的虛化時,覺得這效果比起先前引入雙鏡頭的手機廠商來說還是可以,朋友圈來的好評度頗高,但從攝影師的角度去看,這些照片(下圖)距離相機還是有很長的距離。而且與通過光學效果實現虛化相比,蘋果在現階段的數碼演算法還不能達到這個高度。

(iPhone 7 Plus 拍攝)

很明顯,手機廠商在這方面還有很長很長的路要走。


同樣地,相機元件廠商未來也要面對巨大的挑戰。以往只提供硬體平台的他們,將要進一步提更完善的相機演算法方案,更可能要與手機晶元製造商合作,把計算能力和影像計算整合,並為未來的手機元件產業帶來更大的衝擊,就例如高通 (Qualcomm) 就準備好雙鏡頭模組方案,手機廠準備打開錢包買新組件吧。

  • 手機鏡頭的未來

雙鏡頭的重要性在於:它拍出來的不光是 「成像」,而是 「數據」。


因為相機鏡頭髮展至今,已經由單純的 「鏡頭」,變成手機的其中一個 「感測器」。愛范兒主筆 Odin 在 2013 年 iPad Air 推出時,曾對蘋果沒有提升這 「生產力工具」 的攝像鏡頭表示失望,原因是:

請不要光是把 「相機」 視作為 「相機」,要把它視作為 「感測器」,就知道它的潛力所在 ── 有了相機,你可以把平板當成掃描器 (Scanner);也可以把平板當成是增長實境 (Augmented Reality) 的屏幕…

儘管照相機進入數碼化已經有不短的日子,但一直以來手機廠商重視的是 「成像」 不是 「數據」,所以大家的關注點仍然是 「光學」。直至 HDR (High Dynamic Range) 流行後,手機廠商才開始採用多重照片合成,來改善相片質素。


蘋果在 2011 年的 iPhone 4s 開始,在索尼的 CMOS 以外再自行研發自家的圖像信號處理器 (ISP, Image Signal Processor),在 iPhone 5s 發布會裡,蘋果展示 iPhone 如何在一次的拍攝里生成海量的照片,再合成最好的照片。當中的每一次光學成像,在處理器里已經不再是單純的光學影像,而是數據和演算法。


同樣地,雙鏡頭的重要性並不是因為它有雙鏡頭。


單純從硬體來看,雙鏡頭拍出來的成像,極其量就是兩張不同質素的照片,單獨看起來意義不大。但如何發揮雙鏡頭的優勢,關鍵已經不單單是光學,而是合成演算法 ── 愛范兒早前就曾報道過,蘋果近年雖然在人工智慧上默默無聞,但實際上他們早就對此深度研發;剛好在 iPhone 7 的發布會上,蘋果的高管 Phil Schiller 指出,他們在 iPhone 7 的鏡頭裡大量使用機器學習 (Machine Learning)。


所以未來手機鏡頭的發展不在於攝像頭的數量,而在於:影像演算法和人工智慧。


iPhone 7 Plus才是手機懟上雙鏡頭的正確打開方式。

就像誰也無法否認Touch ID開創了指紋識別的正確打開方式:

只是這次的情況有些不同。iPhone 5S出現之前,指紋識別一般只是用以標榜商務特性的小眾配置,僅有的一次大眾化進程只有摩托羅拉2011年的Atirx(ME860)。之後的事我們都清楚了,蘋果用按壓輕觸替代滑動、用當時看來快得驚人的解鎖速度,做到了別人屢屢嘗試卻都沒能做到的事。


今年呢,蘋果動身前,從早些年的HTC Evo 3D,近一些的榮耀6 Plus、HTC One M8,到今年蜂擁而至的華為P9、LG G5、紅米Pro等機型,雙攝像頭哪怕在不怎麼關注IT界的大眾視野里也算不上新鮮了。都知道蘋果是愛干這事兒的——靜看對手們折騰不成熟的新技術悶不吭聲,然後突然拿出完美駕馭方案一次性解決問題——在2016年的案例中只是少了以往的「突然」。

庫克時代蘋果的保密能力和戰略規劃不是今天的重點,讓我們看看,在確定蘋果會做雙鏡頭、卻又不知道蘋果怎麼做雙鏡頭的情況下,作為對手的小夥伴們都拿出了哪些方案。

  • 2月的LG G5,800萬像素135度(等效11-12mm)廣角+1600萬像素常規視角


  • 4月的華為P9,1200萬像素彩色+1200萬像素黑白(榮耀V8、榮耀8相同)


  • 7月的紅米Pro,1300萬像素主+500萬像素副(採集景深)


以上三者,基本代表了iPhone 7 Plus前,市場上主要三種雙鏡模式:不同焦距組合、彩色與黑白組合、主-副(景深)鏡頭組合。

  • 不同焦距:拋開主鏡頭或者說雙鏡中那顆常規鏡頭的素質水平不談,僅從組合方式的思路看,LG G5和iPhone 7 Plus最為相似。G5把手機慣常使用的小廣角鏡頭(等效28-35mm)向更廣的焦段推進一步,增加的超廣角鏡頭直接到了等效11-12mm,這個即便在超廣角範疇中也算偏廣、逼近魚眼的焦段。但不同的是G5的這顆「非常規」(廣角)鏡頭並沒有像蘋果那樣,使用和「常規」鏡頭相同水準的感測器,而是次一級的800萬像素規格。

  • 彩色/黑白:華為/榮耀的思路,讓人想起徠卡那台黑白相機M Monochrom,徠卡去掉了感測器前用來表現色彩的拜爾濾鏡,從而使感測器實際接收到的光量增加數倍。專拍黑白的M Monochrom比起普通M有著更高的銳度更好的細節,以及最重要的——更好的暗光環境下的畫質。攝影愛好者們都知道,相機對付暗光無非三種辦法:延長曝光時間、增大光圈、提高ISO感光度。延長曝光時間會帶來手抖的問題,於是手機廠商紛紛搬來了光學防抖;最大光圈被一步步提高到了f/2左右,這個數值即便對於專業單反也屬於大光圈範疇;至於提高ISO感光度則必然會增加噪點影響畫面純凈度,在現有影像感測器技術不發生質的突破的情況下,手機尺寸感測器的可用ISO大幅提高几無可能,而在手機體積和厚度限制下又不大可能再把感測器尺寸放大——於是華為和徠卡想到了借力黑白世界。M Monochrom可以安心做一台專業黑白相機,華為則需要再添上一個「正常版」的彩色攝像頭,藉助如今先進的演算法技術合成一張兼具黑白鏡頭細節和彩色鏡頭色彩的照片。也正因這種結構,理論上講華為P9沒有防抖是可以接受的,(在其他參數相同的前提下)黑白鏡頭更高的進光量可以獲得更高的快門速度,從而一定程度降低對防抖的需求——但需要注意的是,這個結論也只是基於理論。

  • 主-副(景深):紅米Pro有點像是HTC One M8的延續,多出來的那顆攝像頭基本上全職用於採集景深信息從而合成虛化背景,而上面的其他同學包括iPhone 7 Plus只是把這一功能作為雙鏡福利的一部分。和光場相機原理不同,這類雙鏡頭技術是利用主副鏡頭間距以及兩者和被攝物體的距離差,通過類光學測距儀的三角測距原理,測得畫面不同部分至鏡頭的相應距離信息,再以機內演算法對畫面中的各個部分做數字處理,最終得到設定的景深效果。從最早的One M8到稍近的榮耀6 Plus再到紅米Pro各自的樣張,直到iPhone 7 Plus在發布會上的演示,最終效果一步步進化得越來越自然(雖然仍難令人滿意),不難看出虛化背景的功能其實很大程度依賴於軟體演算法和處理能力。淺景深虛化效果的合成需要獲取圖像中各個物體各個部分和鏡頭間的距離信息,目前對距離信息的記錄無法做到真正的連續測算,而是微分式的通過離鏡頭距離遠近劃分出很多個區段。因此要想獲得更完整的景深信息以合成更自然的虛化效果,就需要劃分出儘可能多的區段層次,採集儘可能多的距離信息。因此,一顆性能強大的處理晶元和不斷完善得到先進的演算法是關鍵,從One M8一直到紅米Pro甚至算上不專精於此的華為P9,淺景深虛化的效果也是越來越自然。雖然目前虛化效果的自然程度依然難以令人滿意,但待正式上線後iPhone 7 Plus的虛化效果還是值得期待。

聊到這兒不難看出,第三種類型——添加景深副鏡頭在三者中相對最為雞肋。像紅米Pro、One M8那樣,副鏡頭往往規格上遜色於主鏡頭,也沒有區別於主鏡頭的其他特性,功能單一僅限於景深信息採集(當然也正是因此副攝像頭也不需要用上同主攝像頭一樣高的規格),而這個功能實際上其他幾種雙鏡組合方式也可以提供。雖說如華為系的幾款機型,由於需要把更多精力放在雙鏡圖像整合上,只能把兩鏡間距儘可能縮小、擠在一起以減小視差,對較遠距離的測距精度會不如大間距機型。但實際上間距更大的紅米Pro等此類機型不論是比起華為還是iPhone,其虛化效果目前都沒什麼可見優勢,更需要鉚勁兒的方向依然是演算法和處理能力。實用價值偏低而廠商卻又不會放棄溢價,對消費者來講性價比不高,更像是一個為了雙攝而雙攝的噱頭。

↑:來自數字尾巴http://Dgtle.com文章「尾巴開箱」向高端市場突圍,紅米 Pro-數字尾巴中的實拍樣張,很明顯可以看出:紅圈中右半部、遠處椅子下方的地磚沒有像左半部中的地磚那樣做模糊處理;藍圈中的遠處那把椅子把手本應和紅圈中那條椅子腿處在同一個平面,但機器明顯把扶手虛化得比椅子腿更模糊。也許有朋友覺得這樣是在摳細節,其實不然,任何一個接觸過攝影的人都可以輕而易舉發現這些反物理定律的瑕疵。這不是功能上強與弱的問題,而是真與假、可能與不可能的問題。

當然放這圖不是在黑小米,而是說目前在稍微複雜點的環境下,即便大間距雙鏡頭做出的數字虛化也還遠遠做不到以假亂真。

↑:本人實拍的榮耀8樣張,環境相對簡單的情況下淺景深效果就自然的多。放這圖的用意是說在簡單環境下,非全職做虛化的小間距黑白/彩色鏡頭,也能做出還算可以的效果。(不過實際上仍有瑕疵,近處的iPhone攝像頭那個角實際離鏡頭是比後方藍色桌布近的,但機器把兩者做成了一樣的模糊程度。可能大多數朋友看不出端倪,但只要你稍微接觸下單反接觸下攝影就不難察覺到異樣。)

以華為和360為代表的黑白/彩色組合,雖然在原理上的確具備單攝像頭無法比擬的優勢,但其實際處境可謂微妙。P9和榮耀8都沒拿下今年旗艦機上本應標配的光學防抖,雖說雙攝像頭中的黑白鏡頭理論上可以用更快的快門速度做補償,但顯然這個速度彩色鏡頭就無法跟上。而雙鏡圖像的合成需要兩個鏡頭拍出的影像儘可能相同,除非拍攝畫面中的全部物體完全靜止,否則兩鏡快門速度必須一致才能保證拍出的畫面一致。同樣的道理,拍攝時兩邊的光圈參數也必須一致,那麼黑白鏡頭唯一的途徑只能是其ISO感光度可以降得更低,同彩色圖像合成後的畫面純凈度可以更好。所以就如前文所說,P9沒有防抖只是理論上的可接受,實際上藉助雙攝像頭的確能獲得更低的噪點水平、更純凈的畫面提升暗光表現,但對於此時可能的畫面抖動依然無能為力。另一方面,儘管華為和360已經儘可能把兩顆鏡頭緊貼在一起,但中間的間隔依然足以導致拍攝中近物體時兩鏡頭的成像差別,這就進一步把雙攝像頭的適用場景向中遠距離拍攝擠壓。


不同焦段鏡頭的組合從LG G5開始,但G5的超廣角+小廣角(手機鏡頭傳統焦段)組合不如後來者iPhone 7 Plus合理。G5添加的超廣角鏡頭拍攝視角達到了135°,換算成等效焦距大概是11-12mm,單反慣用的所謂「大三元」中那隻廣角鏡的最廣焦距也就是14-16mm,G5這顆鏡頭已經接近魚眼的範疇。在G5樣張中也很容易看到廣角鏡頭拍攝圖像有著十分嚴重的邊緣畸變,並且還不是大家印象中魚眼鏡頭那種由畫面中心到四周均勻的光學性畸變,而是中間大部分畫面正常而四周部分跳躍性的出現畸變,這樣的成像品質很難不讓人懷疑這顆鏡頭是被強行「超廣角」的玩票做法。

↑:LG G5樣片,跑道可以看出橫向上明顯的不規則畸變(圖片來自數字尾巴http://Dgtle.com文章:引領模塊化風潮,LG G5 深度體驗)

↑:一直典型超廣角魚眼頭佳能EF 8-15mm F4L樣片,和上圖對比一下光學畸變的樣式(圖片來自泡泡網文章:魚眼幻想曲 佳能EF 8-15mm/f4L體驗記)

當然這裡討論的是不同的鏡頭組合方式,而不是單評價某一台機器。忽略掉G5這顆超廣角鏡頭的光學品質問題,也不再細究其偏低的像素,超廣角這個思路用在手機上即便不說是不合適,也至少是不那麼迫切的需求。手機鏡頭的焦距一直以來不為普通消費者關注,除了極少數光學變焦機型(典型如諾基亞N93)和主打大廣角自拍的機型,絕大多數搭載的都是28-35mm的小廣角鏡頭。這正是因為對大多數人來說,過於寬廣的拍攝範圍除了集體自拍時以外適用場景甚少。而對於真正有大廣角需求的少數攝影愛好者,G5這顆廣角鏡一來素質不佳,感測器舊像素低畸變嚴重,二來越過了14-16mm的經典超廣角焦段,135°的範圍過大而實用性不足,同樣無法得到滿足。

即便G5換上一顆素質過關的14mm鏡頭,對它有需求的人群同樣太少。對大部分人而言普通手機上的那顆小廣角已經足夠「廣」,或者說,拍攝視角不夠廣算不上什麼亟待解決的痛點。

對於手機上常規化的小廣角鏡頭,更好的補充是更長的焦段而不是更廣。


假如你是一名在校學生或者上班白領,應該不難回憶起一幕幕整個教室或會場舉起手機拍黑板拍幻燈的場面。


一直以來絕大多手機對於變焦——或者說遠距離拍攝——的需求,都是通過嚴重壓縮畫質的數碼變焦來完成。經過近些年的普及越來越多人也意識到,數碼變焦實質上和在未變焦的原圖像上裁剪出中間一塊畫面沒什麼卵區別。而不直接損害畫質的光學變焦在手機上則是常年的水土不服,早年的N93可以說是屈指可數的主流選手。(圖片來自網路,太久遠了)

三星從S60平台耕耘至安卓時代,卻因為傳統的變焦結構導致機身過於厚重,始終逃不過非主流的極小眾地位。最近的一款Galaxy K Zoom,10倍光變使得厚度達到了16.4mm,要知道這是在2014年:↓

(圖片來源IT168:http://dc.it168.com/tu/1639646.shtml)

諾基亞在攝影方面的巔峰PureView技術則另闢蹊徑,通過把未變焦的原圖像做的足夠大(著名的4000萬像素),來實現中間裁剪出的「變焦」後畫面依然能有可用的清晰度和像素大小(8倍變焦後仍有500萬像素)。但PureView技術依賴於比一般手機大得多的多、接近單反大小的CMOS感測器作為配置基礎,成本比起雙攝像頭還要高得多。另外大尺寸的CMOS感測器也影響了機身的小型化,現有的技術條件下,若要搭載PureView技術基本不可能把機身厚度做到當前主流水準。(808 PureView就不放圖了,廣為人知)

華碩在2015年搞出了3倍光變的ZenFone Zoom手機,通過巧妙的類似早年索尼T系列卡片相機的潛望鏡結構,把鏡頭光路從垂直於機身(屏幕所在平面)轉為平行於機身,機身厚度從三星同類產品的20mm左右濃縮到11.5mm。但是相比起主流的7-8mm,這個厚度依然不是人們甘願為光學變焦而妥協的。而潛望鏡結構又意味著機身的厚度取決於鏡片直徑,11.5mm的水平已經接近極限了,很難有進一步向主流厚度靠攏的餘地。iPhone 7 Plus之前廠商們關於手機鏡頭光學變焦的嘗試,除去面世於對體積不甚敏感時代的N93,基本都淪為了流於存在感的非主流作品。

雙攝像頭的哲學基礎,是把原本要求縱向空間的光學體系,在橫向空間寬裕的機身平面上鋪開。現今手機厚度已經不可逆轉的向7mm甚至更薄發展,但橫向看機背上與屏幕平行的平面的空間是足夠的。說白了,比起把鏡頭做得不突出機身,在機背上多放幾個鏡頭明顯要更容易。

在G5上LG先是錯誤的把超廣角作為雙鏡頭中添加的「another one」,又因為技術和成本的限制為超廣角選了一枚素質不佳的攝像頭組件。對於一般手機上配備的等效28mm左右小廣角鏡頭,焦距更長的中長焦相比焦距更短的超廣角來說是更加實用的補充。例如前面所說經常會遇到的開會做記錄,擁有一支焦距更長的鏡頭能夠自如許多。而對同樣應用頻繁的肖像拍攝,由於視角更窄,焦段更長的鏡頭可以更好的處理背景與人物間的透視關係。若是結合後期的機內虛化功能還能提供更優化的人像效果,iPhone 7 Plus長焦鏡頭焦距大約56mm,也正接近單反鏡頭群中典型的人像焦段60-90mm。

當然iPhone 7 Plus上那支長焦鏡也還有著這樣那樣的問題,諸如最大光圈只有f/2.8而主鏡頭卻已達f/1.8,與主鏡頭不同長焦鏡缺少光學防抖等等,不過硬體搭配方式適當依然是優勢所在。也許你用不上G5那支畸變嚴重的超廣角,看不出P9黑白彩色合成後有什麼出彩,對目前不少機器做出的所謂「單反級虛化」的實際效果嗤之以鼻,但長焦鏡頭帶來的拉近視野卻是實實在在用得上的。


說點閑話,在鏡頭縱向發展以至於屢屢凸起的情況下,代之以在機背上平鋪發展來提高攝影功能才是出路。已經有不少分析文章指出雙攝像頭很可能只是一個開始,三個、四個攝像頭在可見的未來並不是什麼新鮮事。問題是增加的攝像頭數量務必要帶來可觀的功能和提升,而不是單純「為了多攝像頭而多攝像頭」的強行塞給市場,就像當年山寨機上層出不窮的那些花哨功能。

未來的智能手機依然會繼續向著真正「媲美單反」(而不是現在的嘴上功夫)的方向邁進,在不考慮其他功能組件的情況下,如今動輒5到6寸屏幕的手機在體積上是放得下足夠大的CMOS感光元件的,但更大的CMOS就需要更大尺寸的鏡頭,鏡頭的縱向尺寸隨之增加便會使厚度難以接受。單反和微單具備龐大的可換鏡頭群優勢,對於不同場景可以用不同特性的鏡頭來應對,不像手機只能裝一個適用情況相對廣泛的小廣角鏡頭。手機的厚度限制使得現階段任何類消費DC式的伸縮變焦變得不可用,iPhone 7 Plus和LG G5那樣的多焦段組合更加符合工程上的要求。未來的多攝像頭技術,除了現在老生常談卻始終然並卵的合成背景虛化,在畫質提升上可以通過多個相同焦距鏡頭和手機尺寸CMOS感光器的攝像頭模塊組成矩陣,生成等效於一塊大面積CMOS的畫質水平;在功能上可以通過不同焦段模塊組合,獲得從廣角至標準焦距再至長焦的從廣及窄、從近及遠的全焦段體驗。這兩種猜想只是一時開的無責腦洞,卻已經可以看出,平鋪在手機背面的多個攝像頭通過不同的組合、更新的技術,所能達到的高度是有著巨大空間的。當然不可忽視的是,多攝像頭對空間的佔用也必然會導致不同零件之間對機內資源的競爭。僅就目下所想到,多焦段的特性化與大尺寸CMOS的品質化,誰知道它們不會被同時實現呢。


1.iPhone 7p
主要功能為zoom in,一顆camera為長焦距窄視角,另外一顆camera為短焦距寬視角,兩顆搭配實現光學變焦功能,兩顆攝像頭的視角中心要盡量靠近,所以擺放位置要盡量靠近。zoom放大時,視角重合區域從短焦鏡頭切換到長焦鏡頭以放大被拍攝物體並保證清晰度,視角不重合的區域做圖像融合來保證清晰度。另外,視角重合區域可以獲取景深信息,用於做背景虛化和智能摳圖,但是,兩顆camera擺放位置比較近,進而導致景深範圍較淺,比較雞肋,蘋果可能是用軟體方式實現,目前沒有拿到真機,不好判斷。
2.華為p9
主要功能為提升感光度,一顆camera為常規RGB bayer patten,另外一顆為不區分色彩的mono patten,mono的感光度比RGB的高很多,但只能接收亮度信息而不能區分顏色。兩顆搭配起來做圖像合成,可以提升夜拍效果,提亮降噪。另外,理論上這種雙攝也可以獲取到時間內的景深信息,做背景虛化和摳圖,但是做圖像合成需要大部分視角重合,所以兩顆camera擺放位置比較近,進而導致景深範圍較淺,比較雞肋,華為沒有通過硬體做該功能,採用軟體模擬虛化。
3.紅米pro,360,HTC,中興等沒關注具體機型,手機寫答案不太方便,查到信息後再寫


剩下還有幾種雙攝,雙RGB提升夜拍,廣角搭配常規視角做ZOOM out,高像素搭配低像素獲取景深信息用於背景虛化和摳圖,上述機型不外乎這幾種。

談未來發展趨勢,ZOOM in因為iPhone7的原因會比較流行,但是今後是否會成為標配有待驗證。雙攝對於單攝的優勢可分為兩類,其一,增強拍攝效果,如增強感光度提升夜拍。其二,增加其他功能,如背景虛化和摳圖以及變焦。目前看來,上述幾種雙攝能實現的功能未必不能通過單攝完成,而手機終究是要向便攜這個大方向發展的,所以雙攝不一定會成為趨勢。個人看法為,提升感光度的根本還是大PIXEL或者新材料,基於景深信息完成的功能理論上也可以通過單攝完成,其他功能是否有必要存在需要參考消費者的實際拍照訴求了。關於未來,我很看好Dual PD。


我用過g17,你們都是我師弟。


我用最最最簡單的答案給大家說清楚!

到現在為止所有的雙鏡頭的工作根本上都是一樣的,分兩步

第一步,拍兩張照片!
第二步,PS一下,得到合成的特殊照片。

--------------------下面這部分都不用看直接看結論------------------------------

具體來說,在第一部上,各家不同,有的是用兩個鏡頭拍兩張圖片,中間過程PS,模擬變焦,有的是兩個鏡頭的圖片合成起來更清晰,更好看,還有的是兩個鏡頭分工,一個感光,一個調顏色。
雖然各家不同,但是說到底就是用兩張照片的信息合成一張更好的照片而已。

所以兩張圖片合成的技術就比較關鍵,也就是各家的PS能力不同。這個PS其實比較高級,他們叫「演算法」,真正考驗各家技術的就是這個演算法。比如蘋果7雙攝的人像模式其實類似於PS裡面的摳圖+背景虛化(還沒我自己PS的好呢),依靠底層演算法完成的;有的是把另一張圖片里拍的好的部分合成到一個照片里。還有的是只用相機的景深信息做PS,還有利用曝光的白像素讓圖片變亮的。

總體來說,從我個人,作為一個噴子的角度,用四個字來形容到目前為止所有的雙攝方案:
----------------------------這裡是結論-----------------------------


卵用沒有


第一個派係為榮耀6 Plus上面的雙攝像頭,其採用了平行設計,兩個攝像頭硬體規格一模一樣,共同合作發揮作用。這種雙攝像頭可以共同參與成像,並且拍照時進光量與感光面積是單鏡頭的2倍,假若後置兩顆800萬的鏡頭,成像解析度可以達到1300萬像素,有效像素尺寸提升到1.98um,成像質量可以與多數家用數碼相機媲美
 不過不要以為這種看似直接放兩個同樣的鏡頭就可以做到的事情簡單,實際上其背後也要有強大的技術支持,不僅要開創獨特的演算法保證兩個攝像頭的對焦和深度信息問題,還要解決雙攝像頭的擺放問題。因為每一個攝像頭都有一定的取景範圍,必須保證兩個攝像頭的取景視野不會重疊,而且當前的手機技術,並不能將兩枚攝像頭做到像人眼一樣真正平行,所以目前僅能將兩枚攝像頭取景交錯角縮小到θ=0.1,再通過演算法讓合成的照片不至於出現疊影。這種雙攝像頭的擺放問題就導致了這類雙攝像頭的缺陷,如果在日常使用中出現意外導致兩個攝像頭的擺放位置出現位移,那麼內置的演算法就難以再對攝入的照片進行優化,因此搭載這類雙攝像頭的手機一般都需要強硬的外殼支撐,避免雙攝像頭位置發生錯位。 第二個派系是360奇酷旗艦版派系,後置的主副攝像頭分別採用了索尼IMX278與經過特別定製的索尼IMX MONO兩種鏡頭,同為1300萬像素但工作原理不同於同像素平行雙攝像頭,兩個鏡頭前者為彩色攝像頭,而後者為黑白攝像頭,在兩者的共同作用下,提升成像質量。這種彩色+黑白夜視智慧雙攝像頭,可以說是手機拍攝性能的一次革命,因為這種雙攝像頭可以很好的處理目前絕大多數攝像頭都難以處理的夜拍情況,這種鏡頭在夜拍狀態下表現非常優秀。通過將兩顆鏡頭拍攝的相片合成,來實現暗光下亮度提升2倍、噪點降低95%的效果。在室外環境當中測試時,同樣可以看到360奇酷旗艦版選用了更高的ISO值,而在天橋底下的位置可以看到,純凈度上面一樣優於蘋果iPhone 6s,雖然前者有一定塗抹感,但噪點少於iPhone 6s,看來彩色+黑白夜視雙攝像頭在控噪能力上面確實有自己的優勢。這種雙攝像頭在面對多數的拍攝場景下,只啟用主攝像頭即可,而在弱光環境下,啟用副攝像頭可以提升畫面的純凈度。此外這種雙攝像頭還提升了對焦速度,其利用雙攝像頭和對焦物體之間的三角測距原理,在閉環對焦馬達的協助下可以實現較高的對焦速度。 第三個派系是HTC M8開始出現的雙攝像頭,這兩個攝像頭有主副之分,主攝像頭負責成像,而副攝像頭負責測量景深數 這種雙攝像頭採用類似微軟的Light Coding技術。在拍攝時發出近紅外線的連續光可以進行對空間的測量和編碼,然後再通過感應器讀取編碼,再解碼後可以拍攝完成不同景深的圖像。這類攝像頭的優勢在於即使我們沒有攝影基礎,我們也可以通過這類攝像頭強大的感測器和處理器拍攝出有明顯景深效果的照片。 這類雙攝像頭還有一大特色就是先拍照再聚焦,即先將場景拍照下來,在根據需求對焦選圖。這個功能的學名應該叫光場相機。其原理大概是通過記錄整個光場內每一條光線的顏色強度角度,形成一個3D光線矩陣,輸出照片時只要取某一個平面上成像。不過缺陷是由於光線攝入量過多,導致單個文件巨大。
目前市面上存在的雙攝像頭種類大概是這三類


推薦閱讀:

iPhone7p掉漆磨砂黑掉漆成這個樣子該怎麼辦?
購買iPhone 7plus(128G)好還是iPhone 8(64G)好呢?
如何評價FView的《iPhone 7 &Plus消費者報告》?
你們的iphone7/plus都摔成什麼樣子了?
iPhone 7 /iPhone7 plus 實際使用體驗如何?

TAG:華為手機 | 小米手機 | 手機攝像頭 | iPhone7Plus |